云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      网站安全监测_相关内容
      • 修改OMS服务配置参数
        本章节主要介绍翼MapReduce的修改OMS服务配置参数操作。 操作场景 根据用户环境的安全要求,管理员可以在FusionInsight Manager修改OMS中Kerberos与LDAP配置。 对系统的影响 修改OMS的服务配置参数后,需要重启对应的OMS模块,此时FusionInsight Manager将无法正常使用。 操作步骤 修改okerberos配置 1. 登录FusionInsight Manager,选择“系统 > OMS”。 2. 在okerberos所在行,单击“修改配置”。 3. 根据下表所示的说明修改参数。 okerberos参数配置一览表 参数名 说明 连接KDC最大时延(毫秒) 应用连接到Kerberos的超时时间,单位为毫秒,请填写整数值。 最大尝试次数 应用连接到Kerberos的最大重试次数,请填写整数值。 操作Ldap最大时延(毫秒) Kerberos连接LDAP的超时时间,单位为毫秒。 搜索Ldap最大时延(毫秒) Kerberos在LDAP查询用户信息的超时时间,单位为毫秒。 Kadmin监听端口 kadmin服务的端口。 KDC监听端口 kinit服务的端口。 Kpasswd监听端口 kpasswd服务的端口。 4. 单击“确定”。 在弹出窗口输入当前登录用户密码验证身份,单击“确定”,在确认重启的对话框中单击“确定”。 修改oldap配置 5. 在oldap所在行,单击“修改配置”。 6. 根据下表所示的说明修改参数。 oldap参数配置一览表 参数名 说明 Ldap服务监听端口 LDAP服务端口号。 7. 单击“确定”。 在弹出窗口输入当前登录用户密码验证身份,单击“确定”,在确认重启的对话框中单击“确定”。 说明 如果重置LDAP帐户口令需要重启ACS,操作步骤如下: 使用PuTTY,以omm用户登录主管理节点,执行以下命令更新域配置: sh ${BIGDATAHOME}/omserver/om/sbin/restartRealmConfig.sh复制 提示以下信息表示命令执行成功: Modify realm successfully. Use the new password to log into FusionInsight again.复制 执行 sh $CONTROLLERHOME/sbin/acscmd.sh stop ,停止ACS。 执行 sh $CONTROLLERHOME/sbin/acscmd.sh start ,启动ACS。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        OMS管理
        修改OMS服务配置参数
      • 入服与退服实例
        本章节主要介绍翼MapReduce的入服与退服实例操作。 操作场景 部分角色实例以分布式并行工作的方式对外部业务提供服务,服务会单独保存每个实例是否可以使用的信息,所以需要使用FusionInsight Manager为这些实例执行入服或退服的操作,变更实例的业务可用状态方式。 不支持该此功能的实例,默认无法执行任务。 说明 当前支持退服和入服操作的角色有:HDFS的DataNode、Yarn的NodeManager、HBase的RegionServer。 当DataNode数量少于或等于HDFS的副本数时,不能执行退服操作。若HDFS副本数为3时,则系统中少于4个DataNode,将无法执行退服,Manager在执行退服操作时会等待30分钟后报错并退出执行。 由于Mapreduce任务执行时,会生成一些副本数为10的文件,此时若DataNode实例数少于10时,将无法进行退服操作。 如果退服前,DataNode节点的机架数(机架数由各DataNode节点所配置的“机架”的名称数量决定)大于1;而退服部分DataNode后,剩余的DataNode节点的机架数变为1,则此次退服将会失败。所以需要在退服前评估退服操作对机架数的影响,以调整退服的DataNode节点。 在退服多个DataNode时,如果每个DataNode存储的数据量较大,如果执行选择多个DataNode同时退服,则很有可能会因超时而退服失败。为了避免这种情况,建议每次退服仅退服1个DataNode,进行多次退服操作。 操作步骤 1. DataNode节点退服前需要进行健康检查,步骤如下: 使用客户端用户登录客户端安装节点,并切换到客户端安装目录。 如果是安全集群,需要使用hdfs用户进行权限认证。 source bigdataenv
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理实例
        入服与退服实例
      • 通过公网连接副本集实例
        本文主要介绍 通过公网连接副本集实例 操作场景 本章节指导您使用MongoDB客户端和Robo 3T工具,通过公网连接副本集实例。 用户可以直接操作副本集主节点和备节点。主节点用于读写请求,您可以连接主节点对数据进行读写操作。备节点复制主节点数据,用于读请求,连接备节点仅可读取数据。 操作系统使用场景: 弹性云主机的操作系统以Linux为例,客户端本地使用的计算机系统以Windows为例。 前提条件 副本集实例绑定弹性公网IP,并设置安全组规则,确保可以通过弹性云主机或Robo 3T工具访问弹性IP。 安装MongoDB客户端或Robo 3T工具。 MongoDB客户端 创建并登录弹性云主机,请参见《弹性云主机用户指南》的内容。 在弹性云主机上,安装MongoDB客户端。 使用Robo 3T工具连接实例 步骤 1 打开Robo 3T工具,在连接信息页面,单击“Create”。 连接信息(非SSL方式) 在弹出的“Connection Settings”窗口,设置新建连接的参数。 在“Connection”页签,“Name”填写自定义的新建连接的名称,“Address”填写副本集实例绑定的弹性IP和实例的数据库端口。 Connection(非SSL方式) 在“Authentication”页签,“Database”填写admin,“User Name”填写rwuser,“Password”填写您创建副本集实例时设置的管理员密码。 Authentication(非SSL方式) 设置完成后,单击“Save”。 在连接信息页面,单击“Connect”,开始连接副本集实例。 副本集实例连接信息(非SSL方式) 成功连接副本集实例,工具界面显示如下图所示。 连接成功(非SSL方式)
        来自:
        帮助文档
        文档数据库服务
        快速入门
        副本集快速入门
        通过公网连接副本集实例
        通过公网连接副本集实例
      • 权限管理
        创建用户并授权使用云监控服务 如果您需要对您所拥有的云监控服务进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),通过IAM,您可以: 根据企业的业务组织,在您的账号中,给企业中不同职能部门的员工创建IAM用户,让员工拥有唯一安全凭证,并使用云监控服务。 根据企业用户的职能,设置不同的访问权限,以达到用户之间的权限隔离。 将云监控服务的相关操作委托给更专业、高效的其他账号或者云服务,这些账号或者云服务可以根据权限进行代运维。 如果账号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用云监控服务的其它功能。 前提条件 给用户组授权之前,请您了解用户组可以添加的云监控服务系统策略,并结合实际需求进行选择。 示例流程 图 给用户授权CES权限流程 1. 创建用户组并授权,在IAM控制台创建用户组,并授予云监控服务权限“CES Administrator”、“Tenant Guest”和“Server Administrator”。 说明 云监控服务是区域级别的服务,通过物理区域划分,授权后只在授权区域生效,如果需要所有区域都生效,则所有区域都需要进行授权操作。针对全局设置的权限不会生效。 以上权限为云监控服务的全部权限,如您期望更精细化的云监控服务功能的权限,请参见云监控权限管理介绍,对用户组授予对应权限。 2. 在IAM控制台创建用户,并将其加入步骤1中创建的用户组。 3. 用户登录并验证权限,新创建的用户登录云监控服务管理控制台,验证云监控服务的“CES Administrator”权限:使用相关功能过程中,如果没有出现用户鉴权失败的提示信息,表示用户授权成功。
        来自:
        帮助文档
        云监控服务
        产品简介
        权限管理
      • 配置OBS目的端参数
        本章节主要介绍配置OBS目的端参数。 作业中目的连接为配置OBS连接时,即导入数据到云服务OBS时,目的端作业参数如下表所示。 高级属性里的参数为可选参数,默认隐藏,单击界面上的“显示高级属性”后显示。 表 OBS作为目的端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 桶名 写入数据的OBS桶名。 bucket2 基本参数 写入目录 写入数据到OBS服务器的目录,目录前面不加“/”。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 directory/ 基本参数 文件格式 写入后的文件格式,可选择以下文件格式: CSV格式:按CSV格式写入,适用于数据表到文件的迁移。 二进制格式:选择“二进制格式”时不解析文件内容直接传输,CDM会原样写入文件,不改变原始文件格式,适用于文件到文件的迁移。 如果是文件类数据源(FTP/SFTP/HDFS/OBS)之间相互迁移数据,此处的“文件格式”只能选择与源端的文件格式一致。 CSV格式 基本参数 重复文件处理方式 只有文件名和文件大小都相同才会判定为重复文件。写入时如果出现文件重复,可选择如下处理方式: 替换重复文件 跳过重复文件 停止任务 跳过重复文件 高级属性 加密方式 选择是否对上传的数据进行加密,以及加密方式: 无:不加密,直接写入数据。 KMS:使用数据加密服务中的KMS进行加密。如果启用KMS加密则无法进行数据的MD5校验。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 KMS 高级属性 KMS ID 写入文件时加密使用的密钥,“加密方式”选择“KMS”时显示该参数。单击输入框后面的,可以直接选择在数据加密服务中已创建好的KMS密钥。 当使用与CDM集群相同项目下的KMS密钥时,不需要修改下面的“项目ID”参数。 当用户使用其它项目下的KMS密钥时,需要修改下面的“项目ID”参数。 53440ccb3e73470098b571ff5476e621 高级属性 项目ID KMS ID所属的项目ID,该参数默认值为当前CDM集群所属的项目ID。 当“KMS ID”与CDM集群在同一个项目下时,这里的“项目ID”保持默认即可。 当“KMS ID”使用的是其它项目下的KMS ID时,这里需要修改为KMS所属的项目ID。 9bd7c4bd54e5417198f9591bef07ae67 高级属性 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成。 请您牢记这里配置的“数据加密密钥”,解密时的密钥与这里配置的必须一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 高级属性 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成。 请您牢记这里配置的“初始化向量”,解密时的初始化向量与这里配置的必须一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F 高级属性 复制ContentType属性 “文件格式”为“二进制”,且源端、目的端都为对象存储时,才有该参数。 选择“是”后,迁移对象文件时会复制源文件的ContentType属性,主要用于静态网站的迁移场景。 归档存储的桶不支持设置ContentType属性,所以如果开启了该参数,目的端选择写入的桶时,必须选择非归档存储的桶。 否 高级属性 换行符 文件中的换行符,默认自动识别“n”、“r”或“rn”。“文件格式”为“二进制格式”时该参数值无效。 n 高级属性 字段分隔符 文件中的字段分隔符。“文件格式”为“二进制格式”时该参数值无效。 , 高级属性 写入文件大小 源端为数据库时该参数才显示,支持按大小分成多个文件存储,避免导出的文件过大,单位为MB。 1024 高级属性 校验MD5值 使用“二进制格式”传输文件时,才能校验MD5值。选择校验MD5值时,无法使用KMS加密。 计算源文件的MD5值,并与OBS返回的MD5值进行校验。如果源端已经存在MD5文件,则直接读取源端的MD5文件与OBS返回的MD5值进行校验。 是 高级属性 记录校验结果 当选择校验MD5值时,可以选择是否记录校验结果。 是 高级属性 校验结果写入连接 可以指定任意一个OBS连接,将MD5校验结果写入该连接的桶下。 obslink 高级属性 OBS桶 写入MD5校验结果的OBS桶。 cdm05 高级属性 写入目录 写入MD5校验结果的目录。 /md5/ 高级属性 编码类型 文件编码类型,例如:“UTF8”或“GBK”。“文件格式”为“二进制格式”时该参数值无效。 GBK 高级属性 使用包围符 “文件格式”为“CSV格式”,才有该参数,用于将数据库的表迁移到文件系统的场景。 选择“是”时,如果源端数据表中的某一个字段内容包含字段分隔符或换行符,写入目的端时CDM会使用双引号(")作为包围符将该字段内容括起来,作为一个整体存储,避免其中的字段分隔符误将一个字段分隔成两个,或者换行符误将字段换行。例如:数据库中某字段为hello,world,使用包围符后,导出到CSV文件的时候数据为"hello,world"。 否 高级属性 首行为标题行 从关系型数据库导出数据到OBS,“文件格式”为“CSV格式”时,才有该参数。 在迁移表到CSV文件时,CDM默认是不迁移表的标题行,如果该参数选择“是”,CDM在才会将表的标题行数据写入文件。 否 高级属性 作业成功标识文件 当作业执行成功时,会在写入目录下生成一个标识文件,文件名由用户指定。不指定时默认关闭该功能。 finish.txt 高级属性 自定义目录层次 选择“是”时,支持迁移后的文件按照自定义的目录存储。即只迁移文件,不迁移文件所归属的目录。 是 高级属性 目录层次 自定义迁移后文件的存储路径,支持时间宏变量。 ${dateformat(yyyyMMdd HH:mm:ss, 1, DAY)} 高级属性 自定义文件名 从关系型数据库导出数据到OBS,且“文件格式”为“CSV格式”时,才有该参数。 用户可以通过该参数自定义OBS端生成的文件名,支持以下自定义方式: 字符串,支持特殊字符。例如“cdm
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置OBS目的端参数
      • HTTP2.0配置
        本文简述HTTP2.0的定义和配置方法。 功能介绍 HTTP 2.0相对于HTTP 1.1新增了二进制格式传输、HTTP头部压缩、多路复用、服务端推送等特性,优化了请求传输性能,兼容了HTTP 1.1的语法。 HTTP2.0的优势: 采用二进制格式传输数据,而非 HTTP1.1 的文本格式,二进制格式在协议的解析和优化扩展上带来更多的优势。 对消息头采用 HPACK 进行压缩传输,能够节省消息头占用的网络的流量,而 HTTP1.1 每次请求,都会携带大量冗余头信息,浪费了很多带宽资源,头压缩能够很好的解决该问题。 多路复用,就是多个请求都是通过一个 TCP 连接并发完成,HTTP1.1 虽然通过pipeline也能并发请求,但是多个请求之间的响应会被阻塞,所以 pipeline 至今也没有被普及应用,而 HTTP2.0做到了真正的并发请求,同时,流还支持优先级和流量控制。 服务端推送,服务端能够更快的把资源推送给客户端,例如服务端可以主动把 JS 和 CSS 文件推送给客户端,而不需要客户端解析 HTML 再发送这些请求,当客户端需要的时候,它已经在客户端了。 注意事项 开启HTTP2.0前,需勾选请求协议中的HTTPS,并关联有效证书。 配置说明 1. 登录边缘安全加速平台控制台。 2. 在域名基础配置页面,点击目标域名。 3. 进入HTTPS配置页面,单击“编辑配置”。 4. 单击右侧【请求协议】,勾选【请求协议】中的【HTTPS】。 5. 单击右侧【HTTPS配置】,选择域名对应的【证书】。如果已经在【证书管理】上传证书,可直接选择对应域名证书。如果还未上传证书,可单击【点击上传】,添加证书。添加完毕后,再选择对应证书,如未找到目标证书,可点击右侧的刷新按钮刷新后再重新选择。 6. 开启【HTTP2.0】功能,配置完毕单击【保存】。 参数 说明 HTTP2.0 默认关闭,即不开启HTTP2.0功能。开启HTTP2.0功能之前,需要先完成HTTPS证书配置。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        HTTPS相关配置
        HTTP2.0配置
      • 评估迁移时间与测试传输速度
        本文为您介绍如何评估迁移任务时间及测试传输速度。 介绍说明 迁移时长总数据量÷(带宽大小/8)1.25。 1.25为时间冗余量;由于云主机性能瓶颈、存在大文件改动多、小文件多等情况,可能存在无法跑满带宽与保持高速率传输,留存冗余,避免由于时间预估导致项目仓促;可根据情况自由调整误差系数。 说明 数据量与带宽单位需统一(GB/MB)。 数据量单位为Byte。 带宽单位(K/M/Gbps)。 iperf3测试结果bandwidth单位(Gbits/sec)等同于带宽Gbps,千兆比特每秒。 迁移带宽以迁移源出口带宽、目的端入口带宽、CMS平台中限制带宽中最小带宽为准。 操作步骤 若需要较为严格的时间预估建议通过软件进行测试: 1. 根据源端云主机的OS类型下载对应iperf版本。 2. 在源端云主机和目的端云主机(或者目的端云主机同一Region下的其他弹性云云主机)某一个目录下解压iperf工具。例如在Windows操作系统的iperf工具: 3. 在目的端云主机上,以命令行方式运行iperf(服务端模式运行,以Windows操作系统为例): 执行以下命令,进入iperf目录。 cd /d path 其中,path指步骤2中iperf工具解压后在目的端云主机中的路径。 执行以下命令,以服务端运行iperf。 iperf3 p port s 其中,port表示iperf工具的服务端监听端口,建议Windows操作系统使用8900端口(8900为目的端云主机使用的数据传输端口),Linux操作系统使用22端口(22为目的端云主机使用的数据传输端口)。您测试的时候也可以使用其他端口,但要保证目的端云主机安全组规则允许开放该TCP或者UDP端口。更多的参数使用说明,请使用iperf h查看。 以Windows操作系统使用8900端口为例,当回显信息为Server listening on 8900时,表明服务端已经运行就绪。 4. 在源端云主机上,以命令行方式运行iperf(客户端模式运行),测试TCP带宽和UDP的抖动、丢包率和带宽(以Windows操作系统为例)。 执行以下命令,进入iperf目录 cd /d path 其中,path指步骤2中iperf工具解压后在源端云主机中的路径。 执行以下命令,运行iperf工具,测试TCP带宽。 iperf3 c targetIP p port t time 其中,c是客户端模式运行。 targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 port表示连接目的端云主机的端口(即3.b中 iperf监听端口)。 time表示测试总时间,默认单位为秒。 以Windows操作系统使用8900端口为例,iperf客户端连接到iperf服务端成功后会进行带宽(Bandwidth)测试,测试结束后查看结果即可: 执行以下命令,运行iper测试UDP的抖动、丢包率和带宽。 iperf3 c targetIP p port u t time 其中,u表示测试UDP的抖动、丢包率和带宽。 targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 port表示连接目的端云主机的端口(即3.b中 iperf监听端口)。 time表示测试总时间,默认单位为秒。 以Windows操作系统使用8900端口为例,iperf客户端连接到iperf服务端成功后会测试UDP的抖动(Jitter)、丢包率(Lost/Total Datagrame)和带宽(Bandwidth),测试结束后查看结果即可。 若需要测试网络时延,可以使用ping命令。 ping targetiP targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 需要配置目的端云主机所在的VPC的安全组规则,允许ICMP协议报文通过。 5. 执行以下命令,获取更多的iperf的使用帮助。或者参照官网指导获取相应的使用帮助。 iperf3 h
        来自:
      • 权限管理
        本节主要接受权限管理 通过IAM,您可以在云帐号中给员工创建IAM用户,并使用策略来控制他们对云资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有ServiceStage的使用权限,但是不希望他们拥有删除等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用ServiceStage,但是不允许删除的权限策略,控制他们对ServiceStage资源的使用范围。 如果云帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用ServiceStage服务的其它功能。 IAM是云服务提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。关于IAM的详细介绍,请参见帮助中心 > 统一身份认证服务 > 用户指南 > 产品简介。 ServiceStage权限 默认情况下,新建的IAM用户没有任何权限,您需要将其加入用户组,并给用户组授予策略,才能使得用户组中的用户获得策略定义的权限,这一过程称为授权。授权后,用户就可以基于策略对云服务进行操作。 ServiceStage资源通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问ServiceStage时,需要先切换至授权区域。 根据授权精细程度分为角色和策略: 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于各云服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。 如下表所示,包括了ServiceStage的所有系统权限。推荐使用系统策略,系统角色仅用于兼容已有的权限配置。 表 ServiceStage系统权限说明 系统角色/策略名称 描述 类别 依赖系统权限 ServiceStage FullAccess 微服务云应用平台所有权限。 系统策略 无 ServiceStage ReadOnlyAccess 微服务云应用平台只读权限。 系统策略 无 ServiceStage Developer 微服务云应用平台开发者权限。 拥有应用、组件、环境的操作权限,但无基础设施创建权限。 系统策略 无 CSE Admin 微服务引擎服务管理员权限。 系统策略 无 CSE Viewer 微服务引擎服务查看权限。 系统策略 无 ServiceStage Admin 微服务云应用平台管理员,拥有该服务下的所有权限。 系统角色 CCE Administrator、VPC Administrator、SWR Administrator和OBS Administrator。 ServiceStage Operator 微服务云应用平台操作员,拥有该服务下的只读权限。 系统角色 CCE Administrator、VPC Administrator、SWR Administrator和OBS Administrator。 ServiceStage Developer 微服务云应用平台开发者,拥有该服务下的所有权限。 系统角色 CCE Administrator、VPC Administrator、SWR Administrator和OBS Administrator。 如果所列的这些权限不满足实际需求,您可以参考下表,在这个基础上自定义策略。 表 ServiceStage常用操作与系统权限之间的关系 操作 ServiceStage ReadOnlyAccess ServiceStage Developer ServiceStage FullAccess 创建应用 x √ √ 修改应用 x √ √ 查询应用 √ √ √ 删除应用 x √ √ 创建组件 x √ √ 查询组件 √ √ √ 部署组件 x √ √ 维护组件 x √ √ 删除组件 x √ √ 创建构建工程 x √ √ 修改构建工程 x √ √ 查询构建工程 √ √ √ 启动构建工程 x √ √ 删除构建工程 x √ √ 创建流水线 x √ √ 修改流水线 x √ √ 查询流水线 √ √ √ 启动流水线 x √ √ 克隆流水线 x √ √ 删除流水线 x √ √ 新建仓库授权 x √ √ 修改仓库授权 x √ √ 查询仓库授权 √ √ √ 删除仓库授权 x √ √ 表 CSE常用操作与系统权限之间的关系 操作 CSE Viewer CSE Admin 创建微服务引擎 x √ 维护微服务引擎 x √ 查询微服务引擎 √ √ 删除微服务引擎 x √ 创建微服务 x √ 查询微服务 √ √ 维护微服务 x √ 删除微服务 x √ 创建微服务配置 x √ 查询微服务配置 √ √ 编辑微服务配置 x √ 删除微服务配置 x √ 创建微服务治理策略 x √ 查询微服务治理策略 √ √ 编辑微服务治理策略 x √ 删除微服务治理策略 x √
        来自:
        帮助文档
        微服务云应用平台
        产品简介
        权限管理
      • 购买类
        本章节介绍怎样开通、是否支持升级或降级等。 数据安全中心支持哪些资源池购买? 数据安全中心目前支持广州4、苏州、深圳资源池,其他资源池陆续上线中。 怎样开通数据安全中心? 数据安全中心的开通首先需要注册天翼云官网的账号,通过产品栏目找到数据安全中心,选择相应的版本和扩展包,点击开通,具体开通方法见购买DSC服务。 开通后,访问数据安全中心控制台,在控制台上开始使用天翼云的数据安全中心相关功能。 数据安全中心可以升级或降低版本吗? 可以升级版本,但不支持降低版本。购买了数据安全中心服务后,您可以从较低版本(标准版)的DSC升级到更高版本(专业版),也可以根据需求增加数据库扩展包和OBS扩展包的数量。具体升级办法见规格与版本升级。但数据安全中心不支持降低购买版本的规格。如果您需要降低购买的DSC规格,可以先退订当前的DSC,再重新购买较低版本的DSC。 数据安全中心可以跨区域使用吗? 数据安全中心不支持跨区域使用,即在本Region下购买的数据安全中心版本,只能在该Region下使用。 点击购买为何无法支付,且显示“账户受限”? 此问题为账户余额不足导致,需要您先将购买账户的余额充值,账户余额大于100元即可购买,充值步骤详见账户充值。 该问题正在排期优化中,敬请期待。
        来自:
        帮助文档
        数据安全中心
        常见问题
        购买类
      • 如何修改内网IP、切换VPC
        本文帮助您更快了解如何修改内网IP、切换VPC。 使用场景 当您遇到VPC中的两个实例IP地址冲突,或者在进行网络重构或迁移时,需要调整VPC网络架构、子网划分等,这可能会导致需要修改云主机内网IP或更换VPC。 前提条件 弹性云主机处于关机状态。 只有主网卡支持修改内网IP,必须先删除辅助网卡。 如果网卡绑定了虚拟IP或者DNAT规则,需要先解绑。 如果网卡上有IPv6地址,无法修改(包括IPv4和IPv6的)内网IP地址,请先删除IPv6地址。 如需修改弹性负载均衡后端服务器的内网IP地址,请先移出后端服务器组后再修改内网IP。 如果弹性云主机作为静态路由的下一跳,必须先删除静态路由再修改内网IP。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 依次选择“计算”,单击“弹性云主机”,进入云主机控制台页面。 4. 在云主机列表,选择需要修改内网IP或者更换VPC的弹性云主机,在云主机详情页选择“弹性网卡”页签,点击“修改内网IP”或者“更改VPC”。 5. 在修改内网IP弹框页面或者更换VPC弹框页面,输入相关参数,点击“确定”按钮。 注意 修改内网IP会导致云主机网络中断,同时更改云主机子网、IP地址、MAC地址。 修改内网IP过程中,请勿操作云主机的弹性IP,或对云主机做其他操作。 修改内网IP后,请重新检查配置安全组、ACL、虚拟IP地址等配置。 修改内网IP后,请重新配置网络相关的服务、应用软件,例如虚拟IP、静态路由表、ELB、NAT、DNS等。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        网卡
        如何修改内网IP、切换VPC
      • 基本概念
        本文带您了解云主机备份产品的基本概念。 存储库 存储库是用于存储备份副本的地方。备份服务会将创建的备份副本存储在存储库中,以保障数据的安全存储和高可靠性。您可以根据需要访问存储库,并管理和检索备份数据。 备份策略 备份策略指的是对备份对象执行备份操作时,预先设置的策略。策略包括备份策略的名称、备份任务的调度计划和备份数据的保留策略。其中调度计划包括备份执行的频率和备份执行的时间点,备份数据的保留策略包括备份数据的保存时间或保存数量。通过将云主机绑定到备份策略,可以为云主机执行自动备份。 备份副本 备份副本也可以简称为备份。 备份即一个备份对象执行一次备份任务产生的备份数据。首次备份为全量备份,备份云硬盘的所有数据;后续备份为增量备份,备份自上次备份以来发生变化的数据。备份可以通过一次性备份和周期性备份两种方式产生。一次性备份是指用户通过立即备份创建的一次性备份任务。周期性备份是指用户通过创建备份策略并绑定云主机的方式创建的周期性备份任务。周期性备份的备份名称由系统自动生成。 地域 地域(Region):从地理位置和网络时延维度划分,同一个Region内共享弹性计算、弹性文件服务、VPC网络、弹性公网IP、镜像等公共服务。 可用区 可用区(AZ,Availability Zone):一个AZ是一个或多个物理数据中心的集合,具备独立的风火水电,可用区之间距离100KM以内,一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 每个地域完全独立,不同地域的可用区完全隔离,但同一个地域内的可用区之间使用低时延链路相连。
        来自:
        帮助文档
        云主机备份 CSBS
        产品简介
        基本概念
      • 产品定义
        本文为您介绍对等连接产品的定义。 对等连接(Peer to Peer Connection,CTPPC)是指两个同一区域内的VPC之间的网络连接。用户可以使用私有IP地址在两个VPC之间进行内网通信,就像两个VPC在同一个网络中一样。用户可以在自己帐号的VPC之间创建对等连接,也可以在自己账号的VPC与同一区域内其他帐号的VPC之间创建对等连接。 对等连接创建流程 无论是在同一帐户下还是不同帐户下,只要VPC位于同一个资源池,对等连接就能够为VPC之间的通信提供一种私有、安全且高效的解决方案,来实现资源的共享和数据的流动,满足了不同场景下的通信需求。 同一账户下VPC对等连接的创建流程: 1. 创建对等连接:选择本端VPC和对端VPC。 2. 添加对等连接路由:在本端VPC的路由表中添加指向对端VPC的路由规则,同时在对端VPC的路由表中添加指向本端VPC的路由规则。 3. 验证网络互通情况:确认对等连接已生效后,验证网络互通性。 不同帐户下VPC对等连接的创建流程: 1. 创建对等连接:选择本端VPC和对端VPC。 2. 判断是否接受连接:选择“否”则创建对等连接失败;选择“是”则进入下一步。 3. 添加对等连接路由:在本端VPC的路由表中添加指向对端VPC的路由规则,同时在对端VPC的路由表中添加指向本端VPC的路由规则。 4. 验证网络互通情况:确认对等连接已生效后,验证网络互通性。
        来自:
        帮助文档
        虚拟私有云 VPC
        对等连接
        产品定义
      • 产品功能
        产品功能 功能详情 视图接入 设备接入:支持GB28181/GB35114/GA1400/RTMP/RTSP/EHOME等多种标准协议设备直接接入。 平台接入:支持下级GB28181平台级联接入,支持下级GA1400视图库接入。 网关接入:支持局域网内设备通过边缘网关批量上云,支持主流视频厂商私有SDK协议、Onvif标准协议设备接入。 视图存储 录制模板:支持配置录像存储天数、自动录制、按需录制等。 视频存储:支持视频流实时全量存储,按需存储。 图片存储:支持抓拍机/AI设备等多种设备抓拍上传存储。 存储优势:支持纠删码方式进行分布式存储,具备流直存能力。 视图分发 直播分发协议:支持输出RTMP/FLV/HLS/WebRTC协议。 点播分发协议:支持输出HLS协议,MP4录像文件下载。 视频共享:支持向上级GB/T28181平台共享设备视频数据,支持向上级GA/T 1400视图库共享图片数据。 视图分析 算法仓库:支持算法仓库管理,高效的GPU算力资源调度、算法编排,算法与设备灵活绑定。 场景API:支持人脸识别、人体属性检测、车牌识别、城市治理多场景API。 告警回调:支持将分析结果通过回调配置,同步给其他平台。 访问管理 访问控制:管理员可以根据用户职责,创建不同的IAM用户并分配不同的访问权限,包括分配不同的设备访问资源和设备操作权限。 跨账号资源访问:支持委托信任的天翼云账号安全共享设备资源,支持灵活分配共享的资源权限范围。 开放平台 具备OpenAPI接口:平台所有原子化能力可以通过OpenAPI接口提供给应用平台。 具备API Explorer能力:可以通过API Explorer在线调试OpenAPI接口。 视频调阅 实时预览:支持多分屏、云台控制、电子缩放、语音对讲、实时截图。 录像回放:支持多分屏、倍速、同步/异步放像、电子缩放、录像截图、录像下载。 视图查看:支持视图数据查询及基本信息查看。 电子地图:支持平面/3D/卫星地图模式切换、支持多种点位汇聚模式。
        来自:
        帮助文档
        智能视图服务
        产品介绍
        产品功能
      • 运行Flink作业
        本章节主要介绍如何通过后台提交并运行Flink作业。 通过后台提交作业 目前Flink客户端默认安装路径为“/usr/local/flink”。具体以实际为准。 1. 通过SSH方式登录集群。 2. 配置环境变量。 在/etc/profile添加如下配置: export HADOOPHOME/usr/local/hadoop3 export FLINKHOME/usr/local/flink export PATHPATH:PATH:FLINKHOME/bin:HADOOPHOME/bin export HADOOPCONFDIRHADOOPHOME/bin exportHADOOPCONFDIRHADOOPHOME/etc/hadoop export PATHPATH:PATH:HADOOPCONFDIR export HADOOPCLASSPATHhadoop classpath 执行如下命令初始化环境变量 source /etc/profile 3. 集群默认开启Kerberos认证,需要执行以下命令以完成认证。 示例: klist kt /etc/security/keytabs/flink.keytab 获取flink.keytab的principalname kinit kt /etc/security/keytabs/flink.keytab flink.keytab的principalname 同时,应配置安全认证。在“/usr/local/flink/conf/flinkconf.yaml”配置文件中的对应配置添加keytab路径以及用户名。 security.kerberos.login.useticketcache: true security.kerberos.login.keytab: security.kerberos.login.principal: user security.kerberos.login.contexts: Client,KafkaClient 例如: security.kerberos.login.keytab: /etc/security/keytabs/hdfs.keytab security.kerberos.login.principal: hdfs 4. 运行wordcount作业。 首先执行上述第3步骤中的认证操作,然后启动Flink集群。 /usr/local/flink/bin/startcluster.sh Session模式 执行如下命令在session中提交作业。 yarnsession.sh nm "sessionname" detached flink run /usr/local/flink/examples/streaming/WordCount.jar 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 Application模式 执行如下命令以Application方式提交作业。 flink runapplication t yarnapplication/usr/local/flink/examples/streaming/WordCount.jar 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Flink作业
      • 权限管理
        本文主要介绍权限管理 通过企业项目对用户和用户组进行授权 APM使用企业项目管理控制用户对APM资源的访问范围。您在云帐号中给员工创建IAM用户组后,可以在企业管理服务控制台创建企业项目,并在企业项目中为用户组授予相应的权限,实现人员授权及权限控制。企业项目可将企业分布在不同区域的资源按照企业项目进行统一管理,同时可以为每个企业项目设置拥有不同权限的用户组。 通过IAM为企业中的用户和用户组进行授权 如果您需要对您所拥有的APM进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),通过IAM,您可以: 根据企业的业务组织,在您的帐号中,给企业中不同职能部门的员工创建IAM用户,让员工拥有唯一安全凭证,并使用APM资源。 根据企业用户的职能,设置不同的访问权限,以达到用户之间的权限隔离。 将APM资源委托给更专业、高效的其他帐号或者云服务,这些帐号或者云服务可以根据权限进行代运维。 如果帐号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用APM服务的其它功能。 本章节为您介绍对用户授权的方法,操作流程如图所示。 前提条件 给用户组授权之前,请您了解用户组可以添加的APM权限,并结合实际需求进行选择,APM支持的系统权限。 示例流程 使用IAM授权的云服务 图 给用户授权APM权限流程 1. 创建用户组并授权 在IAM控制台创建用户组,并授予APM只读权限“APM ReadOnlyAccess”。 2. 创建IAM用户 在IAM控制台创建用户,并将其加入[1](
        来自:
        帮助文档
        应用性能管理
        用户指南
        权限管理
      • 查看云审计日志
        本页面主要介绍天翼云数据传输服务DTS对接的云审计服务使用和查看方法。 操作场景 数据传输服务DTS现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 云审计服务本身免费,包括时间记录以及7天内的存储和检索。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作事件 字段 创建实例 dtsCreateInstance 删除实例 dtsDeleteInstance 任务启动 dtsStartJob 任务暂停 dtsStopJob 操作步骤 1. 开通云审计服务。 参见开通云审计服务云审计。 2. 查看云审计事件。 参见查看审计事件云审计。 3. 在事件列表页,根据需要选择时间段、设置筛选条件,如:读写类型、事件级别、操作用户、事件来源、资源类型、资源名称、事件名称等。点击查询即可。 4. 在审计事件查询结果列表右侧操作列点击详情,可以看到更详细的事件信息。 更多云审计相关使用说明和常见问题请参考用户指南、常见问题。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        日志管理
        查看云审计日志
      • 同资源池不同VPC,通过对等连接接入天翼云
        本页为您介绍从天翼云ECS自建数据库迁移/同步数据到天翼云数据库,同资源池不同VPC情况下,通过对等连接接入的方法。 在同资源池,不同VPC之间,网络默认不通,需要通过VPC打通的方式来实现网络互通。目前支持通过VPC对等连接的方式实现VPC间子网级的互通,注意需要保证源数据实例所在子网与目标数据库实例所在子网的网段不冲突。 以下分别介绍网络通信方式,DTS实例的配置流程和不同VPC间通过对等连接进行互通的配置流程。 网络通信方式 网络通信方式,见下图: DTS实例的配置流程 DTS实例订购成功后,选择对应实例ID的操作“实例配置”,进入【配置源库及目标库信息】页面,“打通网络配置”将会自动识别,源端将显示“当前数据库不在同一个虚拟私有云(VPC),需要配置对等连接打通⽹络”,点击“创建虚拟私有云(VPC)对等连接”将跳转到VPC控制台,可按VPC相关流程处理“创建对等连接”,具体页面如下: 不同VPC间通过对等连接互通的配置流程 创建VPC对等连接。 具体可参考天翼云对等连接相关文档进行配置。 源数据库实例与目标数据库实例的网络ACL和安全组配置。 具体可参考同VPC通过VPC网络接入天翼云文档进行相应配置。 数据库添加白名单。 自建数据库需要添加DTS实例的私网IP访问数据库的权限。不同类型的数据库添加白名单的方法可能不一样,具体可参考各数据库官方文档进行操作。
        来自:
        帮助文档
        数据传输服务DTS
        快速入门
        天翼云ECS自建数据库到天翼云
        同资源池不同VPC,通过对等连接接入天翼云
      • 添加规则
        本文将介绍如何为轻量型云主机添加防火墙规则,并介绍防火墙功能预设的端口信息。 操作场景 防火墙可以对轻量型云主机的网络访问进行控制,每台轻量型云主机的防火墙默认放行了22端口(SSH服务)、3389端口(windows远程登录)、80端口(http端口)、443(https端口)端口的入方向端口。用户可在此基础上添加其它的防火墙规则,来完善防火墙的安全设置。 操作步骤 1.登录天翼云,进入控制中心。 2.单击控制中心顶部的,选择资源所在地,此例我们选择上海36。 3.单击左侧导航栏“产品服务列表”,选择“计算>轻量型云主机”。 4.进入轻量型云主机列表界面,单击目标主机“实例名称”进入目标主机详情页。 5.单击“防火墙”页签,可以看到当前轻量型云主机的防火墙信息。 6. 单击“添加规则”弹出添加弹窗,用户需要按照要求进行填写,字段说明如下。 字段名 说明 IP版本 取值:IPV4、IPV6,单选,必填。 方向 取值:入方向、出方向,单选必填。 授权策略 取值:允许、拒绝,单选,必填。 协议 取值:ANY、TCP、UDP、ICMP,单选,必填。 端口范围 取值为介于1到65535之间的数字。如输入错误则输入款变红,下置文字提示:端口范围在 1到 65535之间,必填。 源地址 取值为数字,子网IP地址与子网掩码是否匹配的校验逻辑同云主机,必填。 描述 取值:100个以内字符,选填。如超出字数限制,下置文字提示:请输入100个以内字符。 添加规则: 7. 完成配置后,单击“确定”,即可完成防火墙规则的添加。
        来自:
        帮助文档
        轻量型云主机
        用户指南
        管理防火墙
        添加规则
      • 查看VPC间访问流量
        VPC间访问展示当前防火墙实例防护的VPC间流量数据。 前提条件 配置并开启VPC边界流量防护,且已有流量经过VPC,开启VPC防护的操作步骤请参见“开启VPC边界流量防护”。 查看VPC间访问流量 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“流量分析> VPC间访问”,进入“VPC间访问”页面。 5. 查看经过云防火墙的流量统计信息,支持5分钟~7天的数据。 流量看板:VPC间最大流量的相关信息。 VPC间访问:VPC间请求流量和响应流量数据。 取值说明: 时间段 取值说明 近1小时 取1分钟内的平均值 近24小时 取5分钟内的平均值 近7天 取1小时内的平均值 自定义 5分钟~6小时:取1分钟内的平均值 6小时(含)~3天:取5分钟内的平均值 3天(含)~7天(含):取30分钟内的平均值 可视化统计:查看指定时间段内VPC间流量中指定参数的 TOP 5 排行,参数说明请参见表354。单击单条数据查看流量详情,每个详情支持查看50条数据。 VPC间流量可视化统计参数说明: 参数名称 参数说明 TOP访问源IP VPC间流量的源IP地址。 TOP访问目的IP VPC间流量的目的IP地址。 TOP开放端口 VPC间流量的目的端口。 应用分布 VPC间流量的应用信息。 私网IP活动明细:查看指定时间段内私网IP流量 TOP 50 信息。
        来自:
        帮助文档
        云防火墙
        用户指南
        查看流量数据
        查看VPC间访问流量
      • 与Kafka、RabbitMQ专享版的差异
        本章节介绍了分布式消息服务RocketMQ与Kafka和RabbitMQ的差异。 功能项 RocketMQ Kafka RabbitMQ 优先级队列 不支持 不支持 支持。建议优先级大小设置在010之间。 延迟队列 支持 不支持 不支持 死信队列 支持 不支持 支持 消息重试 支持 不支持 不支持 消费模式 支持客户端主动拉取和服务端推送两种方式 客户端主动拉取 支持客户端主动拉取以及服务端推送两种模式 广播消费 支持 支持 支持 消息回溯 支持 支持。Kafka支持按照offset和timestamp两种维度进行消息回溯。 不支持。RabbitMQ中消息一旦被确认消费就会被标记删除。 消息堆积 支持 支持。考虑吞吐因素,Kafka的堆积效率比RabbitMQ总体上要高。 支持 持久化 支持 支持 支持 消息追踪 支持 不支持 支持。RabbitMQ中可以采用Firehose或者rabbitmqtracing插件实现,但开启rabbitmqtracing插件会影响性能,建议只在定位问题过程中开启。 消息过滤 支持 支持 不支持,但可以自行封装。 多租户 支持 不支持 支持 多协议支持 兼容RocketMQ协议 只支持Kafka自定义协议。 RabbitMQ基于AMQP协议实现,同时支持MQTT、STOMP等协议。 跨语言支持 支持多语言的客户端 采用Scala和Java编写,支持多种语言的客户端。 采用Erlang编写,支持多种语言的客户端。 流量控制 待规划 支持client和user级别,通过主动设置可将流控作用于生产者或消费者。 RabbitMQ的流控基于CreditBased算法,是内部被动触发的保护机制,作用于生产者层面。 消息顺序性 单队列(queue)内有序 支持单分区(partition)级别的顺序性。 不支持。需要单线程发送、单线程消费并且不采用延迟队列、优先级队列等一些高级功能整体配合,才能实现消息有序。 安全机制 支持SSL认证 支持SSL、SASL身份认证和读写权限控制。 与Kafka相似 事务性消息 支持 支持 支持
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        与Kafka、RabbitMQ专享版的差异
      • 云审计
        本文介绍关系数据库PostgreSQL版在天翼云云审计中支持的相关功能。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作事件 创建实例、创建只读实例、恢复到新实例 重启实例 删除实例 节点扩容 磁盘扩容 规格变更 数据备份、删除备份 数据恢复 参数修改 主备切换 绑定公网IP 解绑公网IP 操作步骤 1. 开通云审计服务。 参见开通云审计服务云审计。 2. 查看云审计事件。 参见查看审计事件云审计。 3. 在事件列表中,选择事件来源为“数据库”,资源类型选择“关系数据库PostgreSQL版”,上方时间选择需要筛选的时间段。点击查询即可。 4. 在审计事件右侧点击详情,可以看到更详细的事件信息。 更多云审计相关使用说明和常见问题请参考用户指南、常见问题。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全监控
        云审计
      • 创建迁移参数模板
        参数 子参数 说明 区域 您可以根据业务要求,选择具体的区域。 项目 选择区域后,才能选择项目。 迁移方式Linux Linux块级 Linux块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。这种方式同步效率高,但兼容性差。 Linux文件级 Linux文件级迁移是指全量复制和持续同步最小粒度为文件,这种方式同步效率低,但兼容性好。 迁移方式Windows Windows块级 Windows块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。Windows当前仅支持块级迁移,这种迁移方式迁移和同步效率高。 网络类型 公网 若使用公网迁移,要求目的端服务器配置有“弹性IP”。 “网络类型”默认设置为公网。 专线或VPN 需要您提前创建源端服务器到目的端服务器所在VPC子网的专线或VPN。 若源端和目的端在同一个VPC内,网络类型可选择“专线或VPN”。 网络限流 根据要迁移的源端带宽大小及业务要求,设置限制带宽大小。设置为0时,代表不限流。 是否持续同步 否 全量复制完成后,系统会自动启动目的端,无需用户进行操作。若要同步新增数据,请单击操作列的“同步”,将增量数据同步至目的端服务器。 是 全量复制完成后,会进入持续同步阶段,该阶段系统会定时自动同步源端增量数据到目的端,此时目的端并未启动,无法操作。如需退出该阶段,单击“启动目的端”即可。 服务器选择 已有服务器 目的端配置时,在已有的服务器列表中,根据“推荐目的端,操作系统”勾选目的端服务器。 创建新服务器 目的端配置时,根据需求,您可以配置虚拟私有云、子网、安全组等参数。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        公共配置
        创建迁移参数模板
      • 使用IPv6进行主机迁移
        源端服务器环境、剩余空间及其他要求。 源端服务器剩余空间要求: Windows:当分区大于等于600MB,该分区的可用空间小于320MB时不能迁移;当分区小于600MB,该分区的空间小于40MB时不能迁移。 Linux:根分区可用空间小于200MB时不能迁移。 源端服务器环境要求: 源端服务器时间与标准时间一致,避免源端Agent注册失败。 当源端服务器为Linux系统时,执行rsync v查看是否安装Rsync库。当前主流服务器系统已默认安装Rsync库,无需手动安装。 当未安装Rsync库,执行如下命令安装Rsync库: CentOS:执行 yum y install rsync。 Ubuntu:执行 aptget y install rsync。 Debian:执行 aptget y install rsync。 SUSE:执行 zypper install rsync。 其他平台系统:参见官网安装相关文档。 搭建IPv6网络并创建目的端 使用IPv6进行主机迁移前,需要先搭建一个IPv6网段的VPC,并在VPC中创建一个带有IPv6地址的目的端ECS。 注意事项 确保源端服务器能够使用IPv6网络。 子网配置时,请务必勾选“ 开启IPv6 ”,将自动为子网分配IPv6网段。 弹性云主机ECS仅部分规格支持IPv6网络,目的端需要选择支持IPv6的ECS,才可以使用IPv4/IPv6双栈网络,请务必选择支持的区域和规格。 网络配置时,务必选择“ 自动分配IPv6地址 ”,绑定共享带宽为可选,根据需求配置。 安全组入方向规则需要放通IPv6端口。 说明 Windows系统需要开放TCP的8899端口、8900端口和22端口。 Linux系统文件级迁移开放22端口,块级迁移开放8900端口、22端口。 以上端口,建议只对源端服务器开放。 创建迁移任务 主机迁移服务支持在双栈网络下使用IPv6进行数据迁移。
        来自:
        帮助文档
        主机迁移服务SMS
        最佳实践
        使用IPv6进行主机迁移
      • 连接设置相关参数
        本页介绍天翼云TeleDB数据库连接设置相关参数。 listenaddresses (string) 指定服务器在哪些TCP/IP 地址上监听客户端连接。值的形式是一个逗号分隔的主机名和/或数字 IP 地址列表。特殊项对应所有可用 IP 接口。项0.0.0.0允许监听所有 IPv4 地址并且::允许监听所有 IPv6 地址。如果列表为空,服务器将根本不会监听任何 IP 接口,在这种情况中只能使用 Unix 域套接字来连接它。默认值是localhost,它只允许建立本地 TCP/IP “环回”连接。虽然客户端认证允许细粒度地控制谁能访问服务器,listenaddresses控制哪些接口接受连接尝试,这能帮助在不安全网络接口上阻止重复的恶意连接请求。这个参数只能在服务器启动时设置。 port (integer) 服务器监听的TCP 端口;默认是 5432 。请注意服务器会同一个端口号监听所有的 IP 地址。这个参数只能在服务器启动时设置。 maxconnections (integer) 决定数据库的最大并发连接数。默认值通常是100 个连接,但是如果内核设置不支持(initdb时决定),可能会比这个数少。这个参数只能在服务器启动时设置。当运行一个后备服务器时,你必须设置这个参数等于或大于主服务器上的参数。否则,后备服务器上可能无法允许查询。 superuserreservedconnections (integer) 决定为TeleDB超级用户连接而保留的连接“槽”数。同时活跃的并发连接最多maxconnections个。任何时候,活跃的并发连接数最多为maxconnections减去 superuserreservedconnections,新连接就只能由超级用户发起了,并且不会有新的复制连接被接受。默认值是 3 。这个值必须小于maxconnections的值。 这个参数只能在服务器启动时设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        连接和认证相关参数
        连接设置相关参数
      • 缓存概述
        功能 说明 缓存过期时间指源站资源在CDN节点缓存的时长,达到预设时间,资源将会被CDN节点标记为缓存过期。您可以根据业务需求,按指定路径或文件名后缀等方式配置静态资源的缓存过期时间。 CDN节点从源站获取资源时,源站会返回响应状态码,针对4xx、5xx等特殊状态码,您可以在天翼云CDN上配置状态码过期时间。配置完成后,当客户端再次请求相同资源时,如状态码未过期,会由CDN直接响应特殊状态码,不会触发回源,减轻源站压力。 当客户希望在源站响应特殊状态码并携带相关缓存头的情况下,特殊状态码缓存规则按照源站相关缓存头生效,无相关缓存头时才按CDN设置的过期时间生效,则可以配置状态码过期时间(源站优先)功能。 缓存key是一个文件在CDN节点上缓存时唯一的身份ID,每个在CDN节点上缓存的文件都会对应一个缓存key。通过自定义缓存key,可以将原始URL形式不同但实际指向同一个文件的请求,缓存为同一份,从而提升缓存命中率,降低回源量。 跨域资源共享(CrossOrigin Resource Sharing,简写为CORS)简称跨域访问,是HTML5提供的标准跨域解决方案,允许Web应用服务器进行跨域访问控制,实现跨域数据的安全传输。当客户的业务需要跨域共享或者访问资源时,客户可以通过自定义HTTP响应头来实现。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        缓存配置
        缓存概述
      • 开发一个DWS SQL作业
        本章节主要介绍DataArts Studio的开发一个DWS SQL作业流程。 介绍如何在数据开发模块上通过DWS SQL算子进行作业开发。 场景说明 本教程通过开发一个DWS作业来统计某门店的前一天销售额。 环境准备 已开通DWS服务,并创建DWS集群,为DWS SQL提供运行环境。 已开通CDM增量包,并创建CDM集群。 CDM集群创建时,需要注意:虚拟私有云、子网、安全组与DWS集群保持一致,确保网络互通。 创建DWS的数据连接 开发DWS SQL前,我们需要在“管理中心 > 数据连接”模块中建立一个到DWS的连接,数据连接名称为“dwslink”。 关键参数说明: 集群名:环境准备中创建的DWS集群名称。 绑定Agent:环境准备中创建的CDM集群。 创建数据库 在DWS中创建数据库,以“gaussdb”数据库为例。详情请参新建数据库进行操作。 创建数据表 在“gaussdb”数据库中创建数据表tradelog和tradereport。详情请参考如下建表脚本。 create schema storesales; set currentschema storesales; drop table if exists tradelog; CREATE TABLE tradelog ( sn VARCHAR(16), tradetime DATE, tradecount INTEGER(8) ); set currentschema storesales; drop table if exists tradereport; CREATE TABLE tradereport ( rq DATE, tradetotal INTEGER(8) ); 开发DWS SQL脚本 在“数据开发 > 脚本开发”模块中创建一个DWS SQL脚本,脚本名称为“dwssql”。在编辑器中输入SQL语句,通过SQL语句来实现统计前一天的销售额。 开发脚本 说明 上图中的脚本开发区为临时调试区,关闭脚本页签后,开发区的内容将丢失。您可以通过“提交”来保存并提交脚本版本。 数据连接:创建DWS的数据连接中已创建的连接。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        使用教程
        开发一个DWS SQL作业
      • 创建Flink Jar作业
        本章节介绍如何新建FlinkJar作业。 用户可以基于Flink的API进行二次开发,构建自己的应用Jar包并提交到DLI的队列运行,DLI完全兼容开源社区接口。此功能需要用户自己编写并构建应用Jar包,适合对Flink二次开发有一定了解,并对流计算处理复杂度要求较高的用户。 前提条件 确保已创建独享队列。创建DLI独享队列,在购买队列时,勾选“专属资源模式”即可。 创建Flink Jar作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Flink作业支持访问的外部数据源详情请参考跨源连接和跨源分析概述。 创建跨源连接操作请参见增强型跨源连接。 创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考 测试地址连通性。 用户运行Flink Jar作业时,需要将二次开发的应用代码构建为Jar包,上传到已经创建的OBS桶中。并在DLI“数据管理”>“程序包管理”页面创建程序包,具体请参考 创建程序包。 说明 DLI不支持下载功能,如果需要更新已上传的数据文件,可以将本地文件更新后重新上传。 由于DLI服务端已经内置了Flink的依赖包,并且基于开源社区版本做了安全加固。为了避免依赖包兼容性问题或日志输出及转储问题,打包时请注意排除以下文件: a.系统内置的依赖包,或者在Maven或者Sbt构建工具中将scope设为provided b.日志配置文件(例如:“log4j.properties”或者“logback.xml”等) c.日志输出实现类JAR包(例如:log4j等)
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink Jar作业
      • 容灾演练
        操作场景 在不影响业务的情况下,通过容灾演练,模拟真实故障恢复场景,制定应急恢复预案,检验容灾方案的适用性、有效性。当真实故障发生时,通过预案快速恢复,提高业务连续性。 存储容灾服务提供的容灾演练功能,在容灾演练VPC(该VPC不能与容灾站点服务器所属VPC相同)内执行容灾演练,基于容灾站点服务器的磁盘快照,快速创建容灾演练服务器。 说明 当容灾演练服务器创建完成后,生产站点服务器和容灾演练服务器同时独立运行,数据不再实时同步。 在容灾演练过程中,会临时创建一个后缀名为VMwareToCloud的系统转换ECS,请勿对该ECS进行任何操作,否则可能会导致演练失败,切换或/容灾演练完成后会自动删除该ECS。 为保证在灾难发生时,容灾切换能够正常进行,建议您定期做容灾演练。 使用须知 创建容灾演练时,如果保护组内的生产站点服务器加入了企业项目,容灾演练创建的演练服务器不会自动加入到企业项目,如有需要请手动将演练服务器加入到企业项目。 创建容灾演练时,如果生产站点服务器为Linux且为密钥方式登录,创建容灾演练后,创建的容灾演练服务器详情不显示密钥对信息,但可以使用容灾站点服务器的密钥对登录容灾演练的服务器。 创建容灾演练成功后,生产站点服务器中的“主机名”、“名称”、“委托”、“云服务器组”、“自动恢复”、“安全组”和“标签”配置项修改不会再自动同步到演练服务器上。您可以登录控制台,手动将这些配置项的修改添加到演练服务器上。 容灾演练操作只在容灾演练服务器配置主网卡,如果生产站点有从网卡,容灾演练不会自动配置,需要在容灾演练服务器详情页面手工绑定从网卡。
        来自:
        帮助文档
        存储容灾服务
        用户指南
        管理保护实例
        容灾演练
      • 产品定义
        本章节内容主要介绍数据库复制产品简介 数据库复制服务(简称DRS)是一种易用、稳定、高效、用于数据库实时迁移和数据库实时同步的云服务。 数据库复制服务围绕云数据库,降低了数据库之间数据流通的复杂性,有效减少数据传输成本。 数据库复制服务提供了实时迁移、备份迁移、实时同步等多种功能。 实时迁移 实时迁移是指在数据库复制服务器能够同时连通源数据库和目标数据库的情况下,只需要配置迁移的源、目标数据库实例及迁移对象即可完成整个数据迁移过程,再通过多项指标和数据的对比分析,帮助确定合适的业务割接时机,实现最小化业务中断的数据库迁移。 实时迁移支持多种网络迁移方式,如:公网网络、VPC网络、VPN网络和专线网络。通过多种网络链路,可快速实现跨云平台数据库迁移、云下数据库迁移上云或云上跨区域的数据库迁移等多种业务场景迁移。 特点:通过增量迁移技术,能够最大限度允许迁移过程中业务继续对外提供使用,有效的将业务系统中断时间和业务影响最小化,实现数据库平滑迁移上云,支持全部数据库对象的迁移。 备份迁移 由于安全原因,数据库的IP地址有时不能暴露在公网上,但是选择专线网络进行数据库迁移,成本又高。这种情况下,您可以选用数据库复制服务提供的备份迁移,通过将源数据库的数据导出成备份文件,并上传至对象存储服务,然后恢复到目标数据库。备份迁移可以帮助您在云服务不触碰源数据库的情况下,实现数据迁移。 常用场景:云下数据库迁移上云。 特点:云服务无需碰触源数据库,实现数据迁移。
        来自:
        帮助文档
        数据库复制
        产品简介
        产品定义
      • 恢复HDFS业务数据
        本章主要介绍翼MapReduce的恢复HDFS业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对HDFS进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对HDFS进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复HDFS任务。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HDFS数据。 对于Yarn任务运行时使用的目录(例如“/tmp/logs”、“/tmp/archived”、“/tmp/hadoopyarn/staging”),不能进行HDFS恢复操作,否则进行恢复的Distcp任务会由于文件丢失而导致恢复失败。 对系统的影响 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HDFS的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查HDFS备份文件保存路径。 停止HDFS的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HDFS业务数据
      • 恢复HBase业务数据
        本章主要介绍翼MapReduce的恢复HBase业务数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对HBase进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对HBase业务数据进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复HBase任务并恢复数据。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的HBase数据。 对系统的影响 恢复过程的数据还原阶段,系统会把待恢复的HBase表禁用,此时无法访问该表。还原阶段可能需要几分钟时间,此时HBase的上层应用无法正常工作。 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HBase的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查HBase备份文件保存路径。 停止HBase的上层应用。 登录FusionInsight Manager,请参见登录管理系统。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复HBase业务数据
      • 注册
        本文主要介绍账号注册相关的常见问题。 一个手机号能注册几个天翼云账号? 一个手机号最多可注册5个天翼云账号(含已注销3个月内的账号),超出则不再支持注册新的天翼云账号。 无法使用海外(含港澳台)手机号注册天翼云账号? 目前不支持用海外(港澳台)手机号注册。 通过手机号注册的账号如何使用账号登录? 通过短信登录账号后,在“账号中心>安全设置”页面选择登录密码修改,可设置新密码。使用“账号中心>基本信息”的登录名及新设置的密码,即可使用账密方式登录。 手机号和邮箱均不再用,如何修改账号信息? 如果手机号或邮箱都无法验证身份, 可以进入工单页面,提交工单处理。 (1)请在工单中上传如下材料: 提交“授权天翼云协助修改手机号/邮箱”的授权委托书,写明日期,加盖公章。(模板:授权天翼云协助修改手机号:邮箱.docx) 企业客户 法定代表人与被授权人所需材料任选一种上传即可。 法定代表人:企业证件、法定代表人身份证正反面及手持身份证照片。 被授权人:企业证件、加盖企业公章的授权书(授权委托书.docx)、被授权人身份证正反面及手持身份证照片。 个人客户 个人身份证件正反面及手持身份证照(个人身份证件信息需与实名认证的身份证件信息一致)。 (2)经天翼云审核通过后,天翼云会将原来绑定的手机号/邮箱替换成工单中填写的新手机号/邮箱。您可以在登录页面,单击忘记密码,然后使用新绑定的手机号/邮箱重置密码。 (3)如果您提供的账户情况特殊,天翼云客服人员会根据实际情况进一步核实,请按客服回复提供所需资料。
        来自:
        帮助文档
        账号中心
        常见问题
        账号管理
        注册
      • 1
      • ...
      • 179
      • 180
      • 181
      • 182
      • 183
      • ...
      • 234
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      应用托管

      一站式智算服务平台

      知识库问答

      人脸检测

      推荐文档

      删除

      管理云间高速

      消息者消费者

      Microsoft SQL Server

      应用数据管理

      Microsoft SQL Server

      产品计费方式

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号