云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 修改实例信息
        本章节主要如何介绍修改分布式消息服务RabbitMQ的实例信息。 创建RabbitMQ实例成功后,您可以根据自己的业务情况对RabbitMQ实例的部分参数进行调整。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 单击RabbitMQ实例的名称,进入实例详情页面。 步骤 5 以下参数支持修改。 实例名称 描述 企业项目 安全组 公网访问(公网访问的修改方法,请参考设置实例的公网访问。) 参数修改完成后,通过以下方式查看修改结果。 修改“公网访问”,系统跳转到“后台任务管理”页签,并显示当前任务的操作进度和结果。 修改“实例名称”、“描述”、“企业项目”和“安全组”后,右上角直接提示修改结果。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        修改实例信息
      • Redis节点磁盘IO Hang
        效果验证 在故障注入期间,可以通过以下多种方式验证演练效果。 1、观测实例指标: 登录分布式缓存服务Redis版 控制台, 进入目标实例的性能监控 页,由于磁盘夯死导致监控指标无法上报, 目标节点的监控指标出现数据断点。 登录分布式缓存服务Redis版 控制台,进入目标实例的实例详情页。观察实例的节点角色和状态。如果是目标节点是主节点,会触发主从切换。 2、业务应用验证: 观察业务应用表现,查看是看是否出现请求响应变慢、写入延迟升高,部分读写请求可能超时或失败,整体吞吐量下降。 如果是对主节点注入故障,查看该Redis实例的主备切换是否触发,应用是否连接到新的主节点。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        数据库
        分布式缓存服务Redis版
        Redis节点磁盘IO Hang
      • Redis节点磁盘IO Hang(1)
        效果验证 在故障注入期间,可以通过以下多种方式验证演练效果。 1、观测实例指标: 登录分布式缓存服务Redis版 控制台, 进入目标实例的性能监控 页,由于磁盘夯死导致监控指标无法上报, 目标节点的监控指标出现数据断点。 登录分布式缓存服务Redis版 控制台,进入目标实例的实例详情页。观察实例的节点角色和状态。如果是目标节点是主节点,会触发主从切换。 2、业务应用验证: 观察业务应用表现,查看是看是否出现请求响应变慢、写入延迟升高,部分读写请求可能超时或失败,整体吞吐量下降。 如果是对主节点注入故障,查看该Redis实例的主备切换是否触发,应用是否连接到新的主节点。
        来自:
      • 计算增强型AI云电脑管理
        本节介绍计算机增强型云电脑的相关管理操作。 创建计算增强型AI云电脑 1. 登录并打开“天翼AI云电脑(政企版)”产品详情页; 2. 点击控制台按钮,跳转后选择对应的资源池; 3. 点击“计算增强型AI云电脑”菜单,选择创建计算增强型AI云电脑; 4. 订购类型选择“资源包”或“单实例”; 5. 根据需求选择相应的“规格类型”; 6. 根据实际情况选择“镜像类型”,即开通计算增强型AI云电脑实例的操作系统; 7. 根据实际情况选择实例所在的“VPC”和“子网“; 8. 选择安全组和填写实例的账号密码; 9. 确认相关的配置信息,单击“确定”,即完成计算增强型AI云电脑实例的开通。 基本操作 1. 进入“天翼AI云电脑(政企版)”控制台; 2. 点击进入“计算增强型AI云电脑”页面; 3. 在需要进行操作的计算增强型AI云电脑所在行,点击“操作”,可对AI云电脑进行“开机/关机/重启”操作。 规格变更 1. 进入“天翼AI云电脑(政企版)”控制台; 2. 点击“计算增强型AI云电脑”,进入“计算增强型AI云电脑”页面; 3. 在需要变更规格的实例所在行,点击“管理”,选择“规格变更”操作; 4. 根据需求选择需要变更的规格; 5. 点击“立即创建”,即完成实例的规格变更。 注意 (1)实例支持规格升级和降级,规格变更的操作不会对实例已有数据产生影响; (2)规格变更操作将导致AI云电脑自动重启,请谨慎操作。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        计算增强型AI云电脑
        操作指南
        计算增强型AI云电脑管理
      • 磁盘模式及使用方法
        本节介绍了什么是磁盘模式、SCSI磁盘的常见使用场景和建议、使用SCSI类型磁盘需要安装驱动吗。 什么是磁盘模式 根据是否支持高级的SCSI命令来划分磁盘模式,分为VBD(虚拟块存储设备 , Virtual Block Device)类型和SCSI (小型计算机系统接口, Small Computer System Interface) 类型。 VBD类型:磁盘模式默认为VBD类型。VBD类型的磁盘只支持简单的SCSI读写命令。 SCSI类型:SCSI类型的磁盘支持SCSI指令透传,允许云主机操作系统直接访问底层存储介质。除了简单的SCSI读写命令,SCSI类型的磁盘还可以支持更高级的SCSI命令。 磁盘模式在购买磁盘时配置,购买完成后无法修改。 SCSI磁盘的常见使用场景和建议 SCSI磁盘:物理机仅支持使用SCSI磁盘,用作系统盘和数据盘。 SCSI共享盘:当您使用共享盘时,需要结合分布式文件系统或者集群软件使用。由于多数常见集群需要使用SCSI锁,例如Windows MSCS集群、Veritas VCS集群和CFS集群,因此建议您结合SCSI使用共享盘。 如果将SCSI共享盘挂载至ECS时,需要结合云主机组的反亲和性一同使用,SCSI锁才会生效,关于更多共享盘的内容,请参见共享云硬盘及使用方法。
        来自:
        帮助文档
        云硬盘 EVS
        产品简介
        磁盘模式及使用方法
      • 可靠性增强
        本章节主要介绍翼MapReduce服务的可靠性增强特性。 翼MR在基于Apache Hadoop开源软件的基础上,在主要业务部件的可靠性、性能调优等方面进行了优化和提升。 系统可靠性 管理节点均实现HA Hadoop开源版本的数据、计算节点已经是按照分布式系统进行设计的,单节点故障不影响系统整体运行;而以集中模式运作的管理节点可能出现的单点故障,就成为整个系统可靠性的短板。 翼MR对所有业务组件的管理节点都提供了类似的双机的机制,包括Manager、HDFS NameNode、HiveServer、HBase HMaster、YARN ResourceManager、KerberosServer、LdapServer等,全部采用主备或负荷分担配置,有效避免了单点故障场景对系统可靠性的影响。 异常场景下的可靠性保证 通过可靠性分析方法,梳理软件、硬件异常场景下的处理措施,提升系统的可靠性。 保障意外掉电时的数据可靠性,不论是单节点意外掉电,还是整个集群意外断电,恢复供电后系统能够正常恢复业务,除非硬盘介质损坏,否则关键数据不会丢失。 硬盘亚健康检测和故障处理,对业务不造成实际影响。 自动处理文件系统的故障,自动恢复受影响的业务。 自动处理进程和节点的故障,自动恢复受影响的业务。 自动处理网络故障,自动恢复受影响的业务。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        功能特性
        可靠性增强
      • 购买节点
        操作场景 节点是指纳管到容器集群的计算资源,包括虚拟机、物理机等。用户需确保所在集群的节点资源充足,若节点资源不足,会导致创建工作负载等操作失败。 前提条件 已创建至少一个集群,请参见集群管理>购买混合集群。 您需要新建一个密钥对,用于远程登录节点时的身份认证。 说明: 若使用密码登录节点,请跳过此操作。 约束与限制 仅支持创建KVM虚拟化类型的节点,非KVM虚拟化类型的节点创建后无法正常使用。 集群中的节点一旦购买后不可变更可用区。 集群中通过“按需计费”模式购买的节点,在CCE“节点管理”中进行删除操作后将会直接被删除;通过“包年/包月”模式购买的节点不能直接删除,请通过页面右上角用户名称下的“我的订单”执行资源退订操作。 操作步骤 步骤 1 登录CCE控制台,可通过如下两种方式进入“购买节点”页面: 在左侧导航栏中选择“资源管理 > 节点管理”,选择节点所在的集群后,在节点列表页面单击上方的“购买节点”。 在左侧导航栏中选择“资源管理 > 集群管理”,在集群卡片上,单击“购买节点”。 步骤 2 计费模式:支持“按需计费”和“包年/包月”类型。本章以“按需计费”类型为例进行讲解。 步骤 3 选择区域和可用区。 当前区域:节点实例所在的物理位置。 可用区:请根据业务需要进行选择。可用区是在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 如果您需要提高工作负载的高可靠性,建议您在创建集群后将云服务器部署在不同的可用区,购买集群时节点只能部署在一个可用区。 步骤 4 节点类型:选择“虚拟机节点”。配置以下参数。 节点名称:自定义节点名称。长度范围为156个字符,以小写字母开头,支持小写字母、数字、中划线(),不能以中划线()结尾。 节点规格:请根据业务需求选择相应的节点规格。 −通用型:该类型实例提供均衡的计算、存储以及网络配置,适用于大多数的使用场景。通用型实例可用于Web服务器、开发测试环境以及小型数据库工作负载等场景。 −GPU加速型:提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景。P系列适合于深度学习,科学计算,CAE等;G系列适合于3D动画渲染,CAD等。 −高性能计算型:实例提供具有更稳定、超高性能计算性能的实例,可以用于超高性能计算能力、高吞吐量的工作负载场景,例如科学计算。 −通用计算增强型:该类型实例具有性能稳定且资源独享的特点,满足计算性能高且稳定的企业级工作负载诉求。 为确保节点稳定性,系统会自动预留部分资源,用于运行必须的系统组件。详细请参见节点预留资源计算公式。 操作系统:请直接选择节点对应的操作系统。 系统盘:设置工作节点的系统盘空间。您可以设置系统盘的规格为40GB1024GB之间的数值,缺省值为40GB。 在默认情况下,系统盘可提供高IO、超高IO两种基本的云硬盘类型。 数据盘:设置工作节点的数据盘空间。您可以设置数据盘的规格为100GB32678GB之间的数值,缺省值为100GB。数据盘可提供的云硬盘类型与上方系统盘一致。 说明:若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。建议不要删除该数据盘。 −数据盘空间分配:单击后方的“更改配置”,可以对数据盘中的“k8s空间”和“用户空间”占比进行自定义设置,开启LVM管理的数据盘将按照设置的比例进行统一分配。部分集群版本不支持此功能,具体以界面为准。 k8s空间:您可以自定义数据盘中Docker和Kubelet的资源占比。Docker资源包含Docker工作目录、Docker镜像数据以及镜像元数据;Kubelet资源包含Pod配置文件、密钥以及临时存储EmptyDir等挂载数据。 用户空间:定义本地盘中不分配给kubernetes使用的空间大小和用户空间挂载路径。 说明:请注意“挂载路径”不能设置为根目录“/”,否则将导致挂载失败。挂载路径一般设置为: /opt/xxxx(但不能为/opt/cloud) /mnt/xxxx(但不能为/mnt/paas) /tmp/xxx /var/xxx (但不能为/var/lib、/var/script、/var/paas等关键目录) /xxxx(但不能和系统目录冲突,例如bin、lib、home、root、boot、dev、etc、lost+found、mnt、proc、sbin、srv、tmp、var、media、opt、selinux、sys、usr等) 注意不能设置为/home/paas、/var/paas、/var/lib、/var/script、/mnt/paas、/opt/cloud,否则会导致系统或节点安装失败。 虚拟私有云:不可修改,仅用于展示当前集群所在的虚拟私有云。 所在子网:通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。可选择该集群虚拟私有云下的任意子网,集群节点支持跨子网。 该参数仅在v1.13.10r0及以上版本的集群中显示,请务必确保子网下的 DNS 服务器可以解析对象存储服务域名,否则无法创建节点。 已有集群添加节点时,如果子网对应的VPC新增了扩展网段且子网是扩展网段,要在控制节点安全组(即集群名称ccecontrol随机数)中添加如下三条安全组规则,以保证集群添加的节点功能可用(新建集群时如果VPC已经新增了扩展网段则不涉及此场景): 弹性IP : 独立申请的公网IP地址,若节点有互联网访问的需求,请选择“暂不使用”或“使用已有”。集群开启 IPv6 时,不显示该参数。 弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 暂不使用:若新增节点未绑定弹性IP,则在该节点上运行的工作负载将不能被外网访问,仅可作为私有网络中部署业务或者集群所需云服务器进行使用。 使用已有:请选择已有的弹性IP,将为当前节点分配已有弹性IP。 说明: CCE默认不启用VPC的SNAT。若VPC启用了SNAT,可以不使用EIP去访问外网。 共享带宽: 请选择“暂不使用”或“使用已有”。仅在集群开启 IPv6 时,显示该参数。 弹性公网IP提供外网访问能力,可以灵活绑定及解绑,随时修改带宽。未绑定弹性公网IP的云服务器无法直接访问外网,无法直接对外进行互相通信。 登录方式:支持密码和密钥对。 −选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。 登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。 −选择“密钥对”:选择用于登录本节点的密钥对,支持选择共享密钥。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 说明: 如果子用户创建节点选择密钥对创建,这个密钥只对创建这个密钥的子用户有效,即使其他子用户在同一个组也无法选择,也无法使用。例如:A用户创建的密钥,B用户无法使用这个密钥对创建节点,并且Console也选不到。 云服务器高级设置: (可选),单击展开后可对节点进行如下高级功能配置: −安装前执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装前执行,可能导致Kubernetes软件无法正常安装,需谨慎使用。常用于格式化数据盘等场景。 −安装后执行脚本:请输入脚本命令,大小限制为0~1000字符。 脚本将在Kubernetes软件安装后执行,不影响Kubernetes软件安装。常用于修改Docker配置参数等场景。 −新增数据盘:单击“新增数据盘”,选择云硬盘类型并输入数据盘规格。 −子网IP :可选择“自动分配IP地址”和“手动分配IP地址”,推荐使用“自动分配IP地址”。 Kubernetes 高级设置: (可选),单击展开后可对集群进行如下高级功能配置: −最大实例数:节点最大允许创建的实例数(Pod),该数量包含系统默认实例,取值范围为16~128。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 节点购买数量: 此处设置的节点数不能超过集群管理的最大节点规模,请根据业务需求和界面提示进行选择,单击后方的可查看影响能添加节点数的因素(取决于最小值)。 步骤 5 购买时长:若选择“包年包月”的计费模式购买节点时,请设置购买时长。 步骤 6 单击“下一步:配置确认”,确认订单无误后,单击“提交”。 若计费模式为“包年包月”,在确认订单无误后,请单击“去支付”,请根据界面提示进行付款。 系统将自动跳转到节点列表页面,待节点状态为“可用”,表示节点添加成功。添加节点预计需要810分钟左右,请耐心等待。 说明: 集群创建时自动创建的安全组以及安全组规则禁止删除,否则会导致集群异常。 步骤 7 单击“返回节点列表”,待状态为可用,表示节点创建成功。 说明: 可分配资源:可分配量按照实例请求值(request)计算,表示实例在该节点上可请求的资源上限,不代表节点实际可用资源。 计算公式为: 可分配CPU CPU总量 所有实例的CPU请求值 其他资源CPU预留值 可分配内存 内存总量 所有实例的内存请求值 其他资源内存预留值
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        节点管理
        购买节点
      • 变更云硬盘类型(白名单开放)
        原云硬盘类型 变配后的类型 极速型SSD 超高IO、通用型SSD 超高IO 极速型SSD、通用型SSD 通用型SSD 极速型SSD、超高IO 高IO 极速型SSD、超高IO、通用型SSD 普通IO 极速型SSD、超高IO、通用型SSD、高IO
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        变更云硬盘类型(白名单开放)
      • 产品优势
        分布式消息服务RocketMQ为您提供优质的服务体验,本文带您了解分布式消息服务RocketMQ的产品优势。 分布式消息服务RocketMQ的产品优势主要包括以下几个方面: 堆积并发 支持亿级消息堆积,在海量消息堆积下队列性能影响很小,并可通过队列数扩展,提升系统并发能力。 分布式消息服务RocketMQ具有较强的消息堆积能力,主要以下几个方面实现和保障。 消息存储机制:RocketMQ使用基于磁盘的消息存储机制,可以持久化大量的消息到磁盘中,避免消息丢失。 消息发送速度:RocketMQ具有高吞吐量和低延迟的特点,可以快速处理大量的消息发送请求。 消息消费速度:RocketMQ支持水平扩展和负载均衡机制,可以实现高并发的消息消费能力。 存储容量:由于RocketMQ使用磁盘存储消息,因此它的存储容量可以非常大。可以通过添加更多的磁盘来扩展存储容量。 分布式消息服务RocketMQ具有很高的并发能力,RocketMQ的并发能力主要体现于以下几个方面: 集群模式:RocketMQ支持将消息队列集群化部署,通过增加Broker节点和消费者实例,可以提高整体系统的并发处理能力。每个Broker节点和消费者实例都可以处理独立的消息流,从而实现并发处理。 分区模式:RocketMQ支持将消息划分为多个分区,每个分区可以由不同的Broker节点处理。通过使用分区模式,可以将消息负载均衡到不同的节点上,从而提高并发处理能力。 异步发送模式:RocketMQ提供了异步发送消息的方式,发送者将消息发送给Broker后立即返回,无需等待确认。这种方式可以提高发送消息的并发能力,同时也会带来一定的消息丢失的风险。 消费者线程数:RocketMQ的消费者可以通过增加线程数来提高并发处理能力。每个线程可以独立地从Broker节点拉取消息并进行处理。需要注意的是,过多的线程数可能会对系统的性能产生负面影响,需要根据实际情况进行调优。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        产品优势
      • 计费类
        本文为您介绍分布式消息服务MQTT的计费类常见问题。 如何为购买的消息队列MQTT实例续费? 为防止资源到期或者浪费,已经购买包月实例的用户,可执行续费操作,延长MQTT实例的有效期,也可以设置到期自动续费的相关操作。 开通的MQTT实例资源何时生效? 天翼云分布式消息服务MQTT资源在客户支付成功之后,系统经过初始化完成后即可生效使用。
        来自:
        帮助文档
        分布式消息服务MQTT
        常见问题
        计费类
      • 分布式消息产品选型
        介绍分布式消息产品选型对比项。 特性 Kafka RabbitMQ RocketMQ 功能 支持功能较少,不支持延迟发送,消息重试等功能 功能丰富,支持多个队列种类(优先级队列、延迟队列、死信队列镜像队列等),提供丰富的策略分配 功能完善,支持事务消息、定时消息、事务消息等 单机吞吐量 十万级 万级 几万级 稳定性 队列/分区多时性能不稳定 消息堆积时,性能不稳定 队列较多、消息堆积时性能保持稳定 可用性 非常高(分布式)具有主备故障自动切换 较高,基于主从架构实现高可用性 非常高(分布式)具有主备故障自动切换 选型建议 性能要求高,数据量大,适合产生大量数据的互联网服务的数据收集业务,如日志采集处理、需对接大数据应用等,kafka是首选 数据量少,吞吐量需求不大;数据可靠性要求较高,对功能丰富性极高 可靠性要求很高且性能要求较高的场景以及业务削峰场景,如电商、订单处理等
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        分布式消息产品选型
      • 计费项
        本节主要介绍分布式消息服务Kafka的计费项 分布式消息服务Kafka的计费项由实例费用和存储费用组成,具体费用详情可参考产品资费。 计费项 计费项说明 使用的计费模式 计费公式 实例费用 计费因子:代理规格和代理数量 包年/包月、按需计费 实例规格单价 代理数量 购买时长 存储空间费用 计费因子:云硬盘类型、容量大小 包年/包月、按需计费 云硬盘规格单价 单个代理存储大小 代理数量 购买时长
        来自:
        帮助文档
        分布式消息服务Kafka
        计费说明
        计费项
      • 创建向量索引
        导入向量数据 执行如下命令,导入向量数据。向“myindex”索引中写入向量数据时,需要指定向量字段名称和向量数据。 向量数据输入格式为逗号分隔的浮点型数组时: POST myindex/doc { "myvector": [1.0, 2.0] } 向量数据输入格式为小端字节序编码的Base64字符串时: 在向量维度较高、数值有效位较多时,使用Base64编码格式传输、解析更加高效。 POST myindex/doc { "myvector": "AACAPwAAAEA" } 当写入大规模数据时,建议使用Bulk操作: POST myindex/bulk {"index": {}} {"myvector": [1.0, 2.0], "mylabel": "red"} {"index": {}} {"myvector": [2.0, 2.0], "mylabel": "green"} {"index": {}} {"myvector": [2.0, 3.0], "mylabel": "red"} 集群高级配置 在离线导入数据场景下,为了提高批量写入性能,建议将索引的refreshinterval参数设置为1,即关闭自动刷新索引。 建议将备份数numberofreplicas设置为0,当离线数据导入完成后,再设置为需要的值。 其他高级功能的参数配置说明: 参数 说明 native.cache.circuitbreaker.enabled 是否开启堆外内存熔断。 默认值:true native.cache.circuitbreaker.cpu.limit 向量索引堆外内存使用上限。 假设使用128GB内存的机器且堆内存大小为31GB,默认堆外内存使用上限为(128 31) 45% 43.65GB,堆外内存使用量超过该值将会触发写入熔断。 默认值:45% native.cache.expire.enabled 是否开启缓存超时设置。开启时,如果某些缓存项长时间没有被访问过将会被清除。 取值范围:true、false 默认值:false native.cache.expire.time 超时时长。 默认值:24h native.vector.indexthreads 创建底层索引时所使用的线程数,每个shard均会使用多个构建线程。该值建议不要设置过大,避免产生过多的构建线程抢占查询资源。 默认值:4
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        向量检索
        创建向量索引
      • 环境准备
        本文为您分布式消息服务MQTT的环境准备内容。 在创建天翼云分布式消息服务MQTT实例之前,您需要做一些准备工作。 首先,您需要设置一个虚拟私有云(VPC),这是一个隔离的网络环境,用于托管MQTT实例。 接下来,您需要创建一个子网,它是VPC内部的一个子网络,用于划分不同的部分和区域。 最后,您需要配置一个安全组,用于控制入站和出站的流量规则,以保证MQTT实例的安全性。 每个分布式消息服务MQTT实例都会被部署在特定的VPC中,并与特定的子网和安全组相关联。这种方式可以让您自主配置和管理MQTT实例的网络环境,并提供安全保护策略。如果您已经有了现成的VPC、子网和安全组,可以重复使用它们,无需重复创建。这样可以节省时间和资源,并确保一致性和可靠性。 VPC和子网 VPC和子网可重复使用,您也可以使用不同的VPC和子网来配置MQTT实例,您可根据实际需要进行配置。在创建VPC和子网时应注意如下要求: VPC与使用的天翼云分布式消息服务MQTT服务应在相同的区域。 如无特殊需求,创建VPC和子网的配置参数使用默认配置即可。 创建VPC和子网的操作请参考虚拟私有云创建VPC、子网搭建私有网络。 若需要在已有VPC上创建和使用新的子网,请参考虚拟私有云子网管理创建子网。
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        环境准备
      • 删除实例
        本章节主要介绍如何删除分布式消息服务RabbitMQ的实例。 操作场景 分布式消息服务RabbitMQ管理控制台支持删除RabbitMQ实例,且可实现批量删除RabbitMQ实例、一键式删除创建失败的RabbitMQ实例。 说明 RabbitMQ实例删除后,实例中原有的数据将被删除,且没有备份,请谨慎操作。 前提条件 RabbitMQ实例状态为运行中、故障、已冻结的按需付费实例才能执行删除操作。 包年/包月类型的RabbitMQ实例,不支持进行删除和批量删除操作。若不再使用,可单击“操作”栏下的“更多 > 退订”进行退订。 删除RabbitMQ实例 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”>“分布式消息服务”>“RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 通过以下任意一种方法,删除RabbitMQ实例。 勾选RabbitMQ实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“删除”。 在待删除RabbitMQ实例所在行,单击“更多 > 删除”。 单击RabbitMQ实例名称,进入实例详情页面。单击右上角的“更多 > 删除”。 说明 RabbitMQ实例状态为创建中、启动中、变更中、变更失败、重启中时不允许执行删除操作。 步骤 5 单击“是”,完成删除RabbitMQ实例。 删除RabbitMQ实例大约需要1到60秒。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        删除实例
      • 以OpenTelemetry方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry c SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry c SDK提供了c语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1、安装依赖包 plaintext dotnet add package OpenTelemetry.Exporter.Console dotnet add package OpenTelemetry.Extensions.Hosting dotnet add package OpenTelemetry.Instrumentation.AspNetCore dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 1)使用http协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplehttp"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用HTTP协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.HttpProtobuf;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run(); 2)使用grpc协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplegrpc"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用gRPC协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.Grpc;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以OpenTelemetry方式接入
      • 流量标签路由
        流量标签使用示例 准备工作:首先部署测试应用app1和app2,调用关系为ingress > app1> app2。 plaintext apiVersion: v1 kind: Service metadata: name: app1 labels: app: app1 service: app1 spec: ports: port: 8000 name: http selector: app: app1 apiVersion: apps/v1 kind: Deployment metadata: name: app1base namespace: demo labels: app: app1 CSMTRAFFICTAG: base spec: replicas: 1 selector: matchLabels: app: app1 name: app1 CSMTRAFFICTAG: base template: metadata: labels: app: app1 name: app1 source: CCSE CSMTRAFFICTAG: base spec: containers: name: default image: registryvpccrshuadong1.cnspinternal.ctyun.cn/library/tracedemo:v1.0.0 imagePullPolicy: IfNotPresent env: name: version value: base name: app value: app1 name: upstreamurl value: " ports: containerPort: 8000 部署Gateway和VirtualService资源 plaintext apiVersion: networking.istio.io/v1beta1 kind: Gateway metadata: name: tracedemogateway spec: selector: istio: ingressgateway servers: hosts: "" port: name: http number: 80 protocol: HTTP apiVersion: networking.istio.io/v1beta1 kind: VirtualService metadata: name: vsgatewayapp1 spec: gateways: tracedemogateway hosts: "" http: route: destination: host: app1 Ingress gateway流量打标 Ingress网关侧对流量打标之后我们看通过查看上游的app1服务收到的请求头部确认流量打标是否成功,首先定义流量标签策略: plaintext apiVersion: istio.ctyun.cn/v1beta1 kind: TrafficLabel metadata: name: trafficlabelexample namespace: istiosystem spec: workloadSelector: labels: istio: ingressgateway rule: labels: name: labelfromheader valueFrom: $getInboundRequestHeader(appversiontag) name: labelfrompod valueFrom: $getLabel(app) 上面的配置在Ingress网关处定义了两个标签,labelfromheader会从appversiontag请求头部取值打标,labelfrompod从pod的app标签取值打标。我们通过Ingress网关访问app1服务,并带上appversiontag: ccccc,查看app1的日志如下:
        来自:
        帮助文档
        应用服务网格
        用户指南
        流量管理中心
        流量标签路由
      • 创建国产化版AI云电脑
        本节介绍创建国产化版云电脑的操作说明。 操作场景 AI云电脑国产化版,是基于国产化软硬件及自研技术栈实现,技术安全可信。具备更强性能,软硬件均为国产自研,符合国产化要求,适合国产化安全办公,数据存储,组合网络,高效运维等管理需求。 目前功能尚未全面放开订购,如需订购,请联系您的专属客户经理,或拨打天翼云客服电话: 4008109889 操作步骤 1.进入“AI云电脑(政企版)”管理控制台; 2.展开“AI云电脑管理”菜单栏,选择“桌面管理”,点击“创建桌面”,进入“创建桌面”页面; 3.进入“创建桌面”页面,“来源”选择“单实例”; 4.选择“Linux”系统类型; 5.选择“AI云电脑国产化版”规格类型; 6.根据实际情况选择AI云电脑国产化版的架构和芯片、规格; 7.选择AI云电脑的“镜像类型”; 8.选择AI云电脑的“磁盘选择”; 系统盘:普通AI云电脑默认已包含80GB高IO系统盘,GPUAI云电脑默认已包含120GB超高IO系统盘。 数据盘:根据实际情况选择桌面数据盘配置,每台桌面实例最多可添加5块数据盘,每块数据盘最大存储容量为2000GB。 注意 资源包开通的桌面系统盘最高可扩容至200GB,单实例开通的桌面系统盘最高可扩容至500GB。 9.选择AI云电脑的“vpc”和“业务子网”; 注:AI云电脑所选的业务子网需要绑定带宽,桌面才能连接网络。 通过将上网带宽与业务子网建立绑定关系,来控制业务子网下AI云电脑的最终可用带宽。详情可参考管理上网带宽 10.选择账号类型,并填写分配电脑的账号信息; 邮件通知激活:需要发送激活邮件,用户激活后,账号即可使用。 选择已有用户:选择已经存在的用户进行电脑分配。 11.选择桌面的“购买时长”; 12.确认相关的配置信息,单击“立即购买”,支付成功后,即完成国产化版AI云电脑的开通。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        创建AI云电脑
        创建国产化版AI云电脑
      • 签约主体变更的影响有哪些
        场景一 问题:签约主体变更后产生的消费(“后续消费”)如何开发票? 回答:签约主体变更后,后续消费由天翼云科技公司开发票。 场景二 问题:签约主体变更后,退订原签约主体下的订单,退款部分后续消费如何开发票? 回答:退订的订单未开过发票的退款部分,后续消费由天翼云科技公司开发票;退订有开过发票的退款部分,后续消费不再开发票。 举例1:您已消费100元,一直未开发票。签约主体变更后,您退订该笔订单获退款70元。您重新下单消费 70元,可开发票金额为70元,此时的开票主体为天翼云科技公司。 举例2:已下单消费100元,已开发票。签约主体变更后,您退订该笔订单但未退回发票,您退款70元(欠票为70元),您重新下单消费50元(50元不开发票,另外所欠票20元的开票主体为天翼云科技公司)。 场景三 问题:签约主体变更前后的发票销售方信息有什么不同? 变更前: 纳税人名称: 中国电信股份有限公司云计算分公司 统一社会信用代码(纳税人识别号):91110102593870051H 地址及电话:北京市西城区金融大街31号1幢16层1613房 10000 开户银行及账号:交通银行北京市分行营业部 110060149018170154432 变更后: 纳税人名称:天翼云科技有限公司 统一社会信用代码(纳税人识别号):91110101MA04CBKC17 地址及电话:北京市东城区青龙胡同甲1号、3号2幢2层20532室 01058507865 开户银行及账号:交通银行股份有限公司北京市分行营业部 110060149013001879960 申请合同 问题:签约主体变更后,新购订单如何申请合同? 回答:签约主体变更后,新购订单可在管理中心的“合同管理”菜单中申请线上合同,合同的签约方为天翼云科技公司。 其他 如果您需要中国电信股份有限公司云计算分公司和天翼云科技有限公司的关联关系证明,请联系您的客户经理获取盖章版的《关于变更合同主体(转让合同)的通知》。
        来自:
        帮助文档
        费用中心
        常见问题
        签约主体变更的影响有哪些
      • 计费模式
        主要介绍翼MapReduce服务的计费方式。 计费项 购买MRS集群的费用包含两个部分: MRS服务管理费用 IaaS基础设施资源费用(云主机、云硬盘,弹性IP/带宽等) 计费方式 MRS当前支持包年包月和按需计费两种计费方式。 包年/包月:根据集群购买时长,一次性支付集群费用。最短时长为1个月,最长时长为1年。 按需计费:节点按实际使用时长计费,计费周期为一小时。 费用计算方式 系统显示的集群费用,包括:MRS服务管理费用+云主机使用费+云硬盘使用费+其他费用(如弹性IP/带宽等)。 其中云主机、云硬盘及其他(如弹性IP/带宽等)产品的价格,请参考对应产品的价格清单。 普通版集群 普通版集群服务管理费用,按实际选择的节点规格、数量及其单价进行计算。 以创建节点数量为6的集群为例,选用通用计算型“s3.4xlarge.4”(16核64GB)规格: 按需集群:单价为0.62元/节点/小时,集群服务管理费为6x0.623.72元/小时。(此示例未包含云主机、云硬盘等其他产品费用) 包周期集群:单价为299元/节点/月,集群服务管理费为6x2991794元/月。(此示例未包含云主机、云硬盘等其他产品费用) LTS版集群 LTS集群服务管理费,以“核数”为单位计费,计费项与普通集群相同。 以购买10个规格为8核的节点集群为例: 按需集群:单价为0.052元/核/小时,集群服务管理费为 8x10x0.0524.16元/小时。(此示例未包含云主机、云硬盘等其他产品费用) 包周期集群:单价为25元/核/月,集群服务管理费为8x10x252000元/月。(此示例未包含云主机、云硬盘等其他产品费用) 计费方式变更 仅支持由按需计费转换为包周期计费,暂不支持由包周期计费转换为按需计费。 到期欠费
        来自:
        帮助文档
        翼MapReduce
        计费说明
        计费模式
      • 迁移自建Harbor至容器镜像服务企业版
        查看对象存储镜像导入任务进度 1. 进入容器镜像服务控制台 。 2. 点击已开通的企业版实例名称。 3. 左侧导航栏点击【实例管理>镜像导入】 ,并点击页面中的导入任务 。 二、开源镜像迁移工具imagesyncer导入 操作步骤 1. 下载 imagesyncer 并进行解压。 plaintext wget tar zvxf imagesyncerv1.3.1linuxamd64.tar.gz 也可参照官方文档使用其他方式进行安装: 点这里 2. 创建镜像仓库的认证信息文件auth.json,在其中填写Harbor和容器镜像服务企业版的地址以及用户名和密码,示例: plaintext { " ": { // Harbor地址 "username": "xxx", // Harbor用户名 "password": "xxx" // Harbor密码 }, "mycrsregistryhuadong1.crs.ctyun.cn": { // 企业版实例地址 "username": "xxx", // 企业版用户名 "password": "xxx" // 企业版密码 } } 3. 创建镜像同步规则文件images.json,在其中指定Harbor源仓库和容器镜像服务企业版目标仓库的对应关系,示例: plaintext { " /myns/nginx": "mycrsregistryhuadong1.crs.ctyun.cn/myns/nginx" // 格式为源仓库:目标仓库,imagesyncer将自动同步源仓库下的镜像至目标仓库 } 注意 企业版实例需要先新建对应的命名空间和镜像仓库,或者在命名空间开启 自动创建仓库 选项。 4. 执行imagesyncer命令开始镜像迁移。 plaintext ./imagesyncer auth./auth.json images./images.json 命令行可选参数包括: 参数 说明 images 设置镜像同步规则文件的路径 auth 设置镜像仓库认证文件的路径 log 设置输出log文件路径,默认打印到标准错误输出 proc 镜像同步的并发数,默认为5 retries 同步任务失败时的重试次数,默认为2,重试有助于减少因网络波动而导致的同步任务失败次数 5. 等待命令执行完成,镜像便已成功迁移至企业版实例对应仓库下。
        来自:
        帮助文档
        容器镜像服务
        最佳实践
        迁移自建Harbor至容器镜像服务企业版
      • 管理级联组织树
        目录管理 点击每个目录层级后方的【新建目录】按钮,可在该目录下创建子目录。 说明 行政区划模式下,根据其模式的特性在创建目录时存在以下限制: 子目录创建层级最多仅支持创建到5级子目录,对应(省、市、区、基层、行业),其中创建4、5级目录时需自行填写目录国标ID。 各目录层级有严格的行政区划归属关系,创建子目录时,所属区域仅支持选择当前父目录的下层行政区划,即:无法在行政区划为“上海市”的父目录下,创建行政区划为“北京市”的子目录。 同级无法创建2个及以上所属区域相同的目录,即:父目录所属区域为“上海市”时,子目录无法创建2个所属区域为“徐汇区”的目录。 子目录支持【编辑】、【删除】(连同目录下属设备移除)操作,根目录支持【删除】(一键清空全量的设备与子目录)。 说明 行政区划模式下,不支持编辑目录的所属区域。 设备管理 在行政区划模式下,左侧系统树上方提供了筛选功能,并且支持以下两种方式构建行政区划组织树: 批量勾选左侧列表中的设备,并拖拽至右侧行政区划组织树下,该模式下拖拽不会携带原目录结构(可在右侧列表中手动拖拽设备至任意目录下)。 批量勾选左侧列表中的设备,点击【一键导入】,可以按照设备所属区域自动归并至右侧行政区域组织树的对应目录下。若行政区划组织树中无该所属区域的目录,将会自动创建目录后再对设备进行归并。 在右侧的行政区划组织树中,可对目录/设备进行拖拽排序。完成行政区划组织树的创建/编辑后,点击【提交】按钮即与平台绑定,可结束当前流程返回首页平台列表,也可按顶部流程指导,点击【继续】按钮进入第三步【向上级联自定义级联国标ID】,自定义设备树的级联国标ID。
        来自:
        帮助文档
        智能视图服务
        用户指南
        向上级联
        管理级联组织树
      • 告警规则:创建v4.1
        参数 是否必填 参数类型 说明 示例 下级对象 regionID 是 String 资源池ID 81f7728662dd11ec810800155d307d5b name 是 String 规则名 告警规则示例 service 是 String 本参数表示服务。取值范围:ecs:云主机。evs:云硬盘。pms:物理机。...详见“ ecs dimension 是 String 本参数表示告警维度。取值范围:ecs:云主机。disk:磁盘。pms:物理机。...详见“ ecs conditions 是 Array of Objects 具体告警匹配策略 condition desc 否 String 规则描述 规则描述 repeatTimes 否 Integer 重复告警通知次数,默认为0 0 silenceTime 否 Integer 告警接收策略静默时间,多久重复通知一次,单位:秒 300 recoverNotify 否 Integer 本参数表示恢复是否通知。默认值0。取值范围:0:否。1:是。根据以上范围取值。 0 notifyType 否 Array of Strings 本参数表示告警接收策略。取值范围:email:邮件告警。sms:短信告警。根据以上范围取值。 ['email','sms'] contactGroupList 否 Array of Strings 告警联系组 ['fe7f0cdc469255168d3ab06355482090'] notifyWeekdays 否 Array of Integers 本参数表示通知周期。默认值[0,1,2,3,4,5,6]。取值范围:0:周日。1:周一。2:周二。3:周三。4:周四。5:周五。6:周六。根据以上范围取值。 [0,1,2,3,4,5,6] notifyStart 否 String 通知起始时段,默认为00:00:00 00:00:00 notifyEnd 否 String 通知结束时段,默认为23:59:59 23:59:59 webhookUrl 否 Array of Strings webhook消息推送url ['www.ctyun.cn'] resGroupID 否 String 资源分组ID,与resources字段互斥。 1.以资源分组为资源对象的告警规则,不需要传入resources。2.非资源分组为资源对象的告警规则,resources为必填项。 eec4a76a35ba57b891c6c4fd923351d6 resources 是 Array of Objects 具体告警匹配资源 resources projectID 否 String 项目ID 0 conditionType 否 Integer 本参数表示告警策略触发类型。默认值0。取值范围:0:或,任一条件触发。1:全部条件满足触发。根据以上范围取值。 0 0
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        告警服务
        告警规则
        告警规则:创建v4.1
      • 创建高可用桌面
        本节介绍高可用云桌面的创建说明。 开通“高可用AI云电脑”功能服务的用户,可直接订购高可用AI云电脑。 操作步骤 1.进入“AI云电脑(政企版)”管理控制台; 2.展开“AI云电脑管理”菜单栏,选择“桌面管理”,点击“创建桌面”,进入“创建桌面”页面; 3.选择规格类型“高可用版”,跳转到高可用桌面订购页; 4.高可用桌面有两个版本: AI云电脑高可用(通用版) 提供零配置、标准化的高可用方案,支持存量AI云电脑一键升级。 进行定期整机数据高可用保障,可提供与故障前10分钟完全一致的AI云电脑服务。 注意:“通用版”无需任何配置,可直接单实例订购和资源包订购方式。 AI云电脑高可用(个性版) 支持自定义高可用策略,满足个性化业务场景需求。 提供实时高可用保障,可提供与故障前高可用策略范围内一致的AI云电脑服务。 注意:“个性版”则需用配置“高可用策略”和“高可用带宽”,暂只支持资源包订购方式。 5.选择系统类型; 6.选择规格类型“高可用版”的AI云电脑规格; 7.选择AI云电脑的“镜像类型”; 8.选择AI云电脑的“磁盘选择”; 9.根据实际情况选择桌面数据盘配置,每台桌面实例最多可添加5块数据盘,每块数据盘最大存储容量为2000GB。高可用AI云电脑默认已包含80GB高IO系统盘。 10.选择AI云电脑的“vpc”和“业务子网”; 注:AI云电脑所选的业务子网需要绑定带宽,桌面才能连接网络。 通过将上网带宽与业务子网建立绑定关系,来控制业务子网下AI云电脑的最终可用带宽。 11.选择账号类型,并填写分配电脑的账号信息; 邮件通知激活:需要发送激活邮件,用户激活后,账号即可使用。 选择已有用户:选择已经存在的用户进行电脑分配。 12.其它电脑实例配置信息,根据需要自行配置; 13.确认相关的配置信息,点击“创建桌面”,即完成电脑开通。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        高可用AI云电脑
        管理员指南
        创建高可用桌面
      • 创建LinuxAI云电脑
        本节介绍创建Linux云电脑的操作说明。 天翼AI云电脑(政企版)可以通过资源包或单实例方式开通Linux系统的普通AI云电脑。 如需通过资源包方式开通AI云电脑,请先订购资源包,详见订购资源包。 操作步骤 1.进入“AI云电脑(政企版)”管理控制台; 2.展开“AI云电脑管理”菜单栏,选择“桌面管理”,点击“创建桌面”,进入“创建桌面”页面; 3.创建方式来源选择“资源包”或“单实例”; 资源包方式开通:管理员可通过已订购资源包,通过资源包的资源分配方式开通AI云电脑,无需单独付费。 单实例方式开通:管理员可以选择AI云电脑配置,直接通过付费完成AI云电脑的开通。 4.选择“Linux”系统类型; 5.选择规格类型“桌面版”或“服务器版”,再根据需求选择AI云电脑规格; 6.选择AI云电脑的“镜像类型”; 7.选择AI云电脑的“磁盘选择”; 系统盘:普通AI云电脑默认已包含80GB高IO系统盘,GPUAI云电脑默认已包含120GB超高IO系统盘。 数据盘:根据实际情况选择桌面数据盘配置,每台桌面实例最多可添加5块数据盘,每块数据盘最大存储容量为2000GB。 注意 资源包开通的桌面系统盘最高可扩容至200GB,单实例开通的桌面系统盘最高可扩容至500GB。 8.选择AI云电脑的“vpc”和“业务子网”; 注:AI云电脑所选的业务子网需要绑定带宽,桌面才能连接网络。 通过将上网带宽与业务子网建立绑定关系,来控制业务子网下AI云电脑的最终可用带宽。详情可参考管理上网带宽 9.选择账号类型,并填写分配电脑的账号信息; 邮件通知激活:需要发送激活邮件,用户激活后,账号即可使用。 选择已有用户:选择已经存在的用户进行电脑分配。 注意:系统将自动生成root密码并在开通邮件中提醒。 10.其它电脑实例配置信息,根据需要自行配置; 11.确认相关的配置信息,点击“创建桌面”,即完成电脑开通。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        创建AI云电脑
        创建LinuxAI云电脑
      • UA黑白名单
        本文介绍UA黑白名单功能及使用建议。 功能介绍 UserAgent(简称UA)是HTTP请求头的一部分,包含用户访问时所使用的操作系统及版本、浏览器类型及版本等标识信息,因此UserAgent是访客身份的象征,标志访客访问时所使用的工具,通过识别HTTP请求中的UserAgent字段中包含的部分信息,可以规范访客的行为,拦截或允许某一类访客的访问,实现防盗链、防盗刷、防攻击的目的。 UserAgent白名单:用于配置允许用户使用的访问工具,UA白名单之外的访问工具全部拒绝访问(节点响应403),UA白名单之内的访问工具全部允许访问。 UserAgent黑名单:用于配置禁止用户使用的访问工具,UA黑名单之外的访问工具全部允许访问,UA黑名单之内的访问工具全部拒绝访问(节点响应403)。 注意事项 1. UA黑名单与UA白名单只能二选一,不可同时配置,为互斥关系。 2. 如果用户请求中携带的UserAgent字段的值命中UserAgent黑名单中的值,则该请求仍可访问到CDN加速节点,但是会被CDN加速节点拒绝并返回403状态码。 配置说明 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【访问控制】。 5. 在【UA黑白名单】模块,开启功能。 6. 根据需求配置是否忽略大小写,默认开启。 7. 设置匹配方式,选择正则或者通配符,默认使用正则表达式匹配。 8. 设置类型,选择【白名单】或【黑名单】,使用换行符分隔。 9. 单击【保存】,完成配置。 参数名 说明 忽略大小写 默认开启,即忽略大小写匹配UA名单,可配置关闭。 匹配方式 默认使用正则表达式匹配,可配置使用通配符匹配。 类型 可选择配置白名单或者黑名单,二选一。 黑名单:黑名单内的UA无法访问资源。 白名单:只有白名单内的UA可以访问资源。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        访问控制
        UA黑白名单
      • ALM-18019 JobHistoryServer非堆内存使用率超过阈值
        本章节主要介绍ALM18019 JobHistoryServer非堆内存使用率超过阈值的告警。 告警解释 系统每30秒周期性检测MapReduce JobHistoryServer非堆内存使用率,并把实际的MapReduce JobHistoryServer非堆内存使用率和阈值相比较。当MapReduce JobHistoryServer非堆内存使用率超出阈值(默认为最大非堆内存的90%)时产生该告警。 用户可通过“运维 > 告警 > 阈值设置 > 待操作集群的名称 > MapReduce”修改阈值。 当MapReduce JobHistoryServer非堆内存使用率小于或等于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 18019 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 MapReduce JobHistoryServer非堆内存使用率过高,会影响MapReduce任务提交和运行的性能,甚至造成内存溢出导致MapReduce服务不可用。 可能原因 该节点MapReduce JobHistoryServer实例非堆内存使用量过大,或分配的非堆内存不合理,导致使用量超过阈值。 处理步骤 检查非堆内存使用量 1.在FusionInsight Manager界面,选择“运维 > 告警 > 告警 > ALM18019 MapReduce JobHistoryServer非堆内存使用率超过阈值定位信息”。查看告警上报的实例的主机名。 2.在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 服务 > MapReduce > 实例 > JobHistoryServer(对应上报告警实例主机名)”,单击图表区域右上角的下拉菜单,选择“定制 > 资源”,勾选“JobHistoryServer非堆内存使用百分比统计”。查看非堆内存使用情况。 3.查看JobHistoryServer使用的非堆内存是否已达到JobHistoryServer设定的最大非堆内存的90%。 是,执行步骤4。 否,执行步骤6。 4.在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 服务 > MapReduce > 配置 > 全部配置 > JobHistoryServer > 系统”。对NodeManager 的内存参数“GCOPTS”进行调整,并单击“保存”,单击“确定”进行重启。 说明 历史任务数10000和JobHistoryServer内存的对应关系如下: Xms30G Xmx30G XX:NewSize1G XX:MaxNewSize2G 5.观察界面告警是否清除。 是,处理完毕。 否,执行步骤6。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-18019 JobHistoryServer非堆内存使用率超过阈值
      • 主机监控
        业务端口被Agent占用该如何处理? 云监控服务的Agent插件会使用HTTP请求上报数据,使用过程中会随机占用动态端口,范围取自/proc/sys/net/ipv4/iplocalportrange。若发现使用的业务端口与Agent使用的端口冲突,可以修改/proc/sys/net/ipv4/iplocalportrange,并重启Agent解决此问题。 操作步骤 1. 使用root用户登录ECS或BMS。 2. 执行如下命令,打开sysctl.conf文件。 vim /etc/sysctl.conf 3. (永久修改)在sysctl.conf文件添加新的端口配置。 net.ipv4.iplocalportrange49152 65536 4. 执行如下命令,使修改生效。 sysctl p /etc/sysctl.conf 说明 永久性修改,重启ECS或BMS后依旧生效。若要临时修改(重启ECS或BMS后失效),请执行 echo 49152 65536 > /proc/sys/net/ipv4/iplocalportrange 5. 请执行如下命令,重启Agent。 /usr/local/telescope/telescoped restart 说明 Windows系统下:在Agent安装包存放目录下,先双击执行shutdown.bat脚本,停止Agent,再执行start.bat脚本,启动Agent。 如何创建委托? 操作场景 通过创建委托,可以让Agent自动获取用户的访问密钥,从而不需要把密钥(AK/SK)暴露在配置文件中。 操作步骤 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 在服务列表中选择“统一身份认证服务”。 4. 选择“委托 > 创建委托”,进入创建委托页面。 参照下表,完成创建委托页面参数填写。 表 创建委托 名称 说明 委托名称 标识该委托代理的名称。 样例:CESAgentAutoConfigAgency 委托类型 选择“云服务”。 云服务 选择“弹性云主机ECS物理机BMS”。 持续时间 选择永久。 描述 可选参数,用于补充说明该委托代理的详细信息。 5. 在“权限选择”区域,单击当前region所在行的“修改”,弹出权限选的“策略”页面。 6. 在左侧“可选择的策略”搜索框中输入“CES”,在查找结果中选择“CES”及“CES Administrator”。 7. 单击页面下方的“确定”按钮,委托关系创建成功。
        来自:
        帮助文档
        云监控服务
        常见问题
        主机监控类
        主机监控
      • 错误码列表
        $ % ^ & ( ) + [ ] { } ; : , . / ?), and must not contain any of the following: 3 consecutive repeating characters, 3 consecutive or inreverse order of numbers or letters (caseinsensitive) , 3 consecutive or inreverse order of keyboard sequences (caseinsensitive). 新密码不符合规则。长度范围8~16,至少包含以下字符中的3种:大写字母、小写字母、数字、特殊字符 (~ ! @ $ % ^ & ( ) + [ ] { } ; : , . / ?),区分大小写。不能包含:3个连续重复的字符,3个连续或反序的数字、或字母(不区分大小写),3个连续或反序的键盘序列(不区分大小写)。 400 InvalidNodeName Value value at 'node name' failed to satisfy constraint: Argument must contain only letters, digits, dots (.), underscores () or hyphens (), and does not exceed 63 characters, must begin with a letter or digit. 节点名称不正确。长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 400 InvalidNodeType Value value at 'node type' failed to satisfy constraint: the first node type must be root. 节点类型的包含关系错误,第一个节点必须是root。 400 InvalidNodeType Value value at 'node type' failed to satisfy constraint: childNodes of room are limited to [rack, server], childNodes of rack to [server], childNodes of server to [path] only. 节点类型的包含关系错误。room的节点仅限于rack、server,机架的子节点是server,server的子节点是path。 400 InsufficientPath The base storage pool must have at least one disk path. 基础存储池至少要有一个数据目录。 400 InvalidPort Value valueat 'argument' failed to satisfy constraint: Argument must have value between 1 and 65535. Port的取值必须在[1, 65535]之间。 400 InvalidPortRange Value value at 'port range' failed to satisfy constraint: Argument must satisfy pattern 'port1port2', where port1, port2 are positive integers between 1 and 65535, port1 is less than port2. 参数必须是“port1port2”格式,port1和port2必须是介于[1,65535]之间的正整数,且port1小于port2。 400 InvalidPublicNetwork Value publicNetwork at 'public network' failed to satisfy constraint: Argument must satisfy CIDR specifications. 业务网格式错误。 400 InvalidServers The current server is not in the servers list. 当前服务器不在servers列表内。 400 InvalidServersCount The number of servers for xx service shoule be value. XX服务的服务器数量应该为value台。 400 InvalidStorName Value 'value' at 'argument' failed to satisfy constraint: Argument can only contain letters, digits, hyphens () or underscores (), and does not exceed 64 characters, must begin with a letter or digit. HBlock名称不合法。 400 InvalidTopologyContent The content of the topology is not compliant. 拓扑文件内容解析错误。 400 MissingClusterNetwork Value null at 'cluster network' failed to satisfy constraint: Argument must not be null when 'server ip' contains 'localhost'/'127.0.0.1'/'0:0:0:0:0:0:0:1'. 当server ip包含localhost、127.0.0.1或0:0:0:0:0:0:0:1时,集群网不能为空。 400 MissingPublicNetwork Value null at 'public network' failed to satisfy constraint: Argument must not be null when 'server ip' contains 'localhost'/'127.0.0.1'/'0:0:0:0:0:0:0:1'. 当server ip包含localhost、127.0.0.1或0:0:0:0:0:0:0:1时,业务网不能为空。 400 NotInterfaceIP The IP IP is not an interface IP address, check and retry. IP地址不是服务器的接口IP,请修改并重试。 400 ProductTypeDoesNotMatch HBlock product type does not match. 产品类型不一致。 400 ServerAlreadyInitialized The server has been initialized. 服务器已初始化。 400 StandaloneModeNotAllowed 'operation' is not supported by standalone mode of HBlock. 单机版本HBlock不支持该操作。 400 TooFewServers The number of servers must be greater than or equal to 3. 服务器必须大于等于3台。 400 UnrecognizedServer Value IP at 'argument' failed to satisfy constraint: Argument must be in the setup server list. 服务器IP不在初始化服务器列表内。 400 VersionDoesNotMatch Please replace the HBlock version of server serverIP [,serverIP...] to clutserVersion, then try again. 版本号不一致。 403 InvalidUserName Invalid user name. 用户名不正确。 403 InvalidUserNameOrPassword Invalid user name or password hash. 用户名或密码不正确。 409 PortChanged Initialization failed because the port on the server serverIP is currently used by another service during the initialization process. Please try again. 端口在初始化过程中被其他服务占用,请重试。 409 PortConflict The following port is/ports are in use. serverID/IP/local server: portname port[, portname port...] [ serverID/IP/local server: portname port[, portname port...]...] 端口冲突。 500 InitializeServerFailed Server serverIP initialization failed, please check the firewall, network, memory, diskpath, etc, or contact technical team for support. 服务器初始化失败,请检查防火墙、网络、内存、数据目录等设置,或联系技术团队进行支持。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        初始化
        错误码列表
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • AnyWhere集群概述
        本文介绍AnyWhere集群。 天翼云CCE Anywhere集群是面向分布式云场景,提供的一种全新本地 Kubernetes 集群部署选项:构建在Kubernetes子项目Cluster API(CAPI)之上,通过申明式API和控制器模式,让您在自己管理的IDC基础设施或边缘设施中,创建、管理和升级基于天翼云CCE Distro发行版的Kubernetes集群;拥有与云上CCE发行版相同可靠性和安全性的同时,通过连接到云上注册集群,可获得标准化集群运维(含日志、监控、巡检、诊断、备份等)、丰富的插件扩展,以及智算套件、集群联邦等高阶扩展能力,实现轻量敏捷、云边一体的分布式容器云服务。 产品优势 公有云标准化交付,相同可靠性与安全性。 丰富扩展能力,将云上现代化操作实践和工具适配本地集群环境。 支持纯离线环境部署交付。 基于云原生开源标准构建。 应用场景 将本地应用从虚拟机迁移到现代化容器。 基于容器构建内部开发平台,以标准化团队资源使用。 将本地基础设施容器化后,与云上资源打通以实现极致弹性能力。 将本地基础设施容器化后,接入CCE One集群联邦以实现分布式智算能力。 施工指南
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        AnyWhere集群
        AnyWhere集群概述
      • 分布式消息服务Kafka资源池
        本节主要介绍分布式消息服务Kafka产品的API中资源池ID列表。 分布式消息服务Kafka的资源池列表。 资源池 资源池ID(Region ID) 华东1 bb9fdb42056f11eda1610242ac110002 华北2 200000001852 西南1 200000002368 华南2 200000002530 上海36 200000001790 青岛20 200000001703 长沙42 200000002401 南昌5 200000002527 武汉41 200000001781 杭州7 200000003329 太原4 200000002689 郑州5 200000002586 西安7 200000001851 芜湖4 200000003327 呼和浩特3 200000003573 乌鲁木齐7 200000004098 庆阳2 200000003664 西南2贵州 200000002927
        来自:
        帮助文档
        分布式消息服务Kafka
        API参考
        附录
        分布式消息服务Kafka资源池
      • 1
      • ...
      • 126
      • 127
      • 128
      • 129
      • 130
      • ...
      • 288
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      镜像服务 IMS

      弹性高性能计算 E-HPC

      一站式智算服务平台

      智算一体机

      人脸实名认证

      人脸比对

      动作活体识别

      通用型OCR

      推荐文档

      域名相关常见问题

      域名管理

      加入会议

      实名认证

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号