云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      边缘容器集群(ECK专有版)_相关内容
      • 产品优势
        全托管 业务系统基于现有的开源 Apache Kafka 生态的代码,兼容社区版Kafka的API,具备原生Kafka的所有消息处理特性。无需任何改造,即可迁移上云,不再需要专门部署、运维,只需专注业务本身。 一键式部署 只需要在实例管理界面选好规格配置,提交订单。后台将自动创建部署完成一整套Kafka实例。 运维高效 提供多维度指标监控(队列级别);支持消息查询、消息回溯以及消息数据过期自动删除。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        产品优势
      • RocketMQ C++ SDK
        概述 本文介绍使用 RocketMQ C++(4.x) 客户端 SDK,访问分布式消息服务RocketMQ,帮助您更好地理解消息收发的完整过程。 前置条件 安装gccc++ 4.8.2 及以上版本,需支持C++11。 安装cmake 2.8.0及以上版本。 安装automake 1.11.1及以上版本。 安装autoconf 2.65及以上版本。 安装libtool 2.2.6 及以上版本。 环境准备 需要在客户端环境安装 RocketMQClientCPP 库,根据官方文档进行安装即可: 安装 CPP 动态库,推荐使用 master 分支构建。 在项目中引入 RocketMQClientCPP 相关头文件及动态库,详见实例代码头文件。 使用g++命令获得可执行文件,如: g++ o xxxProducer xxxProducer.cpp lrocketmq lpthread lz ldl lrt 使用 C++ SDK 收发普通消息 发送普通消息 include include include include include "rocketmq/DefaultMQProducer.h" using namespace std; using namespace rocketmq; int main(){ DefaultMQProducer producer("groupname"); //填写分布式消息服务RocketMQ版的接入点 producer.setNamesrvAddr("your access point"); //填写分布式消息服务RocketMQ版的ak、sk producer.setSessionCredentials("ak", "sk", "channel"); producer.start(); int count 64; for (int i 0; i < count; ++i) { //填入主题名、tag名、消息body MQMessage msg("topicname", "TAG", "msg content"); try { SendResult sendResult producer.send(msg); std::cout << "SendResult:" << sendResult.getSendStatus() << ", Message ID: " << sendResult.getMsgId() << std::endl; thisthread::sleepfor(chrono::seconds(1)); } catch (MQException e) { std::cout << "ErrorCode: " << e.GetError() << " Exception:" << e.what() << std::endl; } } std::cout << "Send " << count << " messages OK, costs" << std::endl; producer.shutdown(); return 0; }
        来自:
        帮助文档
        分布式消息服务RocketMQ
        SDK参考
        RocketMQ C++ SDK
      • 管理登录手机令牌
        此小节介绍云堡垒机的管理登录手机令牌。 云堡垒机系统支持通过绑定手机令牌对用户登录进行多因子身份认证,用户配置“手机令牌”多因子认证后,需同时输入用户密码和6位手机令牌验证码,才能登录云堡垒机系统。 目前云堡垒机系统可选择两种手机令牌绑定方式“内置手机令牌”和“RADIUS手机令牌”。 内置手机令牌:微信小程序手机令牌; RADIUS手机令牌:APP版手机令牌Google Authenticator和FreeOTP。 需确保系统时间与手机时间一致,精确到秒,否则可能提示绑定失败。 绑定失败后,修改系统时间与手机时间一致,刷新页面重新生成二维码,重新绑定手机令牌。 本小节主要介绍如何绑定和解绑手机令牌。 绑定手机令牌 1. 登录云堡垒机系统。 2. 选择右上角用户名,单击“个人中心”,进入个人中心管理页面 3. 选择“手机令牌”页签,进入个人手机令牌管理页面。 4. 按照界面提示和实际令牌类型,执行绑定操作。 1. 微信小程序手机令牌:打开手机微信,依次按照操作指导,获取绑定动态口令,输入6位“动态密码”,验证通过绑定手机令牌。 2. APP版手机令牌:打开已安装好的手机令牌APP,扫描页面操作指导步骤2的二维码,获取绑定动态口令,输入6位“动态密码”,验证通过绑定手机令牌。 5. “手机令牌”页签更新为已绑定手机令牌页面
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统桌面
        管理登录手机令牌
      • 重置Kafka Manager密码
        本文主要介绍 重置Kafka Manager密码。 操作场景 如果您忘记了创建实例时设置的Kafka Manager密码,通过重置Manager密码功能,重新设置一个新的密码,可使用新密码登录Kafka Manager。 前提条件 已创建Kafka实例,且实例处于“运行中”。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,重置Kafka Manager密码。 在待重置Manager密码的Kafka实例所在行,单击“更多 > 重置Manager密码”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 重置Manager密码”。 单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,在“连接信息 > Manager用户名”后,单击“重置Manager密码”。 步骤 5 输入“新密码”和“确认密码”,单击“确定”,完成密码重置。 重置Manager密码成功,界面提示重置实例的密码成功。 重置Manager密码失败,界面提示重置实例的密码失败,请重新尝试重置密码操作。如果多次重置失败,请联系客服处理。 说明 只有所有代理都重置密码成功,系统才会提示重置密码成功,否则会提示重置失败。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重置Kafka Manager密码
      • 修改实例信息
        本文主要讲述修改实例信息。 创建Kafka实例成功后,您可以根据自己的业务情况对Kafka实例的部分参数进行调整,包括实例名称、描述、安全组和容量阈值策略等。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 以下参数支持修改。 实例名称 企业项目(修改企业项目,不会重启实例) 描述 安全组 公网访问(公网访问的修改方法,请参考设置实例公网访问。) 容量阈值策略(修改容量阈值策略,不会重启实例。) Kafka自动创建Topic(修改Kafka自动创建Topic,会导致Kafka重启) 跨VPC访问(跨VPC访问的操作步骤,请参考使用DNAT访问Kafka实例。) 参数修改完成后,通过以下方式查看修改结果。 修改“容量阈值策略”、“公网访问”和“Kafka自动创建Topic”后,系统跳转到“后台任务管理”页签,并显示当前任务的操作进度和结果。 修改“实例名称”、“描述”、“企业项目”、“跨VPC访问”和“安全组”后,右上角直接提示修改结果。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        修改实例信息
      • 修改服务自定义配置参数
        本章节主要介绍翼MapReduce的修改服务自定义配置参数操作。 操作场景 MRS集群各个组件支持开源的所有参数,其中部分关键使用场景的参数支持在FusionInsight Manager界面进行修改,且部分组件的客户端可能不包含开源特性的所有参数。如果需要修改其他Manager未直接支持的组件参数,管理员可以在Manager通过自定义配置项功能为组件添加新参数。添加的新参数最终将保存在组件的配置文件中并在重启后生效。 对系统的影响 配置服务属性后,如果服务状态为“配置过期”,则需要重启此服务,重启期间该服务不可用。 修改服务配置参数并重启生效后,需要重新下载并安装客户端,或者下载配置文件刷新客户端。 前提条件 管理员已充分了解需要新添加的参数意义、生效的配置文件以及对组件的影响。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“集群 > 待操作集群的名称 > 服务”。 3. 单击服务视图中指定的服务名称。 4. 选择“配置 > 全部配置”。 5. 在左侧导航栏定位到某个一级节点,并选择“自定义”,Manager将显示当前组件的自定义参数。 “参数文件”显示保存管理员新添加的自定义参数的配置文件。每个配置文件中可能支持相同名称的开源参数,设置不同参数值后生效结果由组件加载配置文件的顺序决定。自定义参数支持服务级别与角色级别,请根据业务实际需要选择。不支持单个角色实例添加自定义参数。 6. 在对应参数项所在行“名称”列输入组件支持的参数名,在“值”列输入此参数的参数值。 支持单击“+”或“-”增加或删除一条自定义参数。 7. 单击“保存”,在弹出的“保存配置”窗口中确认修改参数,单击“确定”。界面提示“操作成功。”,单击“完成”,配置保存成功。 保存完成后请重新启动配置过期的服务或实例以使配置生效。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        服务配置
        修改服务自定义配置参数
      • IP黑白名单
        本文为您介绍IP黑白名单防护功能说明,以及如何配置IP黑白名单策略。 IP黑白名单支持对经过云WAF防护域名的访问源IP进行黑白名单设置,来自该IP地址/IP地址段的访问,云WAF将不会做任何检测,直接拦截/放行。 IP黑白名单设置,支持基于域名创建IP黑白名单规则。 支持添加IPv4、IPv6地址,支持添加IP地址段。 IP黑白名单模块的防护检测逻辑优先级高于其他防护模块;IP黑白名单内部检测逻辑,白名单高于黑名单。 前提条件 已开通Web应用防火墙(原生版)实例。 已完成网站域名接入。 规格限制 基础版不支持IP黑白名单功能,请升级到更高版本使用。 不同实例版本支持添加的IP黑白名单规则数量不同,有关各版本规格的详细介绍,请参见产品规格。 若当前版本的IP黑白名单防护规则条数无法满足业务需求时,您可以通过购买规则扩展包或升级版本,以实现规则条数的扩容。一个规则扩展包包含50条IP黑白名单防护规则。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 对象防护配置”,进入防护配置页面。 5. 在“防护配置”页面上方的“防护对象选择”下拉框,切换到要设置的域名。 6. 在“安全防护”页签定位到“IP黑白名单”模块,可以选择开启/关闭防护状态。点击“前去配置”。 7. 进入IP黑白名单规则列表页,列表会展示已创建规则的相关信息,包括规则状态、规则名称/规则ID、IP地址、类别、过期时间、更新时间、规则描述等。 8. 点击列表上方“新建黑白名单”,进入规则配置页面,完成以下信息配置。 配置项 说明 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 类别 定义该规则类型是“黑名单”或“白名单”。 IP地址 添加IP地址/地址段,支持IPv4和IPv6格式的IP地址/地址段。 过期时间 规则配置后,规则状态开启即生效。可通过设置过期时间,为该规则定义生效时间段。过期时间可选: 永久生效 限定日期:自定义设置失效日期 规则描述 可选参数,设置该规则的备注信息。 9. 单击“确定”,规则创建成功,成功后规则默认启用。您可以在规则列表中查看该规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        对象防护配置(安全防护)
        IP黑白名单
      • 教程:使用GDS从远端服务器导入数据
        本章节主要介绍使用GDS从远端服务器导入数据的最佳实践。 教程指引 本教程旨在演示使用GDS(General Data Service)工具将远端服务器上的数据导入DWS中的办法,帮助您学习如何通过GDS进行数据导入的方法。 在本教程中,您将: 生成本教程需要使用的CSV格式的数据源文件。 将数据源文件上传到数据服务器。 创建外表,用于对接GDS和DWS,及将数据服务器上的数据引流到DWS集群中。 启动DWS并创建数据库表后,将数据导入到表中。 根据错误表中的提示诊断加载错误并更正这些错误。 准备ECS作为GDS服务器 创建Linux弹性云主机的操作步骤,请参见《弹性云主机用户指南》中的“创建弹性云主机”。创建后,请参见《弹性云主机用户指南》中的“登录Linux弹性云主机”章节进行登录。 说明 l ECS操作系统必须是GDS工具包所支持的操作系统。 l ECS与DWS处于同一区域、同一虚拟私有云和子网。 l ECS安全组规则需放通DWS集群的访问,即安全组入规则: l 协议:TCP l 端口范围:5000 l 源地址:选择“IP地址”,输入DWS 集群地址,例如“192.168.0.10/32”。 l ECS内部如果启用了防火墙,需要保证防火墙打开了GDS服务的监听端口: iptables I INPUT p tcp m tcp dport j ACCEPT
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        教程:使用GDS从远端服务器导入数据
      • 队列管理
        前置条件 1.账号为主账号或者角色为IAM管理员的子账号 2.开通专属集群 操作步骤 队列旨在帮助用户精细化管理资源,队列是一个资源池中部分资源的集合,用于工作负载,比如训练任务、在线服务的运行,一个资源池中可创建多个队列。用户购买资源池后可将资源池划分成若干个队列,并使用队列中的资源处理不同业务的工作负载。 打开队列管理,顶部导航栏下拉选择集群的位置,选择到自己所有的专属集群。 【创建队列】操作 点击【创建队列】按钮,进入创建队列页面,填写相应信息。 说明 负载类型:选择的负载类型,代表对应的任务可以提交到该队列,占用该队列资源。比如某队列,负载类型选择了大模型微调、在线服务,则代表这两类任务可以提交到该队列,其他任务比如IDE、大模型评估等不可以提交到该队列。 实例规格和实例数:共同决定了该队列的资源额度上限。 管理员和成员:管理员的权限高于成员,成员只能使用该队列的资源,管理员除了能使用资源以外,还能管理该队列,具体包含管理用户,编辑,更配、启动/停止、删除操作。 【查询】操作 创建好的队列会出现在队列列表里,可通过负载类型、状态筛选,也可以通过队列ID、名称搜索。
        来自:
        帮助文档
        训推服务
        用户指南
        管理中心
        队列管理
      • 操作类
        启动broker时BDB报错 问题原因:可能是迁移了store目录或者更换了broker的组名、地址或端口。 解决方案:删除store目录下的consumeStore目录,重启broker即可解决。 从broker已启动,但clusterList看不到 从broker已启动,但无法加入到集群(clusterList查询不到)。 问题原因: 查看/etc/hosts文件,机器名与IP的映射关系是否填写有误。 查看防火墙设置(是否有端口未开放),listenPort 到 listenPort+2的端口都 需要开放(如果主broker的listenPort10911,那么10911、10912、10913都要开放)。 通过命令行创建有序topic,但是web管理台显示的是无序的 通过updateTopic命令,加o true创建有序topic,但是web端查询的时候 显示是无序的。 问题原因:集群有多个namesrv,但是创建的时候只填了一个namesrv。 解决方案:创建时加上这个broker集群的所有namesrv,中间用分号分割,例如:sh mqadmin updateTopic n “10.142.90.30:9876;10.142.90.28:9876”t crmTopic o true。 消费者订阅关系不存在 broker.log日志报错:the consumer's subscription not exist, group: consumerAepIdealLogGroup。 问题原因:使用同个订阅组,同时消费不同的topic,订阅关系会被覆盖。 解决方案:不能使用同个订阅组的消费组去订阅不同的topic,如果需要变换订阅关系,请关闭旧消费者。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        常见问题
        操作类
      • ALM-14022 NameNode RPC队列平均时间超过阈值
        可能原因 NameNode节点的CPU性能不足,导致NameNode无法及时处理消息。 NameNode所设置的内存太小,频繁Full GC造成JVM卡顿。 NameNode配置参数不合理,导致NameNode无法充分利用机器性能。 HDFS的业务访问量太大,超过了NameNode的负载能力。 处理步骤 获取该告警的信息 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中找到该告警。 2.单击该告警,查看下面的告警详情。从“产生时间”可知该告警的触发时间;从“定位信息”中的“主机名”信息可知发出该告警的NameNode节点主机名;从“定位信息”中的NameServiceName信息可知发出该告警的NameService名称。 查看是否阈值设置过低 3.查看依赖于HDFS的业务的运行状态是否正常运行。查看是否存在运行慢、执行任务超时的情况。 是,执行步骤8。 否,执行步骤4。 4.在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HDFS”,单击图表区域右上角的下拉菜单,单击“定制”,在弹出的对话框中选择“主NameNode RPC队列平均时间”,单击“确定”。 5.查看“主NameNode RPC队列平均时间”监控中,获取发出告警的NameService的当前的监控值。 6.在FusionInsight Manager首页,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HDFS”,找到“主NameNode RPC队列平均时间”,单击default规则中“操作”栏中的“修改”,修改“阈值”为当前监控值的150%。单击“确定”,保存新阈值。 7.等待1分钟,查看该告警是否自动消除。 是,处理结束。 否,执行步骤8。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14022 NameNode RPC队列平均时间超过阈值
      • ALM-24000 Flume服务不可用
        本章节主要介绍ALM24000 Flume服务不可用的告警。 告警解释 告警模块按180秒周期检测Flume服务状态,当检测到Flume服务异常时,系统产生此告警。 当系统检测到Flume服务恢复正常,且告警处理完成时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 24000 紧急 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 可能原因 Flume实例全部故障。 处理步骤 1.以omm用户登录Flume实例所在节点,执行 ps efgrep "flume.roleserver" 命令查看当前节点是否存在flume进程。 是,执行步骤3。 否,重启Flume故障实例或Flume服务,执行步骤2。 2.在告警列表中查看“Flume服务不可用”告警是否清除。 是,处理完毕。 否,执行步骤3。 收集故障信息 3.在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 4.在“服务”框中勾选待操作集群的“Flume”。 5.单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后1小时,单击“下载”。 6.请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-24000 Flume服务不可用
      • 创建实例
        参数 描述 管理员帐户 数据库的登录名称默认为root。 管理员密码 所设置的密码长度为8~32个字符,至少包含大写字母、小写字母、数字、特殊字符三种字符的组合,其中允许输入 ~!@%^+?,特殊字符。请您输入高强度密码并定期修改,以提高安全性,防止出现密码被暴力破解等安全风险。请妥善保管您的密码,因为系统将无法获取您的密码信息。 确认密码 必须和主密码相同。 参数模板 数据库参数模板就像是数据库引擎配置值的容器,参数模板中的参数可应用于一个或多个相同类型的数据库实例。对于HA实例创建成功后,主备参数模板相同。实例创建成功后,参数模板可进行修改。须知创建数据库实例时, 为确保数据库实例正常创建,自定义参数模板中相关规格参数如下不会下发, 而是采用系统默认的推荐值。 “maintenanceworkmem” “sharedbuffers” “maxconnections”“effectivecachesize”具您可以在实例创建完成之后根据业务需要进行调整。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        快速入门
        通过公网连接PostgreSQL实例
        创建实例
      • 使用Kyuubi客户端
        本章节主要介绍使用Kyuubi的操作指导。 前提条件 已安装客户端并且部署了ZooKeeper集群。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Kyuubi客户端 1. 安装客户端。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/opt/hadoopclient”。 plaintext cd /opt/hadoopclient 4. 执行以下命令配置环境变量。 plaintext source bigdataenv 5. 集群默认为安全模式,将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行用户认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 6. 直接执行命令。例如: 7. plaintext bin/beeline u 'jdbc:subprotocol://host:port' subprotocol:kyuubi or hive2 host: IP address of the kyuubi server
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Kyuubi客户端
      • 设置节点亲和调度(nodeAffinity)
        验证调度结果 1. 在Kubernetes集群控制台中,导航到“工作负载”页面。 2. 点击工作负载名称进入详情页,查看实例列表。 3. 确认所有Pod都已调度到包含gputrue标签的目标节点上。 通过上述步骤,您可以利用Kubernetes的节点亲和性调度功能,确保高性能计算等特定需求的工作负载被精确地调度到合适的节点上,从而优化资源利用和性能表现。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(新版)
        配置负载调度策略
        设置节点亲和调度(nodeAffinity)
      • ECS自建MySQL迁移RDS实例
        资源类型 配置项 配置内容 说明 DRS迁移任务 迁移任务名 DRSmysql 自定义 DRS迁移任务 源数据库引擎 MySQL 本示例中源数据库为自建MySQL,即在天翼云弹性云主机上安装社区版MySQL。 DRS迁移任务 目标数据库引擎 MySQL 本示例中目标数据库也是MySQL,使用的天翼云RDS实例。 DRS迁移任务 网络类型 公网网络 本示例中采用“公网”。
        来自:
        帮助文档
        数据库复制
        最佳实践
        ECS自建数据库迁移至云上DDS、RDS实例
        ECS自建MySQL迁移RDS实例
      • 查询网关已订阅的服务列表
        参数 参数类型 说明 示例 下级对象 balancerStrategy Object 服务负载均衡策略 BalancerStrategy certFileName String 证书文件名 certFileName certKeyFileName String 密钥证书文件名 certFileKeyName createTime String LocalDateTime创建时间 20231010 12:12:21 enableMtls Boolean 是否开启了双向认证 false enableWebsocket Boolean 是否开启了websocket支持 false groupName String 组名 default healthCheckConfig Object 健康检查配置 HealthCheckConfigVO id String ID 878da73f7dba36ff0ae80e004a4f28f9 label Object 标签map labelNames Array of Objects 标签名列表 LabelNameDTO name String 服务名称 test namespace String 命名空间 prod namespaceId String Nacos命名空间ID prod nodes Array of Objects 固定地址节点列表 VipServiceNodeDTO retry Object 重试配置 Retry serviceNameInRegistry String 注册中心服务名 demo serviceProtocol String 服务协议 http sourceType String 服务来源,VIP:固定地址;NACOS:nacos来源;KUBERNETES:云容器引擎来源 NACOS timeout Object 超时时间配置 Timeout type String 类型,取值:control或Ingress control typeDesc String 类型含义,取值:管控或Ingress 管控 updateTime String LocalDateTime更新时间 20231010 13:13:13
        来自:
        帮助文档
        微服务引擎
        API参考
        API
        2024-01-14
        云原生API网关
        网关服务管理
        查询网关已订阅的服务列表
      • 查询当前实例中的Nacos服务列表
        参数 参数类型 说明 示例 下级对象 balancerStrategy Object 服务负载均衡策略 BalancerStrategy certFileName String 证书文件名 certFileName certKeyFileName String 密钥证书文件名 certFileKeyName createTime String LocalDateTime创建时间 20231010 12:12:21 enableMtls Boolean 是否开启了双向认证 false enableWebsocket Boolean 是否开启了websocket支持 false groupName String 组名 default healthCheckConfig Object 健康检查配置 HealthCheckConfigVO id String ID 878da73f7dba36ff0ae80e004a4f28f9 label Object 标签map labelNames Array of Objects 标签名列表 LabelNameDTO name String 服务名称 test namespace String 命名空间 prod namespaceId String Nacos命名空间ID prod nodes Array of Objects 固定地址节点列表 VipServiceNodeDTO retry Object 重试配置 Retry serviceNameInRegistry String 注册中心服务名 demo serviceProtocol String 服务协议 http sourceType String 服务来源,VIP:固定地址;NACOS:nacos来源;KUBERNETES:云容器引擎来源 NACOS timeout Object 超时时间配置 Timeout type String 类型,取值:control或Ingress control typeDesc String 类型含义,取值:管控或Ingress 管控 updateTime String LocalDateTime更新时间 20231010 13:13:13
        来自:
        帮助文档
        微服务引擎
        API参考
        API
        2024-01-14
        云原生API网关
        网关服务管理
        查询当前实例中的Nacos服务列表
      • 使用GeminiDB Redis时要注意什么
        使用GeminiDB Redis时要注意什么 使用GeminiDB Redis时要注意什么 1. 实例的操作系统,对用户都不可见,这意味着,只允许用户应用程序访问数据库对应的IP地址和端口。 2. 对象存储服务(Object Storage Service,简称OBS)上的备份文件以及GeminiDB Redis使用的系统容器,都对用户不可见,它们只对GeminiDB Redis后台管理系统可见。 3. 申请数据库实例后,您还需要做什么。 申请实例后,您不需要进行数据库的基础运维(比如高可用、安全补丁等),但是您还需要重点关注以下事情: a. 数据库实例的CPU、IOPS、空间是否足够。 b. 数据库实例是否存在性能问题,是否需要优化等。 什么是GeminiDB Redis实例可用性 实例可用性的计算公式: 实例可用性(1–故障时间/服务总时间)×100% 其中,故障时间是指数据库实例创建完成后,运行期间累计发生故障的总时长。服务总时间指数据库实例创建完成后运行的总时长。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        常见问题
        产品咨询
        使用GeminiDB Redis时要注意什么
      • 协议相关限制
        为保证并行文件服务HPFS产品正常使用,在使用之前,请您务必仔细阅读以下协议限制。 并行文件系统目前支持NFS、HPFSPOSIX协议类型,创建的文件系统默认支持HPFSPOSIX协议,用户可通过协议服务功能使用NFS协议的访问方式。 协议版本:NFS支持NFSv3、NFSv4版本。 弹性云主机或CPU物理机支持通过NFS协议挂载访问,GPU物理机支持通过HPFSPOSIX协议挂载访问。 注意 所有资源池/集群默认均支持HPFSPOSIX协议。 如需确认资源池/集群对NFS协议的支持情况,请前往产品能力地图中的【协议服务NFS挂载云主机】列进行查询。
        来自:
        帮助文档
        并行文件服务 HPFS
        产品介绍
        使用限制
        协议相关限制
      • 查看实例
        状态 说明 运行中 RabbitMQ实例正常运行状态。在这个状态的实例可以运行您的业务。 已关闭 RabbitMQ实例处于故障的状态。 变更中 RabbitMQ实例正在进行规格变更操作。 变更失败 RabbitMQ实例处于规格变更失败状态。 暂停 RabbitMQ专享版实例处于已冻结状态,用户可以在“更多”中续费开启冻结的RabbitMQ实例。 注销 RabbitMQ实例已经过期并关闭,需要重新购买实例。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例管理
        查看实例
      • 【漏洞通知】关于开源社区CVE-2025-49844漏洞的说明
        CVE202549844:Redis的Lua脚本模块存在释放后重用(UseAfterFree)漏洞,攻击者可通过构造恶意脚本实现任意代码执行(RCE),完全控制服务器。 该漏洞需要认证鉴权才可以攻击,天翼云Redis默认强密码鉴权,具备VPC网络隔离,默认只有用户VPC范围内才可以访问Redis实例,风险可控。 如有修复该漏洞的诉求,请通过天翼云官方渠道获取相应技术解决方案。后续天翼云分布式缓存Redis版团队将推出修复版本,请关注产品发布通知并升级最新版本。
        来自:
        帮助文档
        分布式缓存服务Redis版
        服务公告
        2025年
        【漏洞通知】关于开源社区CVE-2025-49844漏洞的说明
      • 外部调用
        集群维度汇总 APM支持以集群的维度汇总外部调用的envId、调用次数、平均响应时间(ms)、错误数、最慢调用(ms)、hostUri、0ms10ms、10ms100ms、100ms500ms、500ms1s、1s10s、10sn。 图 集群维度汇总HttpClient监控 单击调用次数、平均响应时间等蓝色字体数值,会以图表的形式显示对应的数值详情。 状态码维度汇总 APM支持以状态码的维度汇总外部调用的code、数量、以及最近URL。 图 状态码维度汇总HttpClient监控 单击数量数值,可以查看默认20分钟内该状态码的趋势图。 单击最近url,可以查看对应状态码下的调用详情。 异常 可以在异常页签下查看对HttpClient调用的异常信息统计,包括:causeType、exceptionType、数量、异常消息以及错误堆栈。 图 HttpClient监控异常 单击蓝色数值,可以查看所选时间段内该线程的趋势图。 单击“异常消息”列的蓝色文字,可以查看异常消息的详细内容。 单击“错误堆栈”列的“查看详情”可以查看异常的详细信息。 单击“错误堆栈”列的“历史信息”可以查看该类名的历史异常堆栈列表。
        来自:
        帮助文档
        应用性能管理
        用户指南
        应用指标监控
        应用监控详情
        外部调用
      • 主要概念
        集群拓扑 集群拓扑:对集群物理资源实际部署方式的可视化逻辑展示。 故障域 存储池支持设置故障域,故障域是指一组可能因共享某些基础设施(如机房、机架、服务器等)而同时发生故障的组件的集合,同一故障域内组件的故障仅影响本故障域内的数据。 HBlock将副本模式数据的各个副本或者EC模式数据的各个分块,按照故障域分配并存储,以达到数据保护的目的。同一数据的各个副本,以及同一数据的EC分块,写入不同故障域中。 数据服务 一个数据目录对应一个数据服务,HBlock通过数据服务管理数据目录内用户的文件数据块。 监控 监控是指对HBlock系统、存储池、服务器、数据目录、卷的性能指标进行监测记录,用户可以查看实时或者历史性能数据,关注存储服务的性能。监控指标详见监控指标。 事件 事件指系统记录的用户操作HBlock的行为或HBlock系统行为,方便排查故障、审计和跟踪,全方面掌控存储运行情况。 事件分为用户事件和系统事件: 用户事件:用户操作HBlock的行为,具体用户事件列表详见用户事件列表。 系统事件:HBlock系统行为,具体系统事件列表详见附录系统事件列表。
        来自:
        帮助文档
        存储资源盘活系统
        产品简介
        主要概念
      • 术语解释
        批量数据迁移集群 批量数据迁移给用户提供的最小资源单位,一个批量数据迁移集群运行在一个弹性云主机之上,用户可以在集群中创建数据迁移作业,在云上和云下的同构/异构数据源之间批量迁移数据。 数据连接 定义访问数据实体存储(计算)空间所需的信息的集合,包括连接类型、名称和登录信息等。 作业(数据开发) 在数据开发中,作业由一个或多个节点组成,共同执行以完成对数据的一系列操作。 节点 节点用于定义对数据执行的操作。例如,使用“MRS Spark”节点可以实现在MRS中执行预先定义的Spark作业。 资源 用户可以上传自定义的代码或文本文件作为资源,并在节点运行时调用。 函数 函数可以作为脚本/作业参数的值,所有函数都以“$”符号开头,后面接函数名和参数序列。 表达式 数据开发作业中的节点参数可以使用表达式语言(Expression Language,简称EL),根据运行环境动态生成参数值。数据开发 EL表达式使用简单的算术和逻辑计算,引用内嵌对象,包括作业对象和一些工具类对象。 环境变量 环境变量是在操作系统中一个具有特定名字的对象,它包含了一个或者多个应用程序所将使用到的信息。 补数据 手工触发周期方式调度的作业任务,生成过去某时间段内的实例。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        术语解释
      • ALM-16001 Hive数据仓库空间使用率超过阈值
        对系统的影响 系统可能无法正常写入数据,导致部分数据丢失。 可能原因 Hive使用HDFS容量上限过小。 HDFS空间不足。 部分数据节点瘫痪。 处理步骤 扩展系统配置 1.分析集群HDFS使用情况,增加HDFS分配给Hive使用的容量上限。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > Hive > 配置”,选择“全部配置”,然后查找“hive.metastore.warehouse.size.percent”,调大该配置项。设配置项的值为A,HDFS总存储空间为B,阈值为C,Hive已经使用HDFS的空间大小为D。调整策略为A x B x C > D ,HDFS总存储空间可在HDFS NameNode页面查看,Hive已经使用HDFS的空间大小可在Hive的监控界面查看监控指标“Hive已经使用的HDFS空间大小”。 2.检查该告警是否恢复。 是,操作结束。 否,执行步骤3。 对系统进行扩容 3.对系统进行扩容。 4.检查该告警是否恢复。 是,操作结束。 否,执行步骤5。 检查数据节点是否正常 5.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”。 6.查看是否有“ALM12006 节点故障”、“ALM12007 进程故障”、“ALM14002 DataNode磁盘空间使用率超过阈值”告警。 是,执行步骤7。 否,执行步骤9。 7.分别参考“ALM12006 节点故障”、“ALM12007 进程故障”、“ALM14002 DataNode磁盘空间使用率超过阈值”的处理步骤处理告警。 8.查看本告警是否恢复。 是,操作结束。 否,执行步骤9。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-16001 Hive数据仓库空间使用率超过阈值
      • 健康检查UDP协议安全组规则说明
        本文主要介绍健康检查UDP协议安全组规则说明。 操作场景 当负载均衡协议为UDP时,健康检查也采用的UDP协议,您需要打开其后端服务器的ICMP协议安全组规则。 操作步骤 步骤 1 登录弹性云主机控制台,找到集群中的节点对应的节点,单击云主机名称,进入详情页面,记录安全组名称。 步骤 2 登录虚拟私有云控制台,在左侧导航栏单击“访问控制 > 安全组”,在界面右侧的安全组列表中单击步骤1获取的安全组名称。 步骤 3 在打开的页面中单击“入方向规则”页签,单击“添加规则”,为云主机添加入方向规则,详细配置请参见下图,单击“确定”。 说明 您只需为工作负载所在集群下的任意一个节点更改安全组规则,请添加规则即可,不要修改原有的安全组规则。 安全组需放通网段100.125.0.0/16流量。 图 添加安全组规则
        来自:
        帮助文档
        云容器引擎
        用户指南
        工作负载
        容器设置
        健康检查UDP协议安全组规则说明
      • 阿里云MongoDB到天翼云DDS数据库的网络准备
        本页为您介绍数据迁移到天翼云DDS数据库的网络准备工作,并已适配阿里云MongoDB数据库迁入。 文档数据库有副本集、分片集群等不同的架构,在网络访问方面与其他数据库相比具有一定的差异性,在将本地自建的、其他云上的、天翼云不同资源池的、天翼云ECS自建的DDS/MongoDB数据库数据迁移到天翼云文档数据库DDS前,需要您重点关注网络方面的准备工作。 目前数据传输服务DTS支持通过"公网EIP"和“VPC网络”两种网络接入方式进行数据的迁移和同步。在订购DTS实例时,您可以根据源端和目标端数据库所在的位置决定采用哪种网络接入类型,当源库和目标库在天翼云同一个资源池时,网络接入类型请选用VPC网络,其他情况需要选用公网EIP的接入方式。采用“公网EIP”接入时,分片集群仅支持阿里云或自建 MongoDB数据库为源迁移入云。 数据库来源为公网IP 源端数据库 源端数据库只能通过输入IP地址、端口的方式进行访问。根据源端数据库架构的不同,分为如下2种情况: 源端为副本集架构 以源端为副本集标准三节点为例,数据库包含Primary、Secondary以及Hidden节点,在迁移过程中,为保证源端数据库高可用,需要给Primary和Secondary节点分别绑定不同的公网IP,此处绑定的公网IP在进入DTS实例配置源库目标库配置环节时,需要填写到源库的副本集IP地址中。为Primary和Secondary节点绑定公网IP的方法,具体可参考各数据库官方文档进行操作。 为天翼云DDS实例添加公网访问的白名单分组,并将DTS实例即将或已绑定的公网IP添加到允许访问的IP名单中(源端为其他云MongoDB实例时,请参考不同产品官网文档的指引进行配置,将DTS实例绑定的公网IP配置为可以访问源实例)。 在天翼云DDS实例所在的VPC中,配置VPC安全组,安全组中配置DTS实例绑定的公网IP。 源端为分片集群 当源端为分片集群架构时,DTS将会通过数据库的mongos IP地址和端口来访问源端数据库,通过shard接入信息生成子任务。 mongos IP地址和端口至少为1组,请为mongos绑定公网IP,此处绑定的公网IP在进入DTS实例配置源库目标库配置环节时,需要填写到源库的mongos节点IP地址中。 源库的shard接入信息可以为多组,每组为同一个分片下的多个IP:Port(这里的IP为公网IP),格式:IP和Port之间以英文冒号分隔,多组IP:Port之间用英文逗号隔开。可以提前查询对应的iP和端口信息,方便配置DTS实例时填写。 为天翼云DDS实例添加公网访问的白名单分组,并将DTS实例即将或已绑定的公网IP添加到允许访问的IP名单中(源端为其他云MongoDB实例时,请参考不同产品官网文档的指引进行配置,将DTS实例绑定的公网IP配置为可以访问源实例)。 在天翼云DDS实例所在的VPC中,配置VPC安全组,安全组中配置DTS实例绑定的公网IP。 注意 当通过公网EIP的方式接入,源端为分片集群时,当前仅支持将阿里云或自建 MongoDB分片集群迁移到天翼云;请在阿里云或自建 MongoDB shard节点绑定公网IP,具体操作可参考阿里云官网。
        来自:
        帮助文档
        数据传输服务DTS
        快速入门
        其他云数据库到天翼云
        阿里云MongoDB到天翼云DDS数据库的网络准备
      • 服务等级目标(SLO)
        产品名称 可用性SLO 弹性云主机 99.995% 物理机 99% 弹性伸缩服务 99.95% 云硬盘 99.999% 弹性文件服务 99.9% 对象存储(经典I型) 99.99% 对象存储(原生版)I型 99.95% 媒体存储 99.99% 弹性IP 99% 弹性负载均衡 99.95% VPN连接 99.95% 分布式缓存Redis 99.95% 分布式消息RocketMQ 99.95% 分布式消息RabbitMQ 99.95% 分布式消息Kafka 99.95% CDN加速 99.90%
        来自:
        帮助文档
        服务等级目标
        天翼云服务等级目标
        服务等级目标(SLO)
      • Agent安装与启动
        为什么迁移过程中目的端ECS会被锁定? 迁移过程中,操作目的端服务器可能会导致迁移失败。为了保证迁移顺利实施,迁移过程中目的端服务器会被自动锁定,迁移成功之后会自动解锁。如果您想手动解除锁定,请参考如何解除目的端服务器锁定状态?。 如何解除目的端服务器锁定状态? 迁移完成后会自动解除ECS锁定,但是由于权限、网络等因素可能导致解锁目的端失败。如果服务器记录未删除,可以尝试单击该服务器的“更多 > 解锁目的端”进行解锁。如果解锁时提示“权限不足”,请更换有权限的账号重试。如果服务器记录已删除,则需要调用云主机的API接口,解锁云服务器,进行解锁。 Linux版的迁移Agent启动提示“rsync not installed on the source server”该如何处理? 启动Linux版的迁移Agent时,提示“rsync not installed on the source server.”,则说明此源端服务器未安装rsync组件。Linux迁移依赖rsync组件,若源端未安装rsync组件,会导致Agent启动失败。您需要先安装rsync组件,再重新启动迁移Agent。 应用程序因并行配置不正确无法启动 Windows 2008 Python2版本的Agent安装后,无法启动,提示“sms.5109应用程序因并行配置不正确无法启动”。因部分Windows机型权限限制,会导致第一次启动Agent无法启动,可使用如下方式启动Agent。 1. 右键单击开始菜单。 2. 单击“运行”,输入cmd,进入命令行提示符界面。 3. 输入cd C:SMSAgentPy2,切换到Agent安装目录,执行SMSAgentDeploy.exe。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        Agent安装与启动
      • 日志收集系统Flume接入Kafka
        Flume安装 Apache Flume官网下载地址: 下载apacheflume1.9.0bin.tar.gz。 解压安装tar zxvf apacheflume1.9.0bin.tar.gz 设置环境变量:   vi ~/.bashprofile   export FLUMEHOME /usr/local/apacheflume1.9.0bin   export PATH FLUMEHOME/bin:PATH   source ~/.bashprofile 修改Flume配置文件($ FLUMEHOME/conf): 按照模板复制出env.sh配置文件:cp flumeenv.sh.template flumeenv.sh 修改配置文件:vi flumeenv.sh,设置JAVAHOME: export JAVAHOME /usr/local/java/jdk1.8.0311 验证Flume安装是否成功: 至此,已完成Flume的安装与验证。 获取Kafka实例信息 1.登录天翼云Kafka专享版实例控制台。 2.在Kafka专享版页面,选择对应的实例,单击实例“名称”,进入实例基本信息页面。 3.在实例的基本信息页面的连接地址模块,可获取实例的IP地址与端口。 4.选择对应的Topic,如需创建Topic,请参考创建Topic。 配置Flume与Kafka互联 在$FLUMEHOME/conf下添加连接Kafka的配置文件:flumetokafka.conf,如下: 启动Flume并测试连接情况 启动Flume: bin/flumeng agent conf conf conffile conf/flumetokafka.conf name flumekafka Dflume.root.loggerINFO,console >./data.log 2>&1 &
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        日志收集系统Flume接入Kafka
      • 管理Smart Connect任务
        本节介绍如何管理Smart Connect任务。 在创建Smart Connect任务后,可以在控制台对任务进行管理操作,包括查看任务、删除任务、启动/暂停任务、重启任务等。 前提条件 已创建Smart Connect任务。 查看Smart Connect任务 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击Smart Connect任务名称,进入Smart Connect任务详情页面。 7、查看Smart Connect任务的基本信息、源端信息和目标端信息。 说明 如果Smart Connect任务没有配置源端信息/目标端信息,在Smart Connect任务详情页面不显示源端信息/目标端信息。 结束 删除Smart Connect任务 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、在待删除的Smart Connect任务所在行,单击“删除”,弹出“删除任务”对话框。 7、单击“确定”,完成Smart Connect任务的删除。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        管理Smart Connect任务
      • 1
      • ...
      • 170
      • 171
      • 172
      • 173
      • 174
      • ...
      • 326
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      推荐文档

      连接列表

      云课堂 第十六课:天翼云语音听写AI云服务测试Demo(Pyth

      退订

      域名的种类

      合作伙伴认证简介

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号