云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      一键登录_相关内容
      • 手工部署RabbitMQ(CentOS 7.4)
        本文介绍了如何在天翼云上使用弹性云主机的Linux实例部署RabbitMQ。 本文介绍了如何在天翼云上使用弹性云主机的Linux实例部署RabbitMQ。RabbitMQ是采用Erlang语言实现AMQP(Advanced Message Queuing Protocol,高级消息队列协议)的消息中间件,它最初起源于金融系统,用于在分布式系统中存储转发消息。RabbitMQ凭借其高可靠、易扩展、高可用及丰富的功能特性成为目前非常热门的一款消息中间件。 前提条件 弹性云主机所在安全组添加了如下表所示的安全组规则,具体步骤参见为安全组添加安全组规则。 方向 类型 协议 端口/范围 源地址 入方向 IPv4 TCP 5672 0.0.0.0/0 入方向 IPv4 TCP 15672 0.0.0.0/0 操作步骤 1. 安装相关依赖包和perl。 登录弹性云主机。 执行以下命令,安装相关依赖包。 plaintext yum y install make gcc gccc++ m4 ncursesdevel openssldevel unixODBCdevel 执行如下命令,安装perl。 plaintext yum install perl 2. 安装erlang。 执行如下命令,下载erlang安装包。 plaintext wget 执行如下命令,解压缩安装包。 plaintext tar xzf otpsrc19.3.tar.gz 解压后生成一个“otpsrc19.3”文件夹。 执行如下命令,创建文件夹“erlang”。 plaintext mkdir /usr/local/erlang 执行如下命令,进入解压后生成的文件夹“otpsrc19.3”。 plaintext cd otpsrc19.3 执行如下命令,检查系统是否符合安装要求。 plaintext ./configure prefix/usr/local/erlang withoutjavac 执行如下命令,编译并安装Erlang。 plaintext make && make install 执行如下命令,配置erlang环境变量。 执行如下命令打开配置文件"profile"。 plaintext vi /etc/profile 按i键进入编辑模式。 修改打开的“profile”文件,将如下内容添加到文件末尾。 plaintext export PATH$PATH:/usr/local/erlang/bin 按Esc键退出编辑模式,并输入:wq保存后退出。 执行如下命令,使环境变量生效。 plaintext source /etc/profile 执行如下命令,检查安装结果。 plaintext erl version 回显类似如下信息,说明erlang安装成功。 plaintext [root@ecsrabbitmq ~]
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建网站/应用最佳实践
        手工部署RabbitMQ(CentOS 7.4)
      • 概述
        本页为其他云PostgreSQL迁移到RDS for PostgreSQL的最佳实践网络和准备工作概述。 网络通信方式 其他云的数据库接入天翼云,需要通过公网网络进行网络打通,包括数据库实例具备公网IP,天翼云DTS实例具备公网IP。 准备工作 1. 订购公网IP 如果在天翼云已有可用的公网IP,则可以直接使用,否则需要先购买一个公网IP用于实现DTS实例的公网访问。 2. 申请公网IP并绑定到数据库实例 不同云厂商的数据库实例对应方法不同,具体操作步骤可参考具体云官网资料进行设置。 3. VPC网络安全策略放通 需要在其他云数据库实例所在的VPC放通DTS数据迁移实例中配置的公网IP的访问权限,一般包括网络ACL和实例安全组,具体可参考各厂商云数据库官方文档进行操作。 4. 数据库添加白名单 数据库需要添加DTS数据迁移实例中配置的公网IP远程访问数据库的权限。不同类型的数据库添加白名单的方法可能不一样,具体可参考各数据库官方文档进行操作。 源库处理 登录其他云PostgreSQL所属的服务器。 修改配置文件postgresql.conf,将配置文件中的wallevel设置为logical。 将DTS的IP地址加入至其他云PostgreSQL的配置文件pghba.conf中。如果您已将信任地址配置为0.0.0.0/0(如下图所示),可跳过本步骤。 如果任务包含增量同步,需安装PostgreSQL的逻辑解码器输出插件Decoderbufs,建议安装v2.1.1.Final以上版本,低版本可能会导致PostgreSQL数据库出现coredump,详细的安装步骤可参考PostgreSQL官网文档。
        来自:
        帮助文档
        数据传输服务DTS
        最佳实践
        其他云PostgreSQL迁移到RDS for PostgreSQL
        概述
      • Volcano调度器
        在控制台中修改volcanoscheduler配置 Volcano允许用户在安装,升级,编辑时,编写Volcano调度器配置信息,并将配置内容同步到volcanoschedulerconfigmap里。 本节介绍如何使用自定义配置,以便用户让volcanoscheduler能更适合自己的场景。 说明 仅Volcano 1.7.1及以上版本支持该功能。在新版插件界面上合并了原plugins.easservice和resourceexporterenable等选项,以新选项defaultschedulerconf代替。 您可登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 Volcano ,单击“安装”或“升级”,并在“参数配置”中设置Volcano调度器配置参数。 使用resourceexporter配置,示例如下: { "cacert": "", "defaultschedulerconf": { "actions": "allocate, backfill", "tiers": [ { "plugins": [ { "name": "priority" }, { "name": "gang" }, { "name": "conformance" } ] }, { "plugins": [ { "name": "drf" }, { "name": "predicates" }, { "name": "nodeorder" } ] }, { "plugins": [ { "name": "ccegputopologypredicate" }, { "name": "ccegputopologypriority" }, { "name": "ccegpu" }, { "name": "numaaware" add this also enable resourceexporter } ] }, { "plugins": [ { "name": "nodelocalvolume" }, { "name": "nodeemptydirvolume" }, { "name": "nodeCSIscheduling" }, { "name": "networkresource" } ] } ] }, "servercert": "", "serverkey": "" } 开启后可以同时使用volcanoscheduler的numaaware插件功能和resourceexporter功能。 使用easservice配置,示例如下: { "cacert": "", "defaultschedulerconf": { "actions": "allocate, backfill", "tiers": [ { "plugins": [ { "name": "priority" }, { "name": "gang" }, { "name": "conformance" } ] }, { "plugins": [ { "name": "drf" }, { "name": "predicates" }, { "name": "nodeorder" } ] }, { "plugins": [ { "name": "ccegputopologypredicate" }, { "name": "ccegputopologypriority" }, { "name": "ccegpu" }, { "name": "eas", "custom": { "availabilityzoneid": "", "driverid": "", "endpoint": "", "flavorid": "", "networktype": "", "networkvirtualsubnetid": "", "poolid": "", "projectid": "", "secretname": "easservicesecret" } } ] }, { "plugins": [ { "name": "nodelocalvolume" }, { "name": "nodeemptydirvolume" }, { "name": "nodeCSIscheduling" }, { "name": "networkresource" } ] } ] }, "servercert": "", "serverkey": "" } 使用ief配置,示例如下: { "cacert": "", "defaultschedulerconf": { "actions": "allocate, backfill", "tiers": [ { "plugins": [ { "name": "priority" }, { "name": "gang" }, { "name": "conformance" } ] }, { "plugins": [ { "name": "drf" }, { "name": "predicates" }, { "name": "nodeorder" } ] }, { "plugins": [ { "name": "ccegputopologypredicate" }, { "name": "ccegputopologypriority" }, { "name": "ccegpu" }, { "name": "ief", "enableBestNode": true } ] }, { "plugins": [ { "name": "nodelocalvolume" }, { "name": "nodeemptydirvolume" }, { "name": "nodeCSIscheduling" }, { "name": "networkresource" } ] } ] }, "servercert": "", "serverkey": "" }
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        Volcano调度器
      • 通过kubectl操作CCE集群
        本节主要介绍通过kubectl操作CCE集群。 操作场景 本文将以CCE集群为例,介绍如何通过kubectl操作CCE集群。 使用kubectl操作集群 背景信息 若您需要从客户端计算机连接到kubernetes集群,请使用kubernetes命令行客户端kubectl。 前提条件 CCE支持“VPC网络内访问”和“互联网访问”两种方式访问集群。 VPC网络内访问:您需要在ECS控制台购买一台云服务器,并确保和当前集群在同个VPC内。 互联网访问:您需要准备一台能连接公网的云服务器。 注意 通过“互联网访问”方式访问集群,集群的kubeapiserver将会暴露到互联网,存在被攻击的风险,建议对kubeapiserver所在节点的EIP配置DDoS高防服务。 下载kubectl 您需要先下载kubectl以及配置文件,拷贝到您的客户端机器,完成配置后,即可以使用访问kubernetes集群。 请到kubernetes版本发布页面下载与集群版本对应的或者更新的kubectl。 安装和配置kubectl 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 集群管理”,单击待连接集群下的“命令行工具 > kubectl”。 步骤 2 在集群详情页中的“kubectl”页签下,请参照界面中的提示信息完成集群连接。 说明 您可以在“kubectl”页签下方便的下载kubectl配置文件(kubeconfig.json),CCE支持帐号和IAM用户分别下载该配置文件,IAM用户下载的配置文件只有30天的有效期,而天翼云帐号下载的配置文件会长期有效。该文件用于对接认证用户集群,请用户妥善保存该认证凭据,防止文件泄露后,集群有被攻击的风险。如果不幸泄露,可以通过证书更新的方式,替换认证凭据。 由于EIP无法固定,所以服务器端证书无法预置EIP,若从互联网访问则无法开启客户端校验服务器端。如需开启客户端校验服务器端,请使用VPC访问方式。 IAM用户下载的配置文件所拥有的Kubernetes权限与CCE控制台上IAM用户所拥有的权限一致。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        集群管理
        kubectl访问集群
        通过kubectl操作CCE集群
      • 创建RDS备份迁移任务
        本章节主要介绍创建RDS备份迁移任务 支持的源和目标数据库 以下区域上线SQL Server备份迁移能力:贵州、杭州、广州4、苏州、上海4、青岛、西安2、长沙2、武汉2、哈尔滨、内蒙3、芜湖、福州、深圳、华北、北京2、石家庄、兰州、西宁、重庆 表 支持的数据库 备份文件版本 目标数据库版本 :: RDS for Microsoft SQL Server全量备份文件版本: Microsoft SQL Server 2008 Microsoft SQL Server 2012 Microsoft SQL Server 2014 Microsoft SQL Server 2016 Microsoft SQL Server 2017 RDS for Microsoft SQL Server Microsoft SQL Server 2008Microsoft SQL Server 2012Microsoft SQL Server 2014Microsoft SQL Server 2017 前提条件 已登录数据复制服务控制台。 满足备份迁移支持的数据库类型和版本,详情请参见备份迁移。 使用须知 介绍Microsoft SQL Server数据库备份迁移使用上的限制。 表 使用须知 类型名称 使用和操作限制 :: 数据库权限设置 在创建备份迁移任务前,请确定操作账号具有相应的RDS服务权限。 待还原数据库名称要求 待还原数据库名不能重复,且不能为以下名称(不区分大小写): msdb master model tempdb rdsadmin resource 数据库新名称要求 数据库新名称不能重复,且不能为以下名称(不区分大小写): msdb master model tempdb rdsadmin resource 数据库新名称长度为1~128个字节,组成为字母、数字、下划线、中划线。 数据库备份文件的来源 RDS全量备份:关系型数据库实例自动或手动生成的全量备份。 操作须知 目标数据库的可用磁盘空间大小至少为待还原数据库总数据量大小的1.5倍。 不支持高版本的数据库备份文件在低版本实例数据库上进行还原(例如从2017版本>2016版本的还原)。 企业版>标准版>Web版的还原存在一定失败的风险(取决于是否开启高版本的特性)。 迁移过程中,实例显示处于迁移状态,当前正在迁移的目标数据库默认取消高可用状态(如果是覆盖还原),迁移完成后自动恢复高可用状态。 迁移过程中正在还原的数据库请停止写入事务。 当RDS实例异常引发目标数据库发生主备切换时,会导致备份迁移失败,该情况下的迁移任务不可恢复。
        来自:
        帮助文档
        数据库复制
        用户指南
        备份迁移
        创建RDS备份迁移任务
      • 配置队列
        本章节主要介绍翼MapReduce的配置队列操作。 操作场景 根据业务需要,管理员可以通过FusionInsight Manager修改指定租户的队列配置。 前提条件 已添加使用Capacity调度器的租户。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“租户资源 > 动态资源计划”。 默认显示“资源分布策略”。 3. 单击“队列配置”页签。 4. “集群”参数选择待操作的集群名称,然后在指定租户资源名的“操作”列,单击“修改”。 说明 l 在“租户管理”页签左侧租户列表,单击目标的租户,切换到“资源”页签,单击也能打开修改队列配置页面。 l 一个队列只能绑定一个非default资源池。 队列配置参数 参数名 描述 租户资源名(队列) 租户及队列名称。 最大应用数量 表示最大应用程序数量。 AM最大资源百分比 表示集群中可用于运行application master的最大资源占比。 用户资源最小上限百分比(%) 表示每个用户最低资源保障(百分比)。任何时刻,一个队列中每个用户可使用的资源量均有一定的限制。当一个队列中同时运行多个用户的应用程序时,每个用户的使用资源量在一个最小值和最大值之间浮动,其中,最小值取决于正在运行的应用程序数目,而最大值则由此参数决定。比如,假设此参数的值设置为25。当两个用户向该队列提交应用程序时,每个用户可使用资源量不能超过50%,如果三个用户提交应用程序,则每个用户可使用资源量不能超多33%,如果四个或者更多用户提交应用程序,则每个用户可用资源量不能超过25%。 用户资源上限因子 表示用户使用的最大资源限制因子,与当前租户在集群中实际资源百分比相乘,可计算出用户使用的最大资源百分比。 状态 表示资源计划当前的状态,“运行”为运行状态,“停止”为停止状态。 默认资源池 表示队列使用的资源池,默认为“default”。如果需要修改为其他资源池,需要先配置队列容量,请参见配置资源池的队列容量策略。 5. 单击“确定”完成配置。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        管理资源
        配置队列
      • 管理实例白名单
        本节介绍了管理实例白名单的相关内容。 由于Redis 3.0和Redis 4.0及以上版本实例的部署模式不一样,DCS在控制访问缓存实例的方式也不一样,差别如下: Redis 3.0:通过配置安全组访问规则控制,不支持白名单功能。安全组配置操作,具体请参考安全组配置和选择。 Redis 4.0及以上版本:不支持安全组,只支持通过白名单控制。 本章节主要介绍如何管理Redis 4.0及以上版本实例的白名单,如果需要指定的IP地址才能访问实例,您需要将指定的IP地址加入到实例白名单中。如果实例没有添加任何白名单或停用白名单功能,所有与实例所在VPC互通的IP地址都可以访问该实例。 创建白名单分组 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击 ,选择区域和项目。 步骤 3 单击左侧菜单栏的“缓存管理”,进入实例信息页面。 步骤 4 单击需要创建白名单的DCS缓存实例名称,进入该实例的基本信息页面。 步骤 5 单击"实例配置>白名单配置"页签,然后单击“创建白名单分组”。 步骤 6 在弹出的“创建白名单分组”页面,设置“分组名”和“IP地址/地址段”。 表 创建白名单参数说明 参数名称 参数说明 示例 分组名 实例的白名单分组名称。 每个实例支持创建4组白名单。 DCStest IP地址/地址段 每个实例最多可以添加20个IP地址/地址段。如果有多个,可以用逗号分隔。 不支持的IP和地址段:0.0.0.0和0.0.0.0/0 10.10.10.1,10.10.10.10 步骤 7 设置完之后,单击“确定”。 创建成功之后默认开启白名单功能,只有该分组白名单中的IP地址才允许访问实例。 说明 在白名单列表,您可以单击“编辑”修改该分组下的IP地址/地址段。或者单击“删除”,删除该白名单分组。 开启白名单功能后,您可以单击白名单列表左上角的“停用白名单”,让所有与实例VPC相通的IP都能访问该实例。 结束
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        管理实例白名单
      • 批量推理
        本文为您介绍模型推理服务批量推理模块。 批量推理(Batch Inference)适用于无需实时响应的业务场景,可通过离线方式进行大规模数据处理,用户无需关注单次请求的执行情况。批量推理价格仅为在线推理的40%,可有效降低大模型使用成本。 前提条件 1. 登录模型推理服务平台。 2. 账户余额≥100元人民币。为确保批量推理任务运行顺利,请确保账户内留有足够的余额。 计费说明 批量推理按 tokens 用量后付费,仅需为已处理的请求消耗的输入和输出 token 量付费,单价均为对应模型在线推理价格的40%。具体用量可在批量推理任务详情页 “Tokens 使用” 或 “调用监控” > “批量推理类型” 查看。 说明 批量推理作为独立计费项,不支持使用在线推理的免费额度、tokens按量、tokens包、TPM包等。 操作步骤 1. 准备上传数据文件 请参考示例文件demo.jsonl准备待批量处理的输入文件。 文本生成类模型: c { "customid": "request1", "body": { "model": "7f89d40dae04493782a443ec4af66118", "messages": [ { "role": "user", "content": "1+1等于多少" } ], "stream": true } } {"customid": "request2", "body": {"model": "7f89d40dae04493782a443ec4af66118", "messages": [{"role": "system", "content": "You are an unhelpful assistant."},{"role": "user", "content": "天空为什么这么蓝?"}],"maxtokens": 1000}} 向量化模型: plaintext {"customid":"request1","body":{"model":"78d6096150814ad2b36809244848db9a","input":["你好","天气怎么呀?"],"encodingformat":"float"}} {"customid":"request2","body":{"model":"78d6096150814ad2b36809244848db9a","input":"你好同学","encodingformat":"float"}} {"customid":"request3","body":{"model":"78d6096150814ad2b36809244848db9a","input":["你好","天气怎么呀?"],"encodingformat":"base64"}} {"customid":"request4","body":{"model":"78d6096150814ad2b36809244848db9a","input":"天气怎么呀","encodingformat":"base64"}} 为避免因为文件格式错误,导致批量推理任务失败,为您提供了脚本进行校验,上传前可检测您的文件: batchinfercheck.py 输入文件格式说明: 请上传 500 MB 以内的.jsonl 格式文件; 每一行为一个 JSON 格式的请求,每个请求内容大小不超过 6 MB(同时遵循所选模型上下文长度限制); 文件内处理的请求数量不超过 5 万条; 每个任务支持上传一个文件。
        来自:
        帮助文档
        模型推理服务
        用户指南
        模型服务
        批量推理
      • 查看任务迁移记录
        本文为您介绍如何查看任务的迁移记录。 操作场景 迁移任务支持通过“开始 ”操作多次执行,也支持对失败对象进行重试迁移。当一个迁移任务被再次执行或重试后,前一次迁移的任务信息会保存在“任务迁移记录”中,方便您查看该任务多次执行迁移的历史信息。 前提条件 您的任务首次开始迁移后,仅在“任务结束 ”、“任务结束 存在失败对象 ”或“任务中断 ”状态,任务才会生成第一条迁移记录。手动“暂停 ”并“恢复”任务不会生成迁移记录。 该任务保留在迁移任务列表中,未被删除。 注意 若任务被删除,则该任务的迁移记录也会被删除。 操作指导 在单个迁移任务详情页面,你可以查看该任务的全部迁移记录,以及每次迁移记录的任务相关信息。 说明 对任务手动进行“暂停”操作,不会视作迁移的结束,不会生成迁移记录。仅有“任务结束”、“任务结束 存在失败对象”和“任务中断”状态的迁移任务,会生成相应的记录。 1.登录控制中心,点击控制中心左上角的,选择地域(服务入口目前仅开放“华东1”地域)。 2.单击“对象存储>对象存储迁移服务>迁移任务 ”进入迁移服务的迁移任务控制台。您可以通过点击任务名称,进入该任务的详情页面,在“任务迁移记录”部分查看相应的迁移记录。迁移记录的具体信息如下表: 信息 说明 : 执行记录ID 每条迁移记录的ID。 执行类型 本次迁移的类型,包括“迁移”和“失败重试”两种类型。 执行结束时的状态 展示本次迁移结束时任务的状态,可用于了解迁移是正常结束,还是存在失败对象。 若迁移因异常中断而结束,也会展示任务中断的原因。 本次待迁移的对象总数 展示任务本次待迁移的对象总数。 已迁移对象数 展示本次已迁移的对象数。 失败对象数 展示本次迁移中,迁移失败的对象数。 忽略对象数 展示本次迁移中忽略的对象数。 迁移数据总量 展示本次迁移的数据总量。 迁移开始时间 展示本次迁移开始的时间。 迁移结束时间 展示本次迁移结束的时间。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        迁移任务教程
        查看任务迁移记录
      • 添加镜像老化规则
        本文主要介绍 添加镜像老化规则 操作场景 镜像上传后,您可以添加镜像老化规则。容器镜像服务提供了如下两种类型的镜像老化处理规则,规则设置完成后,系统会根据已定义的规则自动执行镜像老化操作。 存活时间:设置该类型的老化规则后,留存时间超过指定时间的老旧镜像将被删除。 版本数目:设置该类型的老化规则后,留存镜像超过指定值时,老旧镜像将被删除。 此外,对于特定版本的镜像可通过添加过滤策略来保留,免受老化规则的影响。 约束与限制 一个镜像仅支持添加一个老化规则。如需添加新的老化规则,需要删除已有老化规则。 操作步骤 步骤 1 登录容器镜像服务控制台。 步骤 2 在左侧导航栏选择“我的镜像”,单击右侧镜像名称,进入镜像详情页。 步骤 3 选择“镜像老化”页签,单击“添加规则”,填写相关参数,然后单击“确定”。 图创建老化规则 表添加镜像老化规则 参数 说明 规则类型 分为存活时间和版本数目。 存活时间:设置该类型的老化规则后,留存时间超过指定时间的老旧镜像将被删除。 版本数目:设置该类型的老化规则后,留存镜像超过指定值时,老旧镜像将被删除。 保留天数 镜像留存的最大天数,可设置为1~365的整数。规则类型设置为“存活时间”时,需要配置此参数。 保留数目 镜像留存的最大数目,可设置为1~1000的整数。规则类型设置为“版本数目”时,需要配置此参数。 过滤标签 输入将被过滤的镜像版本,在应用老化规则前指定版本的镜像将被过滤掉。 过滤正则 输入将被过滤的版本正则式,在应用老化规则前所有版本号满足正则表达式的镜像将被过滤掉。 镜像老化规则添加成功后,系统会立即进行一次查询,清理掉符合老化规则的镜像,且在“老化日志”中显示清理结果。 图查看规则列表和老化日志
        来自:
        帮助文档
        容器镜像服务
        用户指南
        镜像管理
        添加镜像老化规则
      • 记录弹性伸缩
        本文主要介绍如何记录弹性伸缩。 操作场景 弹性伸缩支持使用云审计记录服务资源操作。云审计记录的操作类型有三种,通过云平台帐户登录管理控制台执行的操作,通过云服务支持的API执行的操作,以及系统内部触发的操作。 如果用户开通了云审计,AS服务的API被调用时,调用信息将会上报到云审计,云审计会将操作信息定时的转储到用户指定的对象存储桶。通过云审计服务,您可以记录与弹性伸缩相关的操作事件,便于日后的查询、审计和回溯。 Cloud Trace Service中的AS信息 在您的应用系统中启用云审计服务后,将在日志文件记录对弹性伸缩执行的API调用的操作。您可以在云审计服务管理控制台查询近7天内的操作记录。如果需要保存7天之前的操作记录,您可以通过对象存储服务(Object Storage Service,以下简称OBS),将操作记录实时同步保存至OBS。 云审计服务支持的AS操作列表如下表所示。 表 云审计服务支持的AS操作列表 操作名称 资源类型 事件名称 创建伸缩组 scalinggroup createScalingGroup 修改伸缩组 scalinggroup modifyScalingGroup 删除伸缩组 scalinggroup deleteScalingGroup 启用伸缩组 scalinggroup enableScalingGroup 停用伸缩组 scalinggroup disableScalingGroup 操作伸缩组 scalinggroup operateScalingGroup 创建伸缩配置 scalingconfiguration createScalingConfiguration 删除伸缩配置 scalingconfiguration deleteScalingConfiguration 批量删除伸缩配置 scalingconfiguration batchDeleteScalingConfiguration 创建伸缩策略 scalingpolicy createScalingPolicy 修改伸缩策略 scalingpolicy modifyScalingPolicy 删除伸缩策略 scalingpolicy deleteScalingPolicy 启用伸缩策略 scalingpolicy enableScalingPolicy 停用伸缩策略 scalingpolicy disableScalingPolicy 执行伸缩策略 scalingpolicy executeScalingPolicy 操作伸缩策略 scalingpolicy operateScalingPolicy 批量启用伸缩策略 scalingpolicy batchEnableScalingPolicies 批量停用伸缩策略 scalingpolicy batchDisableScalingPolicies 移除实例 scalinginstance removeInstance 批量移除实例 scalinginstance batchRemoveInstances 批量添加实例 scalinginstance batchAddInstances 批量操作实例 scalinginstance batchOperateInstance 批量设置实例保护 scalinginstance batchProtectInstances 批量取消实例保护 scalinginstance batchUnprotectInstances 批量转入实例备用 scalinginstance batchEnterStandbyInstances
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩组和实例的监控
        记录弹性伸缩
      • 内网访问
        本节介绍了内网访问的用户指南。 背景 为了优化用户体验,容器镜像服务现已支持内网访问功能。通过此功能,您可以在指定的虚拟私有云 (VPC) 内建立一条内网访问通道,实现从该 VPC 内网直接访问容器镜像服务。 启用内网访问后,将在您选择的 VPC 中自动完成以下配置: 创建 VPC 终端节点 (VPCE): 用于建立 VPC 与容器镜像服务公共 VPC 服务之间的内网连接。 配置内网DNS解析:确保 VPC 内的实例能够通过容器镜像服务的内网域名正确解析到VPCE地址。 操作步骤 1. 登录容器镜像服务控制台。 2. 在左侧导航栏,点击内网访问。 首次使用授权:如果您是第一次使用内网访问功能,系统会提示您进行授权委托。这是为了允许容器镜像服务在您的 VPC 内创建必要的网络资源。请仔细阅读授权内容,确认并完成授权。授权成功后,系统将为您创建一个名为 CtyunAssumeRoleForCRS 的服务委托。 3. 选择需要接入的 VPC。 您可以根据实际需求选择以下方式接入 VPC: 单个 VPC 接入: 在 VPC 列表中,找到您需要开通内网访问的 VPC,点击该 VPC 所在行的接入按钮。默认选择该VPC的第一个子网创建VPCE,如需指定子网创建VPCE,可下拉子网列表进行选择。 批量 VPC 接入: 如果您需要为多个 VPC 同时开通内网访问,可以勾选多个 VPC,然后点击列表上方的 批量接入按钮。默认选择每个VPC的第一个子网创建VPCE,如需指定子网创建VPCE,可下拉子网列表进行选择。 4. 取消 VPC 接入 (可选): 如果您需要取消某个已接入内网访问的 VPC,可以找到该 VPC,点击其所在行的取消接入按钮。 注意 由于创建 VPC 终端节点需要一定时间,接入过程可能需要稍作等待。如果遇到提示 “VPCE 创建中,请稍后重试发起请求,以继续创建内网 DNS 记录” 的报错信息,请稍等片刻后点击 批量重试 按钮,系统将继续为您完成接入操作。
        来自:
      • 计费说明
        开通方式 登录应用性能监控控制台,点击左侧菜单栏【用量统计】,点击【订购资源包】,按照页面提示完成开通即可。 Prometheus监控计费说明 Prometheus监控按照用户实际使用的自定义指标上报量、指标存储时长进行按需计费。 说明 Prometheus监控仅对自定义指标收取指标上报费用,对云容器引擎的基础指标不收取上报费用,且提供免费15天存储。 目前容器基础指标存储时间默认为15天,因此默认情况下,在云容器引擎中开启Prometheus基础指标监控不会产生额外费用,请放心使用。若额外开启自定义指标监控,请参考下文计费说明。 计费项说明 应用性能监控Prometheus监控各计费项说明如下。 计费项 计费说明 自定义指标上报量 自定义指标上报量(即采样点数量)的计算遵循开源 Prometheus 数据模型。每条采样点数据包含指标名称、Label 集合、时间戳及取值,并以时间线形式逻辑组织。例如一个指标监控 Kubernetes 集群各节点的可分配 CPU 核心数:若集群有 3 个节点,采样周期为 15 秒,则每分钟上报的采样点总量为 3×(60/15)12 条(每个节点对应一条时间线)。 指标存储时长 默认支持的指标存储时长为15天。15天内不收取存储时长费用,超过15天则按量累计计费。 价格说明 自定义指标上报量:按日均上报数据量进行阶梯计费,如0 150百万条范围内的指标量,按0.6元/百万条进行计费,超过150万条不足600万条的部分,按照0.5元/百万条进行计费,如此类推。Prometheus监控仅对上报的自定义指标收取该计费项费用,对于任意数量的基础指标都不收取上报量费用。 日均上报数据量范围 标准价格(元/百万条) 0 150百万条 0.6 150 600百万条 0.5 600 1200百万条 0.35 1200百万条以上 0.25 指标存储时长:默认支持的指标存储时长为15天。15天内可免费使用,不收取存储时长费用,超过15天则按量累计计费。 计费项 标准价格(元/百万条/天) 指标存储时长 0.005
        来自:
        帮助文档
        应用性能监控 APM
        计费说明
        计费说明
      • 缓存监控
        缓存监控通常是指对一段时间内对各类缓存数据库调用情况的统计分析。 功能入口 1. 选择目标资源池,并登录APM组件控制台。 2. 在左侧导航栏中选择「应用监控 」「应用列表」。 3. 在应用列表中选择您想查看的应用,点击「应用名称」打开新的应用详情链接。 4. 在左侧导航栏中选择「应用详情 」或「接口调用」或「数据库调用」,您可以在应用详情页面切换至「缓存监控」页签,在左侧关键指标中选择不同的应用实例/接口/缓存,可查看该应用实例/接口/缓存相应的缓存信息。 功能说明 当前支持的缓存数据库包含Redis、Jedis、Lettuce。 Redis 统计图 显示该应用在筛选时间段内的所有操作命令的调用次数和平均耗时变化趋势图,显示不同耗时区间请求数的变化趋势图。 统计表 以NoSQL操作命令为维度,详细显示不同操作命令各自的信息,表头如下。 所属应用:显示NoSQL操作命令所属的应用名称。 NoSQL类型:Redis属于NoSQL数据库,因为它不遵循传统关系型数据库的表格模型,而是采用键值对的形式存储数据。 操作命令:Redis提供了多种命令行命令,用于管理和操作Redis数据库,如SET、GET、DEL、EXPIRE等。 平均耗时:指每次操作的平均响应时间,通常以毫秒为单位。例如,每隔1秒采样一次,得到的平均耗时可能在0.08 ~ 0.13毫秒之间。 调用次数:指在一定时间内执行某个操作的次数。 慢调用次数:指响应时间超过某个阈值(默认500ms,在url采集设置中可以修改慢调用阈值)的操作次数。 0到10ms请求数:指在0到10毫秒内完成的请求数量。 10到100ms请求数:指在10到100毫秒内完成的请求数量。 100到500ms请求数:指在100到500毫秒内完成的请求数量。 500到1000ms请求数:指在500到1000毫秒内完成的请求数量。 1到10s请求数:指在1到10秒内完成的请求数量。 10s以上请求数:指在10秒以上内完成的请求数量。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        应用详情
        缓存监控
      • 云容器集群节点磁盘IO高负载
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎节点。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎节点实例。 添加故障动作 :单击立即添加 ,在列表中选择磁盘IO高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 读负载:开启读压力模式,创建一个临时文件并对其进行持续的读取操作。 写负载:开启写压力模式,持续向一个临时文件写入数据。 块大小(MB):控制单次读写操作的数据块大小,单位为MB。增大此值可以提升单次操作的 IO 压力。通常保持默认值即可。 3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到磁盘IO高负载动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录云容器引擎控制台,进入目标实例节点的监控指标页,观测磁盘读写速率(Bps)指标。 2、业务应用验证: 观察运行在目标节点上、且挂载了持久化存储(PVC)的业务 Pod(如数据库、中间件等),确认其读写性能是否下降或出现超时。 检查无状态应用的日志写入是否出现延迟或失败。 验证您的业务监控告警系统是否成功捕获到节点磁盘I/O异常或应用性能劣化,并触发了相应告警。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群节点磁盘IO高负载
      • 账户改密
        本章节为您介绍云堡垒机(原生版)改密策略。 改密策略是一种自动化工具,旨在增强主机资源账户的安全性。它允许用户通过预设的策略,对一个或多个主机资源账户的密码进行手动、定时或周期性的修改。 以下是改密策略的主要功能: 支持通过策略手动、定时、周期修改资源账户密码。 支持生成不同密码、相同密码,以及生成指定相同密码。 说明 随机生成的密码遵循以下设定: 随机生成的密码长度为830个字符。 同时包含三项(大小字母、数字、()~!@ $%^&+{}[]:;'<>,.?/中的特殊符号)。 不以“/”开头,不出现连续三个以上相同字符。 新建改密策略 1. 使用“管理角色”账户登录云堡垒机系统。 2. 在左侧导航栏选择“资产管理 > 账户改密”,进入“改密策略”页面。 3. 单击“新增”按钮,在弹出的窗口中填写改密策略相关参数。 参数 参数说明 取值样例 名称 自定义改密策略名称。 定期改密 描述 自定义改密策略描述。 XX主机定期改密策略 改密账号 添加改密账号。 目前仅支持添加SSH、Telnet协议的主机账号。 选择后改密账号格式为:协议[资产账号名@]资产名称。 SSH[admin@]Test01 执行策略 按需选择您的执行策略: 立即执行:保存后立即执行。 定时执行:在选择时间后,仅在选择的时间执行一次。 按周期执行:选择执行起始时间和执行周期。 立即执行 改密方式 按需选择您的改密方式: 随机生成不同密码 随机生成相同密码 手动生成指定密码 手动生成指定密码 指定密码 仅在“改密方式”选择“手动生成指定密码”时需要填写。 改密完成通知 通过开关按钮选择是否进行通知。 收件人邮箱 开启“改密完成通知”,还需要填写接收改密内容的邮箱,仅支持填写一个邮箱。 改密结果会以加密附件的方式发送。 admin@chinatelecom.com 改密附件密码 开启“改密完成通知”,还需要填写改密附件的密码。 4. 填写完成后,单击“提交”即可完成新建改密策略。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        资产管理
        账户改密
      • 云容器集群节点磁盘IO高负载(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎节点。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎节点实例。 添加故障动作 :单击立即添加 ,在列表中选择磁盘IO高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 读负载:开启读压力模式,创建一个临时文件并对其进行持续的读取操作。 写负载:开启写压力模式,持续向一个临时文件写入数据。 块大小(MB):控制单次读写操作的数据块大小,单位为MB。增大此值可以提升单次操作的 IO 压力。通常保持默认值即可。 3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到磁盘IO高负载动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录云容器引擎控制台,进入目标实例节点的监控指标页,观测磁盘读写速率(Bps)指标。 2、业务应用验证: 观察运行在目标节点上、且挂载了持久化存储(PVC)的业务 Pod(如数据库、中间件等),确认其读写性能是否下降或出现超时。 检查无状态应用的日志写入是否出现延迟或失败。 验证您的业务监控告警系统是否成功捕获到节点磁盘I/O异常或应用性能劣化,并触发了相应告警。
        来自:
      • 支持滚动重启
        滚动重启实例 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager操作界面,单击“集群服务”菜单。 5. 选择指定集群服务,单击集群服务ICON进入到集群服务的详情页面。 6. 单击“角色实例”tab。 7. 勾选需要操作角色实例前的复选框。 8. 单击“操作已选项”,单击“滚动重启实例”。 9. 弹出确认滚动重启实例操作弹框,单击确定。 10. 进入到滚动重启实例操作页面,依次点击“下一步”,滚动重启任务完成后,单击“完成”。 滚动重启参数说明 滚动重启参数说明如下表所示。 参数名称 描述 单批实例数 按照角色实例维度,每1个批次的并发实例数,例如HDFSDataNode默认为1,输入限制为int的最大值,仅支持输入正整数,当角色实例数小于并发数时,以当前已有实例数为准。 例如:并发数设置为2,HDFSDataNode的实例数为3,则第一批次执行的实例数是2,第2批次执行的实例数则为1。 批次间隔时 上个批次成功后与下个批次开始的间隔时间,默认30秒,取值范围11800,仅支持输入正整数,单位默认为:秒,不可改。 例如:设置时间为600S批次间隔则表示,前1个批次运行完成后,等待600S后开始下一个批次。 批次等待时间 上个批次开始后,开始下个批次的等待时间默认30秒,取值范围11800,仅支持输入正整数;单位默认为:秒,不可改。 例如:设置时间为600S批次等待则表示,前1个排次开始运行,等待600S后不管前一个批次是否完成运行,都开始下一个批次的运行。 实例容错阈值 实例执行失败的容错次数为2,默认为0,输入限制为int的最大值,仅支持输入正整数。 例如:设置为0时,即表示任意一个角色实例的操作失败后,滚动操作终止设置为2时,即表示任意3个角色实例的操作失败后,滚动操作才会终止。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        组件管理
        支持滚动重启
      • 创建有状态负载(StatefulSet)
        操作步骤及说明 步骤 1 登录云容器引擎控制台。 步骤 2 单击集群名称进入集群,在左侧选择“工作负载”,选择“有状态”,在右上角单击“创建StatefulSet”。 步骤 3 配置工作负载的信息。 基本信息 负载类型:选择有状态工作负载StatefulSet。工作负载类型的介绍请参见工作负载概述。 负载名称:填写工作负载的名称。 命名空间:选择工作负载的命名空间,默认为当前进入的命名空间。您可以单击后面的“创建命名空间”,命名空间的详细介绍请参见创建命名空间。 实例数量:填写实例的数量,也就是Pod的数量。 时区同步:选择是否开启时区同步。开启后容器与节点使用相同时区(时区同步功能依赖容器中挂载的本地磁盘,请勿修改删除),时区同步详细介绍请参见时区同步。 容器配置 容器信息Pod中可以配置多个容器,您可以单击右侧“添加容器”为Pod配置多个容器。 容器名称:为容器命名。 镜像更新策略:选择是否总是拉取镜像。 镜像名称:选择容器使用的镜像,支持多种镜像来源。 镜像版本:选择需要部署的镜像版本。 资源配额:配置 CPU 和内存的申请值和限制值。 初始化容器:选择是否作为初始化容器。 生命周期:配置容器生命周期的特定操作。 健康检查:设置存活探针、就绪探针及启动探针。 环境变量:设置容器运行环境的变量。 数据存储:挂载本地存储或云存储。 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。请输入用户ID,容器将以当前用户权限运行。 特权容器:选择是否启用特权容器。 镜像访问凭证:选择访问镜像仓库的凭证。 说明 有状态负载支持“动态挂载”云硬盘。动态挂载通过[[volumeClaimTemplates]](
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(新版)
        创建有状态负载(StatefulSet)
      • 刷新
        本文通过图文说明刷新功能的类别,操作方法及注意事项。 功能介绍 天翼云边缘安全加速平台—安全与加速服务支持URL刷新、目录刷新和正则刷新三种内容刷新方式。不同刷新方式实现机制稍有不同,但最终都能确保用户访问时获得最新的内容。常用于客户对源站内容做更新后,需要边缘节点上对该内容做同步更新的场景。 URL刷新:执行URL刷新请求后,边缘节点会直接删除URL对应的缓存内容,此时,如果客户端向边缘节点请求该内容,节点会回源站获取并缓存新的内容,同时返回给用户。 目录刷新/正则刷新:执行目录或正则刷新请求后,节点缓存将被标记为缓存过期状态(也叫缓存置过期),此时,如果客户端向边缘节点请求该内容,节点会携带IfModifiedSince请求头或IfNoneMatch请求头回源站校验内容是否有更新。如果源站响应304,说明源站内容未更新,节点则只更新缓存状态不拉取新内容,使用已有缓存响应给用户;如果源站响应200或206,说明源站内容有更新,节点将拉取新内容并缓存,使用新内容响应给用户。 前提条件 您已经完成添加服务域名,如果您未添加,请参考添加服务域名。 操作步骤 1.登录边缘安全加速控制台,进入【安全与加速工作台】【刷新预取】页面。 2.在【刷新预取】页面,单击【创建任务】。 3.按实际场景需求,选择【URL刷新】、【目录刷新】或【正则刷新】。 4.按照对应刷新类型标题下方的提示内容,填写待刷新URL。 5.配置完成后,单击【确定】。 6.完成刷新任务提交后,如要查看任务执行进度和结果,可以选择具体的时间、输入目标域名,或者选择一种特定的任务状态类型查看刷新任务的执行情况。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        加速管理
        刷新预取
        刷新
      • 配置PCI DSS/3DS合规与TLS
        系统影响 PCI DSS 开启PCI DSS合规认证后,不能修改TLS最低版本和加密套件,且最低TLS版本将设置为“TLS v1.2”,加密套件设置为EECDH+AESGCM:EDH+AESGCM。 开启PCI DSS合规认证后,如果您需要修改TLS最低版本和加密套件,请关闭该认证。 PCI 3DS 开启PCI 3DS合规认证后,不能修改TLS最低版本,且最低TLS版本将设置为“TLS v1.2”。 开启PCI 3DS合规认证后,您将不能关闭该认证,请根据业务实际需求进行操作。 操作步骤 1. 登录管理控制台。 2. 单击管理控制台右上角的,选择区域。 3. 单击页面左上方的,选择“安全 > Web应用防火墙(独享版)”。 4. 在左侧导航树中,选择“网站设置”,进入“网站设置”页面。 5. 在目标网站所在行的“域名”列中,单击目标网站,进入网站基本信息页面。 6. 在“合规认证”行,可以勾选“PCI DSS”或“PCI 3DS”开启合规认证,也可以在“TLS配置”所在行,单击编辑按钮修改TLS配置。 勾选“PCI DSS”,系统弹出“警告”对话框,单击“确定”,开启该合规认证。 说明 选择开启PCI DSS合规认证后,您将不能修改TLS最低版本和加密套件。 勾选“PCI 3DS”,系统弹出“警告”对话框,单击“确定”,开启该合规认证。 说明 选择开启PCI 3DS合规认证后,您将不能修改TLS最低版本。 选择开启PCI 3DS合规认证后,您将不能关闭该认证,请根据业务实际需求进行操作。 7. 在弹出的“TLS配置”对话框中,选择最低TLS版本和加密套件,如下图所示。 选择“最低TLS版本”,相关说明如下: 默认为TLS v1.0版本,TLS v1.0及以上版本的请求可以访问域名。 选择TLS v1.1版本时,TLS v1.1及以上版本的请求可以访问域名。 选择TLS v1.2版本时,TLS v1.2及以上版本的请求可以访问域名。 8. 单击“确定”,TLS配置完成。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        网站设置
        高级设置
        配置PCI DSS/3DS合规与TLS
      • cce-hpa-controller
        ccehpacontroller插件是一款CCE自研的插件,能够基于CPU利用率、内存利用率等指标,对无状态工作负载进行弹性扩缩容。 主要功能 支持按照当前实例数的百分比进行扩缩容。 支持设置一次扩缩容的最小步长。 支持按照实际指标值执行不同的扩缩容动作。 约束与限制 仅支持v1.15及以上版本的CCE集群安装本插件。 安装本插件后,还需要安装prometheus(1.1.0及以上版本),用于指标的采集。 安装插件 安装本插件后,可在“弹性伸缩”页面的“工作负载伸缩”页签下,创建CustomedHPA策略,具体请参见参见创建工作负载弹性伸缩(HPA)。 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件市场”页签下,单击“ccehpacontroller”下的“安装插件”按钮。 步骤 2 在安装插件页面,选择安装的集群和插件版本,单击“下一步:规格配置”。 步骤 3 该插件可配置“单实例”或“高可用”规格,选择后单击“安装”。 待插件安装完成后,单击“返回”,在“插件实例”页签下,选择对应的集群,可查看到运行中的实例,这表明该插件已在当前集群的各节点中安装。 升级插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击“ccehpacontroller”下的“ 升级”。 说明: 如果升级按钮处于冻结状态,则说明当前插件版本是最新的版本,不需要进行升级操作。 升级“ccehpacontroller”插件时,会替换原先节点上的旧版本的“ccehpacontroller”插件,安装最新版本的“ccehpacontroller”插件以实现功能的快速升级。 步骤 2 在基本信息页面选择插件版本,单击“下一步”。 步骤 3 参考安装插件中参数说明配置参数后,单击“升级”即可升级“ccehpacontroller”插件。 卸载插件 步骤 1 在CCE控制台中,单击左侧导航栏的“插件管理”,在“插件实例”页签下,选择对应的集群,单击“ccehpacontroller”下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        cce-hpa-controller
      • 新增/编辑事件
        编辑事件 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“威胁管理 > 事件管理”,进入事件管理页面。 5. 在事件管理列表中,单击目标事件所在行“操作”列的“编辑”,右侧弹出编辑事件页面。 6. 在弹出的“编辑”页面中,编辑事件参数。 参数名称 参数说明 基础信息 事件名称 自定义事件名称,命名规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)和特殊字符( ())。 长度不能超过255个字符。 基础信息 事件类型 选择事件类型。 基础信息 (可选)业务ID 填写事件对应的业务ID。 基础信息 事件等级 选择严重等级,可选择以下等级:提示、低危、中危、高危、致命。 基础信息 状态 选择事件状态,可选择以下状态:打开、阻塞、关闭。 基础信息 数据源产品名称 选择数据源产品的名称,不支持修改。 基础信息 数据源类型 选择数据源所属类型,不支持修改。 基础信息 (可选)责任人 选择事件的主要责任人。 时间线 首次发生时间 该事件首次发生时间。 时间线 (可选)最近发现时间 该事件最近一次发生的具体时间。 时间线 (可选)计划关闭时间 选择事件计划关闭时间。 其他 (可选)验证状态 选择事件的验证状态,标识事件的准确性。可选择以下状态:未知、确认、误报。 其他 (可选)阶段 选择您的事件阶段。 准备:准备资源处理事件。 检测与分析:检测与分析事件发生原因。 控制、清除、恢复:进行事件问题处理。 事件后活动:事件处理完成后的后续活动。 其他 (可选)模拟调试项 选择是否开启模拟调试功能,不支持修改。 其他 (可选)标签 填写事件的标签。 其他 描述 事件描述信息,输入规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)和特殊字符( ())。 长度不能超过1024个字符。 7. 单击“确认”,完成事件编辑。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        事件管理
        新增/编辑事件
      • 网页防篡改类
        介绍网页防篡改常见问题 为什么要添加防护目录? 网页防篡改是对目录中的文件进行防篡改防护,所以,开启网页防篡改后,需要添加防护目录才能起到防护作用。 如何修改防护目录? 1、登录管理控制台。 2、在页面左上角单击,选择“区域”,选择“安全 > 企业主机安全”,进入“企业主机安全”页面。在弹窗界面单击“体验新版”,切换至主机安全服务页面。切换至新版后,在总览页左上角单击“返回旧版”,可切换至主机安全(旧版)。 3、在左侧导航栏中,选择“主动防御 > 网页防篡改”,进入“网页防篡改”界面。 4、选择所需开启“网页防篡改”防护的主机,在主机列表右侧的“操作”列中,单击“防护设置”,进入防护设置页面。 5、单击“设置”,在右侧的“防护目录设置”页面中,选择所需修改的防护目录,在防护目录列表右侧操作列中,单击“编辑”修改。 说明 若您需要修改防护目录中的文件,请先暂停对防护目录的防护,再修改文件,以避免误报。 文件修改完成后请及时恢复防护功能。 6、“编辑防护目录”弹框中进行修改,单击“确认”完成修改。 无法开启网页防篡改怎么办? 可能的原因及解决方法如下: 配额不足 现象:所选区域内网页防篡改配额不足。 解决方法:请在所选区域内购买网页防篡改配额。 Agent状态异常 现象:网页防篡改页面防护列表中“Agent状态”为“离线”或者“未安装”。 解决方法:请参见Agent状态异常进行处理,确保主机列表中“Agent状态”为“在线”。 开启了基础版/企业版/旗舰版防护 现象:主机安全页面主机列表中“防护状态”为“开启”。 解决方法:请先关闭主机防护,再开启网页防篡改。 说明 主机防护包含基础版、企业版、旗舰版以及网页防篡改版防护。如果已开启基础版、企业版或者旗舰版防护,需要先关闭主机防护,才能开启网页防篡改。 位置选择错误 请在“网页防篡改 > 防护列表”页面开启防护。 说明 购买主机安全服务“网页防篡改版”后,您可以使用“旗舰版”中的所有功能,此时您只能通过“网页防篡改”页面开启防护,当开启网页防篡改防护时会同步开启旗舰版防护。
        来自:
        帮助文档
        企业主机安全
        常见问题
        网页防篡改类
      • 购买类
        本章节主要介绍DataArts Studio的购买类常见问题。 实例试用/购买成功后,可以转移到其他账号下吗? 不可以,实例试用/购买后不能转移到另一个账户。 如需在当前添加另一个账户,请参见授权用户使用DataArts Studio。 DataArts Studio是否支持版本降级? 已购买DataArts Studio实例后,不支持降级版本,仅支持版本升级。 如您开通了初级版,后期可根据需求升级为企业版。如您已开通企业版,则不支持降到初级版。 关于区域 什么是区域? 我们用区域来描述数据中心的位置,您可以在特定的区域创建资源。 区域(Region)指物理的数据中心。每个区域完全独立,这样可以实现最大程度的容错能力和稳定性。资源创建成功后不能更换区域。 如何选择区域?实例可以转移到另一个区域吗? 建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。 实例创建成功后,无法转移到另一个区域。 区域和终端节点 终端节点(Endpoint)即调用API的 请求地址 ,不同服务不同区域的终端节点不同。Endpoint可从企业管理员处获取。 用户已添加权限,还是无法查看已有的工作空间? 请查看该工作空间下是否已添加用户,如果没有,请参考以下步骤添加该用户。 添加成员和角色 1. 登录DataArts Studio控制台,进入工作空间列表页面。 2. 单击相应工作空间列表后的“编辑”,进入成员空间页面。 3. 单击空间成员下的“添加”,在弹出的“添加成员”对话框中选择“按用户添加”或“按用户组添加”,然后从“成员账号”的下拉选项中选择用户或用户组,并设置角色。 4. 单击“确定”即可添加成功。添加完成后,您可以在空间成员列表中查看或修改已有的成员和对应角色,也可将空间成员从工作空间中删除。 DataArts Studio的工作空间可以删除吗? 工作空间创建成功后,暂不支持删除空间的操作。 您可以将不需要的工作空间禁用,以后仍可以重新启用工作空间。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        常见问题
        购买类
      • 开发Shell脚本
        本章节主要介绍开发脚本的开发Shell脚本。 对Shell脚本进行在线开发、调试和执行,开发完成的脚本也可以在作业中执行(请参见开发作业)。 前提条件 已新增Shell脚本,请参见新建脚本。 已新建主机连接,该主机用于执行Shell脚本,请参见下表。 当前用户已锁定该脚本,否则需要通过“抢锁”锁定脚本后才能继续开发脚本。新建或导入脚本后默认被当前用户锁定,详情参见提交版本并解锁章节中的 编辑锁定功能。 操作步骤 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3. 在脚本目录中,双击脚本名称,进入脚本开发页面。 4. 在编辑器上方,配置如下表所示的属性。 Shell脚本属性 参数 说明 示例 主机连接 选择执行Shell脚本的主机。 参数 填写执行Shell脚本时,向脚本传递的参数。多个参数之间使用空格分隔,例如:a b c。此处的“参数”需要在Shell脚本中使用位置变量(如$1,$2,$3)引用,否则配置无效。位置变量由0开始,其中0变量预留用来保存实际脚本的名字,1变量对应脚本的第1个参数,依次类推。如$1、$2、$3分别引用参数a、参数b和参数c。 注意 shell脚本中若引用变量请直接使用args格式,不要使用 {args}格式,否则会导致被作业中同名参数替换。 例如参数输入为“a b c”,执行如下shell脚本,执行结果显示为“b” 。 echo $2 交互式输入 填写交互式参数,即执行Shell脚本的过程中,需要用户输入的交互式信息(例如密码)。 例如执行如下交互式shell脚本, 交互参数1、2、3 分别对应 begin、end、exit。 当交互参数输入1时,执行结果显示为“start something”。 当交互参数输入2时,执行结果显示为“stop something”。 当交互参数输入3时,执行结果显示为“exit”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        开发脚本
        开发Shell脚本
      • 日志组
        日志组(LogGroup)是云日志服务进行日志管理的基本单位,可以创建日志流以及设置日志存储时间,每个帐号下可以创建100个日志组。 前提条件 已获取控制台的登录帐号与密码。 创建日志组 日志组的创建类型分为用户创建(主动)和云服务创建(被动),云服务创建指其他云服务与云日志服务进行系统对接后,系统自动在云日志服务控制台创建的日志组,本操作中日志组的创建类型为用户创建(主动)。 1. 在云日志服务管理控制台,单击页面右上角的“创建日志组”。 创建日志组 2. 在“创建日志组”页面中,输入日志组名称,名称需要满足如下要求: 只支持输入英文、数字、中文、中划线、下划线及小数点。 不能以小数点、下划线开头或以小数点结尾。 长度为164个字符。 说明 日志采集后,将发送到对应的日志组中的日志流,如果日志较多,需要分门别类,建议您给日志组做好命名,方便后续快速查找日志。日志组创建后,名称不支持修改。 3、单击“确定”,完成日志组的创建。 在日志组列表中,可以查看日志组名称、日志存储时间(天)、创建类型、创建时间和日志流数量。 单击日志组名称,可跳转到日志流详情页面。 并发创建时,可能会偶现创建个数超过限制。 删除日志组 如果日志组不再需要使用,可以删除日志组。日志组删除后,日志组中的日志流、日志数据将被同时删除。日志组删除后无法恢复,请谨慎操作。 说明 如果日志组绑定了日志转储任务,删除日志组之前,需要先删除该日志组关联的日志转储任务。 1. 在日志组列表中,单击待删除日志组操作列下的“删除”。 2. 在弹出框中输入“DELETE”后,单击“确定”,完成日志组删除。 删除日志组 删除日志组
        来自:
        帮助文档
        云日志服务
        用户指南
        日志管理
        日志组
      • 控制台首页
        云日志服务控制台首页提供资源统计、我的收藏/我的收藏(本地缓存)、最近访问等信息。 资源统计 资源统计展示帐号下所有日志前一天的读写流量、索引流量和存储量,以及这些指标的日环比数据。 如需查看资源明细,您可以单击相关明细。 详细信息,请参见资源统计。 我的收藏/我的收藏(本地缓存) 我的收藏展示您收藏的日志流,有两种收藏方式:我的收藏和我的收藏(本地缓存)。 我的收藏:将日志流保存至数据库中,默认为关闭状态。当您的帐号开通写权限时,可显示该功能和我的收藏(本地缓存)。 我的收藏(本地缓存):将日志流保存至浏览器本地缓存,默认为关闭状态。所有帐号均显示我的收藏(本地缓存)。 说明: 当您的帐号开通写权限时,我的收藏/我的收藏(本地缓存)至少有一个是开启状态,否则无法收藏日志流。 您可以通过云日志服务提供的收藏功能个性化定制属于自己的收藏日志流列表,方便您直接、快速的定位到常用的日志流。 以日志组ltstest为例,收藏日志组ltstest下某个日志流的操作步骤如下: 步骤 1 登录云服务日志控制台 步骤 2 在日志组列表区域,单击日志组ltstest对应的 按钮,选择待收藏的日志流。 步骤 3 单击日志流右侧 图标,编辑收藏,选择收藏方式,即可收藏日志流。 在日志流列表中,单击待取消收藏的日志流对应的 ,即可取消收藏。 在我的收藏中,鼠标悬浮待取消收藏的日志流,单击 ,即可取消收藏。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志管理
        控制台首页
      • 重分布
        本章节主要介绍重分布 。 重分布 集群重分布是集群扩容后的一项重要且耗时的任务,集群扩容前,业务数据都集中分布在老节点上,扩容之后新增空的可用节点,此时将老节点的数据均匀分布到新扩节点的过程称为数据“重分布”,数据“重分布”后将大大提升业务响应速率。 默认情况下,在扩容之后将自动调起重分布任务,为了增强扩容重分布整个流程的可靠性,可以选择在扩容时关闭自动重分布功能,在扩容成功之后再手动使用重分布功能执行重分布任务,在这种分段模式下,扩容和重分布都可以做到失败重试。 当前重分布支持离线重分布。 在重分布开始前或重分布暂停过程中,支持对未重分布的表按照schema、表维度设置重分布优先级。 说明 重分布功能8.1.1.200及以上集群版本支持。 只有在扩容之后,集群任务信息为“待重分布”状态时才能手动使用“重分布”功能,其他时段该功能不可使用。 在扩容阶段也可以选择重分布模式的高级配置,详情参见设置高级配置。 重分布队列的排序依据表的relpage大小进行,为确保relpage大小正确,建议在重分布之前对需要重分布的表执行analyze操作。 离线重分布 注意 离线重分布模式下数据库不支持DDL和DCL操作,正在重分布的表只支持简单的DQL操作。 表重分布期间会对表加共享锁,所有插入、更新、删除操作和表DDL操作都会长时间阻塞,会出现等锁超时情况。在重分布执行过程中,用户应当避免执行超过20分钟的查询(在重分布执行时申请写锁的默认时间为20分钟)。否则可能导致重分布出现等待加锁超时失败的问题。 操作步骤 1. 登录DWS管理控制台。 2. 选择“集群 > 专属集群”。默认显示用户所有的集群列表。 3. 集群列表中,在指定集群所在行的“操作”列,选择“更多 > 节点变更 > 重分布”。 系统将显示“重分布”页面。 4. 在“重分布”页面选择默认的离线模式,单击“下一步:确认”提交重分布任务。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        变配与扩容
        节点变更
        集群重分布
        重分布
      • HSTS
        本文介绍HSTS功能和配置方法。 功能介绍 HSTS(HTTP Strict Transport Security,HTTP 严格传输安全),是一种网站用来声明他们只能使用安全连接(HTTPS)访问的方法。网站可通过声明HSTS,来强制客户端(如浏览器)只能使用HTTPS与服务器连接,拒绝所有的HTTP连接并阻止用户接受不安全的SSL证书,降低第一次访问请求被拦截的风险。例如: 当您的域名在全站加速产品中配置了HTTPS功能和HTTP强制跳转HTTPS的功能时,若用户在浏览器中输入HTTP协议的URL进行访问,全站加速节点会将该HTTP请求强制跳转到HTTPS协议,此时: 若未启用HSTS功能,且用户是首次以HTTP协议访问全站加速节点,HTTP请求可能会被拦截或者篡改,存在安全隐患。 若启用了HSTS功能,全站加速节点会响应一个强制HSTS的头(例如:StrictTransportSecurity:maxagexxxx;includeSubDomains)给客户端,告诉客户端只能使用HTTPS协议访问全站加速节点,此后浏览器将直接使用HTTPS协议访问全站加速节点,不再需要HTTP协议强制跳转HTTPS协议了。 注意事项 配置HSTS功能前,请确保已成功配置HTTPS证书,操作方法详情请见:新增证书。 在HSTS生效前,可参考:强制跳转功能,使用户首次以HTTP协议访问时,能够强制跳转到HTTPS协议发起访问。 配置说明 1. 登录客户控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【请求协议】。 5. 在【请求协议】模块,勾选【HTTPS】。 6. 单击右侧【HTTPS配置】,选择域名对应的国际标准证书、国密证书。如果已经在【证书管理】上传证书,可直接选择对应域名证书。如果还未上传证书,可单击【点击上传】,添加对应证书。添加完毕后,再选择对应证书,如未找到目标证书,可点击右侧的刷新按钮刷新后再重新选择。 7. 在【HSTS】模块,开启功能并根据需求填写配置。 8. 单击【保存】,完成配置。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        HTTPS相关配置
        HSTS
      • 开启Smart Connect
        本节介绍如何开启Kafka的Smart Connect功能。 Smart Connect用于Kafka实例和其他云服务(如OBS)之间的数据同步,或者两个Kafka实例之间的数据同步,实现数据的备份或迁移。 Smart Connect的使用流程为: 1. 开启Smart Connect。 2. 创建Smart Connect任务。 本章节主要介绍如何开启Smart Connect。 约束与限制 开启Smart Connect后,实例需要另外收取用于Smart Connect的代理费用。 例如:规格为kafka.4u8g.cluster的实例,会另外创建至少两个规格为kafka.4u8g的代理,用于Smart Connect,所以需要收取相应代理费用。 前提条件 已创建Kafka实例,且实例状态为“运行中”。 “auto.create.groups.enable”已设置为“true”。如果需要修改“auto.create.groups.enable”的取值,请参考修改Kafka实例配置参数。 开启Smart Connect 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、通过以下任意一种方法,开启Smart Connect。 在待开启Smart Connect的Kafka实例所在行,单击“更多 > 开启Smart Connect”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 开启Smart Connect”。 单击Kafka实例名称,进入实例详情页面。在“Smart Connect”后,单击。 单击Kafka实例名称,进入实例详情页面。在左侧导航栏单击“Smart Connect”,进入Smart Connect页面。单击“开启Smart Connect”。 5、单击,将Smart Connect设置为开启,并设置用于Smart Connect的代理数量,代理数取值范围为2~16个,单击“下一步”。 说明 代理数默认为2个,如果您预估2个Kafka实例间的同步流量比较大,例如大于50MB/s,请设置2个以上的代理数。 6、确认“Smart Connect”为开启状态,单击“提交”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        开启Smart Connect
      • 使用MirrorMaker跨集群数据同步
        本文主要介绍使用MirrorMaker跨集群数据同步。 应用场景 在以下场景,使用MirrorMaker进行不同集群间的数据同步,可以确保Kafka集群的可用性和可靠性。 备份和容灾:企业存在多个数据中心,为了防止其中一个数据中心出现问题,导致业务不可用,会将集群数据同步备份在多个不同的数据中心。 集群迁移:当今很多企业将业务迁移上云,迁移过程中需要确保线下集群和云上集群的数据同步,保证业务的连续性。 方案架构 使用MirrorMaker可以实现将源集群中的数据镜像复制到目标集群中。其原理如图1所示,MirrorMaker本质上也是生产消费消息,首先从源集群中消费数据,然后将消费的数据生产到目标集群。如果您需要了解更多关于MirrorMaker的信息,请参见Mirroring data between clusters。 图 MirrorMaker 原理图 约束与限制 源集群中节点的IP地址和端口号不能和目标集群中节点的IP地址和端口号相同,否则会导致数据在Topic内无限循环复制。 使用MirrorMaker同步数据,至少需要有两个或以上集群,不可在单个集群内部使用MirrorMaker,否则会导致数据在Topic内无限循环复制。 实施步骤 1、 购买一台弹性云主机,确保弹性云主机与源集群、目标集群网络互通。具体购买操作,请参考购买弹性云主机。 2、 登录弹性云主机,安装Java JDK,并配置JAVAHOME与PATH环境变量,使用执行用户在用户家目录下修改“.bashprofile”,添加如下行。其中“/opt/java/jdk1.8.0151”为JDK的安装路径,请根据实际情况修改。 export JAVAHOME/opt/java/jdk1.8.0151 export PATHJAVAHOME/bin:PATH 执行source .bashprofile命令使修改生效。 说明 弹性云主机默认自带的JDK可能不符合要求,例如OpenJDK,需要配置为Oracle的JDK,可至Oracle官方下载页面
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        使用MirrorMaker跨集群数据同步
      • 1
      • ...
      • 294
      • 295
      • 296
      • 297
      • 298
      • ...
      • 324
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      推荐文档

      数据库访问

      篡改告警分析

      应用监控指标总览

      普通连接

      玩转天翼云④:ntp时间同步服务

      产品变更

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号