活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼备份_相关内容
      • Volcano调度器
        保留原volcanoschedulerconfigmap配置 假如在某场景下希望插件升级后时沿用原配置,可参考以下步骤: 步骤 1 查看原volcanoschedulerconfigmap配置,并备份。 示例如下: kubectl edit cm volcanoschedulerconfigmap n kubesystemapiVersion: v1 data: defaultscheduler.conf: actions: "enqueue, allocate, backfill" tiers: plugins: name: priority name: gang name: conformance plugins: name: drf name: predicates name: nodeorder name: binpack arguments: binpack.cpu: 100 binpack.weight: 10 binpack.resources: nvidia.com/gpu binpack.resources.nvidia.com/gpu: 10000 plugins: name: ccegputopologypredicate name: ccegputopologypriority name: ccegpu plugins: name: nodelocalvolume name: nodeemptydirvolume name: nodeCSIscheduling name: networkresource 步骤 2 在控制台“参数配置”中填写自定义修改的内容: { "cacert": "", "defaultschedulerconf": { "actions": "enqueue, allocate, backfill", "tiers": [ { "plugins": [ { "name": "priority" }, { "name": "gang" }, { "name": "conformance" } ] }, { "plugins": [ { "name": "drf" }, { "name": "predicates" }, { "name": "nodeorder" }, { "name": "binpack", "arguments": { "binpack.cpu": 100, "binpack.weight": 10, "binpack.resources": "nvidia.com/gpu", "binpack.resources.nvidia.com/gpu": 10000 } } ] }, { "plugins": [ { "name": "ccegputopologypredicate" }, { "name": "ccegputopologypriority" }, { "name": "ccegpu" } ] }, { "plugins": [ { "name": "nodelocalvolume" }, { "name": "nodeemptydirvolume" }, { "name": "nodeCSIscheduling" }, { "name": "networkresource" } ] } ] }, "servercert": "", "serverkey": "" } 说明 使用该功能时会覆盖原volcanoschedulerconfigmap中内容,所以升级时务必检查是否在volcanoschedulerconfigmap做过修改。如果是,需要把修改内容同步到升级界面里。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        Volcano调度器
      • 扩容磁盘
        本章主要介绍扩容磁盘 扩容集群实例的磁盘空间 随着业务数据的增加,原来申请的数据库磁盘容量不能满足需求,这时,您需要为实例进行磁盘扩容。扩容实例磁盘空间的同时备份空间也会随之扩大。 用户购买的存储空间超过600GB,当剩余的可用存储空间为18GB时,数据库会被设置成磁盘满只读状态。 用户购买的存储空间小于等于600GB,当实际使用量到总存储空间的97%时,数据库会被设置成磁盘满只读状态。 建议您设置“磁盘使用率”指标的告警规则,及时了解磁盘使用情况,起到预警作用,具体请参见设置告警规则。 数据库磁盘空间不足的原因和解决方案,请参见磁盘使用率高问题排查。 使用须知 账户需要有足够的余额,才可进行扩容。 对于集群实例,仅支持对shard节点进行磁盘扩容,mongos节点和config节点不能进行磁盘扩容。 存储容量变更只允许扩容,不能缩容。 选择磁盘加密的实例,新扩容的磁盘空间依然会使用原加密密钥进行加密。 实例处于以下状态时不可扩容: 创建中 规格变更中 节点扩容中 删除节点 小版本升级 磁盘扩容期间,服务不中断。DDS服务只支持扩容磁盘存储空间大小,不支持变更存储类型。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        变更实例
        扩容磁盘
      • 使用Flink客户端
        本节提供使用Flink运行wordcount作业的操作指导。 前提条件 翼MR集群中已安装Flink组件。 集群正常运行,已安装集群客户端,例如安装目录为“/user/local/flink”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Flink客户端 1. 安装客户端,具体请参考安装客户端章节。 2. 登录安装客户端的节点。 3. 执行以下命令,切换到客户端安装目录,例如“/user/local/flink”。 plaintext cd /user/local/flink 4. 执行如下命令初始化环境变量。 plaintext source bigdataenv 5. 集群默认开启Kerberos认证,需要将实际的keytab文件路径替换以下命令中的/path/example.keytab,执行命令进行认证。 plaintext kinit kt /path/example.keytab klist kt /path/example.keytab sed n 4p awk '{print $NF}' 同时,应配置安全认证。在“/usr/local/flink/conf/flinkconf.yaml”配置文件中的对应配置添加keytab路径以及用户名。 plaintext security.kerberos.login.useticketcache: true security.kerberos.login.keytab: security.kerberos.login.principal: user security.kerberossecurity.login.contexts: Client,KafkaClient 例如 plaintext security.kerberos.login.keytab: /etc/security/keytabs/hdfs.keytab security.kerberos.login.principal: hdfs 6. 运行wordcount作业。 1. 首先启动Flink集群。 plaintext /usr/local/flink/bin/startcluster.sh 2. Session模式:执行如下命令在session中提交作业。 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 plaintext yarnsession.sh nm "sessionname" detachedflink run /usr/local/flink/examples/streaming/WordCount.jar 3. PerJob模式:执行如下命令以PerJob方式提交作业。 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 plaintext flink run t yarnperjob detached /usr/local/flink/examples/streaming/WordCount.jar 4. Application模式:执行如下命令以Application方式提交作业。 提交成功后,会返回已提交的Flink作业的YARN Application ID以及Web地址,访问Web地址以通过Web UI的方式查看作业状态。 plaintext flink runapplication t yarnapplication/usr/local/flink/examples/streaming/WordCount.jar
        来自:
      • 配置审计日志导出参数
        本章节主要介绍翼MapReduce服务配置审计日志导出参数。 操作场景 MRS的审计日志长期保留在系统中,可能引起数据目录的磁盘空间不足问题,故通过设置导出参数及时将审计日志自动导出到OBS服务器的指定目录下,便于管理审计日志信息。 说明 审计日志导出到OBS服务器的内容包含两部分,服务审计日志和管理审计日志。 服务审计日志每天凌晨3点自动压缩存储到主管理节点“/var/log/Bigdata/audit/bk/”,保存的文件名格式为.tar.gz。默认情况下,保存的文件个数为7份(即7天的日志),超过7份文件时会自动删除7天前的文件。 管理审计日志每次导出到OBS的数据范围是从最近一次成功导出到OBS的日期至本次执行任务的日期。管理审计日志每达到10万条时,系统自动将前9万条审计日志转储保存到本地文件中,数据库中保留1万条。转储的日志文件保存路径为主管理节点“${BIGDATADATAHOME}/dbdataom/dumpData/iam/operatelog”,保存的文件名格式为“OperateLogstoreYYMMDDHHMMSS.csv”,保存的审计日志历史文件数最大为50个。 前提条件 用户已经获取帐号对应的Access Key ID(AK)和Secret Access Key(SK)。 用户已经在帐号的对象存储服务(OBS)中创建了并行文件系统。 操作步骤 在MRS Manager,单击“系统设置”。 1.在“维护”下单击“审计日志导出”。 审计日志导出参数 参数名 参数值 参数解释 开始时间 07/24/2017 09:00:00(举例) 必选参数,指定审计日志导出的开始时间。 周期 1天(举例) 必选参数,指定审计日志转导出的时间间隔,间隔周期范围为(1~5天)。 桶名 mrsbucket(举例) 必选参数,指定审计日志导出到OBS的文件系统名。 OBS路径 opt/omm/oms/auditLog(举例) 必选参数,指定审计日志导出到OBS的路径。 AK XXX(举例) 必选参数,用户的Access Key ID。 SK XXX(举例) 必选参数,用户的Secret Access Key。 说明 审计日志在OBS的存储路径细分为serviceauditlog和managerauditlog,分别用于存储服务审计日志和管理审计日志。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        日志管理
        配置审计日志导出参数
      • 添加用户并绑定租户的角色
        本章节主要介绍翼MapReduce的添加用户并绑定租户的角色操作。 操作场景 创建好的租户不能直接登录集群访问资源,管理员需要通过FusionInsight Manager为已有租户创建新用户,通过绑定租户的角色继承其操作权限,以满足业务使用。 前提条件 管理员已明确业务需求,并已创建了租户。 操作步骤 1. 登录FusionInsight Manager,选择“系统 > 权限 > 用户”。 2. 若在系统中添加新的用户,请单击“添加用户”,打开添加用户的配置页面。 若为系统中已有的用户绑定租户权限,请单击该用户所在行的“修改”,打开修改用户的配置页面。 参见下表为用户配置属性。 用户参数一览 参数名 描述 用户名 指定当前的用户名,长度为3~32个字符,可包含数字、字母、下划线()、中划线()或空格。 “用户名”不能与集群各节点所有操作系统用户名相同,否则此用户无法正常使用。 不支持创建两个名称相同但大小写不同的用户。例如已创建用户“User1”,无法创建用户“user1”。使用“User1”时请输入正确的用户名。 用户类型 可选值包括“人机”和“机机”。 “人机”用户:用于在FusionInsight Manager的操作运维场景,以及在组件客户端操作的场景。选择该值需同时填写“密码”和“确认密码”。 “机机”用户:用于应用开发的场景。选择该值用户密码随机生成,无需填写。 密码 选择“人机”用户需填写“密码”。密码必须包含8~64个字符,至少包含以下类型字符中的四种:大写字母、小写字母、数字、特殊字符和空格。不能与用户名或倒序的用户名相同。 确认密码 再次输入密码。 用户组 单击“添加”,选择对应用户组将用户添加进去。 如果用户组添加了角色,则用户可获得对应角色中的权限。 例如,为新用户分配Hive的权限,请将用户加入Hive组。 主组 选择一个组作为用户创建目录和文件时的主组。下拉列表包含“用户组”中勾选的全部组。 角色 单击“添加”为用户绑定租户的角色。 说明 若一个用户想要获取使用“tenant1”租户包含的资源,且能够为“tenant1”租户添加/删除子租户,则需要同时绑定“Managertenant”和“tenant1集群ID”两个角色。 描述 配置当前用户的描述信息。 3. 单击“确定”完成用户创建。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Capacity调度器的租户业务
        创建租户
        添加用户并绑定租户的角色
      • 修改服务配置参数
        本章节主要介绍翼MapReduce的修改服务配置参数操作。 操作场景 为了满足实际业务的需求,管理员可以在FusionInsight Manager中快速查看及修改服务默认的配置。请务必参照配置描述中的建议进行参数配置。 说明 集群中只剩下一个DBService角色实例时,不支持修改DBService服务的参数。 对系统的影响 配置服务属性后,如果服务状态为“配置过期”,则需要重启此服务,重启期间该服务不可用。 修改服务配置参数并重启生效后,需要重新下载并安装客户端,或者下载配置文件刷新客户端。例如HBase、HDFS、Hive、Spark、Yarn、Mapreduce。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“集群 > 待操作集群的名称 > 服务”。 3. 单击服务视图中指定的服务名称。 4. 单击“配置”。 默认显示“基础配置”,如果需要修改更多参数,请选择“全部配置”,界面上将显示该服务的全部配置参数导航树,导航树从上到下的一级节点分别为服务名称和角色名称。展开一级节点后显示参数分类。 例如下图所示,第一个“LdapServer”表示服务名称,配置项针对整个服务;第二个“SlapdServer”表示角色名称,配置项针对角色的全部实例。 配置参数导航树 5. 在导航树选择指定的参数分类,并在右侧修改参数值。 说明 对于端口类参数值请从右侧描述中的取值范围中选取,请确保同一个服务中所有参数项配置的值均在取值范围内且唯一,否则会导致服务启动失败。 不确定参数的具体位置时,支持在右上角输入参数名,Manager将实时进行搜索并显示结果。 6. 单击“保存”,并在确认对话框中单击“确定”。 等待界面提示“操作成功”,单击“完成”,配置已修改。 说明 更新Yarn服务队列的配置且不重启服务时,选择“更多 > 刷新队列”更新队列使配置生效。 配置Flume参数“flume.config.file”时,支持“上传文件”和“下载文件”功能。上传配置文件后旧文件将被覆盖,再下载文件只能获取新文件。如果未保存配置并重启服务,那么新文件设置未生效,请及时保存配置。 修改服务配置参数后如需重启服务使配置生效,可在服务页面单击右上角“更多 > 重启服务”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理服务
        服务配置
        修改服务配置参数
      • 创建IPSec VPN
        本节介绍创建IPsec VPN的操作说明。 注:目前仅支持部分资源池开启IPsec VPN的功能,如当前资源池的AI云电脑(政企版)控制台没有IPsec VPN的功能菜单,请联系运维客服进行开通(运维客服邮箱:clouddesktop@chinatelecom.cn) 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“网络管理”,点击“企业云网”,选择“IPsec VPN”,进入IPsec VPN管理页面; 3.点击“创建IPsec VPN”,填写相关信息; 在创建IPsec VPN页面中填写相关信息,下面以客户侧网段192.168.10.0/24为例,带宽为5M创建,选择主VPC。其中“标识符类型”可选“IPV4”和“FQDN”,若选择IPV4,则云端标识符会默认填充为云侧公网IPV4地址,客户侧标识符则需用户填写客户设备的公网IPV4地址。若选择“FQDN”则填写对应的标识符,这些隧道信息在配置客户侧防火墙过程中使用到。 详细参数解析: (1)IPsec VPN名称:用户自定义,比如“IPSecVPN”。 (2)客户侧私网网段:客户办公区私网网段,与IPsec VPN绑定的云侧VPC子网网段不可重叠。 (3)客户侧公网地址:客户侧有固定公网地址则填写固定公网地址,无固定公网地址可以在客户内网打开浏览器百度搜索“IP”获取出口公网地址。 (4)IKE版本:只支持IKEv2版本。 (5)预共享密钥:密码强度826位,须同时包含英文字母、数字和特殊字符。客户侧防火墙与IPSec VPN实例预共享密钥需配置一致。 (6)标识符类型:支持IPV4与FQDN(域名)两种类型,默认选择IPV4。 (7)云端标识符与客户侧标识符:若使用IVP4,云端标识符会自动填充为云侧公网IPV4地址,客户端标识符需要填写客户侧设备公网IPV4地址。若填写FQDN,则需要用户填写对应的FQDN信息。用户需要注意填写 标识符顺序,假设创建IPsec VPN实例时标识符类型选用FQDN,云端标识符设置为cloud.responder,客户侧标识符设置为customer.initiator,那么客户侧VPN设备,如strongswan,leftid应设置为 @customer.initiator,rightid应设置为@cloud.responder,类型为IPV4同理。 (8)选择主VPC:客户端需要与云侧互通的VPC 4.确定创建后,IPsec VPN实例创建成功。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        企业云网管理
        IPSec VPN
        创建IPSec VPN
      • 产品功能
        本节介绍了DDoS高防(边缘云版)的主要产品功能。 DDoS高防(边缘云版)的功能说明如下,适用于所有套餐。 功能分类 功能项 功能描述 防护功能 DDoS网络层防护 支持TCP、UDP、ICMP网络协议防护,如SYN Flood ,ACK Flood,空连接等。 防护功能 畸形报文防护 支持对Ping of Death、Tear Drop、LAND、Fraggle等畸形报文进行过滤,判断报文合法性,丢弃异常请求。 防护功能 CC防护 CC防护根据访问者的URL,频率,行为等访问特征,智能识别CC攻击,避免源站资源耗尽,保证企业网站的正常访问。 防护功能 访问控制 可针对IP,IP段,IP端口,URI,METHOD,请求地区,请求参数,请求头部,请求协议等维度进行组合,设置白名单和黑名单,对请求进行拦截和放行,保证客户网站不受未知访问。 防护功能 频率控制 支持针对特定报文(十余种粒度组合),选择URL、ARGS、Header、Cookie、UA、IP其中一个或两个粒度进行频率统计,并设置对应的处理动作,以对高频请求进行控制。 告警策略 应用层CC告警 支持自定义CC攻击告警策略,对持续时长、QPS峰值、攻击次数进行监控和告警。 告警策略 网络层告警 支持自定义网络层攻击告警策略,对持续时长、pps峰值、bps峰值进行监控和告警。 告警策略 告警勿扰时间 支持设置勿扰时间,在特定时间内不进行告警。 业务接入 域名接入 支持HTTP、HTTPS、HTTP2协议的域名进行自助接入配置。 支持自定义回源HTTP请求头。 支持多个源站或域名回源,并对源站设置层级和权重。 支持指定回源协议或配置跟随协议。 支持请求强制跳转,即将请求的HTTP强制302跳转至HTTPS进行请求。 业务接入 端口接入 支持UDP、TCP协议协议的域名进行自助接入配置。 支持配置转发端口或转发端口段。 支持多个源站或域名回源。 安全分析 安全报表 支持查看CC安全报表、网络层安全报表,通过攻击趋势、攻击源TOP分析、攻击目标TOP分析等,掌握攻击态势。 安全分析 攻击事件 支持查看、导出CC攻击事件、网络层攻击事件。 业务分析 日志下载 支持下载业务请求全量日志,以对业务情况进行深入分析,为攻击排查,业务决策提供输入信息。 业务分析 业务用量 支持查看流量、带宽、请求次数、QPS、连接数、并发连接数、响应状态码的趋势,以掌握业务运行情况。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        产品介绍
        产品功能
      • 创建实例
        本节主要介绍分布式消息服务Kafka的订购流程。 背景信息 Kafka实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占Kafka实例,可根据业务需要可定制相应规格的Kafka实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 前提条件 具备已通过实名认证的天翼云账号 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在管理控制台右上角单击“地域名称”,选择区域。此处请选择与您的应用服务相同的区域。 4. 点击“购买实例”跳转到购买页面,根据页面订购说明进行产品开通。 5. 下载安装工具Eclipse3.6.0以上上版本 或者IntelliJ ,JDK 1.8.111以上版本。 说明 以下订购说明适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3资源池 计费模式:包周期和按需计费 引擎类型:云原生引擎和Kafka引擎。两者差别如下: 云原生引擎:大规模分区性能稳定性更高,扩容无需迁移数据。 Kafka引擎:完全兼容开源Kafka生态,占用更少IO带宽,可应对更高的性能峰值突刺。 部署方式:单可用区和多可用区部署。单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区 自动续期:支持自动续期,支持做选择自动续期时长 节点数:3、5、7、9 主机类型:通用型和计算增强型,不同类型主机规格价格不一样,具体区别见文档弹性云主机实例规格 实例规格:主机节点规格,通用型和计算增强型规格不一致,具体以页面为准。 说明 以下订购说明适用于芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 资源池 计费模式:包周期和按需计费 区域:开通实例所在资源池 类型:选择产品规格,包括高级版8核32G与基础版4核16G 节点数:固定3个节点 主机类型:支持通用型主机s2、s3和s6,具体区别见文档弹性云主机实例规格通用型
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建实例
      • Kafka Connect接入Kafka
        本节主要介绍Kafka Connect接入Kafka。 最佳实践概述 场景描述 Kafka Connect可以将完整的数据库注入到Kafka的Topic中,或者将服务器的系统监控指标注入到Kafka,然后像正常的Kafka流处理机制一样进行数据流处理。而导出工作则是将数据从Kafka Topic中导出到其它数据存储系统、查询系统或者离线分析系统等。 如果您想要在流数据平台场景下,使用Kafka Connect快速实现数据从Kafka和其它系统之间进行导入导出,可以参考本实践方案。 技术架构图 暂无。 方案优势 用户可按业务需要,参考Kafka Connect数据导入导出,实现流数据的消息消费。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 资源规划 本实践方案内容仅涉及Kafka专享版实例和Flink的安装配置。 分布式消息服务 Figure 1 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 Kafka Connect流数据平台 Figure 2 Kafka Connect流数据平台 资源类型 配置项 配置明细 说明 :::: 应用软件 Flink框架 Flink 1.14 使用开源Apache Flink 方案正文 Kafka Connect 目前支持两种执行模式:standalone 和 distributed。 standalone模式 通过以下命令以 standalone 模式启动 connect: 接入Kafka专享版与接入开源 Apache Kafka 没有区别,仅需要修改 bootstrap.servers 为申请实例时分配的 IP。 distributed模式 通过以下命令以 distributed 模式启动 connect: 该模式下,Kafka Connect 会将 offsets、configs 和 task status 信息存储在 Kafka Topic 中,存储的Topic 在 connectdistributed 中的以下字段配置: 这三个 Topic 需要手动创建,才能保证创建的属性符合 connect 的要求。 config.storage.topic 需要保证只有一个 partition,多副本且为 compact 模式。 offset.storage.topic 需要有多个 partition,多副本且为 compact 模式。 status.storage.topic 需要有多个 partition,多副本且为 compact 模式。 配置 bootstrap.servers 为申请实例是分配的 IP。 配置 group.id,用于标识 connect 集群,需要与消费者分组区分开来。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka Connect接入Kafka
      • 查看消费者连接地址
        本文主要介绍查看消费者连接地址。 分布式消息服务Kafka支持通过以下两种方式查看消费者连接地址,您可以根据实际情况选择任意一种方式。 方法一:在管理控制台查看消费者连接地址 方法二:在Kafka Manager中查看消费者连接地址 说明 消费者处于连接Kafka实例时,才可以查看消费者连接地址。 Kafka Manager由于缓存原因,显示的消费者连接地址可能不是当前消费者连接地址,建议重启Kafka Manager解决。 方法一:在管理控制台查看消费者连接地址 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击待查看消费者连接地址的消费组名称,进入消费组详情页。 步骤 7 在“消费者列表”页签,查看消费者连接地址。 图 消费者列表 方法二:在Kafka Manager中查看消费者连接地址 步骤 1 登录Kafka Manager。 步骤 2 单击“kafkacluster”,进入集群详情页。 步骤 3 在顶部导航栏单击“Consumers”,进入消费组列表页面。 图 导航栏 步骤 4 单击待查看消费者连接地址的消费组名称,进入消费组订阅的Topic列表页面。 图 消费组列表页面 步骤 5 单击待查看消费者连接地址的Topic名称,进入Topic详情页。 图 消费组订阅的Topic列表页面 步骤 6 在“Consumer Instance Owner”中,查看消费者连接地址。 图Topic详情页
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        查看消费者连接地址
      • 修改分区平衡
        手动平衡 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏单击“Topic管理”,进入Topic列表页面。 步骤 6 通过以下任意一种方法,修改分区平衡。 勾选待修改分区平衡Topic名称左侧的方框,单击信息栏左上侧的“一键平衡 > 手动平衡”。 在待修改分区平衡的Topic所在行,单击“更多 > 一键平衡 > 手动平衡”。 步骤 7 设置手动平衡参数。 在“手动平衡”对话框右上角,单击“减少副本”/“添加副本”,为Topic的每个分区减少/增加副本数。 在待修改分区平衡的副本名称下,单击Broker名称或,选择目标Broker的名称,副本即将迁移至目标Broker上。同一分区下的不同副本需要分配在不同的Broker上。 在“带宽限制”中,输入带宽大小,默认值为“1”,表示不限制带宽。如果实例负载较低,建议不设置带宽限制。如果需要设置带宽限制,建议该参数值不小于待分区平衡Topic的总生产带宽 待分区平衡Topic的最大副本数。带宽限制值的估算方法,请参考带宽限制值估算方法。 图 设置手动平衡参数 步骤 8 单击“确定”,自动跳转到Topic列表页面。 在Topic列表页面左上方单击“查看变更任务”,进入“后台任务管理”页面,查看分区平衡任务的状态。当“状态”为“成功”时,表示分区平衡完成。 说明 分区平衡任务启动后,不能删除正在进行分区平衡的Topic,否则会导致分区平衡任务无法结束。 分区平衡任务启动后,无法修改Topic的分区数。 分区平衡任务启动后,无法手动停止任务,需要等到任务完成。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改分区平衡
      • 查看实例
        本文主要介绍查看实例。 操作场景 本节介绍如何在分布式消息服务Kafka管理控制台查看Kafka实例的详细信息。例如,连接Kafka实例时,需要获取连接IP和端口。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 Kafka实例支持通过筛选来查询对应的Kafka实例。当前支持的筛选条件为标签、状态、名称、ID和连接地址。Kafka实例状态请参见下表。 表 Kafka实例状态说明 状态 说明 创建中 创建Kafka实例后,在Kafka实例状态进入运行中之前的状态。 运行中 Kafka实例正常运行状态。在这个状态的实例可以运行您的业务。 故障 Kafka实例处于故障状态。 启动中 Kafka实例从已冻结到运行中的中间状态。 重启中 Kafka实例正在进行重启操作。 变更中 Kafka实例正在进行规格变更、公网访问变更等操作。 变更失败 Kafka实例处于规格变更、公网访问变更等操作失败的状态。 已冻结 Kafka实例处于已冻结状态。 冻结中 Kafka实例从运行中到已冻结的中间状态。 升级中 Kafka实例正在进行升级操作。 回滚中 Kafka实例正在进行回滚操作。 步骤 5 单击Kafka实例的名称,进入该Kafka实例的基本信息页面,查看Kafka实例的详细信息。 下表为连接实例的相关参数,其他参数,请查看页面显示。 信息类型 参数 说明 ::: 连接信息 内网连接地址 未开启公网访问时,连接实例的地址。 显示的连接地址个数为实例代理个数。 连接信息 Manager内网访问地址 未开启公网访问时,连接Kafka Manager的地址。 连接信息 公网访问 是否开启公网访问开关。 连接信息 公网连接地址 开启公网访问后,连接实例的地址。 仅当开启了公网访问才显示该参数。 连接信息 Manager公网访问地址 开启公网访问后,连接Kafka Manager的地址。 仅当开启了公网访问才显示该参数。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        查看实例
      • 切换并发桌面池镜像v3
        接口功能介绍 并发桌面池功能请联系客户经理开通。 当前仅支持操作Windows系统的政企版规格的并发桌面池 接口约束 无 URI POST /v3/concurrentDesktopPool/changeImage 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 regionId 是 String 资源池ID。 d8bbd132b53a11e9b0e40242ac110002 请求参数 请求头header参数 无 请求体body参数 参数 是否必填 参数类型 说明 示例 下级对象 desktopPoolOid 是 String 并发桌面池ID dpw8djg4dwv35w4c19o932g imageOid 是 String 镜像ID,当前仅支持Windows系统、非GPU镜像 miyr404205jf6br4f1dyb03 includeDataDisk 否 Boolean 切换整机镜像时,是否包括数据盘,默认为否 includeDataDisk 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码。可能值: 800:请求成功。 900:请求失败。 800 error String 错误码。 message String 提示信息。 OK. returnObj Object 返回数据结构体。 { } returnObj 枚举参数 无 请求示例 请求url 无 请求头header 无 请求体body {"desktopPoolOid":"dpxxx","imageOid":"mixxx","includeDataDisk":null}
        来自:
        帮助文档
        天翼云电脑(政企版)
        API参考
        API
        2023-10-30
        并发桌面池
        切换并发桌面池镜像v3
      • 批量绑定域名
        本文将介绍证书如何批量绑定域名。 使用场景 当您需要更新证书时,如果涉及到大量域名需要绑定证书,可以通过批量绑定域名进行快捷操作。 配置说明 证书批量绑定域名具体操作步骤如下: 1. 登录DDoS高防(边缘云版)控制台。 2. 在【证书管理】页面,找到您需要操作的证书,通过操作列>单击【绑定域名】按钮。 3. 见下图,左侧列表展示此证书可绑定的域名,证书不匹配、已停用的域名不展示。 4. 选择您要绑定该证书的域名,域名将会出现在右侧,每次最多支持绑定10个域名。 5. 选择完毕后,单击【提交绑定】,将提交证书绑定域名的任务。 注意事项 关联域名后,已选择的域名将自动开启https开关,且绑定该证书。 证书绑定域名生效时间大概需要5~15分钟,您可以稍后在证书详情查看绑定域名情况。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        用户指南
        证书管理
        批量绑定域名
      • 主机资产
        资产发现 云堡垒机支持设置端口和网段扫描并发现资产。 1.使用“管理角色”账户登录云堡垒机(原生版)控制台。 2.在左侧导航栏选择“资产管理 > 资产”,进入“资产”页面。 3.单击“资产发现”按钮,在弹出的对话框中填写需要扫描的目标网段和端口。 4.填写完成后,单击“立即扫描”开始扫描资产。 5.扫描完成后,根据您自身业务需求勾选需要导入至堡垒机的资产,分别填写“资产名称”、“资产类型”和“协议”。 6.选择“重复资产导入策略”,单击“添加至堡垒机资产列表”即可完成资产导入。 后续操作 导出资产:在“资产”页面勾选需要导出的资产,单击“导出”即可导出。 删除资产:在“资产”页面选择需要删除的资产,单击“操作”列的“删除”按钮,在弹出的对话框中单击“确定”即可删除。 注意 删除后的资产无法恢复,请谨慎删除!
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        资产管理
        主机资产
      • 安全(1)
        本节介绍安全基线及配置参考。 OpenClaw云电脑是否可操作本地终端文件 部分安全基线及配置参考 智能体部署 限制互联网访问 开启详细日志 文件系统访问控制 第三方技能审查 安全自检 更新版本 卸载 OpenClaw云电脑是否可操作本地终端文件 免费活动领取的OpenClaw云电脑:默认不重定向本地文件,无法操作本地文件,数据更安全。 天翼云电脑(公众版):默认重定向本地文件至云电脑,使用时请注意数据安全。 天翼云电脑(政企版):由租户管理员在管理台 “策略管理→基础策略管理→文件与剪切板” 中自定义配置。如下图所示: 部分安全基线及配置参考 智能体部署 创建OpenClaw专有用户,切勿使用sudo组: sudo adduser shell /bin/rbash disabledpassword clawuser 通过创建的专有用户登录操作系统。 创建受限的命令目录,禁止rm、mv、dd、format、powershell等: sudo mkdir p /home/clawuser/bin sudo ln s /bin/ls /home/clawuser/bin/ls sudo ln s /bin/echo /home/clawuser/bin/echo 强制设置 PATH 并只读,如在 /etc/profile.d/restrictedclawuser.sh修改配置: echo 'if [ "$USER" "clawuser" ]; then export PATH/home/clawuser/bin; readonly PATH; fi' sudo tee /etc/profile.d/restrictedclawuser.sh sudo chmod 644 /etc/profile.d/restrictedclawuser.sh 禁用root登录: sudo sed i 's/^?PermitRootLogin./PermitRootLogin no/' /etc/ssh/sshdconfig sudo systemctl restart sshd
        来自:
      • 版本特性
        本章节介绍Nacos引擎版本的功能特性 概述 MSE注册配置中心在开源Nacos的基础上研发了推送轨迹等新功能,提供了丰富的运维手段,保障高可用性。本文介绍 Nacos 引擎版本的功能特性。 版本特性 Nacos引擎类型分为集群版、单机版,所支持的功能特性如下:以下表格中,表示支持此功能,表示不支持此功能。 功能 支持情况 支持Nacos 1.X版本客户端 HTTP OpenAPI 注册中心 配置中心 监控分析 告警管理 配置加密 支持Nacos 2.X版本客户端 推空保护 推送轨迹 支持多AZ高可用部署
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        Nacos
        版本特性
      • 回滚一致性快照
        本节主要介绍如何使用API回滚一致性快照。 此操作用来回滚一致性快照。 注意 此操作会将一致性快照中的数据覆盖到所有源卷的数据,建议操作前,对源卷数据通过创建快照或者一致性快照的方式进行备份。 如果源卷已被客户端挂载,需在客户端取消挂载卷后回滚,回滚后重新挂载卷: 对于Linux客户端,可以执行下列步骤: 1. 回滚一致性快照前,客户端执行命令:umount DIRECTORYNAMEORPATH 2. 回滚一致性快照后,客户端执行命令:mount /dev/sdx DIRECTORYNAMEORPATH 对于Windows客户端,可以执行下列步骤: 1. 回滚一致性快照前,在客户端将源卷对应的磁盘脱机。 2. 回滚一致性快后,在客户端将源卷对应的磁盘重新联机。 如果一致性快照的卷快照的源卷是一个克隆卷,并且此克隆卷正在执行断开关系链的操作时,不能使用这个克隆卷的任何快照进行回滚。 说明 如果一致性快照中有一个单卷快照处于删除中的状态,可以回滚,对其余正常状态的单卷快照进行回滚,删除中状态的快照不回滚。 请求语法 plaintext PUT /rest/v1/block/conssnap/consistencySnapshotName/rollback HTTP/1.1 Date:date ContentLength: length Host: ip:port Authorization: authorization
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        一致性快照管理
        回滚一致性快照
      • 通用类
        如何提升云硬盘的性能? 用户可以通过LVM管理云硬盘以及为云硬盘构建RAID磁盘阵列来提升云硬盘的性能。 详情请参见: 通过LVM创建逻辑卷,并格式化文件系统 使用云硬盘构建RAID磁盘阵列 数据盘容量是否可与系统盘容量合并? 不支持合并。 您可以通过扩容云硬盘来扩展数据盘或系统盘的容量大小,以增加存储空间。 MBR和GPT分区形式有什么不同? MBR(Master Boot Record主引导记录)和GPT(Globally Unique Identifier Partition Table GUID分区表)是两种不同的磁盘分区形式,选择哪种分区形式取决于磁盘的容量,具体的区别如下表: 分区方式 支持最大磁盘容量 支持分区数量 分区工具 MBR 2TB 4个主分区 3个主分区和1个扩展分区 Linux 操作系统:fdisk 工具或parted 工具 GPT 18EB(目前云硬盘支持的最大容量为32TB) 不限制分区数量 Linux 操作系统:parted 工具 云硬盘格式化后还能恢复数据吗? 不能。云硬盘格式化后无法再恢复数据。 建议您在格式化前先创建云硬盘快照,以备份未格式化前的云硬盘数据,在您有需要时可通过快照回滚操作恢复数据。
        来自:
        帮助文档
        云硬盘 EVS
        常见问题
        通用类
      • 退订包年包月文件系统
        本文介绍如何在控制台退订包年/包月文件系统。 操作场景 文件系统退订后,文件系统中存放的数据将无法恢复。为避免数据丢失,执行退订操作前,请确认存放在该文件系统中的文件都已经备份。 注意 退订文件系统时,会同时删除所有文件系统数据,请谨慎操作。 已经退订的文件系统不可恢复,请谨慎操作。 包年/包月的文件系统支持退订。 退订文件系统前,须解绑所有VPC。 操作步骤 包年包月付费的新购资源支持7天内无理由全额退订(不包含进行了扩容、续订操作的实例),非新购包年包月资源有条件退订,具体请参考退订规则。 1. 登录天翼云控制中心,在控制台左上角选择地域。 2. 选择 “存储>弹性文件服务SFS Turbo”,进入SFS Turbo文件系统列表页面。 3. 点击目标文件系统名称进入详情页,在VPC页签下点击VPC名称操作下的“解绑”按钮,解绑VPC,重复该动作解绑该文件系统所绑定的所有VPC。 4. 可以通过以下三种方式退订包年包月文件系统: 在SFS Turbo文件系统列表页,选中待退订的文件系统,点击操作栏退订,在弹出页面点击“确认”,完成退订。 在文件系统详情页,在右上角单击“退订”按钮,在弹出页面点击“确认”,完成退订。 在用户中心订单中心退订管理页面,选择待退订的文件系统,进行退订。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        基础管理
        管理文件系统
        退订包年包月文件系统
      • 对象相关接口
        参数 类型 说明 是否必要 bucket String 执行本操作的桶名称 是 key String 上传文件到对象存储(融合版)服务后对应的key。PutObject操作支持将文件上传至文件夹,如需要将对象上传至"/folder"文件下,只需要设置Key"/folder/{exampleKey}"即可 是 file File 上传的本地文件 文件上传必须 inputStream InputStream 流式上传的Stream 流式上传必须 cannedAcl CannedAccessControlList 配置上传对象的预定义的标准ACL信息,详细说明见 设置对象访问权限 一节 否 storageClass StorageClass 配置上传对象的存储类型,包括标准类型STANDARD、低频类型STANDARDIA以及归档类型GLACIER 否 accessControlList AccessControlList 配置上传对象的详细ACL信息,详细说明见设置 对象访问权限 一节 是 objectMetadata ObjectMetadata 对象的元数据信息 否 tagging ObjectTagging 对象的标签信息 否
        来自:
        帮助文档
        媒体存储
        SDK参考
        Java SDK
        对象相关接口
      • 私有Bucket回源
        本文介绍私有Bucket回源功能的适用场景和配置说明。 功能介绍 天翼云AOne安全与加速的域名的回源地址可以使用客户自有源站或者天翼云媒体存储【即对象存储(融合版)】或天翼云对象存储。若客户使用媒体存储【即对象存储(融合版)】作为源站,在新建Bucket时,其权限属性支持以下三种模式: 【公共读】公共读权限可以通过匿名身份直接读取Bucket中的数据,存在较高的安全风险,不推荐,建议选择私有模式。 【公共读写】公共读写权限可以通过匿名身份直接读取/写/删除Bucket中的数据,存在较高的安全风险,不推荐,建议选择私有模式。 【私有】只有该Bucket的拥有者或被授权者可以对该存储空间内的文件进行读写操作。媒体存储/对象存储会校验Authorization请求头,只有鉴权通过的才允许访问。 当客户权限选择【私有】时,需要参考本文档配置私有Bucket回源功能。 适用场景 回源地址使用天翼云媒体存储/对象存储并且Bucket为私有模式的场景。 注意事项 1. 开启私有Buckt回源功能前,请确认您的私有Bucket内容是否适合作为AOne安全与加速的回源内容,如存在较为敏感的信息,请勿开启此功能,或单独为AOne安全与加速创建一个独立的AK/SK,仅授权AOne安全与加速必要目录的只读权限,避免源站敏感信息泄漏。 2. Bucket如为公有模式则无需配置私有Bucket回源,直接在源站配置中选择对的存储源站即可,详情请见:源站配置。 3. 开启私有Bucket回源功能后,边缘节点回源站时,会携带Authorization请求头,值为基于AK/SK及Bucket等生成的对应存储私有Bucket鉴权签名信息。 4. 私有Bucket回源功能生效的前提:在【添加域名新增源站】或 【编辑域名修改源站】时,需要选择源站类型为【媒体存储源站】或者【对象存储源站】。否则功能将无效。 5. 私有Bucket回源功能生效的前提:在【配置源站】时,需要选择源站类型为【媒体存储源站】。否则功能将无效。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        私有Bucket回源
      • 使用istio资源实现版本流量路由
        本章节介绍如何使用istio资源实现版本流量路由 前提条件 1. 已开通云容器引擎,至少有一个云容器引擎实例。产品入口:云容器引擎。 2. 开通天翼云应用服务网格实例。 3. 开通天翼云微服务引擎,并在服务网格控制面集群同VPC内创建云原生网关实例。产品入口:微服务引擎MSE。 操作步骤 部署多版本reviews服务 这里以bookinfo应用里面的reviews服务为例,使用istio资源实现对reviews服务的多版本路由,首先到云容器引擎控制台部署reviews服务的v2和v3版本,yaml如下: apiVersion: apps/v1 kind: Deployment metadata: name: reviewsv2 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: reviewsv2 template: metadata: labels: app: reviews version: v2 name: reviewsv2 source: CCSE "sidecar.istio.io/inject": "true" csmAutoEnable: "on" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: reviews image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinforeviewsv2:1.16.2' imagePullPolicy: IfNotPresent env: name: LOGDIR value: "/tmp/logs" volumeMounts: name: tmp mountPath: /tmp name: wlpoutput mountPath: /opt/ibm/wlp/output volumes: name: wlpoutput emptyDir: {} name: tmp emptyDir: {} apiVersion: apps/v1 kind: Deployment metadata: name: reviewsv3 labels: withServiceMesh: "true" spec: replicas: 1 selector: matchLabels: name: reviewsv3 template: metadata: labels: app: reviews version: v3 name: reviewsv3 source: CCSE "sidecar.istio.io/inject": "true" csmAutoEnable: "on" annotations: "sidecar.istio.io/inject": "true" spec: containers: name: reviews image: 'registryvpccrshuadong1.cnspinternal.ctyun.cn/library/istioexamplesbookinforeviewsv3:1.16.2' imagePullPolicy: IfNotPresent env: name: LOGDIR value: "/tmp/logs" volumeMounts: name: tmp mountPath: /tmp name: wlpoutput mountPath: /opt/ibm/wlp/output volumes: name: wlpoutput emptyDir: {} name: tmp emptyDir: {} 通过云原生网关持续访问bookinfo应用可以看到前端页面在三种效果内跳变,分别对应reviews服务的三个版本: (1)Review内没有评分。 (2)Review内有评分信息,评分的星星颜色是黑色。 (3)Review内有评分信息,评分的星星颜色是红色。
        来自:
        帮助文档
        应用服务网格
        快速入门
        使用istio资源实现版本流量路由
      • 免责申明
        源端服务器导致的迁移问题免责申明 因源端服务器的硬件(如磁盘、网卡)、软件(如OS、应用)、数据(文件)等损坏/配置不当/不兼容/业务量大/网络慢等因素引发的迁移问题,非主机迁移服务的问题,包括但不限于下面列举的问题。您可自行解决,若自行解决无果,您可以向天翼云提出咨询或请求天翼云协助解决,但天翼云不承诺解决问题。 源端服务器系统本身有问题,如:Windows的启动文件损坏或缺失。 源端服务器系统配置错乱,如:Linux的grub配置错乱缺失,fstab配置错乱。 网络问题,如:访问不了公网,网速慢,ssh问题,防火墙等。 IO读写慢,增量数据多,Windows有效簇分散,Linux小文件多导致的迁移慢,同步慢,同步时间比较久的问题。 源端平台服务或软件与天翼云不兼容。 源端平台服务或软件把Agent关闭,或杀毒软件把IO监控关闭。 迁移到天翼云后,若目的端服务器不能正常启动,天翼云可以提供相应的技术支持,但是不承诺解决问题。 其中目的端服务器不能正常启动的原因可能包括以下几种: 源端服务器本身无法重启。 源端服务器上有非OS标准的配置。 源端服务器上安装了与天翼云不兼容的驱动或软件等。 为了适配天翼云,主机迁移服务对目的端服务器的系统配置做了修改,主机迁移服务可以保证迁移前后数据一致性,但无法保证业务能正常运行,需要您自己修改业务相关配置。 业务割接后,源端服务器、目的端服务器均有新增数据时,使用主机迁移服务,无法将源端新增数据与目的端新增数据进行合并,只能使用源端数据覆盖目的端数据。因此,建议您在业务割接前,不要在目的端服务器新增数据;业务割接后,不要在源端服务器新增数据。对于业务割接后,源端服务器、目的端服务器均有新增数据且需要合并的情况,需要您自行设计解决方案。
        来自:
        帮助文档
        主机迁移服务SMS
        产品介绍
        免责申明
      • 云平台安全规则
        第一章 概述 第一条 为了更好的规范天翼云平台的安全管理,维护天翼云产品稳定有序的运营环境,提升用户使用天翼云产品及服务的体验,依据《中华人民共和国网络安全法》、《互联网信息服务管理办法》、《中华人民共和国反电信网络诈骗法》等相关法律法规,以及《天翼云网站服务条款》和天翼云产品条款等相关规则、协议,特制定“云平台安全规则”(以下简称 “本规则”)。 第二条 本规则是指用户在使用天翼云产品过程中,针对所发布、存储、指向的信息以及所产生网络行为,均需遵循的规则。 第三条 本规则适用于所有天翼云用户(包括渠道伙伴等)。 第四条 用户需严格遵守国家法律法规以及行政法规等规范性文件,依据相关法律法规,向对应对象合法提供产品及服务,切实履行各项义务,并自行承担由此产生的全部责任(包括但不限于履行信息网络安全管理义务、建立健全各项网络安全管理制度,以及全面落实各项安全保护技术措施)。 第五条 对任何涉嫌违反国家法律、行政法规等规范性文件的行为,本规则已有规定的,适用本规则;本规则尚无规定的,天翼云有权依照规范性文件和《天翼云网站服务条款》的要求进行处理。在本规则以外,以"声明"、"通知"、"规则"、“公告”等形式由天翼云在官网(www.ctyun.cn)上发布的,对用户在使用天翼云产品时提出的要求(如"禁止使用天翼云服务从事虚拟货币相关活动的声明"),可适用本规则进行处理。 天翼云有权变更本规则并在官网上予以公告生效。若用户不同意相关变更,应立即停止使用天翼云的相关服务或产品。天翼云有权对用户行为及应适用的规则进行单方认定,并据此处理。
        来自:
        帮助文档
        法律声明
        安全管控规则
        安全管控规则
        云平台安全规则
      • 私有Bucket回源
        本文介绍私有Bucket回源功能的适用场景和配置说明。 功能介绍 天翼云全站加速域名的回源地址可以使用客户自有源站或者天翼云媒体存储或天翼云对象存储。若客户使用媒体存储/对象存储作为源站,在新建Bucket时,其权限属性支持以下三种模式: 【公共读】公共读权限可以通过匿名身份直接读取Bucket中的数据,存在较高的安全风险,不推荐,建议选择私有模式。 【公共读写】公共读写权限可以通过匿名身份直接读取/写/删除Bucket中的数据,存在较高的安全风险,不推荐,建议选择私有模式。 【私有】只有该Bucket的拥有者或被授权者可以对该存储空间内的文件进行读写操作。媒体存储/对象存储会校验Authorization请求头,只有鉴权通过的才允许访问。 当客户权限选择【私有】时,需要参考本文档配置私有Bucket回源功能。 适用场景 回源地址使用天翼云媒体存储/对象存储并且Bucket为私有模式的场景。 注意事项 1. 开启私有Buckt回源功能前,请确认您的私有Bucket内容是否适合作为全站加速的回源内容,如存在较为敏感的信息,请勿开启此功能,或单独为全站加速创建一个独立的AK/SK,仅授权全站加速必要目录的只读权限,避免源站敏感信息泄漏。 2. Bucket如为公有模式则无需配置私有Bucket回源,直接在源站配置中选择对的存储源站即可,详情请见:源站配置。 3. 开启私有Bucket回源功能后,全站节点回源站时,会携带Authorization请求头,值为基于AK/SK及Bucket等生成的对应存储私有Bucket鉴权签名信息。 4. 私有Bucket回源功能生效的前提:在【添加域名新增源站】或 【编辑域名修改源站】时,需要选择源站类型为【媒体存储源站】或者【对象存储源站】。否则功能将无效。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        回源配置
        私有Bucket回源
      • 到期与欠费
        本页介绍了数据传输服务DTS的到期与欠费相关情况。 服务到期与欠费都会影响您的DTS实例的正常使用。 服务到期 “按需计费”任务,无需担心服务到期问题。 “包年/包月”任务到期后将会被暂停,在暂停期间您无法通过DTS控制台对该任务进行操作,无法调用相关接口,监控告警等服务也会停止。如果您没有在暂停期内续费,那么该DTS任务将被终止,并且传输数据也将被永久删除。为了避免数据丢失,我们强烈建议您在暂停期内及时续费,或者提前备份数据并另行妥善保存。 对于到期暂停的任务,您可以在7天内对相关任务进行续费,以继续享用服务。 欠费 “包年/包月”DTS任务,用户已经预先支付了资源费用,因此在账户出现欠费的情况下,已有的包年/包月DTS任务仍可正常使用。 “按需计费”DTS任务是按每小时扣费,当余额不足,无法对上一个小时的费用进行扣费,就会导致任务欠费,任务将会被暂停。您续费后暂停的任务,可继续正常使用,请注意在暂停期进行的续费,是以原到期时间作为生效时间,您应当支付从进入暂停期开始到续费时的服务费用。 对于欠费导致暂停的任务,您可以在7天内充值,对相关实例进行续费,以继续享用服务。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        计费说明
        到期与欠费
      • AI智能分析告警
        云安全中心支持AI智能分析,通过接入天翼云息壤智算平台deepseek满血版,对日志告警AI分析,生成处置建议并还原攻击事件。 该功能为公测功能,新购用户可限时免费体验。 注意事项 智能分析内容为AI生成,可对单条告警刷新多次查询,每次返回的回答会略有差异,处置建议仅供参考,请您仔细甄别。 向AI输入的信息已进行敏感信息过滤。 约束限制 每日查询(含重新生成)上限为100次。 操作步骤 1. 进入告警列表,点击操作进入告警详情。 2. 点击右上角“智能分析”。 3. 等待AI生成回答,该过程耗时约为30秒至60秒,您可收起弹框稍后查看。
        来自:
        帮助文档
        云安全中心
        用户指南
        威胁运营
        AI智能分析告警
      • 导入导出
        本节主要介绍导入导出 数据导入 操作场景 数据管理服务支持用户本地导入及OBS桶导入数据进行数据的备份和迁移。 操作说明 当需要进行数据备份或迁移时,您可将数据导入目标数据表,目标CSV表数据类型须与待导入表数据类型保持一致,SQL文件同理。 约束限制 导入单文件大小最大可达1GB。 可以支持导入的数据文件类型包括CSV格式和SQL文件格式。 暂不支持BINARY、VARBINARY、TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB等二进制类型字段的导入。 操作步骤 1. 在顶部菜单栏选择“导入·导出 > 导入”。 2. DAS支持从本地选取文件导入,同时也支持从OBS桶中直接选择文件进行导入操作。 说明 上传文件 在导入页面单击左上角的“新建任务”,在弹出框选择导入类型,选择文件来源为“上传文件”、附件存放位置等信息并上传文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 为了保障数据安全,DAS将文件保存在OBS桶中。 出于数据隐私性保护目的,DAS需要您提供一个您自己的OBS存储,用来接收您上传的附件信息,DAS会自动连接到该OBS文件,进行内存式读取,整个过程您的数据内容不会存储在DAS的任何存储介质上。 导入完成后若勾选删除上传的文件选项,则该文件导入目标数据库成功后,将从OBS桶中自动删除。 从OBS桶中选择:在导入页面单击左上角的“新建任务”,在弹出框设置导入类型,选择文件来源为“从OBS中选择”,在OBS文件浏览器弹窗中选择待导入文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 从OBS桶中直接选择文件导入,导入目标数据库成功后,OBS桶不会删除该文件。 3. 导入信息设置完成后,单击“创建导入任务”即可。由于导入任务可能会覆盖您原有的数据,需再次确认无误后单击“确定”。 4. 您可在导入任务列表中查看导入进度等信息,在操作栏单击“查看详情”,您可在任务详情弹出框中,了解本次导入任务成功、失败等执行情况及耗时。
        来自:
        帮助文档
        数据管理服务
        用户指南
        MySQL数据库管理(开发工具)
        导入导出
      • 删除用户
        介绍分布式消息服务Kafka删除用户功能操作内容。 场景描述 Kafka删除用户的场景描述如下: 用户离职或不再需要访问权限:当用户离开组织或不再需要访问Kafka集群时,可以删除其用户账户。这可以确保已离职的用户无法再访问和操作Kafka,提高安全性和合规性。 角色调整或合并:在某些情况下,可能需要对用户角色进行调整或合并。如果某个角色不再需要或与其他角色重复,可以删除相关的用户账户和角色,以简化管理和维护。 用户账户过期或失效:如果用户账户的有效期已过或由于某种原因失效,可以删除该用户账户。这有助于清理无效的用户账户,减少安全风险和资源浪费。 安全审计和合规要求:根据安全审计和合规要求,可能需要删除某些用户账户。例如,当用户账户存在安全风险或违反合规规定时,需要及时删除相关账户以保护系统安全和数据隐私。 数据隔离和资源管理:在多租户环境中,当某个租户不再需要使用Kafka集群时,可以删除其相关的用户账户。这有助于释放资源,提高资源利用率和性能。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入应用用户管理页面,点击指定用户其右侧的“删除”按钮。 注意事项 Kafka删除用户时需要注意以下事项: 确认用户身份:在删除用户之前,确保要删除的用户的身份是正确的。验证用户的身份可以防止误删除或删除错误的用户账户。 备份和迁移数据:如果用户账户中存在重要的数据或信息,建议在删除用户之前进行数据备份和迁移。这可以确保数据的安全性和完整性,并防止数据的丢失或泄露。 通知相关人员:在删除用户之前,及时通知相关的管理人员或团队成员。这有助于协调和沟通,确保删除用户的操作得到充分的授权和确认。 关注系统性能:删除用户时,要注意对Kafka集群的性能影响。大规模的用户删除操作可能会对系统造成一定的负载和延迟,因此在合适的时间窗口进行删除操作,以减少对业务的影响。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        删除用户
      • 关系数据库MySQL版元数据锁MDL导致无法操作数据库的解决方法
        本文主要介绍元数据锁MDL导致无法操作数据库的解决方法以及如何避免元数据锁阻塞。 MetaData Lock主要为了保证元数据的一致性,用于处理不同线程操作同一数据对象的同步与互斥问题。MySQL 5.5版本开始,引入了MDL锁,MDL锁是表级别的锁,有些类型的MDL锁会导致读写操作都无法进行,导致SQL的阻塞。 操作步骤 1. 连接MySQL实例。具体操作请参见实例连接方式介绍,通过内网和公网连接实例。 2. 在SQL窗口执行如下SQL查看数据库所有线程状态。 show full processlist 3. 查看State列是否出现大量Waiting for table metadata lock,即表示出现阻塞,在对应的Info列可以查看到对应表的操作,找到正在对该表进行操作的会话Id。 4. 在SQL窗口执行如下命令解锁MDL锁。 kill id 如何避免元数据锁阻塞 MDL 锁一旦发生会对业务造成极大影响,因为后续所有对该表的访问都会被阻塞,造成连接积压。所以日常要尽量避免 MDL 锁阻塞的发生,下面给出几点优化建议可供参考: 开启 metadatalocks 表记录 MDL 锁。 设置参数 lockwaittimeout 为较小值,使被阻塞端主动停止。 规范使用事务,及时提交事务,避免使用大事务。 DDL 操作及备份操作放在业务低峰期执行。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        性能调优
        关系数据库MySQL版元数据锁MDL导致无法操作数据库的解决方法
      • 1
      • ...
      • 147
      • 148
      • 149
      • 150
      • 151
      • ...
      • 281
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      模型推理服务

      应用托管

      推荐文档

      操作类

      邀请参会方

      产品功能

      创建只读实例

      导出数据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号