云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云云服务平台_相关内容
      • 定位请求异常原因
        本文主要介绍定位请求异常原因 背景信息 在外部请求激增、负载突变等场景下,极易出现应用性能问题,比如外部请求响应变慢、部分请求异常等。快速识别发现、定位处理应用性能问题成为越来越常见的日常运维场景。 APM作为云应用性能问题诊断服务,拥有强大的分析工具,通过拓扑图、调用链可视化地展现应用状态、调用过程、用户对应用的各种操作,快速定位问题和改善性能瓶颈。 例如,通过APM拓扑功能可视化服务间的调用关系,迅速找到有问题的实例;通过APM调用链功能下钻到服务内部,根据出现问题的方法调用链路,确认问题根因。 适用场景 应用日常巡检,监控应用时延、吞吐量、错误数等性能指标。 应用异常调用快速定位。 操作步骤 步骤 1 登录应用性能管理控制台。 步骤 2 在左侧导航栏选择“应用监控 > 指标”。 步骤 3 选择“接口调用”页签,进入监控页面,查看接口调用页面中各类指标,调用次数、错误次数、时延等信息。 图 查看接口调用 步骤 4 单击出现问题的url请求,进入调用链搜索界面。 图 接口详情 步骤 5 在调用链搜索界面,查看失败/高时延调用链。 图 查看调用链 步骤 6 单击url,获取调用链详细信息,确定问题根因。 图 调用链详情
        来自:
        帮助文档
        应用性能管理
        最佳实践
        定位请求异常原因
      • 创建告警规则
        本章介绍函数工作流如何创建告警规则。 函数及触发器创建以后,可以实时监控函数被调用及运行情况。 监控函数 不同版本函数的监控信息做了区分,查询函数指标之前设置函数版本,可以查询不同版本对应的监控信息。 操作步骤 函数实现与云监控服务的对接,函数上报云监控服务的监控指标,用户可以通过云监控服务来查看函数产生的监控指标和告警信息。 1、登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、单击函数名称,进入函数详情界面。 3、选择函数对应的版本或者别名,选择“监控 > 指标”。 4、单击“创建告警规则”,弹出“创建告警规则”对话框。 5、输入告警参数,单击“下一步”。如下图所示。 创建告警规则 6、输入告警规则名称,单击“确定”。 监控指标说明 告警监控指标如下表所示。 告警监控指标说明表 指标名称 显示名 描述 单位 上限值 下限值 建议阈值 值类型 所属维度 count 调用次数 该指标用于统计函数调用次数 次数 0 int packagefunctionname failcount 错误次数 该指标用于统计函数调用错误次数 次数 0 int packagefunctionname rejectcount 被拒绝次数 该指标用于统计函数调用被拒绝次数 次数 0 int packagefunctionname duration 平均运行时间 该指标用于统计函数调用平均运行时间 毫秒 0 int packagefunctionname maxDuration 最大运行时间 该指标用于统计函数调用最大运行时间 毫秒 0 int packagefunctionname minDuration 最小运行时间 该指标用于统计函数调用最小运行时间 毫秒 0 int packagefunctionname
        来自:
        帮助文档
        函数工作流
        用户指南
        监控
        指标
        创建告警规则
      • STS相关接口
        STS即Secure Token Service 是一种安全凭证服务,可以使用STS来完成对于临时用户的访问授权。对于跨用户短期访问对象存储资源时,可以使用STS服务。这样就不需要透露主账号AK/SK,只需要生成一个短期访问凭证给需要的用户使用即可,避免主账号AK/SK泄露带来的安全风险。 初始化STS服务 python accesskey ' ' secretkey ' ' endpoint ' ' region 'cn' ​ self.stsclient boto3.client( 'sts', awsaccesskeyidaccesskey, awssecretaccesskeysecretkey, endpointurlendpoint, regionnameregion) 获取临时token python def assumerole(self): print('assumerole') bucket ' ' policy r'{"Version":"20121017","Statement":{"Effect":"Allow","Action":["s3:"]' r',"Resource":["arn:aws:s3:::%s","arn:aws:s3:::%s/"]}}' % (bucket, bucket) rolearn "arn:aws:iam:::role/ " rolesessionname " " ​ print('policy: %s' % policy) response self.stsclient.assumerole( Policypolicy, RoleArnrolearn, RoleSessionNamerolesessionname, ) print('ak %s' % response['Credentials']['AccessKeyId']) print('sk %s' % response['Credentials']['SecretAccessKey']) print('token %s' % response['Credentials']['SessionToken']) 请求参数 参数 类型 描述 是否必要 RoleArn String 角色的ARN,在控制台创建角色后可以查看 是 Policy String 角色的policy,需要是json格式,限制长度1~2048 是 RoleSessionName String 角色会话名称,此字段为用户自定义,限制长度2~64 是 DurationSeconds Integer 会话有效期时间,默认为3600s,范围15分钟至12小时 否
        来自:
        帮助文档
        媒体存储
        SDK参考
        Python
        STS相关接口
      • DDS数据迁移到DWS
        本章节主要介绍DDS数据迁移到DWS。 操作场景 CDM支持迁移文档数据库服务(Document Database Service,简称DDS)的数据到其他数据源,这里以数据仓库服务(Data Warehouse Service,简称DWS)为例,介绍如何使用CDM将DDS数据迁移到DWS,流程如下: 1.创建CDM集群并绑定EIP 2.创建DDS连接 3.创建DWS连接 4.创建迁移作业 前提条件 已DWS/DDS。 已获取DWS/DDS数据库的IP地址、端口、数据库名称、用户名、密码,且该用户拥有DWS/DDS数据库的读、写和删除权限。 创建CDM集群并绑定EIP 1.参考创建CDM集群,创建CDM集群。 关键配置如下: CDM集群的规格,按待迁移的数据量选择,一般选择cdm.medium即可,满足大部分迁移场景。 如果DDS和DWS属于相同的VPC,则创建CDM集群时选择同一个VPC,不用绑定EIP。子网、安全组可以选择与其中一个(DDS或DWS)集群的保持一致,再配置安全组规则允许CDM集群访问另一个服务(DWS或DDS)的集群。 如果DDS和DWS不在同一个VPC,则创建CDM集群时选择与DDS相同的VPC,再将CDM集群 解绑/绑定集群的EIP,CDM通过EIP访问DWS集群。 2.CDM集群创建完成后,选择集群操作列的“绑定弹性IP”,CDM通过EIP访问DWS。如果DDS与DWS在同一个VPC,则不用为CDM集群绑定EIP。 说明 如果用户对本地数据源的访问通道做了SSL加密,则CDM无法通过弹性IP连接数据源。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        DDS数据迁移到DWS
      • 创建环境和环境变量
        本章主要介绍创建环境。 操作场景 API可以同时提供给不同的环境调用,如生产、测试或开发。RELEASE是默认存在的环境,无需创建。 环境变量是指在环境上创建可管理的一种变量,该变量固定在环境上。通过创建环境变量,实现同一个API,在不同环境中调用不同的后端服务。 当创建API时定义了变量标识,则需要在环境中添加变量。例如创建API时定义了变量名为“Path”,在环境1中创建了变量名“Path”,变量值“/Stage/test”,则API在发布到环境1时,使用“/Stage/test”代替“Path”,API调用者在环境1中调用此API时,后端服务请求Path为“/Stage/test”。在环境2中创建了变量名“Path”,变量值“/Stage/AA”,则API在发布到环境2时,使用“/Stage/AA”代替“Path”,API调用者在环境2中调用此API时,后端服务请求Path为“/Stage/AA”。 图 环境变量示意图 操作步骤 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API策略”。 步骤 4 在“环境变量”区域,选择环境。如果未创建环境,可单击“创建环境”创建。 步骤 5 单击“添加环境变量”,填写变量信息。 注意 在实际发送API请求中,环境变量名称与变量值会明文传递,请勿携带隐私信息。 表 新增变量 信息项 描述 变量名 变量的名,称必须与创建API时定义的变量标识完全相同。 变量值 变量路径。 步骤 6 单击“确定”,创建完成。
        来自:
        帮助文档
        API网关
        开放API网关
        环境管理
        创建环境和环境变量
      • 收发顺序消息
        顺序消息是分布式消息服务RocketMQ版提供的一种严格按照顺序来发布和消费的消息类型。 顺序消息分为全局顺序消息和分区顺序消息: 全局顺序消息:对于指定的一个Topic,将队列数量设置为1,这个队列内所有消息按照严格的先入先出FIFO(First In First Out)的顺序进行发布和订阅。 分区顺序消息:对于指定的一个Topic,同一个队列内的消息按照严格的FIFO顺序进行发布和订阅。生产者指定分区选择算法,保证需要按顺序消费的消息被分配到同一个队列。 全局顺序消息和分区顺序消息的区别仅为队列数量不同,代码没有区别。 收发消息前,请参考收集连接信息收集RocketMQ所需的连接信息。 准备环境 开源的Java客户端支持连接分布式消息服务RocketMQ版,推荐使用的客户端版本为4.9.7。 通过以下任意一种方式引入依赖: 1. 使用Maven方式引入依赖。 org.apache.rocketmq rocketmqclient 4.9.7 org.apache.rocketmq rocketmqacl 4.9.7 2. 点击下载依赖JAR包:rocketmqall4.9.7binrelease.zip 发送顺序消息 参考如下示例代码 import org.apache.rocketmq.acl.common.AclClientRPCHook; import org.apache.rocketmq.acl.common.SessionCredentials; import org.apache.rocketmq.client.producer.DefaultMQProducer; import org.apache.rocketmq.client.producer.SendResult; import org.apache.rocketmq.common.message.Message; import org.apache.rocketmq.remoting.RPCHook; import org.apache.rocketmq.remoting.common.RemotingHelper; public class ProducerFifoExample { private static RPCHook getAclRPCHook() { return new AclClientRPCHook(new SessionCredentials( "accessKey", // 分布式消息服务RocketMQ控制台用户管理菜单中创建的用户ID "accessSecret" // 分布式消息服务RocketMQ控制台用户管理菜单中创建的密钥 )); } public static void main(String[] args) throws Exception { / 创建Producer,如果想开启消息轨迹,可以按照如下方式创建: DefaultMQProducer producer new DefaultMQProducer("YOUR GROUP ID", getAclRPCHook(), true, null); / DefaultMQProducer producer new DefaultMQProducer("YOUR GROUP ID", getAclRPCHook()); // 填入控制台NAMESRV接入点地址 producer.setNamesrvAddr("XXX:xxx"); ; // 如果需要开启SSL,请增加此行代码 producer.start(); for (int i 0; i { // 选择适合自己的分区选择算法,保证同一个参数得到的结果相同。 Integer id (Integer) arg; int index id % mqs.size(); return mqs.get(index); }, orderId); System.out.printf("%s%n", sendResult); } catch (Exception e) { e.printStackTrace(); } } producer.shutdown(); } } 注意 上述代码中,相同id的消息需要保证顺序,不同id的消息不需要保证顺序,所以在分区选择算法中以“id/队列个数的余数”作为消息发送的队列。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        开发指南
        Java
        收发顺序消息
      • 数据库参数
        本页介绍了文档数据库服务参数。 能否调整实例的时区设定 鉴于无法调整文档数据库服务的时区设置,您可以通过在应用程序中获取当前时间并将其插入到表中的方式来处理。 用户需要关注实例的哪些参数 storage.engine 这个参数用于指定 MongoDB 使用的存储引擎,默认为 WiredTiger。可以根据需求选择其他存储引擎,如 InMemory 引擎或 MMAPv1 引擎。 storage.wiredTiger.engineConfig.cacheSizeGB 对于使用 WiredTiger 存储引擎的 MongoDB,这个参数用于配置缓存大小,即存储引擎使用的内存量。根据数据量和可用内存设置合适的值。 net.maxIncomingConnections 这个参数限制 MongoDB 实例可以同时处理的连接数。通过适当设置这个参数,可以控制 MongoDB 的并发连接数量。 security.authorization 使用这个参数可以启用或禁用 MongoDB 的访问控制功能。设置为 true 时,需要进行身份验证才能访问 MongoDB。 MapReduce提示不支持JavaScript MapReduce是一种用于对大型数据集进行处理和分析的功能强大的工具。然而,从安全性和性能方面考虑,在某些情况下可能会限制使用JavaScript代码,包括在MapReduce中执行JavaScript代码。 这种限制的目的是为了减少潜在的安全风险,避免不当的代码执行以及提高执行效率。JavaScript代码的执行可能会引起一些潜在的问题,例如代码注入攻击和性能下降。 为了安全考虑,mongodb默认限制了JavaScript脚本的执行。 文档数据库服务数据一致性策略:writeConcern与readConcern的运用与限制 MongoDB的写入和读取是数据库操作中重要的两个方面。为了确保数据的可靠性和一致性,MongoDB提供了writeConcern和readConcern这两个机制。 当我们谈论writeConcern时,实际上是在谈论写入操作的策略。通过配置writeConcern,我们可以控制数据写入的行为。例如,当我们将writeConcern设置为"majority"级别时,MongoDB会确保数据被写入到大多数节点上,从而降低了数据丢失的风险。这意味着,即使部分节点发生故障,大多数节点仍然保存着相同的数据,保障了数据的可靠性。 而readConcern则是与读取操作相关的策略。当我们设置readConcern为"majority"级别时,MongoDB会确保所读取的数据已经被写入到了大多数节点上。这就消除了因为读取操作而引起的脏读问题,因为我们可以确信读取到的数据已经经过大多数节点的确认。 然而,需要注意的是,目前文档数据库服务并不直接支持设置readConcern为"majority"级别。但这并不妨碍我们保障数据的一致性。通过设置writeConcern为"majority",我们可以将数据写入到大多数节点,从而实现了大多数节点数据的一致性。随后,通过读取单个节点的数据,仍然可以保证读取到的内容是已经经过多数节点确认的,避免了脏读的问题。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        数据库参数
      • 云审计服务支持的DMS for Kafka操作列表
        本文主要介绍云审计服务支持的DMS for Kafka操作列表。 通过云审计服务,您可以记录与分布式消息服务Kafka相关的操作事件,便于日后的查询、审计和回溯。 表 云审计服务支持的DMS for Kafka操作列表 操作名称 资源类型 事件名称 创建DMS实例订单成功 kafka createDMSInstanceOrderSuccess 创建DMS实例任务执行成功 kafka createDMSInstanceTaskSuccess 创建DMS实例订单失败 kafka createDMSInstanceOrderFailure 创建DMS实例任务执行失败 kafka createDMSInstanceTaskFailure 删除创建失败的DMS实例成功 kafka deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 kafka deleteDMSCreateFailureInstancesFailure 删除DMS实例任务执行成功 kafka deleteDMSInstanceTaskSuccess 删除DMS实例任务执行失败 kafka deleteDMSInstanceTaskFailure 批量删除DMS实例任务 kafka batchDeleteDMSInstanceTask 提交批量删除DMS实例请求成功 kafka batchDeleteDMSInstanceSuccess 批量删除DMS实例任务执行成功 kafka batchDeleteDMSInstanceTaskSuccess 提交批量删除DMS实例请求失败 kafka batchDeleteDMSInstanceFailure 批量删除DMS实例任务执行失败 kafka batchDeleteDMSInstanceTaskFailure 提交修改DMS实例订单请求成功 kafka modifyDMSInstanceOrderSuccess 提交修改DMS实例订单请求失败 kafka modifyDMSInstanceOrderFailure 提交扩容实例请求成功 kafka extendDMSInstanceSuccess 扩容DMS实例任务执行成功 kafka extendDMSInstanceTaskSuccess 提交扩容实例请求失败 kafka extendDMSInstanceFailure 扩容DMS实例任务执行失败 kafka extendDMSInstanceTaskFailure 提交重置DMS实例密码请求成功 kafka resetDMSInstancePasswordSuccess 提交重置DMS实例密码请求失败 kafka resetDMSInstancePasswordFailure 提交重启DMS实例请求成功 kafka restartDMSInstanceSuccess 重启DMS实例任务执行成功 kafka restartDMSInstanceTaskSuccess 提交重启DMS实例请求失败 kafka restartDMSInstanceFailure 重启DMS实例任务执行失败 kafka restartDMSInstanceTaskFailure 提交批量重启DMS实例请求成功 kafka batchRestartDMSInstanceSuccess 批量重启DMS实例任务执行成功 kafka batchRestartDMSInstanceTaskSuccess 提交批量重启DMS实例请求失败 kafka batchRestartDMSInstanceFailure 批量重启DMS实例任务执行失败 kafka batchRestartDMSInstanceTaskFailure 提交修改DMS实例信息请求成功 kafka modifyDMSInstanceInfoSuccess 修改DMS实例信息任务执行成功 kafka modifyDMSInstanceInfoTaskSuccess 提交修改DMS实例信息请求失败 kafka modifyDMSInstanceInfoFailure 修改DMS实例信息任务执行失败 kafka modifyDMSInstanceInfoTaskFailure 删除后台任务成功 kafka deleteDMSBackendJobSuccess 删除后台任务失败 kafka deleteDMSBackendJobFailure 冻结DMS实例任务执行成功 kafka freezeDMSInstanceTaskSuccess 冻结DMS实例任务执行失败 kafka freezeDMSInstanceTaskFailure 解冻DMS实例任务执行成功 kafka unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务执行失败 kafka unfreezeDMSInstanceTaskFailure Kafka专享实例创建Topic成功 kafka KafkacreatetopicSuccess Kafka专享实例创建Topic失败 kafka KafkacreatetopicFailure Kafka专享实例删除Topic成功 kafka KafkadeletetopicsSuccess Kafka专享实例删除Topic失败 kafka KafkadeletetopicsFailure 开启自动创建Topic成功 kafka enableautotopicSuccess 开启自动创建Topic失败 kafka enableautotopicFailure 重置消费组偏移量成功 kafka KafkaresetconsumeroffsetSuccess 重置消费组偏移量失败 kafka KafkaresetconsumeroffsetFailure 创建用户成功 kafka createUserSuccess 创建用户失败 kafka createUserFailure 删除用户成功 kafka deleteUserSuccess 删除用户失败 kafka deleteUserFailure 更新用户策略成功 kafka updateUserPoliciesTaskSuccess 更新用户策略失败 kafka updateUserPoliciesTaskFailure
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的DMS for Kafka操作列表
      • 概述
        本文将带您简要了解同地域“同帐号”的多个VPC中的云资源实现跨VPC通信的操作场景和具体流程。 操作场景 通过VPC终端节点,同地域“同帐号”的多个VPC中的云资源可实现跨VPC通信。 通常情况下,不同VPC中的云资源是相互隔离的,无法通过私有IP地址进行访问。通过使用VPC终端节点,您可以在两个VPC之间使用私有IP地址进行通信,就好像这两个VPC在同一个网络中一样。 在同一帐号、同一地域的情况下,如果您希望VPC1中的弹性云主机(CTECS)实例通过私网IP访问VPC2中的ELB,实现了跨VPC的私网通信,可以通过以下方式: 1. 在VPC2中,将您希望VPC1中的资源访问的后端资源(例如内网负载均衡ELB)创建为终端节点服务。 2. 在VPC1中,购买终端节点,通过“按名称查找服务”关联VPC2中已创建的终端节点服务。 操作流程
        来自:
        帮助文档
        VPC终端节点
        快速入门
        配置同帐号跨VPC通信的终端节点
        概述
      • 应用场景
        本小节介绍安全专区应用场景。 单VPC场景 用户在天翼云上一个VPC内部署了业务系统,需要进行安全防护。 部署方案 在VPC内新建一个子网,把安全专区开通到新开的子网内,弹性IP部署在安全专 区的云防火墙外联接口,业务服务器外部流量通过安全专区子网进行安全管理。 多VPC场景 用户在天翼云上同一个数据节点多个VPC内部署了业务系统,需要进行安全防护。 部署方案 1.可按单个VPC的方式分别部署多个安全专区。 2.新建一个安全专区VPC,在安全专区VPC内开通安全专区服务,业务VPC通过对等连接接入安全专区VPC,由安全专区统一对所有VPC业务进行安全防护。 线下引流场景 用户的业务在本地机房,需要进行安全防护。 部署方案 在天翼云上部署一个安全专区VPC,在安全专区VPC内开通安全专区服务,线下机房通过云专线策略路由接入到安全专区,由安全专区同对线机房内业务进行安全防护。
        来自:
        帮助文档
        安全专区
        产品介绍
        应用场景
      • 新域名服务相关术语解释
        CNNIC: 指的是(中国互联网信息中心) ICANN : 指的是(国际域名注册组织) 域名注册: 指的是Internet中用于解决地址对应问题的一种方法。域名可分为不同级别,包括顶级域名、二级域名、三级域名、国家代码域名等。根据中国互联网络域名管理办法,域名注册服务机构及域名注册管理机构需对申请人提出的域名是否违反了第三方的权利和申请人的真实身份进行核验。每一个相同顶级域名中的二级域名注册都是独一无二的,不可重复的,但不同顶级域名中的二级域名可以是相同的,每个域名都起到同样的作用。因此,在网络上域名是一种相对有限的资源,它的价值随着注册企业和个人用户的增多而逐步为人们所重视。 域名转移: 指的是域名从一个域名注册服务商转移到另外一个域名注册服务商。 域名解析: 就是域名到IP地址的转换过程,它是把域名指向网站空间IP,让人们通过注册的域名可以方便地访问到网站的一种服务。域名解析工作由DNS服务器完成。互联网中的地址是数字的IP地址,域名解析的作用主要就是为了便于记忆。 域名续费: 每一个域名都有注册时间和到期时间,正常情况下,这个时间是年为单位。如果域名持有者想延长域名的到期时间,则需要每年缴纳一定的费用,以年为单位延长时间,称为域名续费。 域名赎回期: ICANN在2003年一季度提出了域名赎回期的概念,域名到期并且在服务商提供的保留期(续费期)内没有为域名续费,服务商就会向注册局提出将域名删除的请求,注册局接受服务商的请求并将域名转为赎回期状态。在域名赎回期用户缴纳一定费用即可赎回域名。根据域名后缀不同,赎回期时长不同: 1. 国际域名续费期30天,未在续费期内续费即进入赎回期,赎回期时长30天; 2. 国内域名(.cn类/.中国) 续费期35天,未在续费期内续费即进入赎回期,赎回期时长15天; 3. 其他国别域名(ccTLD)则以各国家或地区域名管理机构制定的规则为准。
        来自:
        帮助文档
        新域名服务
        产品介绍
        新域名服务相关术语解释
      • 数据库迁移服务模块
        本节为您介绍数据库迁移的使用限制。 项目 约束和限制 多版本数据库数据传输 建议源库和目标库版本保持一致,或者从低版本传输至 高版本以保证兼容性,不支持高版本传输至低版本。 任务限制 请根据您的操作类型查阅对应章节下各类任务配置中描述的前提和要求。例如:您需要从自建MySQL迁移至自建MySQL,请查阅“ 用户指南 > 数据库迁移服务模块 > 数据传输 > 数据迁移 > 任务创建 >自建MySQL为源的迁移任务配置 > 自建MySQL迁移至自建MySQL ”目录下的相关约束条件。 迁移速度 迁移速度受源端表数量、大小,带宽、数据库磁盘IO以及公网传输距离等因素影响。 复杂业务拉起、支撑限制 传输复杂业务时,需要记录业务关联信息,并根据需求按业务系统进行迁移、切换、测试; 应用切换时,需要停止相关业务进程,以保持一致性。切换完成后,也需相关熟悉业务人员进行测试验证,以此减少业务停机时间。 特定需求限制 如果存在涉密文件、需要保持IP不变等特定需求,需要通过工单进行技术咨询,以满足相应需求。 单任务和迁移任务数量限制 每个任务单次可处理的表上限为500张;每个用户可并发执行的任务数量为50个。每个任务只能迁移一个数据库,如需迁移/同步/订阅多个数据库,您需要为每个数据库配置任务。 迁移节点配置限制 迁移节点所在主机最低配置为4核CPU,8GB内存,Linux内核大于3.1.0。请根据实际数据库体量和迁移需求提升主机配置。为避免迁移执行影响业务系统性能,请勿将迁移节点安装在业务系统或数据库主机。 迁移网络限制 仅支持独享IP。为避免迁移执行影响业务系统性能,请勿将业务系统的访问带宽、业务系统与数据库的传输带宽用于数据迁移。建议数据迁移使用独享带宽。 源库限制 暂不支持库、模式名、表、列名、结构名中带短划线“”,例如“testdb”; 请确保源库和目标库的字符集兼容或一致,否则可能会导致数据不一致或失败; 暂不支持无主键、多主键表进行增量迁移、同步、订阅和稽核修复。 迁移/同步/订阅任务限制 同步/订阅仅适用于数据变更小于1000record/s场景,请勿应用于中大型密集业务间同步、灾备等场景; 迁移/同步/订阅暂只支持任务启动之后传输数据的UPDATE、INSERT、DELETE变化,不支持任务过程结构变化传输; 任务运行过程中,请勿变更库、表或列结构变更的DDL操作,否则任务会失败; 不支持迁移系统库、系统模式、系统表、临时表; 迁移过程中请保证数据库不发生主备切换,否则会导致迁移失败; 迁移过程请保证数据库的信息(IP、端口、用户名和密码)不发生变化,否则会导致迁移失败; 如仅执行全量数据迁移,请勿向源端数据库写入新的数据,否则会导致源和目标数据不一致; 数据一致性的保持需要用户业务配合,请勿两个业务节点上对同一个主键数据进行更新,避免主键冲突或相互覆盖。 迁移源端和目标端配置限制 由于数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此目标数据库磁盘空间应为源数据库1.2倍以上; 由于传输过程中会对源库和目标库产生一定资源占用,因此源库和目标库所在服务器的CPU和磁盘使用率应小于90%; 源库和目标库需保持时区一致。 详情查阅帮助中心 > 云迁移服务> CMS 用户指南 > 数据库迁移服务模块 >数据传输 > 数据迁移 > 任务创建 章节下各类任务配置中描述的前提和要求 详情查阅帮助中心 > 云迁移服务> CMS 用户指南 > 数据库迁移服务模块 >数据传输 > 数据迁移 > 任务创建 章节下各类任务配置中描述的前提和要求
        来自:
        帮助文档
        云迁移服务CMS
        产品简介
        使用须知
        约束与限制
        数据库迁移服务模块
      • 用户手册
        用户手册 漏洞扫描(专业版)服务 用户指南.pdf
        来自:
        帮助文档
        漏洞扫描(专业版)
        文档下载
        用户手册
      • 关闭Smart Connect
        本节介绍如何关闭Smart Connect。 如果不再使用Smart Connect相关功能,您可以关闭Smart Connect,释放资源。 关闭Smart Connect不会影响业务。 约束与限制 关闭Smart Connect后,实例会停止收取用于Smart Connect的代理费用,并自动删除用于Smart Connect的代理。 关闭Smart Connect后,再重新开启Smart Connect,已删除的Smart Connect任务无法找回,需要重新创建。 前提条件 已创建Kafka实例,且实例状态为“运行中”。 关闭Smart Connect前,请先删除所有的Smart Connect任务,否则无法关闭Smart Connect。此操作是为了防止关闭Smart Connect导致正在运行的Smart Connect任务丢失。 关闭Smart Connect 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、通过以下任意一种方法,关闭Smart Connect。 在待关闭Smart Connect的Kafka实例所在行,单击“更多 > 关闭Smart Connect”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 关闭Smart Connect”。 5、单击,将Smart Connect设置为关闭,单击“下一步”。 6、确认“Smart Connect”为关闭状态,单击“提交”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        关闭Smart Connect
      • 安全认证原理和认证机制
        本章节主要介绍安全认证原理和认证机制。 功能 开启了 Kerberos认证的安全模式集群,进行应用开发时需要进行安全认证。 Kerberos这一名词来源于希腊神话“三个头的狗——地狱之门守护者”,后来沿用作为安全认证的概念,使用Kerberos的系统在设计上采用“客户端/服务器”结构与AES等加密技术,并且能够进行相互认证(即客户端和服务器端均可对对方进行身份认证)。可以用于防止窃听、防止replay攻击、保护数据完整性等场合,是一种应用对称密钥体制进行密钥管理的系统。 原理 Kerberos的原理架构和各模块的说明如下图所示: 原理架构 模块说明 App Client:应用客户端,通常是需要提交任务(或者作业)的应用程序。 App Server:应用服务端,通常是应用客户端需要访问的应用程序。 Key Distribution Center(KDC):提供安全认证的服务。 Database:存储Principal数据。 Authentication Server(AS):认证服务器,认证客户端身份,发放客户访问TGS的票据授权票据(TGT)。 Ticket Granting Server(TGS):票据授予服务器,发放应用客户端访问应用服务端所需的服务票据(ST)。 步骤原理说明 应用客户端(App Client)可以是集群内某个服务,也可以是客户二次开发的一个应用程序,应用程序可以向应用服务提交任务或者作业。 1. ASREQ:App Client在提交任务或者作业前,需要向AS申请TGT,用于建立和TGS的安全会话。 2. ASREP:AS在收到TGT请求后,会解析其中的参数来生成对应的TGT,使用App Client指定的用户名的密钥进行加密响应消息。 3. TGSREQ:App Client收到TGT响应消息后,解析获取TGT,此时,再由App Client(通常是RPC底层)向TGS获取应用服务端的ST。 4. TGSREP:TGS在收到ST请求后,校验其中的TGT合法后,生成对应的App Server的ST,再使用App Server密钥将响应消息进行加密处理。 5. APREQ:App Client收到ST响应消息后,将ST打包到发给App Server的消息里面传输给对应的App Server。 6. APREP:App Server端收到请求后,使用App Server对应的密钥解析其中的ST,并校验成功后,本次请求合法通过。 说明 1. Kerberos认证时需要配置Kerberos认证所需要的文件参数,主要包含keytab路径,Kerberos认证的principal,Kerberos认证所需要的客户端配置krb5.conf文件。 2. 方法login()为调用的UserGroupInformation的方法执行Kerberos认证,生成TGT票据。 3. 方法doSth()调用hadoop的接口访问文件系统,此时底层RPC会自动携带TGT去Kerberos认证,生成ST票据。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        安全性说明
        安全认证原理和认证机制
      • 工作负载身份
        本章节介绍工作负载身份 概述 应用服务网格中的工作负载都有一个身份信息,这个信息主要用于网格内服务之间通信时实现身份认证和基于身份的访问授权。工作负载身份信息由服务网格自动生成和维护,基于Service Account实现;CSM服务网格中的工作负载身份信息符合SPIFFE标准,格式如下: spiffe://{trustdomain}/ns/{namespace}/sa/{serviceaccount} 在服务网格控制台 网格安全中心> 工作负载身份菜单下,选择namespace可以看到该命名空间下的工作负载身份信息,如下图:
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格安全中心
        工作负载身份
      • 弹性云主机 ECS
        弹性云主机(CTECS,Elastic Cloud Server)属于天翼云弹性计算服务,由CPU、内存、镜像、云硬盘组成,是一种可随时获取、即开即用、可弹性扩展的计算服务器。帮助您搭建安全稳定环境及应用,并根据需求动态弹性扩展资源,使您简单上云,更专注于自身业务发展。
        来自:
        帮助文档
        弹性云主机 ECS
      • 通过云主机创建Windows系统盘镜像
        操作步骤 1. 登录控制台。 2. 选择“ 镜像服务”。 进入镜像服务页面。 3. 单击右上角的“创建私有镜像”,进入创建私有镜像页面。 4. 根据界面要求填写如下信息: 包含“镜像类型和来源”和“配置信息”两个信息块,各参数说明参见表镜像类型和来源和表配置信息。 镜像类型和来源 参数 说明 :: 创建方式 选择“创建私有镜像”。 镜像类型 选择“系统盘镜像”。 选择镜像源 选择“云主机”,然后从列表中选择已完成相关配置的云主机。 配置信息 参数 说明 :: 名称 设置一个便于您识别的镜像名称。 标签 可选参数,为镜像设置标签键和标签值,便于识别和管理。 描述 可选参数,对镜像进行描述。 5. 阅读并勾选协议,单击“立即创建”。 6. 确认镜像参数,单击“提交申请”。 7. 返回私有镜像列表,查看镜像状态。 镜像创建时间取决于云主机系统盘大小,也与网络状态、并发任务数有关,请耐心等待。当镜像的状态为“正常”时,表示创建完成。 说明 在创建镜像过程中,请勿对所选择的云主机及其相关联资源进行其他操作。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        通过云主机创建Windows系统盘镜像
      • 解绑标签
        您可以为已绑定标签的资源解绑标签,本文帮助您了解解绑标签的流程。 前提条件 实例资源已绑定标签。 操作步骤 解绑单个实例的标签 1. 登录“控制中心”,管理控制台顶部菜单左侧 ,选择地域。 2. 选择 “存储>弹性文件服务SFS Turbo”,进入SFS Turbo文件系统列表页面。 3. 在文件系统列表中,点击待添加标签的文件系统所在行的“操作>更多>编辑标签”。 4. 弹出“编辑标签”窗口,点击标签键值后面的“删除”,可同时删除多个标签。 5. 单击弹窗下方“确定”,完成标签的解绑操作。 批量解绑多个实例的标签 1. 登录“控制中心”,管理控制台顶部菜单左侧 ,选择地域。 2. 选择 “存储>弹性文件服务SFS Turbo”,进入SFS Turbo文件系统列表页面。 3. 在文件系统列表中,勾选需要批量绑定标签的文件系统实例,点击列表上方按钮“批量解绑标签”。 4. 在“批量绑定标签”弹窗中,找到想要为已选资源解绑的标签项,勾选左侧复选框。 5. 点击弹窗下方“确定”按钮,完成批量解绑操作。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        标签管理
        解绑标签
      • 管理带宽伸缩策略
        约束条件 带宽伸缩策略只有在“已启用”状态下且无正在执行中的伸缩活动时才可以立即执行。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择带宽伸缩策略所在地域。 3. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 4. 在带宽伸缩策略列表中,单击待操作的策略所在行的“立即执行”按钮,即可触发带宽伸缩策略立即执行,调整带宽值。 删除带宽伸缩策略 约束条件 带宽伸缩策略只有无正在执行中的伸缩活动时才可以被删除。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择带宽伸缩策略所在地域。 3. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 4. 在带宽伸缩策略列表中,单击待操作的策略所在行的“删除”按钮,可对不再需要的伸缩策略进行删除操作。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        带宽伸缩
        管理带宽伸缩策略
      • 云主机网络包乱序(1)
        3、配置全局策略 1. 在全局配置 页面,按需添加保护策略 和监控指标。 2. 配置完成后,单击完成 按钮,创建演练任务。 4、发起故障注入 1. 发起演练 :在演练管理 列表找到对应演练任务,单击操作列的执行演练, 在新页面中点击发起新演练。 2. 进入实验 :系统将自动跳转到本次演练的运行详情 页,或在演练执行记录 列表点击对应执行实例的详情进入。 3. 注入故障 :在动作组 中,找到网络包乱序动作卡片,单击执行。 4. 查看日志 :单击动作卡片本身,在右侧弹出的侧边栏中查看执行详情。 效果验证 在故障注入期间,您可以通过以下方式验证演练效果: 1、观测实例指标: 登录应用性能监控 控制台,观测已接入应用的应用提供服务平均响应时间指标。 2、业务应用验证: 观察应用,特别是那些对网络延时和顺序敏感的服务(如视频流、实时通信、大规模数据传输),是否出现性能下降、卡顿或功能异常。 检查应用日志,确认是否有因超时或数据完整性问题而产生的错误。
        来自:
      • 添加白名单分组
        本页介绍了文档数据库服务白名单分组的添加。 文档数据库服务产品支持对可用实例进行白名单分组进行添加,步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 点击实例状态是“运行中”实例的实例名称,进入到该实例详情页。 4. 点击选择“白名单管理”页,点击“添加白名单分组”按钮,填写分组名、IP类型、业务访问类型、允许访问IP名单等信息,点击“确定”按钮即可完成白名单分组添加。 说明 IPv4白名单支持IP段格式(如X.X.X.X/X)。 IPv6白名单支持IP段格式(xxxx:xxxx:xxxx:xxxx:xxxx:xxxx::/xx) 白名单组ip数量上限是60个。 设置为127.0.0.1表示禁止客户所有地址(含内网和公网地址)访问(默认)。 设置为0.0.0.0/0表示对访问的IP地址不作限制,不区分内外网。 业务访问类型当选择“内网访问”,则无法进行公网访问。 当使用公网访问实例,需要将公网IP添加至业务访问类型为“公网访问”的分组。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        白名单管理
        添加白名单分组
      • 修改Topic参数
        本章节介绍了如何修改分布式消息服务RocketMQ实例的Topic。 操作场景 Topic创建成功后,您可以根据业务需要修改以下参数:读队列个数、写队列个数、权限和添加关联代理。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“Topic管理”,进入“Topic管理”页面。 4. 选择以下任意一种方法修改Topic参数。 在待修改的Topic所在行,单击“编辑”,弹出“编辑Topic”页面。 单击待修改的Topic名称,进入Topic详情页面。在页面右上角,单击“编辑”,弹出“编辑Topic”页面。 5. 修改如表1所示配置信息。 表 Topic参数说明 参数 说明 权限 Topic的权限,包括发布+订阅、发布和订阅。 关联代理 修改读队列个数或写队列个数。 lic读数读队列个数:Top据可用的总队列数。 写队列个数:Topic写数据可用的总队列数。 如果创建Topic时未关联所有代理,单击“添加关联代理”,可以在其他代理上创建Topic,并设置读队列个数和写队列个数。 6. 修改完成后,单击“确定”。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        Topic管理
        修改Topic参数
      • 下载备份
        本页介绍了文档数据库服务下载备份文件操作。 文档数据库服务产品支持对可用实例进行备份文件下载操作,步骤如下: 方式一: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 点击实例状态是“运行中”实例的实例名称,进入到该实例详情页。 4. 点击选择“备份恢复”页,在“操作”列点击“下载”按钮,复制生成的下载链接或者点击下载箭头,即可直接下载备份文件。 方式二: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“备份管理”,进入到“备份管理”菜单页。 3. 点击选择“数据库同区域备份”标签页,点击“备份记录”子页,可见所有备份记录。 4. 选中需要下载的备份记录,在“操作”列点击“下载”按钮,复制生成的下载链接或者点击下载箭头,即可直接下载备份文件。 注意 备份下载链接有效期为5分钟。 仅备份空间类型为“对象存储”的实例支持备份下载功能。 集群版实例备份下载内容为shard节点、config节点全量及增量备份内容。 单机版、副本集实例备份下载内容为实例节点全量备份内容。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        备份管理
        下载备份
      • 查看监控数据
        本文主要介绍查看监控数据。 操作场景 云监控对Kafka实例的运行状态进行日常监控,可以通过控制台直观的查看Kafka实例各项监控指标。 前提条件 已创建Kafka实例,且实例中有可消费的消息。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 通过以下任意一种方法,查看监控数据。 在Kafka实例名称后,单击。跳转到云监控页面,查看实例、节点、队列和消费组的监控数据,数据更新周期为1分钟。 单击Kafka实例名称,进入实例详情页。在左侧导航栏单击“监控”,进入监控页面,查看实例、节点、队列和消费组的监控数据,数据更新周期为1分钟。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        查看监控数据
      • 文档数据库服务版本与社区版本的对应关系说明
        文档数据库服务DDS是兼容MongoDB协议的云数据库服务,DDS的大版本会选择社区未EOL并且有新的重大功能的版本作为候选版本进行兼容。DDS的版本号并不是与社区版本号一一对应。为了便于理解DDS与兼容社区版本之间的对应关系,DDS采用了与之兼容的社区版本号进行命名,详情请参见图1。 图1 DDS版本与社区版本的关系图 DDS 3.4和4.0版本分别以社区对应的版本为基线进行开发,相同的接口实现方案与社区一致。相比社区版本的DDS具有更高的安全性、更加丰富的操作维护功能,因此更能满足商业应用需求。 DDS 4.0版本在2018年10月16日之后,继续以社区4.0.3版本为基线,独立开发新特性并自主演进。 DDS 4.2以及后续高版本,是以社区4.0.3版本为基线,独立开发新特性并自主演进,同时将存储引擎切换为RocksDB,提供更好的体验。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        文档数据库服务版本与社区版本的对应关系说明
      • 申请和修改内网域名
        修改内网域名 对于创建完成的实例,支持更改内网域名。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称,进入实例基本信息页面。 步骤 5 在“基本信息”页“节点信息”模块“操作”列,单击“更多 > 修改内网域名”。 您也可以在左侧导航栏,单击“连接管理”,在“内网连接”页面中,在“基本信息”模块下方“操作”列,单击“更多 > 修改内网域名”。 步骤 6 在“修改内网域名”弹出框中进行修改。单击“确定”,保存修改内容。内网域名修改完成后,大约5分钟生效。 说明 内网域名只允许修改前缀部分。 内网域名前缀部分长度为8~56个字符,包含字母或数字。 新的内网域名不可与当前已存在的有效域名重复。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        连接管理
        申请和修改内网域名
      • Linux mdadm 软RAID阵列创建与管理指南
        级别 最小磁盘 容错能力 可用容量 适用场景 RAID0 2 无 100% 临时数据/高速缓存 RAID1 2 单磁盘故障 50% 系统盘/关键服务 RAID5 3 单磁盘故障 (N1)/N 文件服务器 RAID6 4 双磁盘故障 (N2)/N 大容量存储 RAID10 4 镜像组内故障 50% 高负载数据库
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        Linux mdadm 软RAID阵列创建与管理指南
      • 查询系统账号列表
        参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String 类型 application/json regionId 是 String 资源池编码(资源池ID,您可以查看 bb9fdb42056f11eda1610242ac110002
        来自:
        帮助文档
        容器镜像服务
        API参考
        API
        2023-03-27
        访问凭证管理
        查询系统账号列表
      • 校验HelmChart命名空间名称
        参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String 类型 application/json regionId 是 String 资源池编码(资源池ID,您可以查看 bb9fdb42056f11eda1610242ac110002
        来自:
        帮助文档
        容器镜像服务
        API参考
        API
        2023-03-27
        Chart命名空间管理
        校验HelmChart命名空间名称
      • 更新镜像命名空间
        参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String 类型 application/json regionId 是 String 资源池编码(资源池ID,您可以查看 bb9fdb42056f11eda1610242ac110002
        来自:
        帮助文档
        容器镜像服务
        API参考
        API
        2023-03-27
        镜像命名空间管理
        更新镜像命名空间
      • 创建镜像签名
        参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String 类型 application/json regionId 是 String 资源池编码(资源池ID,您可以查看 bb9fdb42056f11eda1610242ac110002
        来自:
        帮助文档
        容器镜像服务
        API参考
        API
        2023-03-27
        镜像签名
        创建镜像签名
      • 1
      • ...
      • 223
      • 224
      • 225
      • 226
      • 227
      • ...
      • 506
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      科研助手

      一站式智算服务平台

      人脸检测

      人脸实名认证

      推荐文档

      玩转天翼云④:ntp时间同步服务

      复制

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号