活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      DDoS高防(边缘云版)_相关内容
      • 手动续费
        本文主要介绍SQL Server实例的手动续费功能。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中找到需要续订的目标实例,单击列表【操作】列的【更多】按钮,在下拉框中选择【续订】按钮,进入到续订页面。 4. 在【续订】页面,选择要续订的时长,并完成订单支付,进行实例续订。 说明 当计费模式为“包年/包月”的产品实例到达到期时间,则会暂停相应的服务。此时,可以通过续订操作延后实例的到期时间。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理实例
        续订
        手动续费
      • 版本发布说明
        本节介绍了分布式缓存服务Redis版各版本的生命周期规划。 分布式缓存服务Redis的版本生命周期如表1所示。 表1 版本生命周期 版本 当前状态 计划EOM时间 计划EOS时间 Redis 3.0 已停售 2021年2月 2024年12月 Redis 4.0 在售 2026年3月 2026年6月 Redis 5.0 在售 2027年3月 2028年9月 Redis 6.0 在售 2027年3月 2028年9月 Redis 7.0 在售 暂无计划 暂无计划 说明 EOM:End of Marketing,停止该版本的销售。 EOS:End of Service&support,停止该版本的服务,建议您在执行作业时选择最新版本的引擎。在该日期之后,不再提供该软件版本的任何技术服务支持。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        版本发布说明
      • 使用SFS动态存储卷
        本节介绍了用户指南:使用SFS动态存储卷。 云容器引擎支持使用天翼云弹性文件存储持久卷。cstorcsi插件支持使用弹性文件存储动态存储卷和静态存储卷,通过将存储卷挂载到容器指定目录下实现数据持久化需求。 前提条件 已创建容器集群 已在插件市场安装存储插件cstorcsi,且插件正常运行。(建议使用>4.0的CSI版本) 使用限制 参见 弹性文件概述 通过控制台使用弹性文件动态存储卷 1 、创建存储类( StorageClass ) 登录“云容器引擎”管理控制台; 在集群列表页点击进入指定集群; 进入主菜单“存储”——“存储类”,单击左上角“创建”; 在创建对话框,配置存储类StorageClass的相关参数。配置项说明如下: 配置项 说明 名称 StorageClass的名称。 存储类型 当前支持云盘、弹性文件、对象存储、并行文件和海量文件,这里选择弹性文件。 具体创建页中展示的存储类型由当前资源池支持情况决定。 存储驱动 采用默认CSI驱动。 计费模式 可以选择按需计费或者包年包月。 回收策略 回收策略,默认为Deleted。 Retained(保留):用户可以手动回收资源。当 PVC对象被删除时,PV 卷仍然存在,对应的数据卷被视为"已释放(released)"。 Deleted(删除):对于支持 Delete 回收策略的卷插件,删除动作会将 PV对象从 Kubernetes 中移除,同时也会从外部基础设施中移除所关联的存储资产。 如果对数据安全性要求高,推荐使用Retain方式,以免误删数据。 绑定策略 绑定策略,默认为Immediate。 Immediate 模式:表示一旦创建了 PVC,也就完成了卷绑定和动态供应。 对于由于拓扑限制而非集群所有节点可达的存储后端,PV会在不知道 Pod 调度要求的情况下绑定或者制备。 WaitForFirstConsumer模式: 该模式将延迟 PV的绑定和制备,直到使用该 PVC的 Pod 被创建。 PV会根据 Pod 调度约束指定的拓扑来选择或供应。 支持扩容 默认该开关是打开的,一般也建议打开。 如果关闭该开关,则使用该存储类的pvc,无法被扩容。 挂载选项 挂载参数,提供了一些建议参数,用户可根据自己的情况实际定制相关参数。 比如设置挂载参数为: vers:表示指定 NFS 协议的版本 wsize:表示指定了 NFS 协议中用于写入的数据块大小(以字节为单位),设置较大的写入块大小可以提高写入性能 rsize:类似于 wsize,但用于读取的数据块大小 注意 请务必在挂载时使用noresvport参数,该参数可以在网络故障时自动切换端口,保障网络连接,防止文件系统卡住。挂载参数的说明参见 点击这里 参数 弹性文件存储类型:参数键为type,支持参数值如下: capacity:SFS Turbo标准型 performance:SFS Turbo性能型 可用区:选择随机,或者指定具体的某个可用区。建议与存储产品确认,哪些可用区有并行文件,再进行选择。 存储加密:选择加密后,需要选择具体的秘钥。用户需要提前创建好秘钥,供ccse控制台调用,当前仅支持默认秘钥和按需秘钥。 参数配置完成后,点击“确定”。创建成功后,可以在存储类列表查看。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        存储
        弹性文件存储(CT-SFS)
        使用SFS动态存储卷
      • 提交导入任务
        本文将介绍导入任务提交界面,以及如何提交导入任务。数据管理服务支持多种格式和多种数据库类型的数据导入。 前提条件 操作用户拥有目标数据库/模式的导入权限。 当前组织处于基础版时,需要目标实例已是登录状态(若未登录则选择目标库/模式时会弹出登录窗口)。 注意事项 导入任务当前只支持对单实例单个数据库/模式或单表进行数据变更操作,暂不支持同时对多实例多个数据库/模式或单表进行相同文件的批量导入。 导入时SQL将分批执行,默认每批1000行,不保证事务。导入工单结束后,可到实例元数据功能查看库/模式或查询窗口查看表数据,查看表数据操作请查阅 打开表。 如果选择导入的文件类型为SQL,则以库/模式为目标导入,无法选择“目标表”和“导入方式”。如果选择导入的文件类型为CSV、TXT、EXCEL,且上传文件类型为zip,系统默认会自动识别匹配的表名(表名识别规则根据文件名格式,如: 数据导出表名yymmddhhmmss序号.csv),此时用户也可以手动选择导入单表。 MongoDB、DDS数据源,都需要选择目标集合导入。 MySQL、PostgreSQL数据源,选择的导入类型为TXT、CSV、EXCEL文件且上传非压缩文件时,可以选择“导入行为”是“新建表”,支持导入前自动建表。 导入工单的SQL规则审核结果保留最多7天(从工单执行开始算起) 操作步骤 1. 登录DMS控制台。 2. 在左侧导航栏,单击开发空间>数据导入 ,进入数据导入管理页面。 3. 单击数据导入 按钮,弹出数据导入工单填写弹窗,工单需要选择或输入的内容说明见下表1。 4. 填写完数据导入工单后,单击提交按钮,即完成工单的提交。 5. 当前组织处于基础版时,数据导入工单进入任务执行阶段。 6. 当前组织处于企业版时,数据导入工单依次进入预检查、审批流程、任务执行阶段。 7. 数据导入任务的工单状态,可在导入列表页面查看,如果导入失败,可点击详情 查看原因。更多详细操作请查看数据导入工单列表。 表1 工单输入内容说明 输入内容 说明 数据库类型 选择导入的数据库类型,支持MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle。 目标数据库 选择数据导入的数据库/模式,数据来源于在DMS控制台中添加的数据库实例,其中MySQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle可选择到库级别,PostgreSQL可选择到模式级别。当前仅支持单选一个目标库/模式。 注意 如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 导入文件类型 选择导入数据的上传文件类型: SQL:目前支持DDL和DML语句,请每条SQL语句以英文分号 (;)收尾,并做好换行。 选择该文件类型则无法指定“目标表 ”和“写入方式”。 CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。 TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 JSON:仅支持MongoDB和DDS数据源。 EXCEL:支持.xls和.xlsx格式,当前仅支持第一个sheet的内容导入。 以上文件类型支持打包上传.zip格式。 导入模式 当导入文件类型选择“SQL”时,可选择“导入模式”。 极速模式:不进行文件的扫描,只对数据源进行权限校验。 安全模式:整个SQL文件的扫描,安全性高但性能较差。 选择“安全模式”的工单,会在预检查阶段进行SQL风险和SQL规范检查(SQL风险和规范支持的数据库类型,详见SQL风险和SQL规范) 目标表 针对非MongoDB和DDS数据源,在选择目标数据库下,筛选导入的目标表。如果先上传zip文件,会出现“根据压缩包内文件名判断”字样,此时用户可手动选择仅导入到单表。 仅支持CSV/TXT/EXCEL格式导入。 文件编码 选择导入文件的编码类型: UTF8:默认选中。适用于大部分英文文本。 GBK:适用于文件中带有中文的情况。 自动识别:如果不能确定文件编码类型,可选该选项。 导入行为 针对MySQL和PostgreSQL数据源,在选择文件类型为CSV/TXT/EXCEL后,支持选择“新建表”,其余数据源类型默认为“现有表”。 选择“新建表”,系统会根据导入文件中的相关字段猜测您所需的建表结构,可点击新建表的表名称打开表结构编辑页面。 注意 当前“新建表”的表结构编辑,暂不支持数据库的自定义类型作为表字段类型。新建表字段类型与导入文件是否成功密切相关,如选择“新建表”请认真检查表结构是否符合需求。 写入方式 针对非MongoDB和DDS数据源,选择导入文件的写入方式: INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。 INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。 REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。 注意 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL数据库类型支持INSERT INTO的导入方式,SQLServer数据库类型支持INSERT INTO的导入方式。 数据位置 当选择文件类型为CSV/TXT/EXCEL时,可选择文件首行属性是列名或者数据。 目标集合 针对MongoDB和DDS数据源,在选择目标数据库下,筛选导入的目标集合。如果先上传zip文件,会出现“根据压缩包内文件名判断”字样,此时用户可手动选择仅导入到单集合。仅支持JSON和CSV导入。 附件上传 单击上传文件,上传选中文件类型对应的文件。 注意 目前支持SQL,CSV,TXT,JSON,EXCEL五种文件格式,上传前请检查文件名后缀是否符合要求。 目前仅支持上传单个文件,EXCEL文件仅支持第一个sheet的内容导入。 上传文件大小最大限制为5GB,请控制好文件数据大小。 工单说明 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导入
        提交导入任务
      • 管理实例标签
        本文主要介绍管理实例标签。 标签是Kafka实例的标识,为Kafka实例添加标签,可以方便用户识别和管理拥有的Kafka实例资源。 您可以在创建Kafka实例时添加标签,也可以在Kafka实例创建完成后,在“标签”页面添加标签,您最多可以给实例添加20个标签。另外,您还可以进行修改和删除标签。 标签共由两部分组成:“标签键”和“标签值”,其中,“标签键”和“标签值”的命名规则如下表所示。 表 标签命名规则 参数名称 规则 标签键 不能为空。 对于同一个实例,Key值唯一。 长度不超过36个字符。 不能包含“”,“”,“ ”,“”,“,”,“ 标签值 不能为空。 长度不超过43个字符。 不能包含“”,“”,“ ”,“”,“,”,“ 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 在实例所在行,单击实例名称,进入实例详情页面。 步骤 5 单击“标签”页签,进入标签管理页面。 界面显示该实例的标签列表。 步骤 6 您可以根据实际需要,执行以下操作: 添加标签 单击“创建/删除标签”,弹出“创建/删除标签”对话框。 在“标签键”和“标签值”中,输入标签的键/值,单击“添加”。如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键/值,单击“添加”。 单击“确定”,成功为实例添加标签。 删除标签 通过以下任意一种方法,删除标签。 在待删除的标签所在行,单击“删除”,弹出“删除标签”对话框。单击“是”,完成标签的删除。 单击“创建/删除标签”,弹出“创建/删除标签”对话框。在待删除的标签后,单击,然后单击“确定”,完成标签的删除。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        管理实例标签
      • 产品规格
        本节介绍云安全中心的产品规格。 云安全中心为所有用户提供的主功能是一致的,产品实例主资源目前有标准版一个版本,详细规格说明见主资源规格说明。 另外,在标准版主资源基础上,支持购买扩展资源,用户可以通过购买额外的扩展资源,以满足更多日志分析量以及安全态势大屏等服务的需求。扩展资源详细规格说明见扩展资源规格说明。 主资源规格说明 主资源目前支持标准版,版本规格说明见下表: 版本 即时通知服务 日志分析量 标准版 10000条/月 50G/月 扩展资源规格说明 扩展资源与主资源绑定,到期时间与主资源一致。 云安全中心日志分析量:日志分析量的起购单位为50G,即每次购买的日志分析量为50G的整数倍。 云安全中心态势大屏:提供态势大屏直观展示用户当前的告警态势以及安全成果态势,态势大屏只需购买一次。
        来自:
        帮助文档
        云安全中心
        产品介绍
        产品规格
      • SDK安装
        JDK版本要求 天翼云媒体存储Java SDK 要求使用 J2SE Development Kit 6.0 或更高版本。可以从 下载最新版本 Java。 注意:Java 版本 1.6 (JS2E 6.0) 中没有 SHA256 签名的 SSL 证书的内置支持。Java 版本 1.7 或更高版本包含已更新证书,不受这一问题的影响。 安装方式 方式一:官网下载JavaSDK 在天翼云官网下载 xosjavasdk2.1.2.jar,下载地址: xosjavasdk2.1.2.jar 在 jar 包所在目录下执行以下 maven 命令,安装至 maven 本地仓库。 java mvn org.apache.maven.plugins:maveninstallplugin:3.0.0M1:installfile Dfilexosjavasdk2.1.2.jar 在您的 maven 工程的 pom.xml 文件中,在“dependencies”节点中加入以下配置: xml cn.chinatelecom xosjavasdk 2.1.1 方式二:添加AWS s3依赖 天翼云媒体存储兼容AWS s3接口,您可以通过AWS s3接口使用天翼云媒体存储。若您需要使用AWS s3接口,在您的 maven 工程的 pom.xml 文件中,在“dependencies”节点中加入以下配置: java com.amazonaws awsjavasdks3 1.11.336 com.amazonaws awsjavasdksts 1.11.336
        来自:
        帮助文档
        媒体存储
        SDK参考
        Java SDK
        SDK安装
      • 测试报告说明
        本文主要介绍测试报告说明 性能测试提供实时、离线两种类型的测试报告,供用户随时查看和分析测试数据。 测试报告由报告总览和SLA报告构成。 报告总览:显示测试用例的各项测试指标。 SLA报告:显示已配置的SLA规则详情,以及触发SLA规则的事件详情。 报告总览 测试报告说明如下表所示。 测试报告展现了测试过程中被测系统在模拟高并发用户的响应性能,为了更好阅读测试报告,请参考以下信息: 统计维度: 测试报告的TPS、RPS、响应时间、并发等统计维度均为单个用例,如用例中有请求多个报文,只有在多个请求报文均正常返回会认为成功,响应时间也是多个请求报文的求和值。 响应超时: 出现该情况是在设置的响应超时时间内(默认5s),对应的TCP连接中没有响应数据返回时,会将本次用例请求统计为响应超时。出现原因一般是被测服务器繁忙、崩溃、网络带宽被占满等。 校验失败: 从服务器返回的响应报文不符合预期(针对HTTP/HTTPS默认的预期响应码为200),比如服务器返回404、502等。出现原因一般为高并发情况下被测服务无法正常处理导致的,如分布式系统中数据库出现瓶颈、后端应用返回错误等。 解析失败: 响应报文已全部接收完成,但是部分报文丢失导致整个用例响应不完整,这种情况一般需要考虑网络丢包。 带宽统计: 本报告统计的是性能测试服务执行端的带宽,上行表示从性能测试服务发出的流量,下行表示接收到的流量。如果是外网压测场景,您需要关注执行机的EIP带宽是否可以满足上行带宽的要求。而下行带宽需要关注单台执行机是否超过1GB。 TPS: TPS是指云性能测试服务在统计周期内每秒从被测服务器获取到的响应用例实时统计,TPS统计周期内的正常返回数/统计周期。 RPS: RPS是指云性能测试服务在统计周期内每秒发送到被测服务器的请求数实时统计,RPS统计周期内发送的请求数/统计周期。 如何判断被测应用优劣: 根据应用本身的服务质量定义,理想状态是没有任何响应失败、校验失败的情况,如果有,需要在服务质量定义范围之内,通常情况下不超过1%,同时响应时间越低越好(2s内体验较好,5s内可以接受,超过5s则需要考虑优化),TP90、TP99指标可以客观反映出90%、99%用户的体验响应时间。 测试报告说明 参数 参数说明 :: 各项指标总量 所有用例各项指标总量的汇总。 最大并发:最大并发操作的虚拟用户数。 RPS:是指云性能测试服务在统计周期内平均每秒发送到被测服务器的请求数统计。 响应时间:指从客户端发一个请求开始计时,到客户端接收到从服务器端返回的响应结果结束所经历的时间。 响应码:记录压测任务进行中响应码分布的情况。 带宽:记录压测任务运行所消耗的实时带宽变化。 SLA事件:SLA中定义的事件发生情况。 正常返回:如设置了检查点,检查点通过的用例响应数,如未设置默认为返回2XX的用例响应数。 异常返回:解析失败、校验失败、响应超时、3XX、4XX、5XX、连接被拒绝的用例响应数。 平均RPS 是指云性能测试服务在统计周期内每秒发送到被测服务器的请求数实时统计,RPS统计周期内发送的请求数/统计周期。 平均RT 某一秒发出的所有请求的平均响应时间。 并发数 记录压测任务运行时,当前并发操作的虚拟用户数的变化。 带宽(KB/S) 记录压测任务运行所消耗的实时带宽变化。 上行带宽:从性能测试测试执行机往外发送出去数据的速度。 下行带宽:性能测试测试执行机接收到数据的速度。 响应状态分布 正常返回、解析失败、校验失败、响应超时的每秒处理用例数,该项指标与思考时间、并发用户、服务器响应能力均有关,比如思考时间为500ms,如果服务器对于当前用户的上个请求响应时间小于500ms,则该用户每秒请求2次。 正常返回:如设置了检查点,检查点通过的用例响应数,如未设置默认为返回2XX的用例响应数。 异常返回:解析失败、校验失败、响应超时、3XX、4XX、5XX、连接被拒绝的用例响应数。 解析失败:HTTP响应无法被正常解析的数量。 校验失败:如设置了检查点,检查点未通过的用例响应数,如未设置,返回不是2XX的用例响应数。 响应超时:在请求报文发送5S内未收到服务器响应的用例请求数量。 连接被拒绝:发送报文建立连接时,服务器拒绝连接数。 其他错误:不属于以上几种错误的数量。 响应码分布 1XX/2XX/3XX/4XX/5XX。 响应时间区间比例 用例的响应时间区间比例。 TP最大响应时间 指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取对应的百分比的那个值作为TPXX的最大响应时间。 TP50:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第50%的那个值作为TP50的值。 TP75:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第75%的那个值作为TP75的值。 TP90:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第90%的那个值作为TP90的值。 TP95:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第95%的那个值作为TP95的值。 TP99:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第99%的那个值作为TP99的值。 TP99.9:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第99.9%的那个值作为TP99.9的值。 TP99.99:指在一个时间段内(如10s),统计该请求每次响应所消耗的时间,并将这些时间按从小到大的顺序进行排序,取第99.99%的那个值作为TP99.99的值。
        来自:
        帮助文档
        性能测试PTS
        用户指南
        测试报告管理
        测试报告说明
      • 配置识别任务
        本章节指导您如何编辑识别任务。 前提条件 已完成识别任务的创建。 操作步骤 1. 单击左上角的,选择区域或项目。 2. 在左侧导航树中,单击,选择“安全>数据安全中心”,进入数据安全中心总览界面。 3. 在左侧导航树中,选择“敏感数据识别 > 识别任务”,进入“识别任务”页面。 4. 在待编辑敏感数据识别任务所在行的“操作”列,单击“更多 > 编辑”。 5. 在“编辑任务”对话框中,编辑检测任务的具体参数,相关参数说明如下表所示。 参数 参数说明 取值样例 开启任务 是否开启敏感数据识别任务,系统默认开启任务。 任务名称 您可以自定义敏感数据识别任务名称。 任务名称需要满足以下要求: 1~255个字符。 字符可由中文、英文字母、数字、下划线或中划线组成。 任务名称不能与已有的任务名称重复。 数据类型 选择识别的数据类型。可多选。 OBS,添加OBS资产,参考添加OBS资产章节。 数据库,添加云数据库资产,参考添加云数据库章节。 大数据,添加大数据源资产,参考添加大数据源资产章节。 MRS,添加Hive资产,参考添加MRS资产。 数据库 识别规则组 选择识别任务需要使用的规则组,可多选。可参考新增敏感数据规则组章节创建规则组。 识别模式 选择检测任务的扫描模式: 快速识别:根据规则组进行扫描,实现数据分布快速识别。 全量识别:在规则组的基础上加入自然语义处理NLP能力,扫描速度相对较慢,识别率更高。 快速扫描 识别周期 选择任务的识别周期: 单次:根据设置的执行计划,在设定的时间执行一次该识别任务。 每天:选择该选项,需要设置“启动时间”,即在每天的固定时间执行该识别任务。 每周:选择该选项,需要设置“启动时间”,即在设定的时间以及每周这一时间点执行该识别任务。 每月:选择该选项,需要设置“启动时间”,即在设定的时间以及每月这一时间点执行该识别任务。 单次 执行计划 “扫描周期”选择“单次”时,显示该参数。 立即执行:选择该选项,保存后,可以在当前立即执行一次该识别任务。 定时启动:在指定时间执行一次该识别任务。 立即执行 启动时间 “扫描周期”选择“每天”、“每周”、“每月”时,显示该参数。 设置识别任务的具体启动时间。设置后,会在指定时间以及每天或者每周或者每月的该时间点执行一次识别任务。 通知主题 单击下拉列表选择已创建消息通知主题或者单击“查看通知主题”创建新的主题,用于配置接收告警通知的终端。 告警通知的具体操作请参见告警通知。 6. 单击“确定”。
        来自:
        帮助文档
        数据安全中心
        用户指南
        敏感数据识别(旧)
        敏感数据识别任务
        配置识别任务
      • 如何开启云主机动态获取IPv6?
        Linux操作系统(自动配置启用IPv6) ipv6setupxxx工具能为开启IPv6协议栈的Linux操作系统自动配置动态获取IPv6地址。其中,xxx表示工具系列:rhel或debian。 您也可以参考下文“Linux操作系统(手动配置启用IPv6)”手动配置启用IPv6。 注意: ipv6setupxxx工具运行时会自动重启网络服务,导致网络短暂不可用。 CentOS 6.x和Debian操作系统的云主机内部配置IPv6自动获取功能之后,将该云主机制作为私有镜像,使用该镜像在非IPv6网络环境中创建云主机时,由于等待获取IPv6地址超时,导致云主机启动较慢,您可以参考下文“设置云主机获取IPv6地址超时时间”设置获取IPv6地址超时时间为30s,然后再重新制作私有镜像。 步骤 1 执行如下命令,查看当前云主机是否启用IPv6。 ip addr 如果没有开启IPv6协议栈,则只能看到IPv4地址,如下图所示,请参考步骤2先开启IPv6协议栈。 云主机未开启IPv6协议栈 如果已开启IPv6协议栈,则可以看到LLA地址(fe80开头)。 云主机已开启IPv6协议栈 如果已开启IPv6协议栈并且已获取到IPv6地址,则会看到如下地址: 云主机已开启IPv6协议栈并且已获取到IPv6地址 说明: Linux公共镜像均已开启IPv6协议栈;Ubuntu 16公共镜像不仅已开启IPv6协议栈,而且可以获取到IPv6地址,无需特殊配置。 步骤 2 开启Linux云主机IPv6协议栈。 1. 执行如下命令,确认内核是否支持IPv6协议栈。 sysctl a grep ipv6 − 如果有输出信息,表示内核支持IPv6协议栈。 − 如果没有任何输出,说明内核不支持IPv6协议栈,需要执行步骤2.2加载IPv6模块。 2. 执行以下命令,加载IPv6模块。 modprobe ipv6 3. 修改“/etc/sysctl.conf”配置文件,增加如下配置: net.ipv6.conf.all.disableipv60 4. 保存配置并退出,然后执行如下命令,加载配置。 sysctl p 步骤 3 自动配置启用IPv6。 1. 下载对应系统版本的工具ipv6setuprhel或ipv6setupdebian,并上传至待操作的云主机。 ipv6setupxxx工具会添加或者修改网卡设备的配置文件,添加IPv6动态获取的配置信息,然后重启网卡或者网络服务。ipv6setuprhel和ipv6setupdebian的工具下载地址如下表所示。 工具下载地址 系列 发行版 下载地址 ::: RHEL CentOS 6/7 EulerOS 2.2/2.3 Fedora 25 Debian Ubuntu 16/18 Debian 8/9 2. 执行以下命令,添加执行权限。 chmod +x ipv6setupxxx 3. 执行以下命令,指定一个网卡设备,配置动态获取IPv6地址。 ./ipv6setupxxx dev [dev] 示例: ./ipv6setupxxx dev eth0 说明: 如需对所有网卡配置动态获取IPv6地址,命令为./ipv6setupxxx,即不带参数。 如需查询工具的用法,请执行命令./ipv6setupxxx help。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像优化类
        如何开启云主机动态获取IPv6?
      • 支持的数据库
        本页为您介绍天翼云数据传输服务DTS支持的数据库。 数据传输服务支持多种数据源之间的数据迁移和同步,不同数据库的支持情况如下所示。 数据迁移 源库类型及版本 目标库类型及版本 迁移类型 备注 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 RDS for MySQL 5.7/8.0 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持分区表。 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 RDS for PostgreSQL 9.6/10/11/12/13/14/15/16/17 结构迁移 全量迁移 增量迁移 整库迁移 仅支持表同步。 增量同步表必须有主键。 整库迁移不支持库表名映射。 RDS for MySQL、自建MySQL 5.6部分版本/5.7/8.0 云数据库ClickHouse 22.8.9.24 结构迁移 全量迁移 增量迁移 整库迁移 仅支持表同步。 增量同步表必须有主键。 若源库为空库(该库下未创建任何表),不支持作为待迁移对象。 RDS for PostgreSQL、自建PostgreSQL 9.6/10/11/12/13/14/15/16/17 RDS for PostgreSQL 9.6/10/11/12/13/14/15/16/17 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持分区表。 增量迁移表必须有主键。 整库迁移不支持库表名映射。 RDS for PostgreSQL、自建PostgreSQL 9.6/10/11/12/13/14/15/16/17 RDS for MySQL 5.7/8.0 结构迁移 全量迁移 增量迁移 整库迁移 支持表、部分索引、约束、comment迁移。 不支持pgtoast,pgtemp1,pgtoasttemp1,pgcatalog,informationschem等系统模式的迁移。 每次至多同步一个库(database),同步多个库需要创建多个DTS任务。 DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(副本集) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 DDS 3.4/4.0(副本集) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(副本集) DDS 3.4/4.0(分片集群) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 DDS 3.4/4.0(分片集群) 自建MongoDB 3.4/4.0/4.2/4.4/5.0/6.0(分片集群) DDS 3.4/4.0(分片集群) 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持集合级(指定集合对象)、库级(整库迁移)迁移。 支持索引的结构迁移。 库、集合支持做名称映射。 不支持迁移admin和local库中的数据。 数据迁移仅针对数据源中的用户数据库,而系统库confilg、local、admin会被自动过滤。 RDS for SQL Server 、自建SQL Server 2016 标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 RDS for SQL Server 2016 标准版/2016 企业版 /2019 标准版/2019 企业版 /2022 标准版/2022 企业版 结构迁移 全量迁移 增量迁移 整库迁移 目标库版本建议不低于源库版本。 支持数据库、模式、分区表、索引、约束(外键、唯一、排他)、视图、存储过程、函数、触发器的迁移。 每次至多迁移一个库(DATABASE),迁移多个库需要创建多个DTS任务。 分区表需要在迁移前提前到目标库建立存储目录以及文件,否则仅支持primary分区。 不支持系统模式、临时表、用户自定义列的迁移。 暂不支持名称映射。 注意 目前DTS的DDS/MongoDB迁移链路暂不支持分片集群到副本集的迁移。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        支持的数据库
      • 移除服务器(集群版适用)
        本节主要介绍移除服务器。 在“服务器管理”页面,选择要移除的服务,点击“操作”>“移除”,移除服务器。 注意 如果移除已损毁或者宕机的服务器,需要使用强制移除。强制移除服务器,会产生数据丢失风险,请谨慎操作。 如果移除服务器上有iSCSI目标,该iSCSI目标对应卷的高可用类型是ActiveStandby,移除服务器时,业务不会中断,此卷对应的iSCSI目标会切换到其他服务器上,客户端需要重新连接Target对应的新服务器IP。 如果移除服务器上有iSCSI目标,该iSCSI目标对应卷的高可用类型是Disabled,移除服务器时,业务会中断,此卷对应的iSCSI目标会切换到其他服务器上,客户端需要重新连接Target对应的新服务器IP。但服务器移除时,会有数据丢失风险。 如果执行日志采集后,产生的日志保存在服务器安装目录下,在服务器移除之后,该日志将被删除。如果产生的日志保存在HBlock的数据目录内,并且移除服务器时删除服务器HBlock数据目录中的数据,该日志也将被删除。 有服务器正在移除时,不能再移除其他服务器。如果必须移除,请使用强制移除,但有丢数据风险。 该节点的所有数据目录不属于任何存储池,允许移除该服务器。否则不能移除,如果必须移除,请使用强制移除,但有丢数据风险。 如果要移除服务器的某个数据目录属于基础存储池,且是基础存储池中仅剩的一个可用故障域中的节点,不允许移除。 如果服务器上有基础服务,不允许移除。 图1 移除服务器
        来自:
      • 退订数据库代理
        本文介绍如何退订数据库代理。 前提条件 已开通数据库代理服务。 注意 退订代理服务不会影响数据库实例。 退订数据库代理后可以再次开通,但是代理连接地址会改变。 操作步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 点击“数据库代理”标签,进入数据库代理管理页,点击“退订代理服务”按钮。 7. 进入数据库代理实例退订页面,点击确认。 8. 等待一段时间即可完成数据库代理实例退订。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据库代理
        退订数据库代理
      • 使用指南
        本节提供了天翼云电脑(公众版)相关使用指南文档下载 天翼AI云电脑(公众版)终端用户使用指南.pdf 天翼AI云电脑Windows桌面设置系统语言指导手册.pdf 天翼AI云电脑外设使用指南.pdf
        来自:
        帮助文档
        天翼云电脑(公众版)
        文档下载
        使用指南
      • 创建安全组与添加安全组规则
        操作步骤 1. 登录管理控制台,进入“虚拟私有云>访问控制>安全组”。 2. 在安全组列表右上方,单击“创建安全组”,进入“创建安全组”页面。 3. 根据界面提示,设置安全组参数,设置完成后,点击“确定”,完成安全组创建。 以下是安全组参数说明表。 参数 参数说明 取值样例 名称 必选参数。 输入安全组的名称。要求如下: 长度范围为164位。 名称由中文、英文字母、数字、下划线()、中划线()、点(.)组成。 sgAB 模板 必选参数。 安全组预设规则中预先配置了入方向规则和出方向规则,您可以根据业务选择所需的预设规则,快速完成安全组的创建。 通用Web服务器 描述 可选参数。 安全组的描述信息。 描述信息内容不能超过255个字符,且不能包含“ ”。 添加安全组规则 操作场景 安全组实际是网络流量访问策略,由入方向规则和出方向规则共同组成。常见的安全组规则应用场景包括:允许或者拒绝特定来源的网络流量、允许或拒绝特定协议的网络流量、屏蔽不需要开放的端口、以及配置服务器的特定访问权限等。 使用须知 配置安全组规则前,您需要规划好安全组内实例的访问策略。 安全组的规则数量有限制,请您尽量保持安全组内规则的简洁。 在安全组规则中放开某个端口后,您还需要确保实例内对应的端口也已经放通,安全组规则才会对实例生效。 安全组入方向规则的源地址设置为0.0.0.0/0或::/0,表示允许或拒绝所有外部IP地址访问您的实例,如果将“22、3389、8848”等高危端口暴露到公网,可能导致网络入侵,造成业务中断、数据泄露或数据勒索等严重后果。建议您将安全组规则设置为仅允许已知的IP地址访问。 通常情况下,同一个安全组内的实例默认网络互通。当同一个安全组内实例网络不通时,可能情况如下有: 当实例属于同一个VPC时,请您检查入方向规则中,是否删除了同一个安全组内实例互通对应的规则。 不同VPC的网络不通,所以当实例属于同一个安全组,但属于不同VPC时,网络不通。
        来自:
      • 挂载NFS文件系统到弹性云主机 (Linux)
        参数 说明 vers 文件系统版本,可选3或4。建议取值:3。 proto 客户端向服务器发起传输请求使用的协议,可以为udp或者tcp,建议取值:IPv4访问时prototcp,IPv6访问时prototcp6。 async sync为同步写入,表示将写入文件的数据立即写入服务端;async为异步写入,表示将数据先写入缓存,再写入服务端。同步写入要求NFS服务器必须将每个数据都刷入服务端后,才可以返回成功,时延较高。建议取值:async。 nolock 选择是否使用NLM协议在服务端锁文件。当选择nolock选项时,不使用NLM锁,锁请求仅在本机进行,仅对本机有效,其他客户端不受锁的影响。如果不存在多客户端同时修改同一文件的场景,建议取值nolock以获取更好的性能。如不加此参数,则默认为lock。 noatime 如果不需要记录文件的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 nodiratime 如果不需要记录目录的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 noresvport 网络故障时自动切换端口,保障网络连接。手动挂载和自动挂载时均建议加入此参数。 wsize 每次向服务器写入文件的最大字节数,实际数据小于或等于此值。wsize必须是1024倍数的正整数,小于1024时自动设为4096,大于1048576时自动设为1048576。默认时服务器和客户端进行协商后设置。建议取值:最大值1048576。 rsize 每次向服务器读取文件的最大字节数,实际数据小于或等于此值。rsize必须是1024倍数的正整数,小于1024时自动设为4096,大于1048576时自动设为1048576。默认时服务器和客户端进行协商后设置。建议取值:最大值1048576。 timeo NFS客户端重传请求前的等待时间(单位为0.1秒)。影响网络中断、后端服务宕机等场景下的业务中断时间,默认取值600。可根据实际情况,设置适合的重传等待时间。 挂载地址 挂载地址在文件系统详情页获取,在文件系统详情页选择挂载地址点击复制即可。 本地挂载路径 本地挂载路径为云主机上用于挂载文件系统的本地路径,例如上一步创建的“/mnt/sfs”。
        来自:
        帮助文档
        弹性文件服务 SFS
        快速入门
        挂载文件系统
        挂载NFS文件系统到弹性云主机 (Linux)
      • 挂载NFS文件系统到弹性云主机 (Linux)
        参数 说明 vers 文件系统版本,可选3或4。建议值:3。 proto 客户端向服务器发起传输请求使用的协议,可以为udp或者tcp,建议取值:IPv4访问时prototcp,IPv6访问时prototcp6。 async sync为同步写入,表示将写入文件的数据立即写入服务端;async为异步写入,表示将数据先写入缓存,再写入服务端。同步写入要求NFS服务器必须将每个数据都刷入服务端后,才可以返回成功,时延较高。建议取值:async。 nolock 选择是否使用NLM协议在服务端锁文件。当选择nolock选项时,不使用NLM锁,锁请求仅在本机进行,仅对本机有效,其他客户端不受锁的影响。如果不存在多客户端同时修改同一文件的场景,建议取值nolock以获取更好的性能。如不加此参数,则默认为lock。 noatime 如果不需要记录文件的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 noresvport 网络故障时自动切换端口,保障网络连接。 注意 请务必在挂载时使用noresvport参数,防止文件系统卡住。 nodiratime 如果不需要记录目录的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 wsize 每次向服务器写入文件的最大字节数,实际数据小于或等于此值。wsize必须是1024倍数的正整数,小于1024时自动设为4096,大于1048576时自动设为1048576。默认时服务器和客户端进行协商后设置。建议取值:最大值1048576。 rsize 每次向服务器读取文件的最大字节数,实际数据小于或等于此值。rsize必须是1024倍数的正整数,小于1024时自动设为4096,大于1048576时自动设为1048576。默认时服务器和客户端进行协商后设置。建议取值:最大值1048576。 timeo NFS客户端重传请求前的等待时间(单位为0.1秒)。影响网络中断、后端服务宕机等场景下的业务中断时间,默认取值600。可根据实际情况,设置适合的重传等待时间。 挂载地址 挂载地址在文件系统详情页获取,在文件系统详情页选择挂载地址点击复制即可。 本地挂载路径 本地挂载路径为云主机上用于挂载文件系统的本地路径,例如上一步创建的“/mnt/sfs”。
        来自:
        帮助文档
        海量文件服务 OceanFS
        快速入门
        挂载文件系统
        挂载NFS文件系统到弹性云主机 (Linux)
      • 新增数据投递
        本节介绍如何新增数据投递。 约束与限制 跨账号投递仅支持投递到其他账号管道中,不支持投递到其他云服务。 如果新增的数据投递为跨账号投递,则需要登录目的账号进行授权操作。 创建数据投递任务 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“日志审计> 安全数据”,进入安全分析页面。 5. 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道后,单击目标管道名称后的“更多> 投递”,右侧弹出现在数据投递设置页面。 6. (可选)在弹出的授权提示中,确认无误后,单击“确认”,完成授权。 首次投递到目的投递类型需要进行授权,如果已经授权,请跳过该步骤。 7. 在新增投递配置页面中,配置数据投递相关参数。 1. 配置基本信息。 参数名称 参数说明 投递名称 自定义投递规则的名称。 投递资源消耗 默认生成,无需配置。 2. 配置数据源。 数据源配置中,显示当前管道数据的详细信息,无需配置。 参数名称 参数说明 投递类型 数据投递类型,默认显示为PIPE,即默认从态势感知(专业版)管道投递。 区域 当前管道所在区域。 工作空间 当前管道所属的工作空间。 数据空间 当前管道所属的数据空间。 管道 管道的名称 数据位置策略 当前管道中数据位置的策略。 读取身份 数据源读取身份信息说明。 3. 配置数据目的,请根据投递目的进行配置。 PIPE:将当前管道数据投递到本账号其他管道或其他账号的管道中,请根据您的需要进行选择配置。 本账号投递:将当前管道数据投递到本账号的其他管道中,参数配置说明如下表所示。 参数名称 参数说明 账号类型 选择数据投递目的地的账号类型,此处选择“本账号”。 投递类型 选择投递类型,此处选择PIPE。 工作空间 选择目的PIPE所在工作空间。 数据空间 选择目的PIPE所在数据空间。 管道 选择目的PIPE所在管道。 写入身份 默认生成,无需配置。 跨账号投递:将当前管道数据投递到其他账号的管道中,参数配置说明如下表所示。 参数名称 参数说明 账号类型 选择数据投递目的地的账号类型,此处选择“跨账号”。 投递类型 选择投递类型,此处选择PIPE。 账号ID 输入目的PIPE所在账号的ID。 工作空间ID 输入目的PIPE所在工作空间的ID,查询方法请参见查看管道详情。 数据空间ID 输入目的PIPE所在数据空间的ID,查询方法请参见查看管道详情。 管道ID 输入目的PIPE所在管道的ID,查询方法请参见查看管道详情。 写入身份 默认生成,无需配置。 4. 在“访问授权”中,查看上述步骤6中授予的权限。 投递请求需要获取访问您云资源的读写权限,授权后,投递任务才能拥有对您云资源相应的访问权限。 8. 单击“确定”。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        数据投递
        投递日志数据至其他数据管道
        新增数据投递
      • 计费类
        本小节介绍等保咨询服务常见问题。 本产品是否支持试用? 等保咨询服务不支持试用。如果您需要使用等保咨询服务,可以联系客服进一步了解该服务的内容和优势。感谢您的理解和支持。 本产品下订单后是否支持退订? 等保咨询服务一旦服务开始后便不支持退订,感谢您的理解和支持。 等保咨询服务的报价依据包含哪些方面? 主要依据系统等级(涉及测评项不同)、服务版本(标准版或精简版)、云主机数量(涉及工作量不同)、地区(不同省份人工成本有差距)、是否首次测评(首次涉及工作量较多,如:加固建议,管理建议等)、系统行业(不同行业有不同等保标准)。 什么是等级保护? 等级保护是指对国家重要信息、法人和其他组织及公民的专有信息以及公开信息和存储、传输、处理这些信息的信息系统分等级实行安全保护,对信息系统中使用的信息安全产品实行按等级管理,对信息系统中发生的信息安全事件分等级响应、处置。 等保咨询的服务范围包含哪些方面? 等保咨询简化服务:按照等级保护相关标准要求,提供测评内容、测评对象、测评流程、测评指标、测评方法等测评细项内容,以及系统定级、备案指导服务,输出《等保测评技术指导》。提供系统差距的安全风险分析,包括网络、防护、应用、制度等测评相关服务,并输出《差距分析评估》。 等保咨询标准服务:包含所有简化版服务内容,提供针对性的等保合规要求的整改安全方案。
        来自:
        帮助文档
        等保咨询
        常见问题
        计费类
      • 连接已开启SASL的Kafka专享实例
        创建实例时开启SASLSSL访问,则数据加密传输,安全性更高。 由于安全问题,支持的加密套件为TLSECDHEECDSAWITHAES128CBCSHA256,TLSECDHERSAWITHAES128CBCSHA256和TLSECDHERSAWITHAES128GCMSHA256。 本节介绍如何使用开源的Kafka客户端访问开启SASL的Kafka专享实例的方法。 说明: 使用SASL方式连接Kafka实例时,为了客户端能够快速解析实例的Broker,建议在客户端所在主机的“/etc/hosts”文件中配置host和IP的映射关系。 其中,IP地址必须为实例连接地址(Broker地址),host为每个实例主机的名称(您可以自定义主机的名称,但不能重复)。 例如: 10.154.48.120 server01 10.154.48.121 server02 10.154.48.122 server03 前提条件 已配置正确的安全组。 访问开启SASL的Kafka专享实例时,支持VPC内访问。实例需要配置正确的安全组规则,具体安全组配置要求,请参考表32。 已获取连接Kafka专享版实例的地址。 使用VPC内访问,实例端口为9093,实例连接地址获取如下图。 获取VPC内访问Kafka专享实例的连接地址(实例已开启SASL) Kafka专享实例已创建Topic,否则请提前创建Topic。 已下载client.truststore.jks证书。如果没有,在控制台单击Kafka实例名称,进入实例详情页面,在“基本信息 > 高级配置 > Kafka SASLSSL”所在行,单击 。下载压缩包后解压,获取压缩包中的客户端证书文件:client.truststore.jks。 已下载Kafka命令行工具1.1.0版本或者Kafka命令行工具2.3.0版本,确保Kafka实例版本与命令行工具版本相同。 已在Kafka命令行工具的使用环境中安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 以下操作命令以Linux系统为例进行说明。 解压Kafka命令行工具。 进入文件压缩包所在目录,然后执行以下命令解压文件。 tar zxf [kafkatar] 其中,[kafkatar]表示命令行工具的压缩包名称。 例如: tar zxf kafka2.111.1.0.tgz 修改Kafka命令行工具配置文件。 在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 sasl.jaas.configorg.apache.kafka.common.security.plain.PlainLoginModule required username"" password""; sasl.mechanismPLAIN security.protocolSASLSSL ssl.truststore.location/opt/kafka2.111.1.0/config/client.truststore.jks ssl.truststore.passworddms@kafka ssl.endpoint.identification.algorithm 参数说明: username和password为创建Kafka专享实例过程中开启SASLSSL时填入的用户名和密码。 ssl.trustore.location配置为client.truststore.jks证书的存放路径。注意,Windows系统下证书路径中也必须使用“/”,不能使用Windows系统中拷贝路径时的“”,否则客户端获取证书失败。 ssl.truststore.password为服务器证书密码,不可更改,需要保持为dms@kafka。 ssl.endpoint.identification.algorithm为证书域名校验开关,为空则表示关闭。这里需要保持关闭状态,必须设置为空。 进入Kafka命令行工具的“/bin”目录下。 注意,Windows系统下需要进入“/bin/windows”目录下。 执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist ${连接地址} topic ${Topic名称} producer.config ../config/producer.properties 参数说明如下: 连接地址:从前提条件获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 如下示例,Kafka实例连接地址为“10.xxx.xxx.202:9093,10.xxx.xxx.197:9093,10.xxx.xxx.68:9093”。 执行完命令后,输入需要生产的消息内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin]
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        用户指南
        连接已开启SASL的Kafka专享实例
      • FLV格式是否支持HEVC/H.265转码
        FLV格式是否支持HEVC/H.265转码? FLV格式是否支持HEVC/H.265转码? FLV(Flash Video)和RTMP(RealTime Messaging Protocol)是比较旧的视频传输格式和协议,它们在设计之初并没有考虑到HEVC(High Efficiency Video Coding)这种最新的视频编码标准。 HEVC是一种高效率的视频编码格式,能够显著减小视频文件的大小而保持较高的质量。然而,由于FLV和RTMP的设计年代较早,它们在视频编码方面主要支持较旧的编码格式,例如H.264(也称为AVC)。因此云点播支持将FLV转码为含有H.265/HEVC 视频流的MP4、MKV等格式,暂时不支持将HEVC/H.265视频流封装回FLV格式。
        来自:
        帮助文档
        云点播
        常见问题
        视频转码类
        FLV格式是否支持HEVC/H.265转码
      • 设置服务器中HBlock可使用的内存(1)
        参数 描述 i parameter 或 item parameter 设置HBlock服务器的参数。 n { SERVERID &<1n> all default } 或 server { SERVERID &<1n> all default } 指定需要设置内存参数的HBlock服务器。 取值: SERVERID &<1n>:指定需要修改内存参数的HBlock服务器ID。一次可以指定多个服务器ID,以英文逗号(,)分开。 all :指定修改所有HBlock服务器的内存参数。 default :指定后续加入集群节点的HBlock默认占用内存。 默认修改当前服务器的内存参数。 说明 可以同时指定多个参数,以逗号隔开,如n hblock1,hblock2,default。 maxmemoryratio MAXMEMORYRATIO 指定HBlock可使用的内存占用系统总内存的比例上限。 取值:取值范围是[0.01, 1],支持小数点后2位。 说明 对于集群版,HBlock实际占用的内存与加入存储池的磁盘数量有关,可能会突破设置的比例上限,一旦超限将触发系统事件“内存不足(InsufficientMemory)”。 maxmemoryratio MAXMEMORYRATIO 和 maxmemorysize MAXMEMORYSIZE 同时设置时,取二者的最小值。 maxmemorysize MAXMEMORYSIZE 指定HBlock可使用的内存最大值。 取值:整数形式,数字后面可以输入单位简写M/m、G/g、T/t,分别代表MiB、GiB、TiB。默认单位是MiB。 如果单位是MiB,取值为[2048, 8796093022207]。 如果单位是GiB,取值为[2, 8589934591]。 如果单位是TiB,取值为[1, 8388607]。 说明 对于集群版,HBlock实际占用的内存与加入存储池的磁盘数量有关,可能会突破设置的上限,一旦超限将触发系统事件“内存不足(InsufficientMemory)”。 maxmemoryratio MAXMEMORYRATIO 和 maxmemorysize MAXMEMORYSIZE 同时设置时,取二者的最小值。
        来自:
      • 查看实例
        本章节主要介绍如何查看分布式消息服务RabbitMQ实例。 操作场景 本节介绍如何在控制台查看RabbitMQ实例的详细信息。例如,连接RabbitMQ时,需要获取连接IP和端口。 前提条件 已创建RabbitMQ实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择RabbitMQ实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务 > RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤 4 RabbitMQ实例支持通过筛选来查询对应的RabbitMQ实例。当前支持的筛选条件为“标签”、“状态”、“名称”、“连接地址”和“ID”。RabbitMQ实例状态请参见表1。 表1 RabbitMQ实例状态说明 状态 说明 创建中 创建RabbitMQ实例后,在RabbitMQ实例状态进入运行中之前的状态。 运行中 RabbitMQ实例正常运行状态。在这个状态的实例可以运行您的业务。 故障 RabbitMQ实例处于故障的状态。 启动中 RabbitMQ实例从已冻结到运行中的中间状态。 重启中 RabbitMQ实例正在进行重启操作。 变更中 RabbitMQ实例正在进行规格变更操作。 变更失败 RabbitMQ实例处于规格变更操作失败的状态。 已冻结 RabbitMQ实例处于已冻结状态。 冻结中 RabbitMQ实例从运行中到已冻结的中间状态。 升级中 RabbitMQ实例正在进行升级操作。 回滚中 RabbitMQ实例正在进行回滚操作。 步骤 4 单击RabbitMQ实例的名称,进入该RabbitMQ实例的基本信息页面,查看RabbitMQ实例的详细信息。 表2为连接实例的相关参数,其他参数,请查看页面显示。 表2 连接参数说明 参数 说明 内网连接地址 未开启公网访问时,连接实例的地址。 Web界面UI地址 未开启公网访问时,访问实例管理工具的地址。 公网访问 是否开启公网访问开关。 公网连接地址 开启公网访问后,连接实例的地址。 公网访问Web界面UI地址 开启公网访问后,访问实例管理工具的地址。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        实例日常管理
        查看实例
      • 重置消费进度
        本文主要介绍 重置消费进度。 重置消费进度即修改消费者的消费位置。 说明 重置消费进度可能会导致重复消费,请谨慎操作。 前提条件 Kafka实例不支持在线重置消费进度,请先将待重置消费进度的消费组停止消费,然后重置消费进度。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 步骤 6 单击待重置消费进度的消费组名称,进入消费组详情页。 步骤 7 在“消费进度”页签,通过以下方法,重置消费进度。 重置单个Topic所有分区的消费进度:在待重置消费进度的Topic后,单击“重置消费进度”。 重置单个Topic中单个分区的消费进度:在待重置消费进度的Topic分区后,单击“重置消费进度”。 步骤 8 在弹出的“重置消费进度”对话框中,参考下表,设置重置消费进度参数。 表 重置消费进度参数说明 参数 说明 重置类型 选择重置类型: 时间:重置消费进度到指定的时间。 偏移量:重置消费进度到指定的偏移量。 一键重置消费进度只支持重置消费进度到指定时间。 时间 当“重置类型”为“时间”时,需要设置此参数。 选择重置消费进度的时间点,重置完成后,将从此时间点开始消费。 最早:最早偏移量 自定义:自定义时间点 最晚:最晚偏移量 偏移量 当“重置类型”为“偏移量”时,需要设置此参数。 选择重置消费进度的偏移量,此偏移量不能小于0,重置完成后,将从此偏移量开始消费。 步骤 9 单击“确定”,弹出确认对话框。 步骤 10 单击“是”,完成消费进度的重置。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消费组管理
        重置消费进度
      • 修改Topic分区数
        本文主要介绍修改Topic分区数。 说明 修改分区数,不会影响业务。 修改Topic分区数的方法如下: 方法1:在控制台修改 方法2:在Kafka Manager上修改 方式3:在Kafka客户端上修改 方法1:在控制台修改 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击Kafka实例的名称,进入实例详情页面。 步骤 5 选择“Topic管理”页签,显示已创建的Topic详情。 步骤 6 通过以下任意一种方法,修改Topic分区数。 勾选Topic名称左侧的方框,可选一个或多个,单击信息栏左上侧的“编辑Topic”。 在待修改分区数的Topic所在行,单击“编辑”。 步骤 7 在“编辑Topic”对话框中,输入分区数,单击“确定”。 说明 分区数只支持增加,不支持减少。 出于性能考虑,Kafka控制台限定单个Topic的分区数上限为100。 所有Topic分区数总和不能超过实例允许的分区上限。 方法2:在Kafka Manager上修改 步骤 1 登录Kafka Manager。 步骤 2 在Kafka Manager中,单击“Topic > List”,进入Topic列表界面。 步骤 3 单击Topic名称,进入Topic详情界面。 步骤 4 单击“Add Partitions”,进入增加分区界面。 图 Topic详情界面 步骤 5 输入分区数,单击“Add Partitions”。 图 增加分区数量 显示“Done”,表示分区增加成功。 图分区增加成功 说明 分区数只支持增加,不支持减少。 所有Topic分区数总和不能超过实例允许的分区上限。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        修改Topic分区数
      • 慢日志
        本文介绍了查看RDSPostgreSQL实例慢日志的方法。 操作场景 慢日志用来记录执行时间超过当前慢日志阈值的语句,您可以通过慢日志的日志明细、统计分析情况,查找出执行效率低的语句,进行优化。 慢日志阈值可通过参数设置中设置logmindurationstatement参数进行设置,单位为毫秒。 Ⅰ类资源池实例查看慢日志步骤 1. 登录天翼云门户。 2. 打开控制中心。 3. 左上角选择资源池区域,RDSPostgreSQLⅠ类资源池加载的资源池详见功能加载说明。 4. 找到【关系数据库PostgreSQL版】,点击进入组件控制台管理页面。 5. 在实例管理页面点击对应的实例进入基本信息页。 6. 选择页面上方的“慢日志”切换到页面,即可以查看慢日志。 1. 您可单击页面左上角的“排序”筛选框选择排序方式。 2. 您可单击“排序”筛选框旁边的“时间范围”,查看不同时间段内的慢日志。 Ⅱ类资源池实例查看慢日志步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在实例管理页,点击需要查看慢日志的实例行中的“监控”按钮,进入监控页。 6. 在左边栏选择“日志监控”进入日志页面。 7. 在此页面点击上方的“慢日志”切换到页面,即可查看慢日志。 1. 您可通过搜索栏的“sql关键字”搜索需要查看的sql慢语句。 2. 您可通过左上角“自定义查询时间”,查看不同时间段内的慢日志。 3. 您可通过搜索栏的“执行时间”,查看耗时大于该时间的慢日志。 4. 您可以通过“导出”按钮对慢日志进行导出。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全监控
        日志监控
        慢日志
      • 删除手动备份
        删除跨域备份 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版】,进入关系数据库SQL Server产品页面。然后单击【管理控制台】,进入TeleDB数据库【概览】页面。 2. 在左侧导航栏,选择【SQL Server > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例【基本信息】页面。 4. 单击【备份恢复】,进入本地数据备份列表页面。 5. 单击【跨域数据备份】页签,查看跨域数据备份列表。 6. 找到待删除的手动备份,点击【删除】,下发删除手动备份任务。 7. 下发删除任务后,状态会变成“删除中”,等待一段时间后查看是否删除成功,如果删除成功,则数据备份列表不再显示该备份集。如果删除失败,状态会还原回原先的状态。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        备份与恢复
        备份
        删除手动备份
      • 删除数据库账号
        本节介绍了如何删除数据库账号。 操作场景 通过控制台删除用户创建的数据库账号。 操作步骤 1. 登录天翼云官网。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 选择账号管理页签。 7. 选择将要删除的数据库账号,并点击操作中的删除按钮。 8. 在弹出框中,填写root账号的密码校验,点击确定提交删除任务。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        账号管理
        删除数据库账号
      • 锁定/解锁数据库账号
        本节介绍了如何锁定/解锁数据库账号。 操作场景 通过控制台锁定/解锁数据库账号,数据库账号锁定后,无法登录RDSPostgreSQL。 操作步骤 1. 登录天翼云官网。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 选择账号管理页签。 7. 选择对应的数据库账号,点击操作中的锁定/解锁按钮。 8. 在弹出框中点击确定按钮,提交锁定/解锁任务。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        账号管理
        锁定/解锁数据库账号
      • 重置数据库账号密码
        本节介绍了如何重置数据库账号密码。 操作场景 通过控制台重置用户创建的数据库账号密码。 操作步骤 1. 登录天翼云官网。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 选择账号管理页签。 7. 选择将要重置的数据库账号,并点击操作中的重置密码按钮。 8. 在弹出框中,填写root账号密码、新密码及确认密码后,点击确定提交重置密码任务。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        账号管理
        重置数据库账号密码
      • DNS解析异常问题排查
        解决方案 修改StatefulSets Pod YAML中ServiceName名称,确保和其暴露SVC的名字一致。 CoreDNS Pod负载高 问题现象 部分节点或全部节点接入CoreDNS的业务,Pod解析域名的延迟增加、概率性或持续性失败。 检查CoreDNS Pod运行状态发现各副本CPU、Memory使用量接近其资源限制。 问题原因 由于CoreDNS副本数不足、业务请求量高等情况导致的CoreDNS负载高。 解决方案 考虑采用NodeLocal DNSCache缓存方案,提升DNS解析性能,降低CoreDNS负载。 适当扩充CoreDNS副本数。 常见请求日志 CoreDNS Pod负载不均 问题现象 部分接入CoreDNS的业务Pod解析域名的延迟增加、概率性或持续性失败。 检查CoreDNS Pod运行状态发现各副本CPU使用量负载不均衡。CoreDNS副本数少于两个,或多个CoreDNS副本位于同节点上。 问题原因 由于CoreDNS副本调度不均、Service亲和性设置导致CoreDNS Pod负载不均衡。 解决方案 扩容并打散CoreDNS副本到不同的节点上。参考:合理分配CoreDNS副本运行的位置。 负载不均衡时,可禁用kubedns服务的亲和性属性。参考:关闭kubedns服务的session亲和性配置。 合理分配CoreDNS副本运行的位置 建议您在部署CoreDNS副本时,应将CoreDNS副本打散在不同可用区、不同集群节点上,避免单节点、单可用区故障。CoreDNS默认配置了按节点的弱反亲和性,可能会因为节点资源不足导致部分或全部副本部署在同一节点上,如果遇到这种情况,请删除Pod重新触发其调度来调整。 CoreDNS所运行的集群节点应避免CPU、内存用满的情况,否则会影响域名解析的QPS和响应延迟。当集群节点条件允许时,可以考虑使将CoreDNS调度至独立的集群节点上,以提供稳定的域名解析服务。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        常见问题
        域名DNS
        DNS解析异常问题排查
      • 重置升级/滚动升级(1.13版本)
        本文主要介绍 重置升级/滚动升级(1.13版本) 。 操作场景 您可以通过云容器引擎管理控制台,快速升级Kubernetes版本,以支持新特性的使用。 升级前,请先了解CCE各集群版本能够升级到的目标版本,以及升级方式和升级影响,详情请参见集群升级概述和升级前须知。 注意事项 集群升级时若需要升级CoreDNS插件,请确保节点数大于等于CoreDNS的实例数,且CoreDNS的所有实例都处于运行状态,否则将导致升级失败。1.13版本的集群若需升级到更高版本,需先将CoreDNS插件升级当前集群可用的最新版本。 1.13版本内升级时,集群上的应用只会在升级网络组件时有短暂中断。 操作步骤 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 在左侧导航栏选择“集群升级”,在右侧可以看到可升级的版本,单击“版本升级”。 说明 若您的集群当前已是最新版本,则“版本升级”按钮为灰色不可用状态。 若您的集群状态异常或存在异常状态的插件,则“版本升级”按钮为灰色不可用状态,请参考升级前须知检查。 步骤 3 在弹出的“升级前预检查”对话框中,单击“开始检查”。 升级前预检查 步骤 4 升级前预检查开始启动,在此过程中集群状态将显示为“预检查中”,期间该集群不能进行新业务下发,运行中的业务不受影响,该过程将持续35分钟。 升级前预检查进行中 步骤 4 待升级前预检查的状态显示为“已完成”时,单击“去升级”。 升级前预检查完成 步骤 6 进入集群升级页面,参照下表确认或配置基本信息。 基本信息确认与配置 参数 参数说明 集群名称 请确认您要升级的集群名称。 当前版本 请确认待升级集群的版本。 升级后版本 请确认升级后的目标版本。 节点升级策略 重置升级:用户节点采用重置安装方式,节点操作系统将会被重装,系统盘和数据盘的数据均会被清空,请谨慎使用。 说明 本集群的节点及工作负载生命周期管理功能暂不可用。 API访问功能暂不可用。 由于升级过程节点进行重置安装,用户已运行的工作负载业务将会中断。 用户节点的系统盘和数据盘将会被清空,升级前请事先备份重要数据。 用户节点上挂载的非LVM管理的数据盘,升级后需要重新挂载,盘中数据不会丢失。 云硬盘的配额需大于0。 容器的IP地址会发生变化,但是不影响容器间的网络通信。 用户节点的自定义标签将不会保留。 集群升级时间约为12分钟。 滚动升级 :用户节点采用节点池滚动升级,适用于集群下节点均采用节点池创建的场景。 说明 本集群的节点及工作负载生命周期管理功能暂不可用。 API访问功能暂不可用。 用户已运行的工作负载业务不会中断。 集群升级时间约为12分钟。 重置节点镜像 仅支持物理机节点。物理机节点支持在升级时替换操作系统镜像,可指定节点使用新的镜像,在升级时会使用新镜像重装操作系统。如不指定则默认使用原有镜像重装操作系统。 登录方式 密码用户名默认为“root”,请输入登录节点的密码,并确认密码。登录节点时需要使用该密码,请妥善管理密码,系统无法获取您设置的密码内容。选择用于登录本节点的密钥对,支持选择共享密钥。密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 集群备份 对集群的Master节点进行整机备份,需要用户手动确认 ,备份过程会使用云备份服务,备份通常耗时在20分钟左右, 若当前局点云备份任务排队较多时,备份时间可能同步延长,推荐用户使用进行整机备份。 节点升级优先级 可选择优先升级的节点。 步骤 7 完成后单击“下一步”,在弹出的“集群升级”对话框中单击“确定”。 根据您选择的“节点升级策略”,对话框中会有如下两种不同的提示: 重置升级:升级后的集群版本将使用更高版本操作系统,升级将会重启节点并升级操作系统版本,升级过程中运行的业务会暂时中断。 滚动升级:滚动升级后,需要用户重置节点(同时去除不可调度标签)或新建节点才能完成升级。 步骤 8 进入“升级插件”步骤,如有需要升级的插件会有红色圆点提示,请单击插件卡片左下角的“升级”按钮,完成后单击页面右下角的“升级”。 说明 集群将依次升级控制节点,然后并发升级用户节点。用户节点较多时,节点将分批升级。 请选择合适的时间段进行升级,以减少升级对业务的影响 单击“升级”会立刻开始执行升级操作,并且无法撤销。升级过程中请勿对节点执行关机、重启等操作。 步骤 9 在弹出的“集群升级”对话框中阅读提示信息,确认后单击“确定”,注意集群升级后不可回退。 集群升级确认 步骤 10 在集群列表页面中可以看到集群的状态为“升级中”,升级过程需要一定的时间,请耐心等待升级完成。 升级成功后,您可以在集群列表或集群详情页面查看升级后的集群状态和版本。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        重置升级/滚动升级(1.13版本)
      • 1
      • ...
      • 156
      • 157
      • 158
      • 159
      • 160
      • ...
      • 541
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      应用托管

      智算一体机

      推荐文档

      加入会议

      产品定义

      授权文件导入

      备案信息需真实有效

      删除备份数据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号