云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      对象存储(经典版)I型_相关内容
      • 查看日审总览
        “日审总览”页面呈现统计周期内当前工作空间中整体日志审计状况。 查看日审总览 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 安全云脑 SecMaster”,进入安全云脑管理页面。 3. 在左侧导航栏选择“工作空间> 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“日志审计 > 日审总览”,进入日审总览页面。 5. 在日审总览页面查看整体日志审计状况,具体展示信息如下: 参数模块 参数说明 统计周期 日志审计的统计周期,可以在右上角设置显示周期。可以选择周期范围: 昨天 上一周 上一月 自定义:自定义日志审计报告的开始日期和结束日期。 日志存储 展示统计周期内日志总览和日志流速情况,包含以下信息: 总览 日志源数及其较上期变化 当前日志存储量及其较上期变化 日志记录总条数及其较上期变化 日志流速 日志平均每秒流入速率 日志平均每秒流入吞吐 日志平均日记录数 日志平均日存储量 日志记录数变化趋势 日志源接入流量TOP5 日志源接入数量分布TOP5 主机安全审计 统计周期内,HSS的安全日志和告警日志审计情况,包含以下信息: 活跃主机数及其较上期变化 主机登录源IP数及其较上期变化 主机告警次数及其较上期变化 活跃主机Top5 主机登录源IP分布 Top5 主机告警源IP分布 Top5 主机告警类型Top5分布 主机稀有告警类型Top5分布 公网网络审计 统计周期内,NDR的攻击日志和流量日志、DDoS的攻击日志审计情况,包含以下信息: NDR审计 公网来访流量(源IP) Top5 访问公网流量(源IP) Top5 公网来访范围(源IP) Top5 访问公网范围(源IP) Top5 网络攻击类型Top5 DDoS审计 DDoS攻击次数及其较上期变化 DDoS攻击源IP数及其较上期变化 DDoS攻击次数变化趋势 DDOS攻击来源IP Top5 应用访问审计 统计周期内,WAF的攻击日志和访问日志审计情况(核心审计对象为:应用、网络和域名),包含以下信息: 活跃域名数量及其较上期变化 WAF访问源IP数及其较上期变化 WAF攻击次数及其较上期变化 WAF拦截次数及其较上期变化 WAF访问源IP Top5 WAF攻击源IP Top5 WAF拦截源IP Top5 WAF攻击类型 Top5 活跃域名访问频次Top5 数据库访问审计 统计周期内,DBSS的告警日志审计情况(核心审计对象为:用户、数据库和操作),包含以下信息: 活跃数据库数及其较上期变化 数据库活跃用户数及其较上期变化 数据库告警源IP数及其较上期变化 SQL执行种类数及其较上期变化 活跃数据库IP Top5 数据库活跃用户Top5 SQL执行类型 Top5 数据库用户源IP数 Top5
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        日志审计
        查看日审总览
      • 物理机支持的监控指标
        指标名称 指标含义 取值范围 备注 CPU 使用率(%) 该指标用于统计测量对象的 CPU使用率, 以百分比为单位。 0100% 测量对象:物理机 内存使用率(%) 该指标用于统计测量对象的内存使用率, 以百分比为单位。 0100% 测量对象:物理机 磁盘使用率(%) 该指标用于统计测量对象的磁盘使用率, 以百分比为单位。 0100% 测量对象:物理机 磁盘读速率(字节/ 秒) 该指标用于统计每秒从测量对象读出数据量,以字节/秒为单位。 ≥0 Byte/s 测量对象:物理机 磁盘写速率(字节/ 秒) 该指标用于统计每秒写到测量对象的数据量,以字节/秒为单位。 ≥0 Byte/s 测量对象:物理机 磁盘读操作速率(请求/秒) 该指标用于统计每秒从测量对象读取数据的请求次数,以请求/ 秒为单位。 ≥0 测量对象:物理机 磁盘写操作速率(请求/秒) 该指标用于统计每秒从测量对象写数据的请求次数,以请求/秒为单位。 ≥0 测量对象:物理机 网络流入速率(字节/ 秒) 该指标用于在测量对象内统计每秒流入测量对象的网络流量, 以字节/秒为单位。 ≥0 Byte/s 测量对象:物理机 网络流出速率(字节/ 秒) 该指标用于在测量对象内统计每秒流出测量对象的网络流量, 以字节/秒为单位。 ≥0 Byte/s 测量对象:物理机 网络包流入速率(包/ 秒) 该指标用于统计每秒流入测量对象的网络包流量,以包/秒为单位。 ≥0 Packets/s 测量对象:物理机 网络包流出速率(包/ 秒) 该指标用于统计每秒流出测量对象的网络包流量,以包/秒为单位。 ≥0 Packets/s 测量对象:物理机 1 分钟内 CPU 负载(Tasks/CPU) 该指标用于统计在过去 1 分钟内测量对象的 CPU 负载情况。 ≥0 测量对象:物理机 5 分钟内 CPU 负载(Tasks/CPU) 该指标用于统计在过去 5 分钟内测量对象的 CPU 负载情况。 ≥0 测量对象:物理机 15 分钟内CPU 负载(Tasks/CPU) 该指标用于统计在过去 15 分钟内测量对象的 CPU 负载情况。 ≥0 测量对象:物理机
        来自:
        帮助文档
        物理机 DPS
        用户指南
        物理机监控
        物理机支持的监控指标
      • 物理机支持的监控指标
        指标名称 指标含义 取值范围 备注 CPU 使用率(%) 该指标用于统计测量对象的 CPU使用率, 以百分比为单位。 0100% 测量对象:物理机 内存使用率(%) 该指标用于统计测量对象的内存使用率, 以百分比为单位。 0100% 测量对象:物理机 磁盘使用率(%) 该指标用于统计测量对象的磁盘使用率, 以百分比为单位。 0100% 测量对象:物理机 磁盘读速率(字节/ 秒) 该指标用于统计每秒从测量对象读出数据量,以字节/秒为单位。 ≥0 Bytes/s 测量对象:物理机 磁盘写速率(字节/ 秒) 该指标用于统计每秒写到测量对象的数据量,以字节/秒为单位。 ≥0 Bytes/s 测量对象:物理机 磁盘读操作速率(请求/秒) 该指标用于统计每秒从测量对象读取数据的请求次数,以请求/ 秒为单位。 ≥0 测量对象:物理机 磁盘写操作速率(请求/秒) 该指标用于统计每秒从测量对象写数据的请求次数,以请求/秒为单位。 ≥0 测量对象:物理机 网络流入速率(字节/ 秒) 该指标用于在测量对象内统计每秒流入测量对象的网络流量, 以字节/秒为单位。 ≥0 Bytes/s 测量对象:物理机 网络流出速率(字节/ 秒) 该指标用于在测量对象内统计每秒流出测量对象的网络流量, 以字节/秒为单位。 ≥0 Bytes/s 测量对象:物理机 网络包流入速率(包/ 秒) 该指标用于统计每秒流入测量对象的网络包流量,以包/秒为单位。 ≥0 Packets/s 测量对象:物理机 网络包流出速率(包/ 秒) 该指标用于统计每秒流出测量对象的网络包流量,以包/秒为单位。 ≥0 Packets/s 测量对象:物理机 1 分钟内 CPU 负载(Tasks/CPU) 该指标用于统计在过去 1 分钟内测量对象的 CPU 负载情况。 ≥0 测量对象:物理机 5 分钟内 CPU 负载(Tasks/CPU) 该指标用于统计在过去 5 分钟内测量对象的 CPU 负载情况。 ≥0 测量对象:物理机 15 分钟内CPU 负载(Tasks/CPU) 该指标用于统计在过去 15 分钟内测量对象的 CPU 负载情况。 ≥0 测量对象:物理机
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        物理机监控配置实践
        物理机支持的监控指标
      • 应用场景
        传媒行业 目标用户:广告公司、新闻媒体、影视制作公司等的创意人员、编辑、记者、制片人等。 核心诉求:方便创意素材(如图像、视频、音频等)和稿件的快速存储、检索和共享;支持多人协作编辑大型项目文件,如广告视频制作、新闻专题报道等。满足媒体内容的快速发布和传播需求,缩短制作周期。 使用流程:传媒公司的内容管理团队在翼共享盘上建立不同项目的素材库和稿件库,并设置相应权限;创意人员将拍摄或制作的素材上传至共享盘,编辑和记者则将撰写的稿件存入其中;在项目制作过程中,团队成员通过共享盘获取所需素材和稿件进行编辑和整合,如视频剪辑师从共享盘中选取合适的视频片段进行拼接,编辑对记者的稿件进行修改和完善;完成的作品也通过共享盘进行审核和发布。 共享盘推荐:翼共享具有高效的文件搜索功能、支持多媒体文件流畅预览和编辑、以及高并发读写能力的共享盘,以满足传媒行业对素材和内容快速处理和传播的要求。 科研行业 目标用户:科研机构的研究人员、实验室技术人员、学术团队等。 核心诉求:存储和管理大量的科研数据,包括实验结果、文献资料、模拟数据等;支持跨团队、跨学科的科研协作,促进知识共享和创新;提供数据备份和恢复功能,防止数据丢失对科研进程造成影响。 使用流程:科研项目负责人在翼共享盘上创建项目专属空间,并邀请团队成员加入,赋予相应权限;研究人员在实验过程中或研究阶段将数据实时上传至共享盘,同时可以从共享盘中获取其他成员上传的相关数据或参考资料;团队定期通过共享盘进行数据汇总和分析讨论,在项目结束后,将完整的科研数据和成果进行归档存储。 共享盘推荐:翼共享拥有大容量存储、高速数据传输、数据冗余备份和灵活权限管理的共享盘,适合处理大规模科研数据的存储和共享需求。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼共享
        应用场景
      • 【下线】2025年1月7日起,关系数据库MySQL版下线Ⅱ类型资源池审计日志、标签等openAPI-v1接口
        本页主要介绍关系数据库MySQL版产品部分接口下线的原因、影响和建议。 原因 由于旧版本的相关架构不能适应组件发展,且在功能使用方面有一定的局限性。天翼云决定于2025年1月7日起更新II类型资源池的审计日志和标签类相关接口。以v2接口替换具体的接口调用可参考"建议”。 影响 下线接口范围: 标签类:II类型资源池中查询标签列表、为指定的RDS实例解绑标签等v1接口; 日志:II类型资源池中日志中审计日志相关v1接口。 建议 建议使用标签和审计日志类v2相关接口。具体可参见API使用说明中相关内容。
        来自:
        帮助文档
        关系数据库MySQL版
        产品公告
        【下线】2025年1月7日起,关系数据库MySQL版下线Ⅱ类型资源池审计日志、标签等openAPI-v1接口
      • 管理员账号
        直接创建管理员子账号生成AI云电脑用户账号 【操作步骤】: 1.登录并进入“AI云电脑(政企版)”管理控制台; 2.点击“组织管理”,选择“子账号管理”,进入“子账号管理”页面; 3.点击“创建子账号”,输入子账号邮箱(天翼云用户账号邮箱)、用户账号、密码; 4.点击“确定”,完成子账号绑定邀请; 5.邀请后,子账号邮箱将收到邀请邮件。点击邮件中的“接受邀请”,完成邀请确认; 6.接受邀请后,系统将自动生成对应的AI云电脑用户账号,您可使用该账号登录云智助手,进行企业管理操作。
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        管理员指南
        管理员账号
      • 开通跨域带宽
        本节介绍为跨域互联开通带宽的操作步骤。 跨域互联实例下,跨资源池VPC需要开通跨域带宽才能互通,同资源池VPC互通不涉及。 1.进入“AI云电脑(政企版)”管理控制台; 2.点击“网络管理”,点击“企业云网”,选择“跨域互联”,进入跨域互联管理页面; 3.在操作实例中,点击“跨域互联名称”; 4.进入跨域互联详情跨域带宽管理,点击“开通跨域带宽”; 5.进入开通跨域带宽页面,选择资源包,填写带宽名称,确认带宽大小; 6.确认开通后,即可查看到对应的跨域带宽信息。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        企业云网管理
        跨域互联
        开通跨域带宽
      • 计费方式
        本章节介绍分布式缓存服务Redis版的计费方式。 天翼云DCS产品按照您选择的DCS实例规格进行计费。 表 分布式缓存服务计费项 计费项 计费项说明 适用的计费模式 计费公式 :::: DCS实例 天翼云DCS按照您选择的DCS实例规格进行计费。 包年/包月、按需计费 实例规格单价 购买时长 实例规格单价请参见分布式缓存服务价格详情。 在连接DCS缓存实例时,客户端如果通过ECS访问DCS实例,关于ECS计费详情,请参见弹性云主机价格详情。 说明 天翼云DCS按照您选择的DCS实例规格进行计费,而不是按照实际使用的缓存容量收费。
        来自:
        帮助文档
        分布式缓存服务Redis版
        计费说明
        公有云计费说明
        计费方式
      • Skills
        本节介绍天翼云电脑(OpenClaw版)下载并安装Skiils的操作步骤。 OpenClaw云电脑的Skills 技能:cctvnewsfetcher 技能:chinatelecommail 技能:findskills 技能:selfimproving 技能:skillvetter 技能:stockwatcher 技能:summarize 技能:tavilysearch 技能:excelxlsx 技能:worddocx 技能:dataanalysis 技能:documentpro 技能:humanizer 技能:Image Optimizer Tool 技能:code 如何下载并安装Skills? 访问skills库 搜索并选择skill 下载skill压缩包 解压并放置到skills目录 生效skills 如何分享自己的使用技能 [方式一:上传发布Skill](
        来自:
        帮助文档
        天翼云电脑(公众版)
        OpenClaw云电脑指南
        Skills
      • 自定义分布式消息服务Kafka事件源
        参数 说明 示例 名称 事件源名。 source1 实例名称 选择前提条件中已创建的分布式消息服务Kafka版实例。 KAFKAxxx Topic 选择当前实例中的Topic。 topic1 Group 快速创建 :自动创建以GIDEVENTBRIDGExxx命名的Group ID。 使用已有 :选择当前实例中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 消费位点 开始消费的位置。 最新位点 :从最新位点开始消费。 最早位点 :从最初位点开始消费。 最新位点
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义分布式消息服务Kafka事件源
      • 迁移后进行数据校验
        本节介绍了在迁移完成后如何进行数据校验。 当任务状态变为“增量同步”,说明全量同步已经完成,全量同步完成后,登录云数据库GaussDB 查看数据迁移结果。 1. 等待迁移任务状态变为“增量同步”。 2. 单击任务名称,进入任务详情页。 3. 在“同步进度”页签查看全量同步结果。 如图所示,本次实践将TESTINFO库中DATATYPELIST表迁移至shard0,共迁移了两条数据。 4. 验证数据一致性。 a) 在“同步对比 > 对象级对比”页面,查看库和表的迁移结果。 b) 在“同步对比 > 数据级对比”页面,创建对比任务,查看表中行的迁移结果。 5. 通过DAS连接云数据库GaussDB openGauss版的目标库“ testdatabaseinfo ”。 DAS连接实例的方法请参考《新增数据库登录》。 6. 执行如下语句,查询全量同步结果。 SELECT FROM testinfo.datatypelistafter; Oracle数据库中的模式迁移完成后,会在云数据库GaussDB 数据库中作为Schema,所以查询语句中添加Schema精确查询。 如图所示,查询表中的各个数据类型都迁移成功,并且数据正确无误。 7. 验证增量同步。 由于本次实践为“全量+增量”同步模式,全量同步完成后,如果在创建任务后有数据写入,这些写入的数据会一直同步至目标库中,直到任务结束。下面我们模拟写入另外的数据。 a) 根据本地的Oracle数据库的IP和地址,通过数据库连接工具连接数据库。 b) 执行如下语句,在源库插入一条数据。 我们插入一条“id”为1的数据。 insert into testinfo.DATATYPELIST values(1,'Migratetest','test1','test2','test3','test4', 666,12.321,1.123,2.123,sysdate,sysdate,sysdate,sysdate,'hw','cb','df','FF','FF','AAAYEVAAJAAAACrAAA');commit; c) 在目标库执行如下语句查询结果。 SELECT FROM testinfo.datatypelistafter; 如图所示,在源库新增的数据,可以实时同步至目标库。 8. 结束迁移任务。 根据业务情况,待业务完全迁移至目标库,可以结束当前任务。 a) 单击“操作”列的“结束”。 b) 仔细阅读提示后,单击“是”,结束任务。 9. 迁移完成后,进行性能测试。
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移后进行数据校验
      • 存储FAQ-CSI
        本文主要介绍Serverless集群的天翼云存储插件cstorcsi,其使用过程中常见的问题及分析流程。 通用分析流程 1. 选择“插件”下的“插件实例”,查看cstorcsi实例,运行是否异常。 2. 选择“工作负载”下的“无状态”,切换命名空间为“cstor”,查看名称为“cstorcsiprovisioner”的pod日志,切换容器名称为“csiprovisioner”和“cstorcsiplugin”,查看是否有错误日志输出。 常见问题 1. 用户不允许订购按需类订单。 该报错是由于cstorcsi插件开通的云硬盘为按需付费方式,需要账户余额在100元以上才可正常开通。 解决方案:请检查天翼云“账户余额”是否在100元以上。 2. can not support RWX in filesystem mode for disk。 当使用cstorcsi安装生成的storageclass,创建持久卷声明(PVC)。正常情况下,创建持久卷声明后,在“存储”选择“持久卷”,列表栏会看到相应持久卷(PV)创建,并且状态为“已绑定”。如果创建持久卷声明后,未发现相应持久卷创建,查看cstorcsiplugin日志输出为 can not support RWX in filesystem mode for disk,表示当前创建的持久卷声明,不支持访问模式为多机读写。目前,cstorcsi插件安装,默认创建的云硬盘类型的storageclass,其访问模式与是否是共享盘有关,只有在使用共享盘的情况下,支持多机读写,其他情况仅支持单机读写。 解决方案:修改持久卷声明访问模式为“单机读写”。 3. failed to create disk volume, message: disk size should be in range [10G ,32T]。 目前,当使用cstorcsi插件安装的storageclass,云硬盘类型要求容量为 [10G ,32T],文件存储要求容量500G以上。如果创建持久卷声明后,未发现相应持久卷创建,查看cstorcsiplugin日志输出为:failed to create disk volume, message: disk size should be in range [10G ,32T],表示当前创建的存储卷声明,其容量需要调整为合理范围大小。 解决方案:创建存储卷声明时,其容量需要调整为合理范围大小。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        存储
        存储FAQ-CSI
      • 挂载云硬盘
        本文帮助您了解挂载云硬盘相关的操作步骤。 操作场景 创建云硬盘后,需要将云硬盘挂载给云主机或物理机,供云主机或物理机作为数据盘使用。 挂载云硬盘通常分为两种,一种是挂载非共享云硬盘,另一种为挂载共享云硬盘。 挂载非共享云硬盘 约束与限制 非共享云硬盘只可以挂载至1台云主机或物理机。 挂载非共享云硬盘时,挂载的实例需要与此云硬盘位于同一区域下的同一可用区。 极速型SSD云硬盘仅支持挂载至vCPU数量至少为16且为6代以上的通用计算增强型和内存优化型云主机,并且一台云主机只允许挂载最多3块极速型SSD云硬盘。 操作步骤 用户可以从云主机与云硬盘两个页面入口进行挂载,具体操作步骤如下: 从云主机页面进行挂载 1.登录控制中心。 2.单击控制中心左上角的,选择地域,此处我们选择华东1。 3.单击选择“计算>弹性云主机”,进入云主机列表页面。 4.单击待挂载云硬盘的弹性云主机名称,进入弹性云主机详情页面。 5.单击“云硬盘”页签,在云硬盘页面中,点击“挂载磁盘”按键,弹出磁盘挂载窗口。 6.在跳转窗口中选择要挂载的云硬盘,点击“确定”,即可为弹性云主机挂载云硬盘,且在云主机的云硬盘详情页面可看到挂载的云硬盘详情信息。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        挂载云硬盘
      • 500MB免费额度怎么算?
        500MB免费额度怎么算? 云日志服务的计费功能包括: 1. 日志读写和索引; 2. 日志存储。 每个月免费赠送每个用户500MB免费额度,具体说明如下: 日志读写、索引:按流量计费,免费赠送每个用户每个月500MB额度,超过后按需收费。 日志存储:按存储空间计费,免费赠送每个用户每个月500MB额度,超过后按需收费。
        来自:
        帮助文档
        云日志服务
        常见问题
        500MB免费额度怎么算?
      • 依赖的对象不存在(xxx does not exist)
        本页为结构迁移/同步阶段报依赖的对象不存在(xxx does not exist)错误的场景、关键词、可能原因和修复方法建议。 场景描述 包含结构迁移/同步的任务,在进行结构迁移时失败,错误信息提示“xxx does not exist”。 关键词 xxx does not exist 可能原因 待迁移对象所依赖的对象在目标库不存在,配置任务时未选择对应的依赖对象。 修复方法 1. 暂停任务。 2. 编辑任务,将缺失的对象加入到待迁移对象中,重新启动任务。 3. 若以上操作仍不能解决问题,请联系DTS客服处理。
        来自:
        帮助文档
        数据传输服务DTS
        故障排除
        失败案例
        结构迁移/同步案例
        依赖的对象不存在(xxx does not exist)
      • Go
        环境准备 1. 下载Demo包kafkaconfluentgodemo.zip。 2. 使用开发工具导入Demo。 配置修改 1. 如果是ssl连接,需要在控制台下载证书。并且解压压缩包得到ssl.client.truststore.jks,执行以下命令生成caRoot.pem文件。 keytool importkeystore srckeystore ssl.client.truststore.jks destkeystore caRoot.p12 deststoretype pkcs12 openssl pkcs12 in caRoot.p12 out caRoot.pem 2. 修改kafka.json文件。(security.protocol仅在ssl连接时需要配置) { "topic": "XXX", "topic2": "XXX", "group.id": "XXX", "bootstrap.servers" : "XXX:XX", "security.protocol" : "SSL" } 生产消息 发送以下命令发送消息。 go run modvendor producer/producer.go 生产消息示例代码如下: package main import ( "encoding/json" "fmt" "github.com/confluentinc/confluentkafkago/kafka" "log" "os" "path/filepath" "strconv" "time" ) const ( INT32MAX 2147483647 1000 ) type KafkaConfig struct { Topic string json:"topic" Topic2 string json:"topic2" GroupId string json:"group.id" BootstrapServers string json:"bootstrap.servers" SecurityProtocol string json:"security.protocol" SslCaLocation string json:"ssl.ca.location" } // config should be a pointer to structure, if not, panic func loadJsonConfig() KafkaConfig { workPath, err : os.Getwd() if err ! nil { panic(err) } configPath : filepath.Join(workPath, "conf") fullPath : filepath.Join(configPath, "kafka.json") file, err : os.Open(fullPath); if (err ! nil) { msg : fmt.Sprintf("Can not load config at %s. Error: %v", fullPath, err) panic(msg) } defer file.Close() decoder : json.NewDecoder(file) var config &KafkaConfig{} err decoder.Decode(config); if (err ! nil) { msg : fmt.Sprintf("Decode json fail for config file at %s. Error: %v", fullPath, err) panic(msg) } json.Marshal(config) return config } func doInitProducer(cfg KafkaConfig) kafka.Producer { fmt.Print("init kafka producer, it may take a few seconds to init the connectionn") //common arguments var kafkaconf &kafka.ConfigMap{ "api.version.request": "true", "message.max.bytes": 1000000, "linger.ms": 500, "sticky.partitioning.linger.ms" : 1000, "retries": INT32MAX, "retry.backoff.ms": 1000, "acks": "1"} kafkaconf.SetKey("bootstrap.servers", cfg.BootstrapServers) switch cfg.SecurityProtocol { case "PLAINTEXT" : kafkaconf.SetKey("security.protocol", "plaintext"); case "SSL": kafkaconf.SetKey("security.protocol", "ssl"); kafkaconf.SetKey("ssl.ca.location", "/XXX/caRoot.pem") case "SASLSSL": kafkaconf.SetKey("security.protocol", "saslssl"); kafkaconf.SetKey("ssl.ca.location", "/XXX/caRoot.pem"); kafkaconf.SetKey("sasl.username", cfg.SaslUsername); kafkaconf.SetKey("sasl.password", cfg.SaslPassword); kafkaconf.SetKey("sasl.mechanism", cfg.SaslMechanism); kafkaconf.SetKey("enable.ssl.certificate.verification", "false") case "SASLPLAINTEXT": kafkaconf.SetKey("security.protocol", "saslplaintext"); kafkaconf.SetKey("sasl.username", cfg.SaslUsername); kafkaconf.SetKey("sasl.password", cfg.SaslPassword); kafkaconf.SetKey("sasl.mechanism", cfg.SaslMechanism) default: panic(kafka.NewError(kafka.ErrUnknownProtocol, "unknown protocol", true)) } producer, err : kafka.NewProducer(kafkaconf) if err ! nil { panic(err) } fmt.Print("init kafka producer successn") return producer } func main() { // Choose the correct protocol cfg : loadJsonConfig(); producer : doInitProducer(cfg) defer producer.Close() // Delivery report handler for produced messages go func() { for e : range producer.Events() { switch ev : e.(type) { case kafka.Message: if ev.TopicPartition.Error ! nil { log.Printf("Failed to write access log entry:%v", ev.TopicPartition.Error) } else { log.Printf("Send OK topic:%v partition:%v offset:%v content:%sn", ev.TopicPartition.Topic, ev.TopicPartition.Partition, ev.TopicPartition.Offset, ev.Value) } } } }() // Produce messages to topic (asynchronously) i : 0 for { i i + 1 value : "this is a kafka message from confluent go " + strconv.Itoa(i) var msg kafka.Message nil if i % 2 0 { msg &kafka.Message{ TopicPartition: kafka.TopicPartition{Topic: &cfg.Topic2, Partition: kafka.PartitionAny}, Value: []byte(value), } } else { msg &kafka.Message{ TopicPartition: kafka.TopicPartition{Topic: &cfg.Topic, Partition: kafka.PartitionAny}, Value: []byte(value), } } producer.Produce(msg, nil) time.Sleep(time.Duration(1) time.Millisecond) } // Wait for message deliveries before shutting down producer.Flush(15 1000) }
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Go
      • 使用流程
        录像回放 对设备进行云端录像并查看回放画面,需要如下过程: 1. 点击左侧导航栏【模板管理存储模板】。 2. 点击【新建存储模板】,选择录制类别并完成模板创建。 3. 在存储模板的绑定页面或设备管理的【配置信息】页面绑定创建的视频存储模板。 4. 点击左侧导航栏【视频服务录像回放】,设备树中选择目标设备,点击设备或拖拽至播放窗口进行录像回放查看。 录像回放功能页面的操作说明可参考【录像回放播放控制】。 配置AI应用 对设备进行AI应用配置并查看分析结果,需要如下过程: 1. 点击左侧导航栏【AI管理AI应用】。 2. 点击【新建AI应用】,选择想要使用的AI算法并完成应用配置。 3. 在设备管理的【配置信息】页面绑定创建的AI应用。 4. 在设备管理的【AI分析】或者AI应用的【分析结果】中查看AI告警。 AI应用功能页面的操作说明可参考【AI管理AI应用】。
        来自:
        帮助文档
        智能视图服务
        快速入门
        使用流程
      • 插件市场
        本节介绍插件市场用户指南。 概述 分布式容器云平台提供了多种类型的插件,方便用户安装使用,满足集群特定的功能需求,类型包括:核心组件、存储、网络、应用管理、监控、安全等。 插件介绍 插件名称 插件类型 插件简介 cubeschedulerplugins 核心组件 自定义调度插件 cubenodelocaldns 网络 DNS缓存和加速DNS解析 nginxingresscontroller 网络 Ingress控制器 multus 网络 Pod多网卡CNI whereabouts 网络 为Pod分配IP地址 cstorcsi 存储 支持天翼云存储的CSI(容器存储接口) cubemetricsserver 监控 基础资源指标 cubemetricsadapter 监控 自定义指标 cubecronhpa 应用管理 定时伸缩 cubeverticalpodautoscaler 应用管理 Pod垂直伸缩 cubevolcano 应用管理 批处理调度 cubeopenkruis 应用管理 提供工作负载的增强功能 argoworkflow 应用管理 工作流 cubesecurity 安全 安全管理策略 certmanager 安全 k8s服务域证书管理 nodeproblemdetector 其它 节点问题检测 cubelxcfsplugin 其它 提供容器的资源相关信息
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        注册集群
        注册集群控制台
        插件
        插件市场
      • 科研助手用户指南
        本节介绍科研助手的使用指南。 产品功能 功能介绍 相关链接 开发机 创建开发机 科研服务 科研服务 数据存储 数据存储
        来自:
        帮助文档
        天翼云息壤一体化智算服务平台
        用户指南
        科研助手用户指南
      • 计费模式
        本文介绍云主机备份产品的计费方式。 云主机备份功能本身不收费,只收取存储部分的费用。云主机备份提供包年包月和按需计费两种计费模式。 包年包月 包年包月的计费模式,以用户购买存储库容量进行收费,收费标准为0.20元/GB/月。 如果是在已有存储库的基础上扩容,计费规则为:剩余天数扩容后的单日金额差价本次收取金额。 这种购买方式相对于按需付费则能够提供更大的折扣,对于长期使用者,推荐该方式。包周期计费按照订单的购买周期来进行结算。 具体折扣价格以控制台为准。 产品规格名称 包月标准价格(元/G/月) 云主机备份存储库 0.20 包年一次性付费折扣,折扣如下: 一次性付费1年 一次性付费2年 一次性付费3年 包月标准价格 12 85% 包月标准价格 24 70% 包月标准价格 36 50% 按需计费 按需计费的收费标准0.00028元/GB/小时,目前部分资源池支持按需计费。如有差异以控制台最终价格为准。 产品规格名称 按需标准价格(元/G/小时) 云主机备份存储库 0.00028 说明 支持按需计费的资源池:华东1、西安7、上海15、太原4、华北2、华南2、郑州5、西南2贵州、杭州7、南宁23、上海36、长沙42、西南1、南昌5、庆阳2、呼和浩特3、乌鲁木齐7。
        来自:
        帮助文档
        云主机备份 CSBS
        计费说明
        计费模式
      • Kafka数据迁移概述
        常见问题:如何将持久化数据也一起迁移 如果需要将原Kafka的已消费数据也迁移到Kafka实例,可以使用Smart Connect工具,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例,具体步骤请参考配置Kafka间的数据复制。 需要注意的是,云上Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        Kafka数据迁移概述
      • 本地裸盘
        挂载本地裸盘 1. 登录ECX控制台。 2. 单击左侧导航栏【边缘存储>本地裸盘】进入本地裸盘列表,选择状态为“可挂载”的本地裸盘,单击操作栏【挂载】按钮。 3. 系统会自动筛选出自己账号下可挂载的虚拟机,选择某一台虚拟机,单击【确认】按钮,完成挂载。您可以通过先卸载再挂载完成本地裸盘从一台虚拟机到另一台虚拟机的迁移。 卸载本地裸盘 1. 登录ECX控制台。 2. 单击左侧导航栏【边缘存储>本地裸盘】进入本地裸盘列表,选择状态为“使用中”的本地裸盘,单击操作栏【卸载】按钮 3. 弹窗二次确认是否卸载,单击按钮【是】,完成卸载。 注意 完成卸载后在本地裸盘列表确认本地裸盘状态是否变成"可挂载"。 删除本地裸盘 1. 登录ECX控制台。 2. 单击左侧导航栏【边缘存储>本地裸盘】进入本地裸盘列表,选择状态为“可挂载”的本地裸盘,单击操作栏【删除】按钮。 3. 弹窗二次确认是否删除,单击按钮【确认】,完成删除。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘存储
        本地裸盘
      • canal解析Binlog报错
        本文介绍了 canal解析Binlog报错的解决方法。 场景描述 canal解析Binlog出现错误,导致拉取Binlog中断。 原因分析 检查MySQL的参数“binlogrowsquerylogevents”的值是否设置为1 或 ON 。 该版本使用canal只能支持ROW格式的Binlog增量订阅。 如果关系数据库MySQL版实例的参数“binlogrowsquerylogevents”值设置为1 或ON时,则会在Binlog中产生Rowsquery类型的event,此类event非ROW格式,一些场景下,会导致canal出现blank topic问题,引发Binlog解析失败。 解决方案 将MySQL的参数“binlogrowsquerylogevents”的值修改为 OFF ,重启中断的canal任务。
        来自:
        帮助文档
        关系数据库MySQL版
        故障排查
        主备复制
        canal解析Binlog报错
      • 超额采集配置
        本文主要介绍超额采集配置使用说明。 云日志服务每月将免费赠送一定的使用额度,超过免费额度的部分将执行按需计费。若每月免费赠送的额度已经可以满足使用需求,超过后希望暂停日志收集,您可以在日志管理资源统计进行设置。 操作步骤 1. 进入云日志服务控制台,进入日志管理页面。 2. 在“日志总览”中点击“相关明细”,进入明细页面。 3. 在资源统计模块中,可设置“超额继续采集日志”开关。该开关默认为开启状态,开启后表示当日志各计费项超过免费赠送的额度时,继续采集日志,超过的部分按需收费。云日志服务各计费的免费额度说明请参考计费项说明。 4. 当关闭“超额继续采集日志”开关后,若日志用量超过免费额度,将无法再进行日志读写和索引,同时也不再产生日志读写和索引费用。针对超额部分的日志数据,将会继续存储在您的日志单元中,天翼云云日志服务将会继续收取该部分日志存储费用,系统将根据日志单元配置的日志存储时间进行日志老化,老化后将不再产生任何存储费用。
        来自:
      • 删除消息
        本文主要介绍如何在控制台删除消息。 操作场景 说明 消息删除后无法恢复,请谨慎操作。 前提条件 删除消息前,请先在客户端中设置“auto.offset.reset”参数。“auto.offset.reset”用来指定当Kafka中没有初始偏移量或者当前偏移量不存在(例如当前偏移量已被删除)时,消费者的消费策略。取值如下: latest:偏移量自动被重置到最晚偏移量。 earliest:偏移量自动被重置到最早偏移量。 none:向消费者抛出异常。 操作步骤 1. 登录管理控制台。 2. 在管理控制台右上角单击,选择区域。 说明 请选择Kafka实例所在的区域。 3. 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 4. 单击Kafka实例名称,进入实例详情页面。 5. 在左侧导航栏选择“Topic管理”,进入Topic列表页面。 6. 在待删除消息的Topic所在行,单击“消息删除”,弹出“消息删除”对话框。 7. 设置消息删除参数,如下表所示。 图消息删除 表 消息删除参数说明 参数 说明 分区 选择消息所在的分区编号。 偏移量 输入偏移量,此偏移量之前的数据将被删除。 说明 如果“偏移量”设置为“1”,表示删除分区中所有的消息。 如果您输入的偏移量不在指定分区的最早偏移量和最晚偏移量之间,消息将不会被删除。 如果需要删除多个分区的消息,单击“添加分区”,设置需要删除消息的分区和偏移量。每次最多可选择10个分区。 8. 单击“确定”,弹出“清理结果”对话框,单击“确定”,完成消息的删除。 图 清理结果
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        消息管理
        删除消息
      • 管理迁移任务
        对迁移任务进行失败重试 您可以在任务列表中,对“ 任务结束 存在失败对象 ”状态的任务,执行重试操作,该操作将再次对任务中记录的失败对象尝试迁移。 注意 仅“任务结束 存在失败对象”状态的迁移任务,可以重试。 重试迁移任务,仅会迁移任务记录的失败对象列表中的对象,且任务详情中的任务进度信息会被重试的迁移任务所刷新。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        迁移任务教程
        管理迁移任务
      • 增量修改域名配置
        参数 类型 是否必填 名称 说明 domain string 是 域名 productcode string 否 产品类型 “001”(静态加速),“003”:(下载加速), “004”(视频点播加速),“008”(CDN加速),“014”(下载加速闲时) ipv6enable int 否 ipv6启用 未传代表不修改,1(启用); 2(关闭) origin list<originsingle> 否 回源信息 未传代表不修改,有传代表整个数组全量修改,字段originsingle详细说明见下方 xosoriginis int 否 是否开启云存储XOS源站配置功能 枚举值:0(关闭), 1(开启);默认0 xosorigin object 否 云存储XOS源站信息 未传代表不修改,有传代表整个数组全量修改,字段xosorigin详细说明见下方 reqhost string 否 回源host设置 传空字符串""代表删除,未传代表不修改 originhosttype int 否 主备源携带不同的回源host是否开启 未传代表不修改,0(关闭) ;1(开启) originhosthttp dict 否 http类型origin带不同的回源host 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{origin:回源host};主备源携带不同的回源host开启(即originhosttype等于1),同时配置origin带不同的回源host和回源host,且都有传具体值,则以origin带不同的回源host生效(清空回源host) backuporigintimeout string 否 回源连接超时时间,单位秒 backuporiginresptimeout string 否 回源响应超时时间,单位秒 blackreferer dict 否 referer黑名单 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,字段blackreferer详细说明见下方,黑白名单只允许存在一个,若同时存在只处理黑名单 blackreferercondition dict 否 referer黑名单condition 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,删除blackreferer数据的话condition也要删除,格式:{“blackreferer”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]},mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。本参数仅适用于类型为新框架的域名,旧框架域名修改不生效,当前只支持配置单条全量修改,字段blackreferer详细说明见下方,黑白名单只允许存在一个,若同时存在只处理黑名单 whitereferer dict 否 referer白名单 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,字段whitereferer详细说明见下方 whitereferercondition dict 否 referer白名单condition 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,删除whitereferer数据的话condition也要删除,格式:{“whitereferer”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]},mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。本参数仅适用于类型为新框架的域名,旧框架域名修改不生效,当前只支持配置单条 useragent dict 否 useragent黑白名单配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,字段useragent详细说明见下方 filetypettl list<filetypettlsingle> 否 缓存类型设置 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段filetypettlsingle详细说明见下方 ipblacklist string 否 ip黑名单 传空字符串""代表删除,未传代表不修改,黑白名单只允许存在一个,若同时存在只处理黑名单,支持ip段与ip,多个ip/ip段以逗号分割,示例:1.1.1.1,2.2.2.2,::1,3.3.3.34.4.4.4 ipwhitelist string 否 ip白名单 传空字符串""代表删除,未传代表不修改,黑白名单只允许存在一个,若同时存在只处理黑名单,支持ip段与ip,多个ip/ip段以逗号分割,示例:1.1.1.1,2.2.2.2,::1,3.3.3.34.4.4.4 reqheaders list<reqheaderssingle> 否 自定义回源请求头 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段reqheaderssingle详细说明见下方 respheaders list<respheaderssingle> 否 自定义响应头 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段respheaderssingle详细说明见下方 errorcode list<errorcodesingle> 否 错误状态码缓存 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段errorcodesingle详细说明见下方 sharedhost string 否 共享缓存域名 传空字符串""代表删除,未传代表不修改 httpsstatus string 否 https是否开启 未传代表不修改,取值:on、off certname string 否 国际证书备注名 未传代表不修改,传空字符串代表删除 certnamegm string 否 国密证书备注名 未传代表不修改,传空字符串代表删除 httpsbasic dict 否 https基础信息 未传代表不修改,有传代表整个dict全量修改,字段httpsbasic详细说明见下方 basicconf dict 否 http配置基础信息 传空对象{}或未传均代表不修改,有传代表增量修改,字段basicconf详细说明见下方 limitspeeduri list<limitspeedurisingle> 否 基于url参数限速 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段limitspeedurisingle详细说明见下方 limitspeeduricondition dict 否 limitspeeduri的condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“{key}”:[{“mode”:类型,“content”:“配置内容,多个以逗号间隔”}]},mode类型为int,取值默认0,可以为:0(文件后缀),1(目录),2(首页),3(全部文件),4(全路径),key为limitspeeduri中的id.使用限制:一个key对应的数组大小只能是1,因为配置平台实际只支持配置一条;content必填,长度大于0,不能为空字符串或者空白字符串 limitspeedconst list<limitspeedconstsingle> 否 基于固定值限速 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段limitspeedconstsingle详细说明见下方 limitspeedconstcondition dict 否 limitspeedconst的condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“{key}”:[{“mode”:类型,“content”:“配置内容,多个以逗号间隔”}]},mode类型为int,取值默认0,可以为:0(文件后缀),1(目录),2(首页),3(全部文件),4(全路径),key为limitspeedconst中的id。使用限制:一个key对应的数组大小只能是1,因为配置平台实际只支持配置一条;content必填,长度大于0,不能为空字符串或者空白字符串 remotesyncauth list<remotesyncauthsingle> 否 远程同步鉴权客户自助 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段remotesyncauthsingle详细说明见下方 remotesyncauthcondition dict 否 远程同步鉴权condition 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode类型为int,取值默认0,可以为:0(文件后缀),1(目录),2(首页),3(全部文件),4(全路径),key为remotesyncauth中的id ssl string 否 ssl协议类型 传空字符串"“代表删除,未传代表不修改,支持TLSv1 、TLSv1.1 、TLSv1.2 、TLSv1.3,默认值为”",支持多选,多个用英文逗号分隔 sslstapling string 否 ocsp stapling开关 未传代表不修改,on(开启),off(关闭) cusgzip list<cusgzipsingle> 否 文件压缩 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段cusgzipsingle详细说明见下方,原来文件压缩的字段为gzip字段,现改成cusgzip,两参数不能同时传,若之前用的是gzip字段建议迁移至cusgzip cusgzipcondition dict 否 文件压缩condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为cusgzip中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效,且修改本参数时,cusgzip必传 entrylimits list<entrylimitssingle> 否 限频自助参数 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段entrylimitssingle详细说明见下方,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效。特别注意,若传空数组[]删除entrylimits参数时,若entrylimitscondition有值,也需要entrylimitscondition传空对象{}删除。 entrylimitscondition dict 否 限频自助参condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为entrylimits中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效 cachekeyargs list<cachekeyargssingle> 否 缓存参数 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段cachekeyargssingle详细说明见下方 cachekeyargscondition dict 否 缓存参数condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改,格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为cachekeyargs中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效 backoriginurirewrite list<backoriginurirewrite> 否 回源uri改写 传空对象[]代表删除,未传代表不修改,有传代表全量修改;字段backoriginurirewrite详细说明见下方 backoriginurirewritecondition dict 否 回源uri改写condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改;格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为backoriginurirewrite中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效 backoriginargrewrite list<backoriginargrewrite> 否 回源参数改写 传空对象[]代表删除,未传代表不修改,有传代表全量修改;字段backoriginargrewrite详细说明见下方 backoriginargrewritecondition dict 否 回源参数改写condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改;格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径。key为backoriginargrewrite中的id,本参数仅适用于类型为新框架的域名,旧框架域名修改不生效 ignorebackoriginargs int 否 是否忽略回源参数 枚举值:0(不忽略),1(忽略);默认0 dnsquery dict 否 回源域名解析 字段dnsquery详细说明见下方 errorpage list<errorpagesingle> 否 错误页面重定向 传空数组[]代表删除,未传代表不修改,有传代表整个数组全量修改,字段errorpagesingle详细说明见下方 defineredirect list<defineredirect> 否 自定义重定向配置 传空对象[]代表删除,未传代表不修改,有传代表全量修改;字段defineredirect详细说明见下方 defineredirectcondition dict 否 自定义重定向condition配置 传空对象{}代表删除,未传代表不修改,有传代表整个dict全量修改;格式:{“key”:[{“mode”:类型, “content”:“配置内容,多个以逗号间隔”}]}, mode取值:默认0, 0:文件后缀 1:目录 2: 首页 3: 全部文件 4: 全路径;其中key为defineredirect:id
        来自:
        帮助文档
        CDN加速
        API参考
        API
        域名管理
        增量修改域名配置
      • 产品介绍
        本节介绍云智助手的产品介绍。 产品介绍 云智助手(原AI应用中心)是天翼AI云电脑3.0推出全系统级AI应用,全面接入DeepSeek大模型,并基于星辰大模型和合作伙伴大模型能力,提供一系列场景化AI能力,升级全场景智能化体验。通过AI赋能,重塑AI云电脑使用体验,让AI云电脑更智能、更简单、更好用。 应用场景 云智助手通过打造了AI助手、AI空间两大功能模块,赋能办公、教育、创作、生活等场景,提升工作、生活效率。 使用说明 使用范围 (1)公有云:所有天翼AI云电脑(公众版)、天翼AI云电脑(政企版)均可使用云智助手; (2)私有云:可联系天翼云客服、大区、售前经理了解私有化部署要求。 获取方式 (1)已在AI云电脑镜像中预装,在桌面找到“云智助手”点击即可直接使用; (2)如未在桌面找到或已卸载,可前往AI云电脑应用市场,搜索“云智助手”下载。 使用条件 (1)云智助手当前支持Windows、UOS等各类操作系统; (2)天翼AI云电脑客户端建议升级至v2.4.3及以上版本; (3)移动端可以通过下载天翼云云电脑APP(3.1.1以上版本)使用云智助手。
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        产品介绍
      • 续订全流量分析服务
        本节介绍如何续订全流量分析服务。 全流量分析服务根据订购时长提供服务,服务到期后,立即停止全流量分析服务。建议在服务到期前为服务手动续费。 续订步骤 1. 登录托管检测与响应服务(原生版)控制台。 2. 在左侧导航栏选择“全流量分析服务”,点击服务列表操作列的“续订”按钮,跳转到续订界面。 3. 在续订页面,选择续订的时长。可按月续订,最长支持续订1年。 4. 点击“立即购买“按钮,跳转到支付页面。 5. 在“支付”页面,请选择付款方式进行付款。 6. 付款成功后,返回产品控制台,查看续订结果。
        来自:
        帮助文档
        托管检测与响应服务(原生版)
        用户指南
        全流量分析服务
        续订全流量分析服务
      • 虚拟私有云
        管理业务子网 1.进入“AI云电脑(政企版)”管理控制台; 2.单击“网络管理”,选择“虚拟私有云”,进入虚拟私有云管理页面; 3.在对应的虚拟私有云所在行,点击“虚拟私有云名称”,进入虚拟私有云(VPC)详情; 4.在虚拟私有云(VPC)详情页面,可以点击“创建子网”,进入创建子网弹窗; 5.确认配置信息后,点击“确定”,即完成虚拟私有云(VPC)的子网创建。 在虚拟私有云(VPC)详情还可以对子网进行删除、编辑等操作。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        网络管理
        虚拟私有云
      • 块空间管理
        介绍通过控制台进行块空间管理的操作。 功能说明 产品提供块空间管理功能,用户可以查看已创建的块存储空间信息,包括块 ID、名称、属性、状态、创建时间、激活时间等详细信息。 前提条件 已注册天翼云账号。 已登录媒体存储控制台。 已完成块空间新建操作。 操作步骤 1. 登录媒体存储控制台,进入【块空间】菜单。 2. 找到需要查看详细信息的块空间,点击【查看】按钮,即可查询该块空间的详细信息。 3. 点击后,弹窗展示相关信息,以供块空间挂载配置使用。您也可以通过【复制挂载命令】或【复制登出命令】进行挂载操作,说明可参考:Linux主机挂载 或 Windows主机挂载 。
        来自:
        帮助文档
        媒体存储
        控制台指南
        块存储
        块空间管理
      • 错误码列表
        本节主要介绍卷管理的错误码。 HTTP status 错误码 错误信息 描述 400 AccessCloudFailed Failed to access cloud. Please check your network or contact your software vendor. 无法连接至云,请检查网络后重试或联系软件供应商。 400 BucketEnableLifecycle Can not use this bucket because the life cycle was enabled. Please use another bucket. 不能使用该Bucket,因为该Bucket开启了生命周期。 400 BucketEnableObjectLock Can not use this bucket because the object lock configuration was enabled. Please use another bucket. 不能使用该Bucket,因为该Bucket开启了合规保留。 400 CanNotDeleteCloudData The cloud data for LUN lunName can not be deleted. The LUN has been recoverd. 无法删除云上数据,该卷已经被其他集群还原。 400 CanNotModifyEndpoint Can not modify endpoint for LUN lunname. 无法修改卷的Endpoint。 400 ExceedMaxCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be less than value. 存储容量非法。 400 ExceedThreshold The item of operation cannot exceed value. 超出了系统允许的最大个数,无法执行该操作。 400 FailedOperateLUN Failed to operation LUN, reason 卷操作执行失败。 400 HighAvailabilityNotAllowed The 'high availability' is invalid for standalone mode of HBlock. 单机版本HBlock不支持设置卷的高可用模式。 400 InvalidBucketName The bucket name bucketName is invalid. Bucket名称无效。 400 InvalidDiskPath The disk paths do not exist: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The available disk space must be greater than or equal to 1 GiB for each disk path: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths can not access: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths must be directory: serverIP :diskPaths [,diskPaths ...][; serverIP :diskPaths [,diskPaths...]]. The disk paths include incompatible data: serverIP :diskPaths [,diskPaths ...] [; serverIP :diskPaths [,diskPaths...]]. The disk paths include unsupported symbols: serverIP :diskPaths [,diskPaths ...] [; serverIP :diskPaths [,diskPaths...]]. The disk paths is already on the server and the status is removing: serverIP :diskPaths [,diskPaths...] 因数据目录有问题导致操作失败。 400 InvalidEndpoint The endpoint endpoint is invalid. Endpoint无效。 400 InvalidEnumValue Value value at 'argument ' failed to satisfy constraint: Argument must satisfy enum value set: [value1, value2... ] 枚举参数不合法。 400 InvalidFilterEnum Value value at 'filter' failed to satisfy constraint: Argument can only contain: [lunName, status, capacity, targetName]. Filter参数不正确。 400 InvalidHighAvailability Value value at 'high availability' failed to satisfy constraint: Argument must satisfy enum value set: [Disabled, ActiveStandby]. 高可用模式取值无效。 400 InvalidLUNName Value value at 'lun name' failed to satisfy constraint: Argument must contain only letters, digits, or hyphens (), and does not exceed 16 characters, must begin with a letter or digit. 卷名称不正确。 400 InvalidMinReplicaNumber Argument 'min replica' failed to satisfy constraint: argument range is [1, copy number] for replica mode and [N, N+M] for EC N+M mode. 最小副本数取值范围为:副本卷为[1, 副本数],EC卷为[N, N+M]。 400 InvalidPathStatus The path path status is 'status', the request is invalid. 数据目录状态不正确,无法执行操作。 400 InvalidPositiveInteger Value value at 'number' failed to satisfy constraint: Argument must be positive integer. 值必须为正整数。 400 InvalidPrefix Value value at 'prefix' failed to satisfy constraint: Argument must not exceed 256 characters. prefix无效。 400 InvalidRange Value value at 'range' failed to satisfy constraint: Argument must satisfy pattern 'ij', where i, j are positive integers, i is less than j, and ji M and N + M < 128. 副本模式与当前实际不匹配,服务器个数不够。 400 InvalidStorageMode Value valueat 'storage mode' failed to satisfy constraint: Argument must satisfy enum value set: [Local, Cache, Storage]. 存储模式无效。 400 InvalidTargetName Value value at 'target name' failed to satisfy constraint: Argument must contain only lowercase letters, digits, dots (.) or hyphens (), and does not exceed 16 characters, must begin with a letter or digit. target名称不正确。 400 InvalidWritePolicy Value value at 'write policy' failed to satisfy constraint: Argument must satisfy enum value set: [WriteBack, WriteThrough, WriteAround]. 写策略非法。 400 LessThanCurrentCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be greater than value. 扩容卷时新容量必须大于当前容量。 400 LessThanMinCapacity Value value at 'capacity' failed to satisfy constraint: Argument must be greater than or equal to 1 GiB. 容量不能小于1 GiB。 400 LUNDuplicatedCatalog Duplicated with the existing LUN catalog. 与已有卷的数据目录重复。 400 MissingRelevantArgument Value null at 'argument1' failed to satisfy constraint: Argument must not be null when 'argument2' has value. 参数1和参数2必须同时设置。 400 NoSuchStoragePool The storage pool with name poolName does not exist. 存储池不存在。 400 OnlyHALUNAllowed 'operation' is not supported for LUN luname which is not configured for high availability. 单控卷不支持该操作。 400 SamePool Cannot use the same storage pool poolName. 不能使用名字相同的存储池。 400 ServerNotMatchTarget The server serverid does not match the location of target targetname. 服务器ID和target名称不对应。 400 SingleLUNforAffinityPriority Only one LUN is supported for allocation when a specific server list is designated as the affinity priority. 仅支持针对单个LUN设置主备优先级列表。 400 SignVersionNotAllowed The sign version 'signVersion ' is not supported by provider 'provider'. 该对象存储服务不支持这种类型的签名,请重新选择。 400 StandaloneModeNotAllowed 'operation' is not supported by standalone mode of HBlock. 单机版本HBlock不支持该操作。 400 StorageClassNotAllowed The 'local storage class' is invalid for standalone mode of HBlock. 单机版HBlock不支持设置副本模式。 400 SwitchLUNNotAllowed Failed to switch LUN. The LUN does not support high availability. 单控卷不支持卷的主备切换。 400 TooManyLUNs The number of LUNs in a target cannot exceed 256. 单个target中的卷不能超过256个。 403 CloudAccessDenied Failed to authenticate because of the privilege of access key and secret key. Please use another one. 密钥权限不足,请重新输入Accesskey和SecretKey。 403 CloudAccountAbnormal Your cloud account has been frozen due to arrears or violations, please resolve it and try again. 云账户状态异常,可能由于欠费或违规被冻结,请解决后重试。 403 CloudRequestTimeTooSkewed The difference between the server's time and cloud time is too large. 服务器时间和云的时间相差较大。请同步HBlock服务器与云上的系统时间。 403 GetLifecycleDenied User is not authorized to perform: GetLifecycleConfiguration on resource:bucketName. 无权限获得存储桶的生命周期配置,请更新AK/SK后重试。 403 GetObjectLockDenied User is not authorized to perform: GetBucketObjectLockConfiguration on resource:bucketName. 无权限获得存储桶的合规保留配置,请更新AK/SK后重试。 404 NoSuchBackupConfiguration Backup is not configured. 没有配置备份到OOS。 404 NoSuchBucket The bucket with name bucketName does not exist. Bucket不存在。 404 NoSuchLicense The HBlock license does not exist. 没有软件许可证。 404 NoSuchLUN The LUN with name lunName does not exist. 卷不存在。 404 NoSuchLUNUuid The LUN with name lunName and uuid uuid does not exist. 卷标识不存在,无法执行操作。 404 NoSuchLUNUuidConfiguration Configuration file of the LUN with name lunName and uuid uuiddoes not exist. 指定的卷标识下缺失配置文件,无法执行操作。 404 NoSuchPath The path path does not exist in the HBlock. 路径不存在。 409 CloneLUNExist There are clone LUNs referencing Name. Please delete or flatten all these clone LUNs and try again. 存在克隆卷,无法执行该操作,请删除克隆卷或者断开链接后重试。 409 LUNAlreadyExists The LUN with name lunName already exists. 卷已经存在。 409 DeleteLUNEnabled Cannot delete it because the iSCSI LUN is enabled, please disable first. 不能删除正在启用的卷。 409 InvalidSnapshotStatus The status of snapshot name is 'status', the request is invalid. 快照的状态不对,请求无效。 409 InvalidTargetIQNsStatus The request is invalid. Ensure the number of target IQNs whose status is neither unavailable nor offline is greater than or equal to 2. 操作失败,target IQNs状态异常,请检查后重试。 409 LUNRollbacking The LUN lunname is using snapshot snapshotname for rollback, the request is invalid. 正在使用快回滚,无法执行操作。 409 SnapshotExists The LUN lunname has snapshot or consistency snapshot. You can use force delete. When using this option, all snapshots of the LUN, including LUN snapshots within consistency snapshots, will be deleted together. 卷存在快照,只能使用强制删除。请注意,强制删除会一同删除快照和一致性快照中的卷快照。 409 LUNDataResidue Data residue is detected for LUN lunname on path path. Please clean up promptly and try again. 卷数据残留,请及时清理。 500 CloudInternalError Cloud encountered an internal error. Please try again. 云内部错误,请重试。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        错误码列表
      • 1
      • ...
      • 191
      • 192
      • 193
      • 194
      • 195
      • ...
      • 411
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      天翼云进阶之路⑥:Windows和Linux绑定多网卡多EIP

      产品规格

      代金券查询与使用

      删除消费组

      云课堂 第五课:CC攻击介绍及如何防御

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号