活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      专属云容器引擎_相关内容
      • 集群定时备份
        本节介绍集群定时备份用户指南。 前提条件 1. 已完成集群注册,具体操作请参见 本地注册集群 / 三方云注册集群。 2. 集群已安装ccsebackup插件,具体操作请参考 插件。 操作步骤 下发备份任务 1. 登陆分布式容器云平台,在左侧导航栏中选择集群资源 > 集群管理,进入注册集群列表页。 2. 在注册集群列表中点击需要备份的集群,进入单集群管理页面。 3. 在单集群管理页面导航栏中选择运维管理 > 集群定时备份 > 创建备份 ,进入集群定时备份配置页面。 4. 填写配置项后,点击“确定”下发备份任务。 备份配置项说明: 配置项名称 说明 名称 必填,备份任务的名称,名称限制为由小写字母开头,只允许小写字母,数字和‘’组成,且备份任务是当前集群中唯一。 命名空间 非必填,选择备份资源的命名空间,可多选。 资源 非必填,选择所备份资源的类型,可多选,也可以手动输入。 持久卷 选择是否备份pod所使用的持久卷,备份内容中有pod资源,此项才生效。不能备份临时卷及hostPath。 保留天数 必填,定时备份后产生的备份包所保留的天数,超过保留天数的备份包则会被自动清理。 时间点 必填,定时备份时执行的时间点,为整点。 重复周期 必填,定时备份任务重复在一周内哪几天触发执行。 说明 1. 此处建议保留天数要大于两个定时备份任务执行的间隔天数,否则会导致任务执行完毕后,还没等到下个任务开始,就被清理。 2. 备份任务下发后,在备份列表中可查看定时备份任务的各项配置。 备份列表的操作列还包含以下三个操作: 编辑:弹出定时任务编辑框修改定时任务信息。 立即执行:马上触发备份任务执行。 删除:删除当前定时备份任务。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        注册集群
        注册集群控制台
        运维
        备份
        集群定时备份
      • 产品定义
        本章节主要介绍数据仓库服务的产品定义。 数据仓库服务(Data Warehouse Service) 是一种基于公有云基础架构和平台的在线数据处理数据库,提供即开即用、可扩展且完全托管的分析型数据库服务。数据仓库服务兼容标准ANSI SQL 99和SQL 2003,同时兼容PostgreSQL/Oracle数据库生态,为各行业PB级海量大数据分析提供有竞争力的解决方案。 产品架构 DWS基于Sharednothing分布式架构,具备MPP (Massively Parallel Processing)大规模并行处理引擎,由众多拥有独立且互不共享的CPU、内存、存储等系统资源的逻辑节点组成。在这样的系统架构中,业务数据被分散存储在多个节点上,数据分析任务被推送到数据所在位置就近执行,并行地完成大规模的数据处理工作,实现对数据处理的快速响应。 产品架构 应用层 数据加载工具、ETL(ExtractTransformLoad)工具、以及商业智能BI工具、数据挖掘和分析工具,均可以通过标准接口与DWS 集成。DWS兼容PostgreSQL生态,且SQL语法进行了兼容Oracle和Teradata的处理。应用只需做少量改动即可向DWS平滑迁移。 接口 支持应用程序通过标准JDBC 4.0和ODBC 3.5连接DWS 。 DWS (MPP大规模并行处理集群) 一个DWS集群由多个在相同子网中的相同规格的节点组成,共同提供服务。集群的每个DN负责存储数据,其存储介质是磁盘。协调节点(Coordinator)负责接收来自应用的访问请求,并向客户端返回执行结果,此外,协调节点还负责分解任务,并调度任务分片在各DN上并行执行。
        来自:
        帮助文档
        数据仓库服务
        产品简介
        产品定义
      • 升级RDS for MySQL内核小版本
        约束条件 对于主备实例,复制延迟大于300秒无法升级小版本。 升级主备实例时,升级顺序依次是备实例、主实例。 实例中存在异常节点,无法升级小版本。 云数据库RDS for MySQL暂不支持已开启事件定时器功能的实例升级内核小版本,若您想使用该功能,请先关闭事件定时器。具体操作请参考开启或关闭事件定时器。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击主实例名称。 步骤 5 在“基本信息”页面的“数据库引擎版本”处,单击“补丁升级”。 步骤 6 在弹出框中,选择升级方式,单击“确定”。 立即升级:系统会立即升级您的数据库内核版本到当前最新版本。 可维护时间段内升级:系统会在您设置的可维护时间段内,升级您的数据库内核版本到当前最新版本。 结束 后续操作 返回实例列表,在左侧导航栏,选择“任务中心”,查看版本升级任务的执行进度。 对于升级方式为“立即升级”的任务: 在“即时任务”页签,搜索“MySQL实例版本升级”任务,查看执行进度。即时任务不支持取消。 对于升级方式为“可维护时间段内升级”的任务: 在“定时任务”页签,搜索实例ID,查看该实例下版本升级的任务执行情况。 如果任务为“待执行”状态,单击“取消”,取消执行该升级任务。 更多操作,请参见查看任务。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        版本升级
        升级RDS for MySQL内核小版本
      • 版本发布说明
        本节介绍了分布式关系型数据库的各版本的生命周期规划。 DRDS各版本的生命周期规划 说明 DRDS各版本生命周期规划表中的部分时间为预计时间,将会在生命周期结束或停止支持前进行修正,请以实际时间为准。 DRDS产品生命周期结束后,将不再售卖,并且对存量实例不提供维护服务(例如漏洞补丁修改等)。 请您提前制定版本升级或者数据迁移等操作的计划。 在正式EOM/EOS之前客户可以通过版本升级将版本在EOS之前切换到高版本。 EOM:End of Marketing,停止该版本的销售。 EOS:End of Service & support,停止该版本的服务,建议您在执行作业时选择最新版本的引擎。在该日期之后,不再提供该软件版本的任何技术服务支持。 版本 天翼云计划EOM时间 天翼云计划EOS时间 3.1.0系列 2026年1月 2026年7月 3.0.9系列 2025年8月 2026年2月 3.0.8系列 2025年2月 2025年8月 3.0.6系列 2024年12月 2025年6月 3.0.4系列及之前版本 2024年9月 2025年3月
        来自:
        帮助文档
        分布式关系型数据库
        产品简介
        产品发布说明
        版本发布说明
      • 排查磁盘使用率高问题
        本页介绍了排查磁盘使用率高问题方式与解决方法。 磁盘使用率高问题排查方式与解决方法: 1. 使用【监控图表】的【磁盘】标签进行查看磁盘的使用情况。 2. 解决方案: 1. 对于集群实例,可能是因为选择和设置的分片不合理导致数据分布不均衡,从而引起磁盘空间使用率高的情况。此时,可以对数据库集合进行合适的分片,具体操作请参见设置数据分片以充分利用分片性能。 2. 随着业务数据的增加,原来申请的数据库磁盘容量不足。此时建议扩容磁盘空间,确保磁盘空间足够。 3. 如果原有实例规格的磁盘已是最大的,请先升级规格。 4. 存在大量过期的数据文件占用磁盘空间,此时需要及时处理过期数据文件。例如:如果整个库不需要了,则可以执行dropDatabase命令进行删除,从而快速释放磁盘空间。 5. 后台数据处理机制原因:因为无论是写入、更新或删除等操作(包括索引插入和删除等操作),在后台实际上都会转成写入。因为底层的存储引擎(WiredTiger),采用是appendOnly机制。只有当存储引擎内部数据状态满足一定条件后,会触发内部的compaction操作,进行数据压缩,进而释放磁盘空间。所以有时候会发现,磁盘占用量比实际数据量大,实际上这只是“看起来大”,并不会影响用户的使用。因为内部有些数据压缩,是延时操作,没有立即执行。随着数据的继续写入,会触发后台执行数据压缩清理空间。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        排查磁盘使用率高问题
      • 产品优势
        本章节为您介绍数据安全专区的产品优势。 多维度的数据资产快速梳理 快速识别网络中的个人信息、重要数据、行业敏感数据,掌握数据的分布情况、存储方式和数据量级,生成数据保护对象清单 。 采用自动发现、人工录入等方式,对数据库、数据表、数据字段进行管理,支持对敏感数据分类分级自动梳理 。 采用自动发现、人工录入等方式,对应用系统资产、API接口进行管理,并形成数据链路刻画 。 采用自动发现、人工录入等方式,对网络主机资产信息进行统一梳理 。 丰富的数据源支持 系统适配关系型数据库、国产数据库、MPP数据库、数仓、大数据组件等合计超40+数据源类型,同时支持word、pdf、txt等非结构化数据的分类分级。 基于业务系统的数据流动全链路监控 围绕业务场景开展的数据流动安全监管,将业务场景分解到业务系统上的数据流和数据节点进行细粒度的监控,实现基于业务规则的数据流动安全监管。包括全局性敏感数据的违规访问、调用、泄露等;基于业务特性的数据异常情况监控。 智能灵活的分析建模引擎 规则引擎内置 200+ 模型规则,涵盖常见安全攻击行为特征;支持规则模型、统计模型、关联模型以及智能AI模型,并可通过图形化方式进行配置编排,可通过不同规则组合以满足复杂的告警场景需求。
        来自:
        帮助文档
        数据安全专区
        产品介绍
        产品优势
      • MongoDB->DDS
        本节主要介绍MongoDB>DDS 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考。 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用集合、视图引用视图等。 注意事项 副本集:MongoDB数据库的副本集实例状态必须正常,要存在主节点。 注意事项 单节点:目前不支持源数据库为非本云单节点实例的迁移。 注意事项 源数据库为非集群实例时,增量迁移阶段支持如下操作: 注意事项 支持数据库(database)新建、删除。 注意事项 支持文档(document)新增、删除、更新。 注意事项 支持集合(collection)新建、删除。 注意事项 支持索引(index)新建、删除。 注意事项 支持视图(view)新建,删除。 注意事项 支持convertToCapped、collMod、renameCollection命令。 注意事项 源库是集群实例时,集群到集群的全量+增量迁移,全量阶段和增量阶段,不允许对迁移对象做删除操作,否则会导致任务失败。 注意事项 源库实例类型选择集群(MongoDB 4.0+)模式时,表示源数据库为集群4.0 以上版本,DRS内部同步使用MongoDB特性Change Streams。使用该模式应注意以下几个方面: 注意事项 Change Streams订阅数据过程会消耗源数据库一定量的CPU,内存资源,请提前做好源数据库资源评估。 注意事项 受MongoDB Change Streams自身性能影响,如果源库的负载比较大,Change Streams会出现处理速度无法跟上Oplog产生速度,进而导致DRS同步出现时延。 注意事项 Change Streams目前仅支持drop database,drop collection,rename的DDL,其他DDL均不支持。 注意事项 对于在源数据库已经存在TTL索引的集合,或者在增量迁移期间在源库数据创建了TTL索引的集合,由于源数据库和目标库数据库时区,时钟的不一致,不能保证迁移完成之后数据的一致性。 注意事项 如果源数据库的MongoDB服务不是单独部署的,而是和其他的服务部署在同一台机器,则必须要给源数据库的wiredTiger引擎加上cacheSizeGB的参数配置,建议值设为最小空闲内存的一半。 注意事项 专属计算集群暂不支持DDS实例,无法创建迁移任务。 注意事项 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 注意事项 如果源数据库是副本集,则建议填写所有的主节点和备节点信息,以防主备切换影响迁移任务。如果填写的是主备多个节点的信息,注意所有的节点信息必须属于同一个副本集实例。 注意事项 如果源数据库是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务。如果填写的是多个mongos信息,注意所有的mongos信息必须属于同一个集群。如果是集群的增量迁移任务,建议shard信息填写所有的主节点和备节点,以防主备切换影响迁移任务,并且注意所填写的主备信息必须属于同一个shard。确保填写的所有shard节点信息必须隶属于同一个集群。 注意事项 非全部迁移场景下,为防止drop database操作删除目标库已有的集合,drop database不会同步到目标库。 注意事项 源库是MongoDB 3.6以下版本(不含3.6)时,执行drop database会导致源库删除集合但目标库没有删除。 注意事项 源库是MongoDB 3.6及以上版本(含3.6)时,drop database 操作在oplog中会体现为drop database 和drop collection操作,所以目标库也会删除相应集合,不会出现问题。 操作须知 为了保持数据一致性,在整个迁移过程中,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作),也不支持对源数据库进行DDL操作。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库端口号。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、集合、索引、文档、视图等,这样可能会引起任务迁移失败。 操作须知 在整个迁移过程中,不支持源数据库主备切换导致数据回滚的情况。 操作须知 选择集合迁移时,增量迁移过程中不建议对集合进行重命名操作。 操作须知 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要的索引,只保留必须的索引。在迁移过程中不建议对源库创建索引,如果必须要创建索引,请使用后台的方式创建索引。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MongoDB->DDS
      • 动态PV(静态PVC)
        Set to the actual namespace namespace: default HBlock CSI安装时绑定的命名空间 spec: containers: name: myfrontend image: busybox 镜像地址 imagePullPolicy: "IfNotPresent" 拉取镜像策略 volumeMounts: mountPath: "/test8" 挂载到容器的目标路径 name: lun08 command: [ "sleep", "1000000" ] volumes: name: lun08 对应volumeMounts的挂载项目 persistentVolumeClaim: claimName: csipvclocalstor1lun08 调用pvc的名字 卷模式为Block,创建Pod mycsiapplocalblockstor1lun09的配置文件csiapplocalpvcstor1lun09.yaml。可以参考examplesblockvolumesdynamicpvcsiapplocalpvcblock.yaml中的示例。 plaintext kind: Pod apiVersion: v1 metadata: name: mycsiapplocalblockstor1lun09 Pod的名称 Set to the actual namespace namespace: default HBlock CSI安装时绑定的命名空间 spec: containers: name: myfrontend image: busybox 镜像地址 imagePullPolicy: "IfNotPresent" 拉取镜像策略 volumeDevices: devicePath: "/dev/test9" 挂载到容器的目标路径 name: lun09 对应volumes中的name command: [ "sleep", "1000000" ] volumes: name: lun09 对应volumeMounts的挂载项目 persistentVolumeClaim: claimName: csipvclocalblockstor1lun09 调用pvc的名字 应用配置文件 以 csiapplocalpvcstor1lun08.yaml 为例。 plaintext [root@server dynamicpv] kubectl apply f csiapplocalpvcstor1lun08.yaml pod/mycsiapplocalstor1lun08 created
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        脚本方式使用指南
        调用方式
        动态PV(静态PVC)
      • 数据迁移
        使用mysqldump迁移MySQL数据 说明:本章节会介绍如何使用mysqldump迁移MySQL数据库数据 迁移准备 关系型数据库服务支持开启公网访问功能,通过弹性公网IP进行访问。您也可通过弹性云服务器的内网访问关系型数据库。 1、准备弹性云服务器或可通过公网访问关系型数据库。 通过弹性云服务器连接关系型数据库实例,需要创建一台弹性云服务器。通过公网地址连接关系型数据库实例,需具备以下条件: (1)先对关系型数据库实例绑定公网地址。 (2)保证本地设备可以访问关系型数据库实例绑定的公网地址。 2、在准备的弹性云服务器或可访问关系型数据库的设备上,安装MySQL客户端。 该弹性云服务器或可访问关系型数据库的设备需要安装和RDS MySQL数据库服务端相同版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 导出数据 要将源数据库迁移到关系型数据库,需要先对其进行导出。 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 登录已准备的弹性云服务器,或可访问关系型数据库的设备。 使用mysqldump将元数据导出至SQL文件。 MySQL数据库是关系型数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.168.151.18 P 3306 sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > dumpdefs.sql Enter password: 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdefs.sql”文件,如下: [rds@localhost ~]$ ll dumpdefs.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdefs.sql 使用mysqldump将数据导出至SQL文件。 MySQL数据库是关系型数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u p h P r 上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.168.151.18 P 8635 r dumpdata.sql 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdata.sql”文件,如下: [rds@localhost ~]$ ll dumpdata.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdata.sql 导入数据 通过弹性云服务器或可访问关系型数据库的设备,用相应客户端连接关系型数据库实例,将导出的SQL文件导入到关系型数据库。 如果源数据库中包含触发器、存储过程、函数或事件调用,则需确保导入前设置目标数据库参数logbintrustfunctioncreatorsON。 导入元数据到关系型数据库。 先用mysql工具连接关系型数据库实例,输入密码后,执行导入命令。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        数据迁移
      • 连接集群联邦
        本节介绍如何通过KubeConfig文件连接集群联邦。 前提条件 使用kubectl连接集群联邦,需要先开通集群联邦,并保证集群联邦已开启且状态正常。 当前既支持公网又支持内网访问联邦控制面。如果使用公网访问,则需要在联邦控制台绑定EIP,如果使用内网访问,则需要在联邦控制面VPC里创建客户端机器。 已下载kubectl命令行工具并上传至客户端机器。kubectl下载地址请参见Kubernetes 版本发布页面。 使用步骤 1. 登录到分布式容器云平台页面联邦列表页面,点击列表右方的【接入配置】选项。 2. 在连接信息页面需要配置文件的类型,点击【下载】,将接入配置保存到本地。 3. 在执行机上安装和配置kubectl。 拷贝kubectl及其配置文件到上述所选的vpc和子网下的执行机的/home目录下。 登录到您的执行机,配置kubectl。 shell cd /home chmod +x kubectl mv f kubectl /usr/local/bin mkdir p $HOME/.kube mv f defaultYaml.yaml $HOME/.kube/config
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        集群联邦
        连接集群联邦
      • 部署 deploy
        deploy命令将YAML文件描述的函数资源部署到函数计算。 参数解析 无。 操作案例 进入到资源描述文件(s.yaml)所在的路径,然后执行如下命令部署资源: shell s deploy s.yaml文件示例: plaintext edition: 3.0.0 name: hellodevsapp access: default vars: region: "bb9fdb42056f11eda1610242ac110002" resources: myfunc: component: faascf 组件,提供具体的业务能力。faascf 组件提供了对天翼云Serverless函数的管理能力 props: region: ${vars.region} 部署的资源池ID,请参考: functionName: helloworld 函数名称 code: ./code 函数代码目录 createType: 1 函数类型:标准函数(1)、自定义函数(2)、容器函数(3) runtime: 函数运行配置 handleType: event 处理事件请求(event)、处理HTTP请求(http) handler: index.handler 请求处理程序 runtime: python3.10 运行环境 executeTimeout: 64 执行超时时间 instanceConcurrency: 1 实例并发度 container: 运行容器配置 memorySize: 512 内存规格,单位:MB cpu: 0.5 vCPU规格,单位vCPU diskSize: 512 临时硬盘大小,单位:MB timeZone: UTC 时区,例如:UTC, Asia/Shanghai 执行完成输出示例: plaintext functionId: 39061695070521915 code: ossBucketName: ossObjectName: function/ snapshotOssObjectName: zipFile: container: image: faas/python3.10runtime:v1.3.1 timeZone: UTC memorySize: 512 cpu: 0.5 diskSize: 512 runCommand: Li9ib290c3RyYXAuc2g listenPort: 8080 codeDirPath: /code logLevel: sysLogLevel: INFO maxScale: null minScale: null fastStart: 0 functionName: helloworld ...
        来自:
        帮助文档
        函数计算
        开发工具
        Serverless Devs
        命令参考
        部署 deploy
      • 主机管理
        开启防护 基础版/企业版/旗舰版 您可以为已购买的服务器开启基础版/高级版/企业版/旗舰版安全防护,开启后按照已购买版本所提供的能力对服务器进行安全防护。 操作须知 开启防护需要足够的防护配额,若提示配额不足,企业版可选择按需模式,其他版本需购买配额后再进行开启操作,主机防护配额购买详情请参见 购买主机安全防护配额,容器安全配额购买详情请参见购买容器安全配额。 检测周期 主机防护每日凌晨会进行全量检测。 若您在检测周期前开启防护,您需要等到次日凌晨检测后才能查看检测结果,或者立即执行手动检测。 前提条件 已购买的服务器已正常安装Agent且“Agent状态”为“在线”、“防护状态”为“未防护”。 约束条件 Linux操作系统 使用鲲鹏计算EulerOS(EulerOS with ARM)的主机,在遭受SSH帐户破解攻击时,HSS不会对攻击IP进行拦截,仅支持对攻击行为进行告警。 Windows操作系统 开启主机防护时,需要授权开启Windows防火墙,且使用主机安全服务期间请勿关闭Windows防火墙。若关闭Windows防火墙,HSS无法拦截帐户暴力破解的攻击源IP。 通过手动开启Windows防火墙,也可能导致HSS不能拦截帐户暴力破解的攻击源IP。
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        主机管理
      • 应用场景
        训推一体场景 使用场景 主要面向对数据保密及安全有着较高要求的企业单位与科研机构,可有力支撑其在私有化环境中,凭借自有数据开展专属行业大模型的训练或者微调工作,尤其适用于政务、医疗、金融等诸多行业领域,充分满足不同行业对于数据安全及大模型定制化应用的需求。 产品优势 拥有丰富多样的训推一体机规格,可依据不同用户的具体业务规模、算力需求等情况,灵活提供适配性强的产品选择。 配备简单易用的训练平台,极大降低了用户的操作门槛,让即使没有深厚技术背景的人员也能便捷地进行大模型的相关训练操作,有效提升工作效率。 模型推理场景 使用场景 精准契合那些无大模型训练诉求,但又需要在私有化环境下部署自有大模型或引入行业大模型,以此为自身应用赋予智能能力的应用场景,广泛覆盖教育平台、数字政务以及医疗应用等关键领域,通过快速调用内置DeepSeek等系列大模型,获取高效的推理服务,为行业应用提供强大的AI支持,提升业务智能化水平。 产品优势 具备推理加速功能以及量化压缩技术,能够大幅提升模型推理的速度与效率,同时优化资源利用,降低对硬件资源的依赖。 支持在本地进行快速部署,可迅速将大模型的推理能力融入到现有业务体系中,减少部署时间成本,快速实现应用赋能与价值创造。
        来自:
        帮助文档
        智算一体机
        产品介绍
        应用场景
      • 使用密钥
        密钥创建后,可在工作负载环境变量和数据卷两个场景使用。 须知: 如下密钥为CCE系统使用的,请勿对其做任何操作。 不要操作kubesystem下的secrets。 不要操作任何命名空间下的defaultsecret、paas.elb。其中,defaultsecret用于SWR的私有镜像拉取,paas.elb用于该命名空间下的服务对接ELB。 使用密钥配置Pod的数据卷 使用密钥设置Pod的环境变量 本节以下面这个所Secret为例,具体介绍Secret的用法。 apiVersion: v1 kind: Secret metadata: name: mysecret type: Opaque data: username: myusername 用户名 password: 需要用Base64编码 说明:在Pod里使用密钥时,需要Pod和密钥处于同一集群和命名空间中。 使用密钥配置Pod的数据卷 密钥可以在Pod中作为文件使用。如下面的Pod示例所示,mysecret密钥的username和password以文件方式保存在/etc/foo目录下。 apiVersion: v1 kind: Pod metadata: name: mypod spec: containers: name: mypod image: redis volumeMounts: name: foo mountPath: "/etc/foo" readOnly: true volumes: name: foo secret: secretName: mysecret 另外,还可以指定密钥的目录路径和权限,username存放在容器中的/etc/foo/mygroup/myusername目录下。 apiVersion: v1 kind: Pod metadata: name: mypod spec: containers: name: mypod image: redis volumeMounts: name: foo mountPath: "/etc/foo" volumes: name: foo secret: secretName: mysecret items: key: username path: mygroup/myusername mode: 511 挂载Secret到数据卷还可以在界面上进行操作,在创建工作负载时,设置容器的高级设置,选择数据存储,添加本地磁盘,选择Secret即可配置。具体请参见密钥(Secret)挂载.docx
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        配置中心
        使用密钥
      • 对象存储卷挂载设置自定义访问密钥(AK/SK)
        动态创建对象存储卷时指定挂载密钥 动态创建对象存储卷时,可通过如下方法指定挂载密钥。 步骤 1 新建一个pvc的yaml文件,如pvcexample.yaml。 apiVersion: v1 kind: PersistentVolumeClaim metadata: annotations: csi.storage.k8s.io/nodepublishsecretname: testuser csi.storage.k8s.io/nodepublishsecretnamespace: default everest.io/obsvolumetype: STANDARD csi.storage.k8s.io/fstype: obsfs name: obssecret namespace: default spec: accessModes: ReadWriteMany resources: requests: storage: 1Gi storageClassName: csiobs 参数 描述 csi.storage.k8s.io/nodepublishsecretname 指定secret的名字 csi.storage.k8s.io/nodepublishsecretnamespace 指定secret的命令空间 步骤 2 创建PVC。 kubectl create f pvcexample.yaml PVC创建后,就可以创建工作负载挂载PVC使用存储。 配置验证 根据上述步骤,使用IAM用户的密钥挂载对象存储卷。假设工作负载名称为obssecret,容器内挂载目录是/temp,IAM用户权限为CCE ReadOnlyAccess和Tenant Guest。 1. 查询工作负载实例名称。 kubectl get po grep obssecret 期望输出: obssecret5cd558f76fvxslv 1/1 Running 0 3m22s 2. 查询挂载目录下对象,查询正常。 kubectl exec obssecret5cd558f76fvxslv ls l /temp/ 3. 尝试在挂在目录内写入数据,写入失败。 kubectl exec obssecret5cd558f76fvxslv touch /temp/test 期望输出: touch: setting times of '/temp/test': No such file or directory command terminated with exit code 1 4. 在OBS控制台配置桶策略,给挂载桶的子用户设置读写权限。 5. 再次尝试在挂在目录内写入数据,写入成功。 kubectl exec obssecret5cd558f76fvxslv touch /temp/test 6. 查看容器内挂载目录,验证数据写入成功。 kubectl exec obssecret5cd558f76fvxslv ls l /temp/ 期望输出: rwxrwxrwx 1 root root 0 Jun 7 01:52 test
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        对象存储卷挂载设置自定义访问密钥(AK/SK)
      • 与开源服务的差异
        比较项 开源Redis DCS Redis 服务搭建 从自行准备服务器资源到Redis搭建,需要0.5~2天。 Redis3.0版本5~15分钟完成创建。 Redis4.0及以上版本,采用容器化部署,8秒完成创建。 版本 深度参与开源社区,及时支持最新Redis的版本。目前支持Redis 3.0、Redis 4.0、Redis 5.0、Redis 6.0版本。 安全 自行保证网络与服务器的安全。 使用云上虚拟私有云与安全组,确保网络安全。 主备与集群多副本、定时备份,确保数据高可靠。 性能 单节点达10万QPS(Query Per Second)。 监控 提供简单的信息统计。 提供30余项监控指标,并支持用户自定义监控阈值和告警策略。 指标类型丰富 常见的外部业务监控和统计:命令数、并发操作数、连接数、客户端数、拒绝连接数等。 常见的资源占用监控和统计:cpu占用率、物理内存占用、网络输入/输出流量等。 常见的关键内部监控和统计:键个数、键过期个数、容量占用量、pubsub通道个数、pubsub模式个数、keyspace命中、keyspace错过。 自定义监控阈值及告警提供基于各项监控制定阈值告警,支持客户自定义,便于及时发现业务异常。 备份恢复 支持。 提供定时与手动备份数据能力,支持备份文件下载到本地。 支持控制台一键恢复数据。 可视化维护缓存参数 不具备,需要自行开发。 web控制台可视化维护。 可在线修改配置参数。 支持在web控制台连接并操作数据。 可扩展性 需要中断服务。首先为服务器调整运行内存,然后调整Redis内存配置并重启操作系统与服务。 提供不中断服务的在线扩容或缩容能力。 规格可根据实际需要,在DCS支持的规格范围内进行扩容或者缩容。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品简介
        与开源服务的差异
      • 生成组件漏洞报表
        本节介绍如何导出组件漏洞报表。 操作步骤 1. 登录容器安全卫士控制台。 2. 在左侧导航栏选择“集群安全 > 组件漏洞”,进入组件漏洞页面。 3. 单击组件漏洞列表右上角的“导出”按钮,可生成当前集群组件漏洞报表。 4. 到“任务中心 > 下载任务管理”中查看任务状态,当任务状态为“生成完成”时,单击任务操作列的“下载”,可以下载已生成的报表至本地。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        集群安全
        组件漏洞
        生成组件漏洞报表
      • CREATE VIEW
        创建物化视图 sql CREATE MATERIALIZED VIEW [IFNOTEXISTS] [db.]tablename [ON CLUSTER] [TO [db.]name] [ENGINEengine] [POPULATE] AS SELECT ... 物化视图存储由相应的SELECT管理。 创建不带 TO [db].[table]的物化视图时,必须指定 ENGINE – 用于存储数据的表引擎。 使用 TO [db].[table] 创建物化视图时,不得使用 POPULATE。 一个物化视图的实现是这样的:当向SELECT中指定的表插入数据时,插入数据的一部分被这个SELECT查询转换,结果插入到视图中。 云数据库ClickHouse中的物化视图更像是插入触发器。 如果视图查询中有一些聚合,则它仅应用于一批新插入的数据。 对源表现有数据的任何更改(如更新、删除、删除分区等)都不会更改物化视图。 如果指定 POPULATE,则在创建视图时将现有表数据插入到视图中,就像创建一个 CREATE TABLE ... AS SELECT ...一样。 否则,查询仅包含创建视图后插入表中的数据。 我们不建议使用POPULATE,因为在创建视图期间插入表中的数据不会插入其中。 SELECT 查询可以包含 DISTINCT、GROUP BY、ORDER BY、LIMIT……,相应的转换是在每个插入数据块上独立执行的。 例如,如果设置了 GROUP BY,则在插入期间聚合数据,但仅在插入数据的单个数据包内。 数据不会被进一步聚合。 例外情况是使用独立执行数据聚合的 ENGINE,例如 SummingMergeTree。 在物化视图上执行ALTER查询有局限性,因此可能不方便。 如果物化视图使用构造 TO [db.]name,你可以 DETACH视图,为目标表运行 ALTER,然后 ATTACH先前分离的(DETACH)视图。 物化视图受optimizeoninsert设置的影响, 在插入视图之前合并数据。 视图看起来与普通表相同。 例如,它们列在 SHOW TABLES查询的结果中。 删除视图,使用DROP VIEW. DROP TABLE也适用于视图。
        来自:
        帮助文档
        云数据库ClickHouse
        开发指南
        基本SQL语法
        CREATE VIEW
      • 应用场景
        优势 多源数据分析免搬迁:关系型数据库RDS中存放车辆和车主基本信息,表格存储中存放实时的车辆位置和健康状态信息,数据仓库DWS中存放周期性统计的指标。通过DLI无需数据搬迁,对多数据源进行联邦分析。 数据分级存储:车企需要保留全量历史数据支撑审计类等业务,低频进行访问。温冷数据存放在低成本的对象存储服务OBS上,高频访问的热数据存放在数据引擎(DWS)中,降低整体存储成本。 告警快速敏捷触发服务器弹性伸缩:对CPU、内存、硬盘空间和带宽无特殊要求。 建议搭配以下服务使用: CDM、OBS、DWS。 大数据ETL处理 运营商大数据分析 运营商数据体量在PB~EB级,其数据种类多,有结构化的基站信息数据,非结构化的消息通信数据,同时对数据的时效性有很高的要求,DLI服务提供批处理、流处理等多模引擎,打破数据孤岛进行统一的数据分析。 优势 大数据ETL:具备TB~EB级运营商数据治理能力,能快速将海量运营商数据做ETL处理,为分布式批处理计算提供分布式数据集。 高吞吐低时延:采用Apache Flink的Dataflow模型,高性能计算资源,从用户自建的Kafka、MRSKafka、DMSKafka消费数据,单CU每秒吞吐1千~2万条消息。 建议搭配以下服务使用: OBS、DataArts Studio。
        来自:
        帮助文档
        数据湖探索
        产品简介
        应用场景
      • Claude Code
        本文为您介绍编码套餐接入Claude Code的详细步骤。 全局配置文件修改 macOS 全局: plaintext ~/.claude/settings.json Windows 全局: plaintext %USERPROFILE%.claudesettings.json 项目根目录: plaintext .claude/settings.json(优先级 > 全局) 安装 Claude Code后,通过手动配置的方式修改相应JSON文件,在 Claude Code 中接入编码套餐,需要配置以下信息: ANTHROPICBASEURL:设置为 ANTHROPICAUTHTOKEN:设置为你购买的编程套餐专属的API Key model:设置为你购买的编程套餐所支持的模型 plaintext 编辑或新增 settings.json 文件 MacOS & Linux 为 ~/.claude/settings.json Windows 为用户目录/.claude/settings.json 新增或修改里面的 env 字段 注意替换里面的 YOURAPIKEY 为您上一步获取到的 API Key { "$schema": " "env": { "ANTHROPICAUTHTOKEN": "YOURAPIKEY", "ANTHROPICBASEURL":" "NODETLSREJECTUNAUTHORIZED":0 }, "model": "GLM5" } 再编辑或新增 .claude.json 文件 MacOS & Linux 为 ~/.claude.json Windows 为用户目录/.claude.json 新增 hasCompletedOnboarding 参数 { "hasCompletedOnboarding": true } 使用Claude Code 配置完成后,进入一个您的代码工作目录,在终端中执行 claude 命令即可开始使用 Claude Code。 若遇到「Do you want to use this API key」选择 Yes 即可。 启动后选择信任 Claude Code 访问文件夹里的文件。
        来自:
        帮助文档
        模型推理服务
        用户指南
        编码套餐
        接入AI工具
        Claude Code
      • 运维指导
        访问FlinkUI/SparkUI页面无法正常显示怎么办? 问题现象 访问FlinkUI/SparkUI页面无法正常显示,打开页面返回信息不全。 根因分析 根据分析发现队列为按需队列,运行作业的时候会重新创建集群,大概需要10分钟左右才能完成集群创建。在集群创建完成之前,访问FlinkUI会导致缓存空的projectID,从而导致无法访问。出现该问题可能原因是由于集群未创建。 解决方案 建议将队列更换为专属队列,空闲状态下集群不会被释放。或者提交作业等一段时间之后在查看FlinkUI。 Jobmanager与Taskmanager心跳超时,导致Flink作业异常怎么办? 问题现象 Jobmanager与Taskmanager心跳超时,导致Flink作业异常。 异常信息 根因分析 1.检查网络是否发生闪断,分析集群负载是否很高。 2.如果频繁出现Full GC, 建议排查代码,确认是否有内存泄漏。 Full GC 处理步骤 如果频繁Full GC, 建议排查代码,是否有内存泄漏。 增加单TM所占的资源。 联系技术支持,修改集群心跳配置参数。 Flink jobmanager日志一直报Timeout expired while fetching topic metadata怎么办? 1.首先测试地址连通性。 2.若果网络不可达,需要先配置网络连通。确保DLI 队列与外部数据源的网络连接性正常。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        运维指导
      • 弹性资源池关联队列
        本章节主要介绍如何操作弹性资源池关联队列。 操作场景 参考创建弹性资源池创建完弹性资源池后,您可以将已有的队列关联至弹性资源池,即可将弹性资源池的资源用于后续作业的运行 您可以在弹性资源池页面通过“关联队列”将队列添加到弹性资源池。还可以在队列管理页面分配队列至弹性资源池。 说明 弹性资源池Flink版本只支持1.10及其以上版本,如果准备分配到弹性资源池的作业使用Flink1.7版本可能会出现兼容性问题,需要提前做好Flink版本适配。 约束与限制 弹性资源池和队列均是可用状态。 队列是按需专属队列。 队列和弹性资源池状态正常,资源未被冻结。 弹性资源池仅支持关联同一企业项目的队列资源。 在弹性资源池页面关联队列 1.在左侧导航栏单击“资源管理 > 弹性资源池”,可进入弹性资源池管理页面。 2.选择要操作的弹性资源池,在“操作”列,单击“更多 > 关联队列”。 3.在“关联队列”界面,选择待添加的队列,单击“确定”完成操作。 在队列管理页面分配队列至弹性资源池 1.在左侧导航栏单击“资源管理 > 队列管理”,可进入队列管理页面。 2.选择要操作的队列,在“操作”列,单击“更多 > 分配至弹性资源池”。 3.选择资源池,单击“确定”完成操作。
        来自:
        帮助文档
        数据湖探索
        用户指南
        弹性资源池
        弹性资源池基本操作
        弹性资源池关联队列
      • 全站加速在传媒行业的最佳实践
        网站及应用加速 业务挑战:门户资讯、在线社区、社交论坛等新媒体场景下,注册、登录、聊天、搜索、发帖等信息交互对实时性提出更高的要求,这些动态类请求都需要实时回源。 方案优势:天翼云全站加速凭借全球2300+三网节点覆盖,通过智能调度,传输优化等自研技术,可实时计算优质回源路径,时刻保障访问体验。 热点新闻 业务挑战:媒体网站不定期会出现热点新闻,尤其是特殊会议期间易产生高并发,而源站承压及扩容能力不足,需要保障媒体源站的实时弹性扩容及持续高可用性。 方案优势:天翼云全站加速提供有序回源、连接复用、多源负载均衡、实时弹性扩容等能力,高并发场景下仍能保障业务连续性和高可用性。 方案价值 便捷的接入方式 客户只需要修改DNS记录,即可一键CNAME接入CDN, 源站无需做任何改动。 优质的节点及线路 全国拥有1800+个节点,海外500+节点,覆盖各大洲,各大省市、运营商,具备精品CN2和163网络线路。 高效的加速效果 自研的缓存技术、负载均衡技术、传输优化、选路技术、内核优化技术等,保障极致、高效的CDN加速体验。 灵活的售卖机制 可根据需要选择流量包或按量计费方式,可按日、按月、按年计费,灵活售卖。 专业的售后保障 31省本地化的销售网络体系,724小时技术支持,VIP客户一对一专属项目经理。
        来自:
        帮助文档
        全站加速
        最佳实践
        全站加速在传媒行业的最佳实践
      • 查看静态网站托管规则
        参数 是否必填 参数类型 说明 示例 下级对象 Condition 否 Array of Objects 用于描述应用指定重定向必须满足的条件 Condition Redirect 否 Array of Objects 容器用于重定向信息,可以将请求重定向到另一个主机、另一个页面或使用另一种协议,在发生错误时,可以指定要返回的不同错误代码 Redirect
        来自:
        帮助文档
        媒体存储
        API参考
        API(OpenAPI)
        关于桶的操作
        静态网站
        查看静态网站托管规则
      • 告警规则
        本章节主要介绍数据仓库服务的告警规则。 概述 阈值告警相关概念: 告警规则:告警规则由告警规则名称,告警规则描述,规则绑定集群列表,告警策略触发关系,告警策略项构成。一条告警规则可绑定某个指定集群或所有集群,拥有一个或多个告警策略。其中,告警策略之间组合关系由“策略触发关系”选项描述。告警规则的阈值触发和抑制条件由每条告警策略描述。 告警策略:为某个告警指标指定的触发条件,抑制条件,告警级别的组合称为告警策略。 告警指标:数据库集群的某个指标项,一般是一个时间序列数据,例如:节点CPU使用率,查询触发下盘量等。 告警规则分类: 默认规则:DWS阈值告警模块的最佳实践。 自定义规则:用户可自由选择或组合监控指标形成个性化的告警规则。目前版本仅支持用户自定义schema使用率告警规则。 告警规则操作: 修改:修改告警规则的选项。所有告警规则都可以修改编辑,但默认告警规则只能修改部分选项,而自定义告警规则可以修改全部选项。 启用/停用:启用或停用告警规则。所有的告警规则都可以启用/停用,启用后告警规则会被告警引擎纳入检查列表,可以正常触发。停用后的告警规则将被告警引擎移出检查列表,不会触发该规则检查。 删除:删除告警规则。只有自定义告警规则可以被删除,用户无法删除默认告警规则。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        监控与告警
        告警管理
        告警规则
      • 将MySQL同步到MySQL
        操作须知 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间;请设置serverid值>1。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 在结构同步时,DTS会将视图、存储过程和函数中的DEFINER转换为INVOKER。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 增量同步场景下,支持无主键表的数据同步。 当将MySQL5.x同步到MySQL5.7,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 当将MySQL5.x同步到MySQL8.x,如源端数据库的引擎类型为MyISAM时,DTS自动将目标库的引擎类型转换为innoDB。 当您在同步数据时包含了触发器(TRIGGER),可能会因为DTS写入目标端的增量数据触发TRIGGER导致源库和目标库数据不一致。为避免数据不一致的问题,DTS会在同步时在触发器对象头部加入触发控制语句,示例代码如下所示: 源库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN UPDATE test SET num num 1 WHERE id 1; END; 目标库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN IF (SELECT @
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到MySQL
      • 如何解决网站扫描失败,报连接超时的问题?
        本节介绍 如何解决网站扫描失败,报连接超时的问题。 网站扫描任务失败,报错为连接超时,可能原因与解决办法如下。 1. 您的被测网站不稳定或无法通过互联网访问,请使用Chrome等浏览器访问网站,确认是否正常访问。 2. 您的网站设置了防火墙或其他安全策略,导致漏洞扫描的引擎IP被当成恶意攻击而拦截。
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        网站扫描类
        如何解决网站扫描失败,报连接超时的问题?
      • TaurusDB数据库实例支持的最大数据连接数是多少
        本节主要介绍TaurusDB数据库实例支持的最大数据连接数是多少 TaurusDB服务对此未做限制,取决于数据库引擎参数的默认值和取值范围,例如TaurusDB引擎的maxconnections和maxuserconnections参数,用户可在参数模板自定义。 修改最大连接数 连接数支持在线修改,具体方法请参见编辑参数模板。 支持命令方式修改最大连接数。 1. 执行以下命令,查看最大连接数。 show global variables like 'maxconnections'; 2. 在my.cnf文件中修改mysqld下参数maxconnections的值。 [mysqld] maxconnections 1000 关于maxconnections maxconnections:允许同时连接的客户端总数。如果设定值为default,表示该参数和数据库实例的内存(单位:GB)相关,计算公式如下: maxconnections上限估计数值 节点可用内存 / 单个连接预估占用内存。 节点可用内存总内存 Buffer Pool占用内存 1GB(mysqld进程/操作系统/监控程序等)。 单个连接预估占用内存(singlethreadmemory) threadstack(256KB) + binlogcachesize(32KB) + joinbuffersize(256KB) + sortbuffersize(256KB) + readbuffersize(128KB) + readrndbuffersize(256KB) 大约1MB。 不同内存规格配置的默认maxconnections值如下表所示。 表不同内存规格配置的默认maxconnections值 内存(GB) 连接数 512 100000 384 80000 256 60000 128 30000 64 18000 32 10000 16 5000 8 2500 4 1500 2 800
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        复杂操作类
        TaurusDB数据库实例支持的最大数据连接数是多少
      • 产品功能
        本节介绍智算容器产品功能。 核心功能 功能模块 功能项 功能点 智算版 异构资源管理 异构资源 GPU 支持 异构资源管理 异构资源 NPU 支持 异构资源管理 异构资源 RDMA 支持 异构资源管理 监控 GPU 利用率 支持 异构资源管理 监控 Job 监控 支持 异构资源管理 共享GPU eGPU 支持 AI 任务调度 调度策略 GANG 支持 AI 任务调度 调度策略 FIFO 支持 AI 任务调度 调度策略 Capacity 支持 AI 任务调度 调度策略 Binpack 支持 AI 任务调度 调度策略 Spread 支持 AI 框架 模型训练 PyTorch 支持 AI 框架 模型训练 TensorFlow 支持 AI 框架 模型训练 DeepSpeed 支持
        来自:
        帮助文档
        云容器引擎 智算版
        产品介绍
        产品功能
      • 退订企业版实例(1)
        本节介绍了退订企业版实例的用户指南。 容器镜像服务支持从订单管理中心发起实例退订,不支持从控制台发起退订。 退订步骤 1. 进入天翼云控制中心 2. 导航至 "订单管理" "退订管理"。 3. 选择CRS实例,点击退订,跳转退订申请界面。 4. 选择可以关联删除的VPC终端节点,核对配置和退款金额是否正确。 5. 点击退订后,控制台实例状态为已停用。
        来自:
      • 退订企业版实例
        本节介绍了退订企业版实例的用户指南。 容器镜像服务支持从订单管理中心发起实例退订,不支持从控制台发起退订。 退订步骤 1. 进入天翼云控制中心 2. 导航至 "订单管理" "退订管理"。 3. 选择CRS实例,点击退订,跳转退订申请界面。 4. 选择可以关联删除的VPC终端节点,核对配置和退款金额是否正确。 5. 点击退订后,控制台实例状态为已停用。
        来自:
        帮助文档
        容器镜像服务
        用户指南
        实例管理
        退订企业版实例
      • CTCCL-Slowdetect简介
        CTCCLSlowdetect是天翼云自研的用于大模型训练中慢节点检测的工具套件,需配合CTCCL0.4.0及以上使用。 功能介绍 CTCCLSlowdetect1.0.0工具套件架构如图所示,包括三个模块。 · ctccm:跨节点的集中式慢节点诊断工具。部署在和所有训练任务节点网络互通的节点上,每个大模型训练任务只需部署一个ctccm服务。负责收集汇总和集中发现与定位慢节点问题。 · ctcclprofilercomm:通信域级别集合通信信息统计工具。在每个训练任务所在的节点/容器内安装ctcclprofilercomm插件,在训练任务的脚本中import相关库并调用API接口使用,负责获得训练任务的通信域任务拓扑,以及收集通信域级别的超时集合通信操作事件,提供给ctccm进行慢节点分析诊断。 · ctcclprofilernet:机间通信边缘诊断工具。在每个训练任务所在的节点/容器内部署ctcclprofilernet服务,每个训练任务节点都需要部署1个独享的ctcclprofilernet服务。负责在边缘处理与初步诊断机间通信数据。 在大模型训练任务中使用CTCCLSlowdetect1.0.0工具套件,能够实现大模型训练过程中通信原因与非通信原因的慢节点检测。在发现集群中慢节点存在时,自动化开启全量集合通信操作事件监控,进一步分析定位慢节点。
        来自:
        帮助文档
        训推服务
        用户指南
        训推加速
        慢节点检测工具套件 CTCCL-Slowdetect
        CTCCL-Slowdetect简介
      • 1
      • ...
      • 79
      • 80
      • 81
      • 82
      • 83
      • ...
      • 446
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      镜像服务 IMS

      轻量型云主机

      训推服务

      公共算力服务

      应用托管

      科研助手

      一站式智算服务平台

      人脸检测

      人脸实名认证

      推荐文档

      产品价格

      配置日志存储时长

      共享协作

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号