云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云空间_相关内容
      • 新建Pod检查
        本文主要介绍 新建Pod检查。 检查内容 检查集群升级后,存量节点是否能新建Pod。 检查集群升级后,新建节点是否能新建Pod。 检查步骤 基于新建节点检查创建了新节点后,通过创建daemonset类型工作负载,在每个节点上创建Pod。 请登录CCE控制台,前往“资源>工作负载>守护进程集”,单击右上角“创建负载”或“YAML创建”。 建议您使用日常测试的镜像作为基础镜像。您可参照如下yaml部署最小应用Pod。 说明 该测试YAML将DaemonSet部署在default命名空间下,使用ngxin:perl为基础镜像,申请10m CPU,10Mi内存,限制100m CPU 50Mi内存。 apiVersion: apps/v1 kind: DaemonSet metadata: name: postupgradecheck namespace: default spec: selector: matchLabels: app: postupgradecheck version: v1 template: metadata: labels: app: postupgradecheck version: v1 spec: containers: name: container1 image: nginx:perl imagePullPolicy: IfNotPresent resources: requests: cpu: 10m memory: 10Mi limits: cpu: 100m memory: 50Mi 负载创建完毕后请检查该工作负载的Pod状态是否正常。 检查完毕后请登录CCE控制台,前往“资源>工作负载>守护进程集”,选择“postupgradecheck”工作负载并单击“更多>删除”删除该测试用工作负载。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        升级后验证
        新建Pod检查
      • 实例回收站
        本节主要介绍实例回收站。 GeminiDB Influx支持将退订后的包年包月实例和删除的按需实例,加入回收站管理。您可以在回收站中重建实例恢复数据。 使用须知 回收站策略机制默认开启,且不可关闭,默认保留天数为7天,该功能免费。 目前回收站允许加入100个实例,超过该配额的实例将无法添加至回收站中。 当实例存储空间满时,删除之后的实例不会放入回收站。 目前仅集群版本支持重建实例恢复数据功能,单节点暂不支持。 设置回收站策略 注意 修改回收站保留天数,仅对修改后新进入回收站的实例生效,对于修改前已经存在的实例,仍保持原来的回收策略,请您谨慎操作。 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“回收站”页面,单击“回收站策略”,设置已删除实例保留天数,可设置范围为1~7天。单击“确定”,完成设置。 图1 设置回收站策略 重建实例 在回收站保留期限内的实例可以通过重建实例恢复数据(目前仅集群版本支持此功能,单节点暂不支持)。 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在“回收站”页面,在实例列表中找到需要恢复的目标实例,单击操作列的“重建”。 图2 重建实例 4. 在“重建新实例”页面,选填配置后,提交重建任务。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        实例生命周期
        实例回收站
      • 将MySQL迁移到PostgreSQL
        操作需知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 当将MySQL5.x迁移到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到MySQL
        操作须知 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 在结构同步时,DTS会将视图、存储过程和函数中的DEFINER转换为INVOKER。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 增量同步场景下,支持无主键表的数据同步。 当将MySQL5.x同步到MySQL5.7,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 当将MySQL5.x同步到MySQL8.x,如源端数据库的引擎类型为MyISAM时,DTS自动将目标库的引擎类型转换为innoDB。 当您在同步数据时包含了触发器(TRIGGER),可能会因为DTS写入目标端的增量数据触发TRIGGER导致源库和目标库数据不一致。为避免数据不一致的问题,DTS会在同步时在触发器对象头部加入触发控制语句,示例代码如下所示: 源库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN UPDATE test SET num num 1 WHERE id 1; END; 目标库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN IF (SELECT @
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到MySQL
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 使用限制
        介绍分布式消息服务RabbitMQ的功能使用限制。 限制项 约束和限制 描述 版本 当前服务端版本有3.8.9和3.8.35 兼容AMQP 091协议的客户端版本。 连接数 RabbitMQ单机和集群实例,不同实例规格的连接数上限不一致,具体限制,请参考产品规格。 通道数 2GB 磁盘剩余空间低于2GB会触发磁盘高水位,生产者流程被阻塞 clusterpartitionhandling pauseminority 当集群发生网络分区时,代理会检查自己是否处于“少数派”(存储分区的代理数小于等于总代理数的一半称为少数派)。少数派中的代理将会自动关闭服务并定期检测网络状态,待分区恢复之后重新启动服务。如果未开启镜像队列,发生分区时少数派上的队列将无法生产消费。此策略相当于放弃了可用性而选择了数据一致性。 rabbitmqdelayedmessageexchange 插件延迟时间存在1%左右的误差,可能提前或者推迟发送消息给消费者。 实例是否开启消息延迟功能。 延时消息最大延时时间 7天 延时消息的最大延时时间
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        使用限制
      • 操作类
        问题目录 文件系统的删除/退订按钮为什么无法点击? 如何申请增加容量配额? 如何访问文件系统? 为何无法使用showmount e ip 查看共享文件目录? 如何避免NFS 4.0监听端口被误认为木马? 为什么写入文件系统的中文字符在客户端显示为乱码? 当弹性文件系统无法结束进程时,如何清理客户端泄露的句柄? 文件系统的删除/退订按钮为什么无法点击? 请确认该文件系统的VPC列表下是否存在VPC,如果存在请尝试先解绑该文件系统的所有VPC,待页面刷新后,再尝试进行删除/退订操作。如果不存在VPC且仍无法点击删除/退订按钮,请在“我的>工单管理>新建工单”提工单由技术人员进行支撑。 如何申请增加容量配额? 弹性文件服务单用户单地域默认配置50TB的容量空间用于创建文件系统,若该容量无法满足您的容量需求,可以提工单进行容量申请,操作步骤如下: 1. 登录天翼云官网,点击右上角“我的>工单管理>新建工单”。 2. 在“配额类”点击“提问”,进入配额相关页面,点击“配额申请”,按页面要求填写工单信息即可。 提工单后请留意工单进度和短信通知,工作人员可能会与您电话沟通,请保持通讯畅通。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        操作类
      • 实例使用规范
        本章节主要介绍RDSPostgreSQL实例使用规范。 实例可用性 建议开通产品实例时,充分考虑业务使用应用场景,保持实例服务器有一定的资源冗余,如磁盘、CPU、内存等,保证正常使用率不超过70%,防止因资源问题导致Out Of Memory、磁盘耗尽、CPU飙高等异常问题。 建议生产系统使用的数据库选用主备类型,保证高可用。 建议开启周期性全量+增量备份,保证备份机空间足够且不小于实例磁盘。 建议根据需要修改主备实例的数据同步模式,如要保证数据不丢失,可设置为同步模式;如要保证业务响应速度快,可以设置为异步模式。 建议根据资源使用情况,及时升级实例配置,如磁盘扩容、系列升配和CPU/内存升配,保证实例可用性。 实例运维 及时清理无用复制槽,防止复制槽阻塞影响日志回收。 及时VACUUM,尤其是在大批量数据操作场景下。 删除和修改记录时,需要先执行SELECT,确认无误才能提交执行。 及时清理无用的空闲连接,同时业务侧应该避免连接长时间不释放。 建议定期监控数据库事务ID的大小,以免数据库已使用的事务ID大小超过20亿,导致数据库强制关闭。 安全访问 尽量避免通过公网访问数据库,如需公网连接必须要先绑定公网EIP,并严格管理白名单。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        使用规范概览
        实例使用规范
      • 数据开发概述
        数据开发中的对象 数据连接:定义访问数据实体存储(计算)空间所需信息的集合,包括连接类型、名称和登录信息等。 解决方案:解决方案为用户提供便捷的、系统的方式管理作业,更好地实现业务需求和目标。每个解决方案可以包含一个或多个业务相关的作业,一个作业可以被多个解决方案复用。 作业:作业由一个或多个节点组成,共同执行以完成对数据的一系列操作。 脚本:脚本(Script)是一种批处理文件的延伸,是一种纯文本保存的程序,一般来说的计算机脚本程序是确定的一系列控制计算机进行运算操作动作的组合,在其中可以实现一定的逻辑分支等。 节点:定义对数据执行的操作。 资源:用户可以上传自定义的代码或文本文件作为资源,以便在节点运行时调用。 表达式:数据开发作业中的节点参数可以使用表达式语言(Expression Language,简称EL),根据运行环境动态生成参数值。数据开发EL表达式包含简单的算术和逻辑计算,引用内嵌对象,包括作业对象和一些工具类对象。 环境变量:环境变量是在操作系统中一个具有特定名字的对象,它包含了一个或者多个应用程序所将使用到的信息。 补数据:手工触发周期方式调度的作业任务,生成某时间段内的实例。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        数据开发概述
      • MySQL数据迁移到OBS
        创建OBS连接 1.单击CDM集群后的“作业管理”,进入作业管理界面,再选择“连接管理 > 新建连接”,进入选择连接器类型的界面。 详见下图:选择连接器类型 2.连接器类型选择“对象存储服务(OBS)”后,单击“下一步”配置OBS连接参数。 名称:用户自定义连接名称,例如“obslink”。 OBS服务器、端口:配置为OBS实际的地址信息。 访问标识(AK)、密钥(SK):登录OBS的AK、SK。 3.单击“保存”回到连接管理界面。 创建迁移作业 1.选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到OBS的任务。 详见下图: 创建MySQL到OBS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 −源连接名称:选择创建MySQL连接中的“mysqllink”。 −使用SQL语句:否。 −模式或表空间:待抽取数据的模式或表空间名称。 −表名:要抽取的表名。 −其他可选参数一般情况下保持默认即可,详细说明请参见配置常见关系数据库源端参数。 目的端作业配置 −目的连接名称:选择创建OBS连接中的“obslink”。 −桶名:待迁移数据的桶。 −写入目录:写入数据到OBS服务器的目录。 −文件格式:迁移数据表到文件时,文件格式选择“CSV格式”。 −高级属性里的可选参数一般情况下保持默认既可,详细说明请参见 配置OBS目的端参数。 2.单击“下一步”进入字段映射界面,CDM会自动匹配源和目的字段,如下图“表到文件的字段映射”所示。 如果字段映射顺序不匹配,可通过拖拽字段调整。 CDM的表达式已经预置常用字符串、日期、数值等类型的字段内容转换。 3.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见 配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。CDM支持并发抽取MySQL数据,如果源表配置了索引,可调大抽取并发数提升迁移速率。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入脏数据前需要先配置好OBS连接。针对文件到表类迁移的数据,建议配置写入脏数据。 作业运行完是否删除:这里保持默认值“不删除”。根据使用场景,也可配置为“删除”,防止迁移作业堆积。 4.单击“保存并运行”,回到作业管理界面,在作业管理界面可查看作业执行进度和结果。 5.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MySQL数据迁移到OBS
      • 功能特性
        本章介绍天翼云关系型数据库各项功能介绍 天翼云关系型数据库RDS for PostgreSQL是托管型数据库,为用户提供的主要功能包括: 支持PostgreSQL(9.5、9.6、10、11、12、13、14) 支持通过内网IP地址及端口访问数据库实例,处在同一VPC内的云主机和数据库实例可相互访问 支持为RDS绑定公网IP,通过公网IP访问数据库实例 支持单机实例、一主一备实例和只读实例(最多5个只读实例) 支持对RDS实例进行CPU/内存、存储空间的扩容 支持根据业务需求指定数据自动备份策略(最多保留7个自动备份),也可进行手动备份及备份恢复 支持对数据库参数的调整 支持查看实例运行的系统资源监控指标,如CPU、内存使用率等,还可查看MySQL数据库指标,如QPS/TPS 支持数据库错误日志及SQL慢日志查询
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        功能特性
      • 新建数据表
        本章节主要介绍数据管理的新建数据表功能。 您可以通过可视化模式、DDL模式或SQL脚本方式新建数据表。 (推荐)可视化模式:您可以直接在DataArts Studio数据开发模块通过No Code方式,新建数据表。 (推荐)DDL模式:您可以在DataArts Studio数据开发模块,通过选择DDL方式,通过SQL语句新建数据表。 SQL脚本方式:您也可以在DataArts Studio数据开发模块或对应数据湖产品的SQL编辑器上,开发并执行用于创建数据表的SQL脚本,从而创建数据表。 本章节以可视化模式和DDL模式为例,介绍如何在数据开发模块新建数据表。 前提条件 已在云服务中创建数据库。 已在数据开发模块中创建与数据表类型匹配的数据连接,请参见新建数据连接。 新建数据表(可视化模式) 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”或“数据开发 > 作业开发”,进入“右侧区域”页面。 3. 在左侧菜单选择,单击“数据连接”,目录层级展开至“tables”,右键单击“新建数据表”。 4. 在弹出的对话框中,显示“配置基本属性”页面,选择“数据表连接类型”,并参见下表配置相关参数。 基本属性 数据连接类型 参数说明 DLI 请见下方DLI数据表中的“基本属性”部分 DWS 请见下方DWS数据表中的“基本属性”部分 MRS Hive 请见下方MRS Hive数据表中的“基本属性”部分 5. 单击“下一步”,在“配置表结构”页面配置下表所示的参数。 表结构 数据连接类型 参数说明 DLI 请见下方DLI数据表中的“表结构”部分 DWS 请见下方DWS数据表中的“表结构”部分 MRS Hive 请见下方MRS Hive数据表中的“表结构”部分 6. 单击“保存”,新建数据表。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        数据管理
        新建数据表
      • 新建数据库
        本章节主要介绍数据管理的新建数据库操作。 数据连接创建完成后,您可以基于数据连接,通过可视化模式或SQL脚本方式新建数据库。 (推荐)可视化模式:您可以直接在DataArts Studio数据开发模块通过No Code方式,新建数据库。 SQL脚本方式:您也可以在DataArts Studio数据开发模块或对应数据湖产品的SQL编辑器上,开发并执行用于创建数据库的SQL脚本,从而创建数据库。 本章节以可视化模式为例,介绍如何在数据开发模块新建数据库。 前提条件 已开通相应的云服务。 已新建数据连接,请参见新建数据连接。 MRS API方式连接不支持通过可视化模式管理数据库,建议通过SQL脚本方式进行创建。 删除数据库时,请确保该数据库未被使用,且没有关联数据表。 新建数据库(可视化模式) 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”或“数据开发 > 作业开发”。 3. 在左侧菜单选择,右键单击数据连接名称,选择“新建数据库”,配置如下表所示的参数。 下表:新建数据库 参数 是否必选 说明 数据库名称 是 数据库的名称,命名要求如下: DLI:数据库名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 DWS:数据库名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 MRS Hive:只能包含英文字母、数字、“”,只能以数字和字母开头,不能全部为数字,且长度为1~128个字符。 描述 否 数据库的描述信息,填写要求如下: DLI:最大长度为256个字符。 DWS:最大长度为1024个字符。 MRS Hive:最大长度为1024个字符。 4. 单击“确定”,新建数据库。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        数据管理
        新建数据库
      • 产品咨询类
        本节介绍了云数据库TaurusDB产品咨询相关问题。 使用TaurusDB要注意些什么 1. 实例的操作系统,对用户都不可见,这意味着,只允许用户使用应用程序访问数据库对应的IP地址和端口。 2. 对象存储服务(Object Storage Service,简称OBS)上的备份文件以及TaurusDB服务使用的弹性云主机(Elastic Cloud Server,简称ECS),都对用户不可见,它们只对TaurusDB服务的后台管理系统可见。 3. 查看实例列表时请确保与实例选择的区域一致。 4. 申请TaurusDB后,您还需要做什么。 申请TaurusDB实例后,您不需要进行数据库的基础运维(比如高可用、安全补丁等),但是您还需要重点关注以下事情: a. TaurusDB实例的CPU、内存等资源是否足够,如果资源不足需及时变更规格。 b. TaurusDB实例的数据存储空间是否足够,如资源不足需及时扩容。(超出时会自动扩容,但超出部分是按需收费,价格比自行扩容贵)。 c. TaurusDB实例是否存在性能问题,是否有大量的慢SQL,SQL语句是否需要优化,是否有多余的索引或者缺失的索引等。 为何使用了TaurusDB后网站登录较慢 推荐您做如下两个处理: 通过TaurusDB服务的管理控制台查看TaurusDB实例的性能情况。 与应用程序有很大关系,使用命令查看当前数据库连接状态,比较本地数据库和TaurusDB的差异。 TaurusDB如何自动进行故障切换 创建TaurusDB实例时,除主节点外,默认创建了一个只读节点。当主节点故障时,系统会自动切换到只读节点,只读节点提升为主节点,原来故障的主节点也会自动恢复为只读节点。
        来自:
        帮助文档
        云数据库TaurusDB
        常见问题
        产品咨询类
      • 产品定义
        对比项 开源自建 分布式消息服务RabbitMQ版 低成本运维 需要专业人员资源规划、部署、运维 一键开通,全托管。提供多种规格,按需使用,支持一键式节点数、磁盘存储空间和节点规格扩容。 堆积性 抗堆积性差,容易引发内存问题导致宕机 提供云原生引擎类型,支持海量消息堆积不受影响 可观测性 通过Management UI能够获取丰富的指标,但需要自建指标存储及展示的系统 提供监控告警能力,指标丰富,维度可精确到Vhost、Exchange和Queue,便于您快速发现和定位问题 集群可用性 需配套解决集群多节点负载均衡设置 集群内置负载均衡,支持跨AZ部署 安全保证 需要自行进行安全加固 VPC隔离,支持SSL通道加密 操作日志 无,需要自己开发 可追溯租户管理操作的记录 OpenApi访问 无,需要自己开发 提供简单的实例管理RESTFul API,使用门槛低
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        产品定义
      • 应用场景
        媒体存储满足海量视频、图片及其它非结构化数据存取、处理及弹性扩展要求等场景。 应用场景 场景优势 场景示例 搭配产品/功能指引 视频监控存储 不限制存储空间大小,可根据所需存储量弹性扩展存储空间。 属地化建设与服务,支持专网接入,保障客户数据安全。 提供标准化存储协议,应用无缝接入。 智能视图服务 线上教育培训 支持防盗链,黑白名单等多重安全保护措施。 推荐搭配云点播服务,提供媒资管理一站式服务,支持海量媒资记录检索。 转码等媒体处理能力与存储服务共址建设。 推荐搭配CDN加速服务,快速对接加速分发,保证热点内容观看体验。 云点播 CDN加速 企业视图存储应用 支持海量数据存储,能够处理高并发的数据读写操作。 支持弹性扩展,根据容量和性能付费,无需预先投入大量硬件资源。 自动化的数据生命周期管理实现冷热数据分离,节省成本。 高可用性和异地容灾备份,满足业务连续性的要求。 提供多重安全措施和数据冗余措施,包括加密传输、权限控制和数据跨区备份等。 提供多种存储接入协议,兼容多类上层应用的接入和使用需求。 数据迁移 支持主流厂商的数据迁移。 可灵活配置迁移规则,支持多种迁移策略以及数据覆盖规则。 采用HTTPS数据加密通道,保证迁移传输安全。 数据迁移 数据云上备份 因业务运行需要,希望所有写入媒体存储的数据能够在另一存储区域进行备份,以防止在数据发生不可逆损毁时,有安全、可用的备份数据,可实时切换业务访问路径,保证业务不中断。 存储桶复制 图片文件处理 媒体存储提供一体化图片处理能力以及视频截帧能力,用户上传文件后,可对图片或视频文件进行数据处理,如:图片裁剪、图片缩放、水印、视频截帧等。 数据处理
        来自:
        帮助文档
        媒体存储
        产品介绍
        应用场景
      • 步骤二:创建RabbitMQ实例
        本章节主要介绍如何创建分布式消息服务RabbitMQ实例。 RabbitMQ是一款基于AMQP协议的开源服务,用于在分布式系统中存储转发消息,服务器端用Erlang语言(支持高并发、分布式以及健壮的容错能力等特点)编写,支持多种语言的客户端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP、AJAX等。 AMQP,即Advanced Message Queuing Protocol,高级消息队列协议,是应用层的一个开放标准协议。 前提条件 在创建RabbitMQ专享版实例前,需要保证存在可使用的虚拟私有云。创建虚拟私有云的方法,请参考《虚拟私有云用户指南》。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 为RabbitMQ授权 如果RabbitMQ实例需要开启IPv6功能,在创建实例前,需要授予RabbitMQ操作VPC终端节点的权限,否则会导致创建失败。 在IAM控制台创建委托,委托参数如下,其他参数保持默认,创建委托的具体步骤请参见《统一身份认证服务 用户指南》的“委托 > 委托其他云服务管理资源”章节。 委托名称:dmsadmintrust 委托类型:云服务 云服务:分布式消息服务 持续时间:永久 委托将拥有所选策略:DMS VPCEndpointAccess 操作步骤 步骤1 登录管理控制台。 步骤2 在管理控制台右上角单击,选择区域资源池。 说明 此处请选择与您的应用服务相同的区域。 步骤3 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务>RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤4 单击页面右上方的“购买RabbitMQ实例”。 每个项目默认最多可以创建100个RabbitMQ专享版实例,如果您想创建更多实例,请联系客服申请增加配额。 步骤5 选择“计费模式”、“区域”、“项目”和“可用区”。 步骤6 设置“实例名称”和“企业项目”。 步骤7 设置实例信息。 1. 版本:RabbitMQ的版本号,当前仅支持3.8.35。 2. 实例类型:支持“单机”和“集群”。 单机:表示部署一个RabbitMQ代理。 集群:表示部署多个RabbitMQ代理,实现高可靠的消息存储。 3. 鲲鹏实例:“创建鲲鹏架构实例”选框,默认不勾选是X86架构的实例,勾选之后是ARM架构的鲲鹏实例。 4. 规格:根据实际情况选择规格。 说明 为了保证服务的稳定可靠,RabbitMQ采用了默认的40%高水位配置。当内存占用率到达40%高水位后,会触发流控,生产者发送消息会被阻塞。为了避免高水位的产生,请及时消费积压在队列中的消息。 5. 代理个数:根据实例情况选择代理个数。 6. 存储空间:选择RabbitMQ实例的磁盘类型和存储空间总量。 单机实例的取值范围:100GB ~ 30000GB 集群实例的取值范围为:100GB 代理数 ~ 30000GB 代理数 7. 虚拟私有云:选择已经创建好的虚拟私有云和子网。 虚拟私有云可以为您的RabbitMQ专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 说明 虚拟私有云和子网在RabbitMQ实例创建完成后,不支持修改。 子网开启IPv6后,RabbitMQ实例支持IPv6功能。 实例创建成功后,不支持修改IPv6开关。 使用内网IPv6方式连接实例需要通过VPC终端节点实现,使用期间会产生VPC终端节点的费用。 8. 安全组:在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对弹性云主机的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云主机提供访问策略。 您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 图1 设置实例信息 步骤8 设置连接RabbitMQ实例的用户名和密码。 步骤9 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤10 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 您可以选择是否打开公网访问开关。 如果选择了开启,表示访问RabbitMQ实例可以通过弹性IP访问。这时页面会显示“弹性IP地址”,在“弹性IP地址”区域,您可下拉选择已有的弹性IP。另外,您可单击右侧的“创建弹性IP”,跳转到网络控制台的弹性IP页面,购买弹性IP。 图2 购买RabbitMQ实例时公网访问设置 说明 公网访问与VPC内访问相比,可能存在网络丢包和抖动等情况,且访问时延有所增加,因此建议仅在业务开发测试阶段开启公网访问进行调试。 如果用户在虚拟私有云的服务页面手动解绑定或删除EIP,相应RabbitMQ实例的公网访问功能会自动关闭。 2. 设置“SSL”。 客户端连接实例时SSL认证的开关。开启SSL,则数据加密传输,安全性更高。 SSL开关在实例创建完成后不支持修改,请明确是否需要开启 。 3. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击右侧的“查看预定义标签”,系统会跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个RabbitMQ实例最多支持设置20个不同标签。 4. 设置实例的描述信息。 步骤11 填写完上述信息后,单击“立即购买”,进入“规格确认”页面。 步骤12 确认实例信息无误且阅读并同意《分布式消息服务RabbitMQ服务等级协议》、《天翼云分布式消息服务协议》后,提交请求。 步骤13 在实例列表页面查看实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的RabbitMQ实例,然后重新创建。如果重新创建仍然失败,请联系客服。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤二:创建RabbitMQ实例
      • 扩展系统盘的分区和文件系统(Linux)
        fdisk /dev/vda Welcome to fdisk (utillinux 2.23.2). Changes will remain in memory only, until you decide to write them. Be careful before using the write command. Command (m for help): 步骤3 输入“n”,按“Enter”,开始新建分区。 回显类似如下信息: plaintext Command (m for help): n Partition type: p primary (1 primary, 0 extended, 3 free) e extended 表示磁盘有两种分区类型: “p”表示主分区。 “e”表示扩展分区。 说明 磁盘使用MBR分区形式,最多可以创建4个主分区,或者3个主分区加1个扩展分区,扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。 磁盘使用GPT分区形式时,没有主分区、扩展分区以及逻辑分区之分。 步骤4 以创建一个主要分区为例,输入“p”,按“Enter”,开始创建一个主分区。 回显类似如下信息: plaintext Select (default p): p Partition number (24, default 2): 步骤5 以分区编号选择“2”为例,输入分区编号“2”,按“Enter”。 回显类似如下信息: plaintext Partition number (24, default 2): 2 First sector (83886080167772159, default 83886080): 步骤6 输入新分区的起始磁柱值,以使用默认起始磁柱值为例,按“Enter”。 系统会自动提示分区可用空间的起始磁柱值和截止磁柱值,可以在该区间内自定义,或者使用默认值。起始磁柱值必须小于分区的截止磁柱值。 回显类似如下信息: plaintext First sector (83886080167772159, default 83886080): Using default value 83886080 Last sector, +sectors or +size{K,M,G} (83886080167772159,default 167772159): 步骤7 输入新分区的截止磁柱值,以使用默认截止磁柱值为例,按“Enter”。 系统会自动提示分区可用空间的起始磁柱值和截止磁柱值,可以在该区间内自定义,或者使用默认值。起始磁柱值必须小于分区的截止磁柱值。 回显类似如下信息: plaintext Last sector, +sectors or +size{K,M,G} (83886080167772159, default 167772159): Using default value 167772159 Partition 2 of type Linux and of size 40 GiB is set Command (m for help): 步骤8 输入“p”,按“Enter”,查看新建分区。 回显类似如下信息: plaintext Command (m for help): p Disk /dev/vda: 85.9 GB, 85899345920 bytes, 167772160 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x0008d18f Device Boot Start End Blocks Id System /dev/vda1 2048 83886079 41942016 83 Linux /dev/vda2 83886080 167772159 41943040 83 Linux Command (m for help): 步骤9 输入“w”,按“Enter”,将分区结果写入分区表中。 回显类似如下信息: plaintext Command (m for help): w The partition table has been altered! Calling ioctl() to reread partition table. WARNING: Rereading the partition table failed with error 16: Device or resource busy. The kernel still uses the old table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) Syncing disks. 表示分区创建完成。 说明 如果之前分区操作有误,请输入“q”,则会退出fdisk分区工具,之前的分区结果将不会被保留。 步骤10 执行以下命令,将新的分区表变更同步至操作系统。 partprobe 步骤11 执行以下命令,设置新建分区文件系统格式。 mkfs t 文件系统 磁盘分区 ext文件系统命令示例: 以“ext4” 文件格式为例: mkfs t ext4 /dev/vda2 回显类似如下信息: plaintext [root@ecs2220 ~]
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        扩容磁盘
        Linux磁盘扩容后处理
        扩展系统盘的分区和文件系统(Linux)
      • 技术栈管理
        image C 容器部署 自定义技术栈 概述 系统默认提供 SPRINGCLOUD、DUBBO、STATICRESOURCE、TONGWEB技术栈。如果面临比较紧急的业务需求,或默认技术栈无法满足特定场景下的业务需求,则可以制作自定义技术栈来解决上述问题。 创建技术栈 1. 登录微服务云应用控制台,选择“应用管理 > 技术栈管理”。 2. 点击“创建技术栈”。 3. 在弹出的新增技术栈框中,设置技术栈信息。 “技术栈类型”:下拉选择系统支持的技术栈类型。 “技术栈版本”:技术栈版本命名规范:[技术栈的版本][依赖包版本][依赖包版本],例:1.0.7j180t2.1.0 (技术栈的版本1.0.7依赖包版本j180依赖包版本t2.1.0),版本号长度不能低于3个字符,不能超过30个字符。 “支持操作系统”:下拉选择系统支持的ctyunos2.0.1,centos7两种操作系统。 “来源”:默认都是自定义。 “部署方式”:提供容器实例部署、Ecs实例部署、Ecs和容器实例部署,如果选择容器部署,只需填写镜像信息、如果选择Ecs实例部署,只需上传技术栈包(目前技术栈包只支持tar后缀类型文件),如果选择Ecs和容器实例部署,则技术栈包和镜像信息都需要填写。 “应用性能监控”:默认关闭,开启表示支持接入应用性能监控能力,在创建应用实例时如果订购了应用性能监控产品,则可以勾选开启应用性能监控。 “微服务治理中心”:默认关闭,开启表示支持接入微服务治理能力,在创建应用实例时如果订购了微服务治理产品,则可以勾选开启微服务治理治理。 “技术栈包”:上传技术栈压缩包。关于如何制作技术栈包,请参考技术栈使用指南,目前仅支持tar格式的文件。 "ECS 实例部署环境变量”:支持Ecs实例部署选择技术栈版本时继承自该技术栈版本的环境变量。 “镜像类型”:自购镜像表示用户购买的镜像,MSAP仓库镜像表示微服务云应用平台提供的系统公共镜像。 “MSAP仓库镜像”:包括镜像名称、命名空间、类型、版本、Dockfile信息。 4. 单击“确定”,完成自定义技术栈创建。 说明 创建成功的技术栈处于未发布状态。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用管理
        技术栈管理
      • FILESET概述
        HPFS通过FILESET管理功能实现对子目录的配额管理。本文介绍 FILESET管理的功能介绍、适用场景、使用限制和整体流程。 功能介绍 FILESET(文件集)是 HPFS 文件系统中的一种特殊子目录,具备独立的存储容量与文件数量管理能力,支持精细化的配额配置。用户可以在文件系统下创建多个 FILESET 实例,每个实例均可作为独立的存储空间,供不同业务系统挂载和使用。通过动态设置或调整配额策略,用户能够合理分配存储资源,有效避免资源抢占问题,提升资源利用效率。 说明 本文档中所述“目录”均指 HPFS 文件系统内目录结构,与外部挂载点的目录地址无关。 适用场景 精细化配额管理,避免资源抢占 如果企业或团队对数据安全要求较高,或者需要确保关键业务不受资源波动影响,可通过FILESET的配额,为不同的项目、部门或应用分配明确的存储资源上限。这样既能保证各自空间的独立性,又能防止某个业务过度消耗存储资源,影响其他的正常使用,从而实现资源的合理分配。 绑定数据流动功能 当用户需要使用数据流动功能时,需要创建FILESET子目录作为数据流动HPFS文件同步的基本单元,与对象存储ZOS进行数据同步。 使用限制 单文件系统最多可创建10个FILESET。 FILESET内的文件或目录数量上限是1亿。 创建FILESET会从文件系统总资源中划分独立的存储空间和文件数配额,因此将减少非FILESET目录的可用资源。 FILESET配额的默认上限说明如下: 容量不超过文件系统总容量,最小不低于已使用容量; 文件数量最大不超过文件系统总文件数量,最小不低于已写入文件数量; FILESET不支持跨FILESET移动(mv)操作,但其内部操作与普通目录一致,mv等文件系统操作均正常支持。但如FILESET绑定数据流动后,目录内将禁用mv操作。 FILESET目录无法在客户端改名或删除,仅能通过控制台或API删除。 FILESET内文件或目录达到配额上限,写入数据时会直接报错。受统计延迟影响,持续写入时FILESET的使用量可能短暂超出配额。 由于FILESET目录本身占用情况,FILESET的容量和设置的配额有+1GB的误差,文件数量有+1000的误差。同时,FILESET的容量统计为向上取整规则。 注意 通过HPFSPOSIX客户端挂载FILESET,请确保您的客户端版本为2.15.15及以上。查询和更新客户端安装包的详细步骤请参见:操作系统限制、HPFSPOSIX客户端挂载。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        FILESET管理
        FILESET概述
      • 多集群服务发现
        步骤二:在从集群中部署sleep应用 使用以下配置在从集群default命名空间部署sleep; plaintext apiVersion: v1 kind: ServiceAccount metadata: name: sleep apiVersion: v1 kind: Service metadata: name: sleep labels: app: sleep service: sleep spec: ports: port: 80 name: http selector: app: sleep apiVersion: apps/v1 kind: Deployment metadata: name: sleep spec: replicas: 1 selector: matchLabels: app: sleep template: metadata: labels: app: sleep sidecar.istio.io/inject: "true" spec: terminationGracePeriodSeconds: 0 serviceAccountName: sleep containers: name: sleep image: registryvpccrshuadong1.cnspinternal.ctyun.cn/library/curl command: ["/bin/sleep", "infinity"] imagePullPolicy: IfNotPresent volumeMounts: mountPath: /etc/sleep/tls name: secretvolume volumes: name: secretvolume secret: secretName: sleepsecret optional: true 步骤三:验证跨集群服务发现是否可用 在从集群,使用kubectl工具执行命令:kubectl exec it deploy/sleep c sleep curl productpage:9080,结果如下,可以看到此时在没有开启DNS代理功能的情况下,无法跨集群调用服务; plaintext curl: (6) Could not resolve host: productpage command terminated with exit code 6 设置DNS代理功能 1. 登录CSM控制台,在左侧导航栏,选择Sidecar管理 Sidecar代理配置 ,进入配置页面; 2. 在Sidecar配置 页面中,选择顶部全局 TAB页,点击DNS代理功能 选项,选择启用DNS代理功能 ,最后更新设置 ;具体如下图;
        来自:
        帮助文档
        应用服务网格
        用户指南
        集群与工作负载
        多集群管理
        多集群服务发现
      • ALM-19012 HBase系统表目录或文件丢失
        本章节主要介绍ALM19012 HBase系统表目录或文件丢失的告警。 告警解释 系统按120秒周期性检测HBase在HDFS上的如下目录和文件是否存在,当检测到文件或者目录不存在时,上报该告警。当文件或目录都恢复后,告警恢复。 检查内容: 命名空间hbase在HDFS上的目录。 hbase.version文件。 hbase:meta表在HDFS上的目录、.tableinfo和.regioninfo文件。 hbase:namespace表在HDFS上的目录、.tableinfo和.regioninfo文件。 hbase:hindex表在HDFS上的目录、.tableinfo和.regioninfo文件。 hbase:acl表在HDFS上的目录、.tableinfo和.regioninfo文件(该表在普通模式集群默认不存在)。 说明 若集群启用了多实例功能且安装了多个HBase服务,请根据“定位信息”的“服务名”值来确定具体产生告警的HBase服务。例如HBase1服务不可用,则“定位信息”中显示服务名HBase1,处理步骤中的操作对象也应由HBase调整为HBase1。 告警属性 告警ID 告警级别 是否自动清除 19012 紧急 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 HBase服务重启/启动失败。 可能原因 HDFS上的文件或者目录缺失。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-19012 HBase系统表目录或文件丢失
      • 初始化Linux数据盘(fdisk)
        fdisk /dev/vdb Welcome to fdisk (utillinux 2.23.2). Changes will remain in memory only, until you decide to write them. Be careful before using the write command. Device does not contain a recognized partition table Building a new DOS disklabel with disk identifier 0x38717fc1. Command (m for help): 步骤 3 输入“n”,按“Enter”,开始新建分区。 回显类似如下信息: Command (m for help): n Partition type: p primary (0 primary, 0 extended, 4 free) e extended 表示磁盘有两种分区类型: ● “p”表示主分区。 ● “e”表示扩展分区。 说明 ● 磁盘使用MBR分区形式,最多可以创建4个主分区,或者3个主分区加1个扩展分区,扩展分区不可以直接使用,需要划分成若干个逻辑分区才可以使用。 ● 磁盘使用GPT分区形式时,没有主分区、扩展分区以及逻辑分区之分。 步骤 4 以创建一个主要分区为例,输入“p”,按“Enter”,开始创建一个主分区。 回显类似如下信息: Select (default p): p Partition number (14, default 1): “Partition number”表示主分区编号,可以选择14。 步骤 5 以分区编号选择“1”为例,输入主分区编号“1”,按“Enter”。 回显类似如下信息: Partition number (14, default 1): 1 First sector (2048209715199, default 2048): “First sector”表示起始磁柱值,可以选择2048209715199,默认为2048。 步骤 6 以选择默认起始磁柱值2048为例,按“Enter”。 系统会自动提示分区可用空间的起始磁柱值和截止磁柱值,可以在该区间内自定义,或者使用默认值。起始磁柱值必须小于分区的截止磁柱值。 回显类似如下信息: First sector (2048209715199, default 2048): Using default value 2048 Last sector, +sectors or +size{K,M,G} (2048209715199, default 209715199): “Last sector”表示截止磁柱值,可以选择2048209715199,默认为209715199。 步骤 7 以选择默认截止磁柱值209715199为例,按“Enter”。 系统会自动提示分区可用空间的起始磁柱值和截止磁柱值,可以在该区间内自定义,或者使用默认值。起始磁柱值必须小于分区的截止磁柱值。 回显类似如下信息: Last sector, +sectors or +size{K,M,G} (2048209715199, default 209715199): Using default value 209715199 Partition 1 of type Linux and of size 100 GiB is set Command (m for help): 表示分区完成,即为数据盘新建了1个分区。 步骤 8 输入“p”,按“Enter”,查看新建分区的详细信息。 回显类似如下信息: Command (m for help): p Disk /dev/vdb: 107.4 GB, 107374182400 bytes, 209715200 sectors Units sectors of 1 512 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x38717fc1 Device Boot Start End Blocks Id System /dev/vdb1 2048 209715199 104856576 83 Linux Command (m for help): 表示新建分区“/dev/vdb1”的详细信息。 步骤 9 输入“w”,按“Enter”,将分区结果写入分区表中。 回显类似如下信息: Command (m for help): w The partition table has been altered! Calling ioctl() to reread partition table. Syncing disks. 表示分区创建完成。 说明 ● 如果之前分区操作有误,请输入“q”,则会退出fdisk分区工具,之前的分区结果将不会被保留。 步骤 10 执行以下命令,将新的分区表变更同步至操作系统。 partprobe 步骤 11 执行以下命令,将新建分区文件系统设为系统所需格式。 mkfs t 文件系统格式 /dev/vdb1 以设置文件系统为“ext4”为例: mkfs t ext4 /dev/vdb1 回显类似如下信息: [root@ecstest0001 ~]
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化Linux数据盘(fdisk)
      • 资源监控
        CPU使用率高问题处理 对于导致CPU使用率高的具体进程,如果确认是异常进程,可以直接通过top命令终止进程。对于kswapd0进程导致的CPU使用率高的问题,则需要对应用程序进行优化,或者通过增加内存进行系统规格的升级。 kswapd0是系统的虚拟内存管理程序,如果物理内存不够用,系统就会唤醒kswapd0进程,由kswapd0分配磁盘交换空间用作缓存,因而占用大量的CPU资源。 使用top命令终止CPU占用率高的进程 您可以直接在top运行界面快速终止相应的异常进程。操作步骤如下: a. 在top命令运行的同时,按下小写的“k”键。 b. 输入要终止进程的PID。 进程的PID为top命令回显的第一列数值。例如,要终止PID为52的进程,直接输入“52”后回车。 c. 操作成功后,会出现如下图所示类似信息,按回车确认。 kswapd0进程占用导致CPU使用率高 可通过以下步骤排查进程的内存占用情况。 a. 通过top命令查看kswapd0进程的资源使用。 b. 如果kswapd0进程持续处于非睡眠状态,且运行时间较长,可以初步判定系统在持续的进行换页操作,可以将问题转向内存不足的原因来排查。 c. 通过vmstat命令进一步查看系统虚拟内存的使用情况。 如果si和so的值也比较高,说明系统存在频繁的换页操作,系统物理内存不足。 u si:每秒从交换区写到内存的大小,由磁盘调入内存。 u so:每秒写入交换区的内存大小,由内存调入磁盘。 d. 对于内存不足问题,可以通过free、ps等命令进一步查询系统及系统内进程的内存占用情况,做进一步排查分析。 e. 临时可通过在业务空闲期重启应用或者系统释放内存。 如果要从根本上解决内存不足的问题,需要对服务器内存进行扩容,扩大内存空间。如果不具备扩容的条件,可通过优化应用程序,以及配置使用大页内存来进行缓解。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        资源监控
      • 升级HBlock
        本节主要介绍升级HBlock命令。 ./stor upgrade { filename f } file [ archfile PACKAGE & ] [ key VALUE ] 此命令用来升级HBlock。对于集群,只需要在一台服务器上执行升级即可。 说明 免费版仅支持2年内升级。 升级过程中系统会做检查,如果不符合升级条件,可能会导致升级失败,升级失败的原因可以在执行升级操作的服务器上查看日志upgrade.log(日志路径:HBlock安装目录/logs/ops/upgrade.log)。建议升级之前对系统进行检查,确保: 所有状态正常: 所有HBlock服务器连接正常,没有处于删除状态的服务器。 HBlock处于working、upgrading状态。 如果软件许可证是订阅模式,需在有效期内;如果软件许可证是永久许可模式,需在维保期限内;如果处于试用期,需试用期未结束。 集群版:如果卷是高可用类型,至少保证卷的主备连接正常。 没有处于失败或者任务进行中状态的卷。 系统整体数据冗余度不降级,正常数据百分比为100%。并且,可用故障域数量和健康数量大于所有卷的写入需求。 升级监听服务(stor:ua)正常。 协议解析服务(stor:ps)正常。 集群版:数据服务(stor:dsx)正常。 集群版:基础服务正常:元数据管理服务(stor:mdm)、日志服务(stor:ls)、协调服务(stor:cs)。 注意 执行升级HBlock前,确保每个服务器的HBlock安装路径对应的文件系统,存在至少1 GiB的可用空间。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        升级HBlock
        升级HBlock
      • 如何在不同账号之间迁移实例?
        本章节介绍不同账号之间迁移实例的方法 目前暂不支持在不同账号之间迁移实例,若您需要将实例进行迁移,请遵循如下步骤进行手动迁移: Nacos 1. 开通新账号,新建Nacos实例; 2. 迁移Nacos配置。使用Nacos配置导入导出能力,将旧实例的完整配置下载为本地文件,再导入到新实例; 3. 迁移Nacos服务。提供了Nacos Sync迁移工具,可提供服务自动平滑迁移能力,但目前仅支持相同vpc下实例的自动迁移,您需要将服务手动注册到新实例上,以完成服务迁移; 4. 迁移命名空间、访问权限等信息。目前没有针对该类元数据信息的迁移方案,需要用户在新实例进行手动创建。 Zookeeper 1. 开通新账号,新建Zookeeper实例; 2. 迁移Zookeeper持久化数据。迁移Zookeeper的Znode数据,方法详见Zookeeper持久化数据的迁移的迁移章节; 3. 迁移Zookeeper服务。由于Zookeeper服务数据默认为非持久化数据,对服务数据的迁移目前没有对应的平滑迁移方案,您需要将服务手动注册到新实例上,以完成服务迁移。 Eureka 1. 开通新账号,新建Eureka实例; 2. 迁移Eureka服务。对服务数据的迁移目前没有对应的平滑迁移方案,您需要将服务手动注册到新实例上,以完成服务迁移。
        来自:
        帮助文档
        微服务引擎
        常见问题
        注册配置中心
        如何在不同账号之间迁移实例?
      • 表管理
        操作步骤 1. 在顶部导航栏选择“库管理”,在对象列表页签左侧菜单栏选择“表”。 2. 在列表右侧操作栏选择“修改表”。 3. 打开修改表页面,修改表信息,具体操作同新建表,编辑完成后单击“提交修改”。 4. 在SQL预览弹出框中单击“执行脚本”,保存表的修改信息。 重命名 操作步骤 1. 在顶部导航栏选择“库管理”,在对象列表页签左侧菜单栏选择“表”。 2. 在列表右侧操作栏选择“重命名”。 3. 在编辑重命名弹出框中,进行重命名,单击“确定”。 清空表 注意 清空表后无法恢复,请谨慎操作。 操作步骤 1. 在顶部导航栏选择“库管理”,在对象列表页签左侧菜单栏选择“表”。 2. 在列表右侧操作栏选择“更多”>“清空表”。 3. 在确认清空表弹出框中,单击“确定”清空数据表。 删除表 注意 删除表后无法恢复,请谨慎操作。 操作步骤 1. 在顶部导航栏选择“库管理”,在对象列表页签左侧菜单栏选择“表”。 2. 在列表右侧操作栏选择“更多”>“删除表”。 3. 在确认删除表弹出框中,单击“确定”删除数据表。 表维护 操作场景 随着MySQL的使用,表将变得较为繁冗,插入、更新或者删除等操作时,会占用一定的空间,造成浪费降低性能。定期进行表维护操作,可改善数据库性能。
        来自:
        帮助文档
        数据管理服务
        用户指南
        MySQL数据库管理(开发工具)
        库管理
        表管理
      • 主题设计
        新建主题 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据架构”模块,进入数据架构页面。 2.单击左侧导航栏中“主题设计”,进入主题设计页面,单击左上角的“新建”。 3.在“新建主题域分组”对话框中,配置如下参数,然后单击“确定”完成主题域分组的创建。 下表为主题域分组参数说明 参数名 说明 名称 只允许除/、、 以外的字符。 编码 英文名称。只允许字母、数字、空格、下划线、中划线、左右括号以及&符号。 别名 只允许除、 以外的字符。 说明 您需提前在配置中心的“模型配置”页签中启用主题设计别名,这里才可配置别名。 上级主题 选择所属的上级主题。 数据owner部门 数据的拥有者所在部门。 数据owner人员 在下拉框中选择需要的数据owner人员,支持多选和自定义输入。 描述 主题域分组的描述信息。 4.在一个主题下,还可以新建多个主题。 主题层级数目由用户在配置中心的主题层级中自定义,系统默认有三个层级,从上到下分别命名为主题域分组(L1)、主题域(L2)、业务对象(L3)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据调研
        主题设计
      • 跨天翼云账号迁移MySQL数据
        本文介绍了如何通过数据传输服务DTS跨账号迁移天翼云关系数据库MySQL版数据。 前提条件 源端 账号权限要求: 对MySQL库的查询权限。 对待迁移库的查询权限。 部分全局权限:RELOAD、LOCK TABLES、REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW、PROCESS。 如果是整实例迁移,需要对所有数据库的查询权限。 其他要求: 已绑定公网eip。 目标端 账号权限要求: 需要以下全局权限:ALTER、ALTER ROUTINE、CREATE、CREATE ROUTINE、CREATE TEMPORARY TABLES、CREATE USER、CREATE VIEW、DELETE、DROP、EVENT、EXECUTE、INDEX、INSERT、LOCK TABLES、PROCESS、RELOAD、SELECT、SHOW DATABASES、SHOW VIEW、TRIGGER、UPDATE。 其他要求: 已创建关系数据库MySQL版。 已绑定公网eip。 注意 这里的源端是指需要跨账号迁移的源天翼云数据库。 约束限制 如迁移对象为表级别,则单次迁移任务仅支持迁移最多600张表。当超出数量限制,任务会在提交后会请求报错。如果遇到这种情形,建议您拆分待迁移的表,分批配置成多个任务,或者配置为整库迁移。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库关联RDS数据库的字符集必须与源数据库一致。 目标库若已存在行数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为7天。否则DTS在增量迁移时可能因无法获取Binlog而导致任务失败。由于您所设置的Binlog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库实例若选择将时间戳类型(TIMESTAMP,DATETIME)的列作为分片键,则源库数据在迁移到目标库之后,作为分片键的该时间戳类型列的秒精度将被丢弃。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不允许对源库需要迁移的表结构进行修改。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 增量迁移场景下,不支持无主键表的数据增量迁移,因为无主键表的增量迁移性能远低于有主键的表,而且不能保证数据的一致性。 说明 详细信息请参考
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据迁移
        跨天翼云账号迁移MySQL数据
      • 支持的监控指标
        本文主要介绍 支持的监控指标。 功能说明 本章节定义了分布式消息服务Kafka上报云监控服务的监控指标的命名空间,监控指标列表和维度定义,您可以通过云监控服务的管理控制台或API接口来检索Kafka实例产生的监控指标和告警信息,也可以通过分布式消息服务Kafka控制台提供的“监控”页面来检索Kafka实例产生的监控指标。 命名空间 SYS.DMS 实例监控指标 表 实例支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) currentpartitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。单位:Count 0~1800 Kafka实例 1分钟 currenttopics 主题数 该指标用于统计Kafka实例中已经创建的主题数量。单位:Count 0~1800 Kafka实例 1分钟 groupmsgs 堆积消息数 该指标用于统计Kafka实例中所有消费组中总堆积消息数。单位:Count 0~1000000000 Kafka实例 1分钟 节点监控指标 表 节点支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) brokerdatasize 节点数据容量 该指标用于统计节点当前的消息数据大小。单位:Byte、KB、MB、GB、TB、PB 0~5000000000000 Kafka实例节点 1分钟 brokermessagesinrate 消息生产速率 该指标用于统计每秒生产的消息数量。单位:Count/s 0~500000 Kafka实例节点 1分钟 brokerbytesoutrate 消费流量 该指标用于统计每秒消费的字节数。单位:Byte/s、KB/s、MB/s、GB/s 0~500000000 Kafka实例节点 1分钟 brokerbytesinrate 生产流量 该指标用于统计每秒生产的字节数。单位:Byte/s、KB/s、MB/s、GB/s 0~500000000 Kafka实例节点 1分钟 brokerpublicbytesinrate 公网入流量 统计Broker节点每秒公网访问流入流量。单位:Byte/s、KB/s、MB/s、GB/s 说明 已开启公网访问,并且设置了弹性IP地址的实例,请在弹性公网IP服务中查看此监控指标。 0~500000000 Kafka实例节点 1分钟 brokerpublicbytesoutrate 公网出流量 统计Broker节点每秒公网访问流出流量。单位:Byte/s、KB/s、MB/s、GB/s 说明 已开启公网访问,并且设置了弹性IP地址的实例,请在弹性公网IP服务中查看此监控指标。 0~500000000 Kafka实例节点 1分钟 brokerfetchmean 消费请求平均处理时长 统计Broker节点处理消费请求平均时长。单位:ms 0~10000 Kafka实例节点 1分钟 brokerproducemean 生产请求平均处理时长 统计Broker节点处理生产请求平均时长。单位:ms 0~10000 Kafka实例节点 1分钟 brokercpucoreload CPU核均负载 该指标为从Kafka节点虚拟机层面采集的CPU每个核的平均负载。单位:% 0~20 Kafka实例节点 1分钟 brokerdiskusage 磁盘容量使用率 该指标为从Kafka节点虚拟机层面采集的磁盘容量使用率。单位:% 0~100% Kafka实例节点 1分钟 brokermemoryusage 内存使用率 该指标为Kafka节点虚拟机层面采集的内存使用率。单位:% 0~100% Kafka实例节点 1分钟 brokerheapusage Kafka进程JVM堆内存使用率 该指标从Kafka节点Kafka进程JVM中采集的堆内存使用率。单位:% 0~100% Kafka实例节点 1分钟 brokeralive 节点存活状态 表示Kafka节点是否存活。 1:存活 0:离线 Kafka实例节点 1分钟 brokerconnections 连接数 统计Kafka节点当前所有TCP连接数量。单位:Count 0~65535 Kafka实例节点 1分钟 brokercpuusage CPU使用率 统计Kafka节点虚拟机的CPU使用率。单位:% 0~100% Kafka实例节点 1分钟 brokerdiskreadawait 磁盘平均读操作耗时 该指标用于统计磁盘在测量周期内平均每个读IO的操作时长。单位:ms >0 Kafka实例节点 1分钟 brokerdiskwriteawait 磁盘平均写操作耗时 该指标用于统计磁盘在测量周期内平均每个写IO的操作时长。单位:ms >0 Kafka实例节点 1分钟 brokertotalbytesinrate 网络入流量 统计Broker节点每秒网络访问流入流量。单位:Byte/s 0~1000000000 Kafka实例节点 1分钟 brokertotalbytesoutrate 网络出流量 统计Broker节点每秒网络访问流出流量。单位:Byte/s 0~1000000000 Kafka实例节点 1分钟 brokerdiskreadrate 磁盘读流量 磁盘读操作流量。单位:Byte/s、KB/s、MB/s、GB/s >0 Kafka实例节点 1分钟 brokerdiskwriterate 磁盘写流量 磁盘写操作流量。单位:Byte/s、KB/s、MB/s、GB/s >0 Kafka实例节点 1分钟
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        支持的监控指标
      • 数据存储
        本节介绍天翼云电脑(公众版)在数据存储方面的常见问题。 天翼AI云电脑能存储多大数据量? 天翼AI云电脑自带系统盘规格:80G。操作系统安装会占用30G,剩余50G可用。 如果您使用的是天翼AI云电脑(公众版),则无法进行系统盘扩容,但如果在订购时购买了数据盘,则对数据盘进行扩容。如有更大存储空间需求,建议使用天翼云盘或开通天翼AI云电脑(政企版)。 如果您使用的是天翼AI云电脑(政企版),若需要增加存储空间,可对数据盘进行扩容,以100G步长为单位。数据盘扩容对天翼AI云电脑(政企版)内已有的数据无任何影响,简单方便。 数据信息是否可以长期保持? 已购的天翼AI云电脑会留数据。切换天翼AI云电脑的使用平台,或重装APP均不影响,用户的文档和相关设置等数据信息在付费情况下是可以长期保持。如果退订天翼AI云电脑(或者欠费拆机,数据将不再保留且无法恢复)。 如果误删文件,导致天翼AI云电脑无法运行,数据会丢失吗? 可能会丢失部分系统盘和用户数据。可以通过工具栏中的“系统恢复”功能进行系统还原,系统盘将进行重装,数据盘不会受影响。因此请及时保存及备份好个人数据。
        来自:
        帮助文档
        天翼云电脑(公众版)
        常见问题
        数据存储
      • 产品功能
        功能类别 功能描述 数据库安装部署 天翼云数据库专家服务团队提供数据库软件包安装部署服务: 合理安装数据库、中间件软件(其中安装主机、软件安装包需要您提供)。 根据应用系统创建合适的数据库。 根据应用系统的要求分配数据空间。 设置合理的数据库运行参数。 检查和设置数据库用户的安全性和访问的安全性。 设置数据库的监听程序。 提供完善的数据库、中间件安装报告。 根据实际情况提供数据库、中间件的配置调整。 数据库健康巡检 天翼云数据库专家服务团队提供数据库和相关组件的运行情况健康巡检服务,对数据库和中间件系统的性能情况进行深度分析,及时发现生产数据库已经存在的或潜在的问题。根据巡检结果,提交巡检报告和改善建议,并配合完成改善工作。 数据库应急响应 天翼云数据库专家服务团队为客户提供紧急故障处理服务,安排专门维护工程师分析故障原因,制定故障解决方案,并最终排除故障。对于故障处理,遵循记录、分析、处理、解决的闭环处理方法,以找到故障根源、避免或预防二次故障为最终解决的标准。 数据库性能调优 天翼云数据库专家服务团队为客户随着应用系统投入使用时间增加、数据量增加、用户数量增加或应用修改等各种原因出现的数据库响应变慢、性能下降、难于维护等各类问题,提供性能调优服务。团队负责跟踪系统现状,分析客户应用类型和用户行为、评价数据库的参数设置、数据分布、硬件和系统资源使用情况等,识别系统资源、配置、应用架构、数据库设计、SQL语句等方面的瓶颈,提供性能分析报告和优化建议。 数据库保驾护航服务 天翼云数据库专家服务团队根据客户需求及双方沟通确认的服务内容、客户购买的服务天数,提供高级专家、资深专家团队技术服务。服务内容除包含基础服务类的数据库安装部署、健康巡检、应急响应、性能调优外,还可提供且不限于关键业务服务保障、顾问咨询、技术培训等服务: 关键业务服务保障:针对客户在关键业务时期(如大促活动、业务割接等)的高等级数据库服务保障需求,提供专家保驾护航服务,包括前期的系统环境调研和风险排查,以及在保障期内提供快速响应和处理服务。 技术培训:数据库专家服务针对数据库功能特性、架构设计、性能调优、管理维护等提供定制化的技术培训,受众包括数据库架构师、应用架构师、DBA、数据库应用开发人员等高级人才。 顾问咨询:为客户数据库上云、迁云和用云过程中的技术需求及疑难问题提供咨询服务,包括但不限于数据库架构规划设计、上云方案设计、升级扩容、迁移、数据备份恢复、容灾方案设计等等。 数据库增值服务包 针对客户有长期需求的项目,安排专家服务团队负责全面技术运维工作,确保客户数据库在购买服务期内稳定运行,服务内容包括但不限于: 定期健康巡检。 故障诊断分析及处理。 7 24小时微信工作群和电话支持服务。
        来自:
        帮助文档
        数据库专家服务
        产品介绍
        产品功能
      • 1
      • ...
      • 51
      • 52
      • 53
      • 54
      • 55
      • ...
      • 444
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      模型推理服务

      推荐文档

      删除云安备

      文档下载

      文档下载

      添加伸缩策略

      产品价格

      如何申请发票?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号