云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      Web应用防火墙(独享版)_相关内容
      • ALM-13003 ZooKeeper进程垃圾回收(GC)时间超过阈值
        本章节主要介绍ALM13003 ZooKeeper进程垃圾回收(GC)时间超过阈值。 告警解释 系统每60秒周期性检测ZooKeeper进程的垃圾回收(GC)占用时间,当检测到ZooKeeper进程的垃圾回收(GC)时间超出阈值(默认12秒)时,产生该告警。 垃圾回收(GC)时间小于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 13003 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 ZooKeeper进程的垃圾回收时间过长,可能影响该ZooKeeper进程正常提供服务。 可能原因 该节点ZooKeeper实例堆内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 1. 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,单击告警“ZooKeeper进程垃圾回收(GC)时间超过阈值”所在行的下拉菜单。查看告警上报的实例的IP地址。 2. 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 >ZooKeeper > 实例 >quorumpeer”。单击图表区域右上角的下拉菜单,选择“定制 > GC”,勾选“ZooKeeper垃圾回收(GC)时间”,单击“确定”,查看ZooKeeper每分钟的垃圾回收时间统计情况。 3. 查看ZooKeeper每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行步骤 4。 否,执行步骤 8。 4. 请先排查应用程序是否存在内存泄露等问题。 5. 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 >ZooKeeper > 配置 > 全部配置 > quorumpeer > 系统”。将“GCOPTS”参数值根据实际情况调大。 说明 Xmx一般配置为ZooKeeper数据容量的2倍,如果ZooKeeper容量达到2GB,则GCOPTS建议配置为: Xms4G Xmx4G XX:NewSize512M XX:MaxNewSize512M XX:MetaspaceSize64M XX:MaxMetaspaceSize64M XX:CMSFullGCsBeforeCompaction1 6. 保存配置,并重启ZooKeeper服务。 7. 观察界面告警是否清除。 是,处理完毕。 否,执行步骤 8。 收集故障信息 8. 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 9. 在“服务”中勾选待操作集群的“ZooKeeper”。 10. 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 11. 请联系运维人员,并发送已收集的故障日志信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-13003 ZooKeeper进程垃圾回收(GC)时间超过阈值
      • 添加UDP监听器
        本文帮助您快速熟悉负载均衡服务UDP监听器的添加。 添加UDP监听器 操作场景 UDP协议适用于对实时性要求较高,对可靠性要求相对不高的业务,如语音、视频、证券行情实时推送等。 前提条件 您已经创建了弹性负载均衡实例。具体操作参考创建弹性负载均衡器。 约束与限制 UDP监听器不支持分片包。 UDP监听器的前端端口当前不支持4789。若使用会造成监听器的流量不通。 UDP监听器支持的最大MTU为1500,请确保与ELB通信的网卡的MTU不大于1500(有些应用程序需要根据此MTU值同步修改其配置文件),否则数据包可能会因过大被丢弃。 操作步骤 步骤一:创建监听器 1. 登录弹性负载均衡控制台。 2. 在顶部右侧选择负载均衡所属区域,本文选择华东华东1。 3. 选择以下一种方法打开监听器配置向导。 在负载均衡器列表页面,找到目标实例,在操作列单击“监听器配置向导”。 在ip类型/监听器端口/健康检查/服务器组列下方单击“开始配置”。 在负载均衡器列表页面,找到目标实例,单击实例名称进入实例详情页,单击“添加监听器”。 4. 在协议&监听配置向导参考UDP监听器配置说明,完成相关配置,然后点击“下一步”。 UDP监听器配置说明 监听配置 说明 名称 设置监听器的名称,名称应为232位,英文开头,支持大小写英文和数字。 负载均衡器协议/端口 下拉列表选择UDP协议,输入监听端口 描述 可选,填写监听器描述 新建连接限速(CPS限速) 开启新建连接限速,可设置此监听服务的新建连接速度,减轻高访问量服务切换过程中后端服务器压力。输入范围10~500000,单位连接数/秒,缺省 1000。仅集群模式资源池支持设置新建连接限速,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 访问控制 选择是否开启访问控制。开启访问控制后,选择一种访问控制方式:黑名单、白名单。并设置访问策略组作为该监听器的白名单或黑名单。 白名单:允许特定IP访问负载均衡,仅转发来自所选访问策略组中设置的IP地址或地址段的请求,白名单适用于只允许特定IP访问的场景。 黑名单:禁止特定IP访问负载均衡,不转发来自所选访问策略组中的IP或地址段,黑名单适用于只限制特定IP访问的场景
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        添加监听器
        添加UDP监听器
      • 云下MySQL数据迁移至DRDS实例方案
        导出数据 1. 通过mysqldump工具导出云下MySQL数据。导出时针对每一个需要导出的库导出一个单独的SQL文件(也可以每个表单独一个文件),避免覆盖。 导出命令: mysqldump h {DBIP} P {DBPORT} u {DBUSER} p singletransaction hexblob completeinsert setgtidpurgedOFF quick nocreateinfo skipcomments skipaddlocks addlocksfalse skiptzutc [where""] {DBNAME} {TABLENAME} > {mysqltabledata.sql} 参数解释如下: 参数 说明 备注 DBIP 待导出数据的MySQL数据库IP。 必填。 DBPORT 待导出数据的MySQL数据库端口。 必填。 DBUSER 待导出数据的MySQL数据库用户名。 必填。 DBNAME 数据库名称。 必填。 TABLENAME 表名。 可选。本场景不需要该参数,即一次导出一个库的所有表。如有必要,可以多个同类型的表,用空格隔开。建议只导出与业务相关的表。 mysqltabledata.sql 生成的表数据文件名。 必填。请确保每次导出的文件名不同,建议以“逻辑库名”+“”+“逻辑表名”+“ ”+“data”格式命名,以免数据被覆盖。建议后缀为.sql completeinsert 使用完整的insert语句(包含列名称)。 本场景保留。 singletransaction 该选项在导出数据之前提交一个BEGIN SQL语句,BEGIN 不会阻塞任何应用程序且能保证导出时数据库的一致性状态。它只适用于多版本存储引擎,仅InnoDB。 本场景保留。 quick 不缓冲查询,直接导出到标准输出。避免大数据情况内存爆涨。 本场景保留。 hexblob 使用十六进制格式导出二进制字符串字段。如果有二进制数据就必须使用该选项。 本场景保留。 nocreateinfo 只导出数据,而不添加CREATE TABLE 语句。导出数据时使用。 本场景保留。 skipcomments 关闭附加注释信息。 本场景保留。 skiplocktables 在不锁表的情况下导出数据。某些参数会默认开启加锁声明,因此建议在数据导出语句末尾增加此参数。 本场景保留。 addlocksfalse 导出的数据文件中不加锁表的声明。 本场景保留。 skipaddlocks 在导出数据时,控制加锁动作,以避免因耗能引起的性能问题。 本场景保留。 setgtidpurgedOFF 若使用的MySQL版本为8.0或5.7,则需要配置该参数。若5.6及以下,不用该参数。 本场景保留。 where 只转储给定的WHERE条件选择的记录。 可选。 2. 针对上述导出的SQL文件,需要去掉不必要的信息,保持文件中尽量只包括insert语句。去掉的信息包括:不必要的注释。
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        云下MySQL数据迁移至DRDS实例方案
      • 导出DRDS实例数据
        参数 参数说明 备注 DBPROXYIP 待导出的DRDS的VIP。 必填。 DBPROXYPORT 待导出的DRDS的端口。 必填。 DPROXYUSER 待导出的DRDS的用户名。 必填。 DBNAME 逻辑schema名称。 必填。 TABLENAME 表名。 可选。如有必要,可以多个同类型的表,用空格隔开。建议只导出与业务相关的表。 drdstabledata.sql 生成的表数据文件名。 必填。请确保每次导出的文件名不同,建议以“逻辑库名”+“”+“逻辑表名”+“ ”+“data”格式命名,以免数据被覆盖。建议后缀为.sql completeinsert 使用完整的insert语句(包含列名称)。 本场景保留。 singletransaction 该选项在导出数据之前提交一个BEGIN SQL语句,BEGIN 不会阻塞任何应用程序且能保证导出时数据库的一致性状态。它只适用于多版本存储引擎,仅InnoDB。 本场景保留。 skiptzutc 跳过与时区相关的设置。 防止导出时处理时区信息,尤其是与 UTC 有关的设置。 本场景保留。 notablespaces 禁用与表空间相关的查询。避免查询 INFORMATIONSCHEMA.FILES 等表空间相关的表。 本场景保留。 quick 不缓冲查询,直接导出到标准输出。避免大数据情况内存爆涨。 本场景保留。 hexblob 使用十六进制格式导出二进制字符串字段。如果有二进制数据就必须使用该选项。 本场景保留。 nocreateinfo 只导出数据,而不添加CREATE TABLE 语句。导出数据时使用。 可选。如不需要导出表结构,可添加此参数。 nodata 不导出数据。 可选。如不不需要导出数据,可添加此参数。 skipcomments 关闭附加注释信息。 本场景保留。 skiplocktables 在不锁表的情况下导出数据。某些参数会默认开启加锁声明,因此建议在数据导出语句末尾增加此参数。 本场景保留。 addlocksfalse 导出的数据文件中不加锁表的声明。 本场景保留。 skipaddlocks 在导出数据时,控制加锁动作,以避免因耗能引起的性能问题。 本场景保留。 setgtidpurgedOFF 若使用的MySQL版本为8.0或5.7,则需要配置该参数。若5.6及以下,不用该参数。 本场景保留。 ignoretable{DBNAME}. sysglobalsequence 避免导出不需要的系统表, sysglobalsequence 是一个系统表,用于管理数据库内部的序列或状态数据,这些数据通常不需要备份或迁移。如不需要导出,可通过使用 ignoretable 选项来避免导出这些表。 本场景保留。 where 只转储给定的WHERE条件选择的记录。 可选。
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        导出DRDS实例数据
      • 快照与备份
        本文主要介绍 快照与备份。 CCE通过云硬盘EVS服务为您提供快照功能,云硬盘快照简称快照,指云硬盘数据在某个时刻的完整拷贝或镜像,是一种重要的数据容灾手段,当数据丢失时,可通过快照将数据完整的恢复到快照时间点。 您可以创建快照,从而快速保存指定时刻云硬盘的数据。同时,您还可以通过快照创建新的云硬盘,这样云硬盘在初始状态就具有快照中的数据。 使用须知 快照功能仅支持v1.15及以上版本的集群,且需要安装基于CSI的Everest插件才可以使用。 基于快照创建的云硬盘,其子类型(普通IO/高IO/超高IO)、是否加密、磁盘模式(VBD/SCSI)、共享性(非共享/共享)、容量等都要与快照关联母盘保持一致,这些属性查询和设置出来后不能够修改。 只有可用或正在使用状态,且存储格式为CSI的磁盘才能创建快照。快照免费试用期间,单个磁盘最大支持创建7个快照。 加密磁盘的快照数据以加密方式存放,非加密磁盘的快照数据以非加密方式存放。 使用场景 快照功能可以帮助您实现以下需求: 日常备份数据 通过对云硬盘定期创建快照,实现数据的日常备份,可以应对由于误操作、病毒以及黑客攻击等导致数据丢失或不一致的情况。 快速恢复数据 更换操作系统、应用软件升级或业务数据迁移等重大操作前,您可以创建一份或多份快照,一旦升级或迁移过程中出现问题,可以通过快照及时将业务恢复到快照创建点的数据状态。 例如,当由于云主机A的系统盘 A发生故障而无法正常开机时,由于系统盘 A已经故障,因此也无法将快照数据回滚至系统盘A。此时您可以使用系统盘 A已有的快照新创建一块云硬盘 B并挂载至正常运行的云主机 B上,从而云主机 B能够通过云硬盘 B读取原系统盘 A的数据。 说明 当前CCE提供的快照能力与K8S社区CSI快照功能一致:只支持基于快照创建新云硬盘,不支持将快照回滚到源云硬盘。 快速部署多个业务 通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。例如数据挖掘、报表查询和开发测试等业务。这种方式既保护了原始数据,又能通过快照创建的新云硬盘快速部署其他业务,满足企业对业务数据的多元化需求。
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        快照与备份
      • 通用错误码
        本节主要介绍接口的通用错误码。 HTTP status 错误码 错误信息 说明 400 BadDigest The ContentMD5 you specified does not match what HBlock received. ContentMD5的值和请求体的MD5不一致。 400 ClusterModeNotAllowed 'operation' is not supported by cluster mode of HBlock. 集群版本HBlock不支持该操作。 400 IncompleteBody You did not provide the number of bytes specified by the ContentLength HTTP header. 请求体长度不足ContentLength请求头指定的长度。 400 InsufficientServerSpace This method is not allowed because the free space of directory must be greater than or equal to value for server serverId[, serverId...]. 服务器存储空间不足,无法执行操作。 400 InvalidArgument Value empty at 'argument' failed to satisfy constraint: Argument must not be empty. Json 数组长度不能为0。 400 InvalidBoolean Value value at 'argument' failed to satisfy constraint: Argument must be boolean. 布尔类型不合法。 400 InvalidFilter Value value at 'filter' failed to satisfy constraint: Argument must use a single colon (':' means fuzzy match) or two colons ('::' means exact match) to separate the attribute key and value. If you query multiple attributes, you can use 'and' or 'or' keywords to separate them, and there must be spaces before and after 'and' or 'or'. filter参数不合法。 400 InvalidHeader Invalid HTTP header, headerName. 请求头格式不合法。 400 InvalidInteger Valuevalue at 'argument' failed to satisfy constraint: Argument must be integer. 值必须为整数。 400 InvalidArgumentLength Value value at 'argument' failed to satisfy constraint: Argument must not exceed value characters. 参数长度错误。 400 InvalidPackage Invalid package. Please get the correct package. 安装包无效。 400 InvalidRequest Unable to parse request url. URL解析失败。 400 InvalidRequestBody Invalid request body. 请求无效。 400 InvalidStatus Value value at 'argument' failed to satisfy constraint: Argument must satisfy enum value set: [Enabled, Disabled]. 输入的参数值不对。 400 InvalidString Value '' at 'argument' failed to satisfy constraint: Argument must not be an empty string. 参数不能是空字符串。 400 LoadConfigFailed Failed to load configuration files. 加载配置文件失败。 加载配置文件需要满足以下条件: 需要基础服务器至少有2台满足cs和ls服务成功启动。 需要基础服务器至少有1台满足fc、mdm和ds服务成功启动。 需要保证待启动的服务器和主服务器(Master)网络通信正常。 400 MissingArgument Value null at 'argument' failed to satisfy constraint: Argument must not be null. Json参数不能为空。 400 MissingHeader Missing HTTP header headerName. 请求头Host不能为空。 400 NotInitialized HBlock is not initialized. HBlock未初始化。 400 NotInstalled HBlock is not installed. HBlock未安装。 400 RequestTimeout No response received. Please check if there are any network issues and if the operation was successfully executed. 未收到响应,请检查是否存在网络问题,以及操作是否执行成功。 400 StandaloneModeNotAllowed 'operation' is not supported by standalone mode of HBlock. 单机版不支持该操作。 403 LicenseExpired The software license has expired. 软件许可证过期。 403 PermissionDenied Failed to action because user has no permission. 用户的权限不足导致操作失败。 403 SignatureDoesNotMatch Signature does not match. Please check your user name, password and signing method for server(s) [, serverIP ...]. 签名不正确。请检查用户名、密码和签名方法。 400 SystemDataDegraded There is low redundancy or error data in the system, operation is not allowed. Please repair fault domains and disk paths. 系统中存在降级或错误数据,不允许操作。请修复故障域和磁盘路径。 403 TrialExpired The software trial version has expired. 软件试用期已过期。 405 InvalidMethod The specified method does not exist. 指定的方法不存在。 409 InvalidLUNStatus The status of LUN 'lunname ' is 'status', the request is invalid. LUN当前的状态不正确,请求无效。 409 InvalidServerStatus The server serverId status is 'status', the request is invalid. 服务器当前的状态不正确,请求无效。 409 InvalidStorStatus The HBlock status is 'status', the request is invalid. HBlock当前的状态不正确,请求无效。 409 InvalidTargetStatus The Target status is 'status', the request is invalid. Target当前的状态不正确,请求无效。 500 InsufficientResource Operation failed due to insufficient resources. 内存或其他资源不足,操作失败。 500 InternalError HBlock encountered an internal error. Please try again or contact the software vendor. 请重试或者联系软件供应商。 503 SlowDown Please reduce your request rate. 服务端繁忙,请降低请求频率。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        接口
        通用错误码
      • 创建容器镜像函数
        背景 本文介绍如何在函数计算控制台创建容器镜像函数。 注意事项 在函数计算中,创建容器镜像函数必须使用同一账号下相同地域内天翼云容器镜像服务(CRS)中的镜像。针对ARM架构的机器(如搭载M系列芯片的Mac电脑),构建镜像时需要指定镜像的编译平台为Linux/Amd64,示例命令如 docker build platform linux/amd64 t $IMAGENAME .。 请确保您在函数配置中的镜像在发生任何变化后,及时更新您的函数,否则函数调用会失败。 请确保原始镜像存在,否则函数会无法调用。函数计算会对您的函数做缓存以加速冷启动,但是在调用过程中依然依赖原始镜像的存在。 请确保您在任何函数中使用的镜像不要被覆盖,如果被覆盖为其他的Digest,请及时使用最新的镜像信息重新部署您的函数。函数计算会记录您在创建和更新配置时所选择的镜像版本Tag和Digest,如果使用的镜像被更新为其他的Digest,函数将调用失败。 前提条件 开通容器镜像服务,创建CRS实例,创建命名空间,创建镜像仓库。 说明 容器镜像个人版面向个人开发者,公测限额免费试用,无SLA承诺和受损赔偿,且有使用限制。 在控制台创建函数 登录函数计算控制台,在顶部菜单栏,选择地域。 在左侧导航栏,单击函数 ,然后在函数 页面,单击创建函数。 在创建函数 页面,选择使用容器镜像 方式,按需设置以下配置项,然后单击创建。 基本设置:设置函数名称。 镜像配置:配置创建函数的镜像。 配置项 说明 镜像选择方式 您可以使用示例镜像 或者您自己的镜像创建函数。 使用示例镜像 :选择函数计算自带的示例镜像。 使用 CRS 中的镜像 :单击配置项容器镜像 下方的选择 CRS 中的镜像 ,在弹出的选择容器镜像 面板,选择已创建的容器镜像实例 和CRS 镜像仓库 ,然后在下方选择镜像区域找到目标镜像并在其右侧操作 列单击选择 。 请确保您在函数配置中的镜像在发生任何变化后,及时更新您的函数,否则函数调用会失败。 请不要删除原始镜像以及加速镜像,否则会影响函数调用。 启动命令 容器的启动命令。如果不填写,则默认使用镜像中的Entrypoint或者CMD。 监听端口 容器镜像中的HTTP Server所 监听的端口。默认端口为9000。配置端口后,需要保证惊镜像内http server 监听。 高级配置:配置函数的实例相关信息、执行超时时间和网络设置等。 配置项 说明 规格方案 选择或手动输入合理的vCPU规格 和内存规格组合。vCPU大小(单位为核)与内存大小(单位为GB)的比例必须设置在1:1到1:4之间。 临时硬盘大小 根据您的业务情况,选择硬盘大小。函数计算为您提供512 MB以内的磁盘免费使用额度。 执行超时时间 设置超时时间。默认为60秒,最长为86400秒(24小时)。超过设置的超时时间,函数将以执行失败结束。 实例并发度 设置函数实例的并发度。 时区 选择函数的时区。此处设置函数的时区后,将自动为函数添加一条环境变量TZ,其值为您设置的目标时区。 函数角色 如果您的代码逻辑需访问其他云服务,请创建角色并为角色最小化授予访问其他云服务的权限。 允许访问 VPC 是否允许函数访问VPC内资源。 专有网络 允许访问 VPC 选择是时必填。创建新的VPC或在下拉列表中选择要访问的VPC ID。 子网 允许访问 VPC 选择是时必填。创建新的子网或在下拉列表中选择子网ID。 安全组 允许访问 VPC 选择是时必填。创建新的安全组或在下拉列表中选择安全组。 允许函数默认网卡访问公网 是否允许函数可以通过默认网卡访问公网。关闭后,当前函数将无法通过函数计算的默认网卡访问公网。使用固定公网IP地址功能时,您必须关闭允许函数默认网卡访问公网。 环境变量 :设置函数运行环境中的环境变量。更多信息,请参见配置环境变量。 创建完成后,您可以在函数列表中查看和更新已创建的函数。
        来自:
        帮助文档
        函数计算
        用户指南
        代码开发
        容器镜像函数
        创建容器镜像函数
      • 知识库检索(1)
        接口描述 检索知识库内容,支持丰富的检索策略。 请求方法 POST 接口要求 无 URI /openapi/v1/index/retrieve 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String json格式 application/json tenantId 是 String 租户ID 562b89493b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪 33dfa732b27b464fb15a21ed6845afd5 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 20211221T163014Z host 是 String 终端节点域名,固定字段 kqaglobal.ctapi.ctyun.cn EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、平台应用的appkey(非必须),用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求体Body参数 参数 是否必填 参数类型 说明 示例 下级对象 origin 是 Array[Object] 对话历史内容 注意:当前仅支持传入两轮对话上下文 [ { "role": "user", "content": "deepseek什么时候发布的" }, { "role": "assistant", "content": "2025年1月份" }, { "role": "user", "content": "它是由哪家公司研发的?" } ] Chat对象 searchType 是 String 搜索策略设置,有以下三种取值: HYBRIDSEARCH:混合检索; DENSESEARCH: 向量检索; SPARSESEARCH:稀疏/关键字检索; 注意:当指定某一检索模式后,下方params参数中仅该模式对应的配置项会生效,其余模式的参数将被忽略。 "DENSESEARCH" hybridParams 否 Object 混合检索专属配置参数,仅当 searchType 取值为 HYBRIDSEARCH 时生效; 若未传入该参数,系统将使用混合检索的默认配置 { "hybridTopK": 15, "denseWeight": 0.7, "sparseWeight": 0.3 } HybridParams对象 denseParams 否 Object 向量检索专属配置参数,仅当 searchType 取值为 DENSESEARCH 时生效; 若未传入该参数,系统将使用向量检索的默认配置 { "denseSimilarityTopK": 25 } DenseParams对象 sparseParams 否 Object 稀疏/关键词检索参数,仅当 searchType 取值为 SPARSESEARCH 时生效; 若未传入该参数,系统将使用稀疏 / 关键字检索的默认配置数 { "sparseSimilarityTopK":15 } SparseParams对象 searchScope 是 Array[Object] 指定检索的知识库范围,系统仅在该范围內执行检索操作 [ { "infoBaseId": "302", "fileIds": [ 1107, 1108 ] } ] SearchScope对象 enableRewrite 是 Boolean 是否开启历史对话补全改写。 开启后,系统会基于 origin 中的完整对话历史,将最后一轮用户问题补全为语义完整、可独立检索的查询语句,并使用改写后的 query 执行检索 true rerankParams 否 Object 检索结果重排等特殊策略的配置参数; 若未传入,系统将使用结果重排的默认规则 RerankParams对象 Chat对象 参数 是否必填 参数类型 说明 示例 下级对象 role 是 String 角色 user/assistant/system content 是 String 内容 你是谁 HybridParams对象 参数 是否必填 参数类型 说明 示例 下级对象 hybridTopK 否 Int 混合检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1,100] 默认值:15 30 denseWeight 否 float 混合检索中,向量检索结果在最终评分计算时的权重占比。 取值范围:[0,1] 默认值:0.8 注意:denseWeight和sparseWeight之和必须为1 0.8 sparseWeight 否 float 混合检索中,关键字检索结果在最终评分计算时的权重占比。 取值范围:[0,1] 默认值:0.2 注意:denseWeight和sparseWeight之和必须为1 0.2 DenseParams对象 参数 是否必填 参数类型 说明 示例 下级对象 denseSimilarityTopK 否 Int 向量检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1, 100] 默认值:30 30 SparseParams对象 参数 是否必填 参数类型 说明 示例 下级对象 sparseSimilarityTopK 否 Int 关键词检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1,100] 默认值:30 30 SearchScope对象 参数 是否必填 参数类型 说明 示例 下级对象 infobaseId 是 String 知识库ID 600 fileIds 否 Array[Int] 文档ID列表。 fileIds为空时默认检索知识库ID下所有文档 [11,71] RerankParams对象 参数 是否必填 参数类型 说明 示例 下级对象 enableReranking 是 boolean 是否开启检索结果重排功能,开启后系统将对召回的文本切片执行重排策略 true rerankMinScore 否 float 重排阶段文本切片的相似度筛选阈值; 仅 Rank 模型返回的相似度分数大于等于该值的文本切片会被保留召回; 取值范围: [0.01, 1.00] 默认值:0.1 0.5 rerankTopN 否 integer 重排完成后最终返回的文本切片数量(Top N)。 取值范围:[120] 默认值为:5 30 请求代码示例 plaintext Curl X POST " H "ContentType: application/json" H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" data '{ "origin": [ { "role": "user", "content": "deepseek什么时候发布的" }, { "role": "assistant", "content": "2025年1月份" }, { "role": "user", "content": "它是由哪家公司研发的?" } ], "searchType": "SPARSESEARCH", "hybridParams": { "hybridTopK": 15, "denseWeight": 0.7, "sparseWeight": 0.3 }, "denseParams": { "denseSimilarityTopK": 25 }, "sparseParams": { "sparseSimilarityTopK": 15 }, "searchScope": [ { "infoBaseId": "302", "fileIds": [ 1107, 1108 ] }, { "infoBaseId": "304", "fileIds": [] } ], "enableRewrite": true, "rerankParams": { "enableReranking": true, "rerankMinScore": 0.5, "rerankTopN": 5 } } 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回状态,返回200表示成功 200 message String 返回Success Success returnObj Object 接口返回结果 returnObj表 returnObj表 参数 参数类型 说明 示例 下级对象 matchList Array[Object] 检索到的匹配文本片段列表 MatchListObject对象 count Integer 列表长度 3 MatchListObject表 参数 是否必填 参数类型 说明 示例 下级对象 FileID 是 Long 文件id FileName 是 String 文件名 KnowledgeID 是 Long 知识ID ChunkID 是 Long 文档片段ID ChunkText 是 String 文档片段文本 ContentID 是 Long 内容ID ContentText 是 String 内容文本 SubTitle 是 String 文档摘要 DocTitle 是 String 内容摘要 Score 是 Float 匹配得分 UserName 是 String 用户名 DbName 是 String 知识库名 From 是 String 来源,可以取值(Knowledge/PPT/Image/Excel) QAID 否 Long 问答对id Question 否 String 问题文本 Answer 否 String 答案文本 ScreenShot 是 String PPT截图 ImageShot 是 String 图片截图 HostLogo 否 String 联网搜索的logo地址 Order 否 Long 顺序 Url 否 String 联网搜索的地址 FileType 是 String 文档类型 FileID 是 Long 文件id FileName 是 String 文件名 KnowledgeID 是 Long 知识ID 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 1.请求成功返回值示例 plaintext { "statusCode": 200, "error": null, "message": "Success", "returnObj": { "count": 2, "matchList": [ { "FileID": 1108, "FileName": "知识库API.docx", "KnowledgeID": 461419421572632289, "ChunkID": 1, "ChunkText": "知识库API.docx...", "ContentID": 14, "ContentText": "1.请求成功返回值示例...", "SubTitle": "三、 API", "DocTitle": "知识库API.docxn天翼云StateCloud", "Score": 0.064522564, "UserName": "155535", "DbName": "302", "From": "Knowledge", "QAID": null, "Question": null, "Answer": null, "ScreenShot": null, "ImageShot": null, "HostLogo": null, "Order": null, "Url": null, "FileType": "doc" }, { "FileID": 1108, "FileName": "知识库API.docx", "KnowledgeID": 461419421572632275, "ChunkID": 1, "ChunkText": "知识库API.docxn...", "ContentID": 7, "ContentText": "需要在httpclient 的请求头部中加上...", "SubTitle": "二、 如何调用APIn3.拿kAk 作为密钥,eopdate 的年月日值作为数据,算出kdate。", "DocTitle": "知识库API.docxn天翼云StateCloud", "Score": 0.014622092, "UserName": "155535", "DbName": "302", "From": "Knowledge", "QAID": null, "Question": null, "Answer": null, "ScreenShot": null, "ImageShot": null, "HostLogo": null, "Order": null, "Url": null, "FileType": "doc" } ] } } 2.请求失败返回值示例 plaintext { "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 错误码 错误信息 错误描述 40004 业务异常 业务异常,详情见message 40005 知识库不存在
        来自:
      • 知识库检索
        接口描述 检索知识库内容,支持丰富的检索策略。 请求方法 POST 接口要求 无 URI /openapi/v1/index/retrieve 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String json格式 application/json tenantId 是 String 租户ID 562b89493b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪 33dfa732b27b464fb15a21ed6845afd5 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 20211221T163014Z host 是 String 终端节点域名,固定字段 kqaglobal.ctapi.ctyun.cn EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、平台应用的appkey(非必须),用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求体Body参数 参数 是否必填 参数类型 说明 示例 下级对象 origin 是 Array[Object] 对话历史内容 注意:当前仅支持传入两轮对话上下文 [ { "role": "user", "content": "deepseek什么时候发布的" }, { "role": "assistant", "content": "2025年1月份" }, { "role": "user", "content": "它是由哪家公司研发的?" } ] Chat对象 searchType 是 String 搜索策略设置,有以下三种取值: HYBRIDSEARCH:混合检索; DENSESEARCH: 向量检索; SPARSESEARCH:稀疏/关键字检索; 注意:当指定某一检索模式后,下方params参数中仅该模式对应的配置项会生效,其余模式的参数将被忽略。 "DENSESEARCH" hybridParams 否 Object 混合检索专属配置参数,仅当 searchType 取值为 HYBRIDSEARCH 时生效; 若未传入该参数,系统将使用混合检索的默认配置 { "hybridTopK": 15, "denseWeight": 0.7, "sparseWeight": 0.3 } HybridParams对象 denseParams 否 Object 向量检索专属配置参数,仅当 searchType 取值为 DENSESEARCH 时生效; 若未传入该参数,系统将使用向量检索的默认配置 { "denseSimilarityTopK": 25 } DenseParams对象 sparseParams 否 Object 稀疏/关键词检索参数,仅当 searchType 取值为 SPARSESEARCH 时生效; 若未传入该参数,系统将使用稀疏 / 关键字检索的默认配置数 { "sparseSimilarityTopK":15 } SparseParams对象 searchScope 是 Array[Object] 指定检索的知识库范围,系统仅在该范围內执行检索操作 [ { "infoBaseId": "302", "fileIds": [ 1107, 1108 ] } ] SearchScope对象 enableRewrite 是 Boolean 是否开启历史对话补全改写。 开启后,系统会基于 origin 中的完整对话历史,将最后一轮用户问题补全为语义完整、可独立检索的查询语句,并使用改写后的 query 执行检索 true rerankParams 否 Object 检索结果重排等特殊策略的配置参数; 若未传入,系统将使用结果重排的默认规则 RerankParams对象 Chat对象 参数 是否必填 参数类型 说明 示例 下级对象 role 是 String 角色 user/assistant/system content 是 String 内容 你是谁 HybridParams对象 参数 是否必填 参数类型 说明 示例 下级对象 hybridTopK 否 Int 混合检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1,100] 默认值:15 30 denseWeight 否 float 混合检索中,向量检索结果在最终评分计算时的权重占比。 取值范围:[0,1] 默认值:0.8 注意:denseWeight和sparseWeight之和必须为1 0.8 sparseWeight 否 float 混合检索中,关键字检索结果在最终评分计算时的权重占比。 取值范围:[0,1] 默认值:0.2 注意:denseWeight和sparseWeight之和必须为1 0.2 DenseParams对象 参数 是否必填 参数类型 说明 示例 下级对象 denseSimilarityTopK 否 Int 向量检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1, 100] 默认值:30 30 SparseParams对象 参数 是否必填 参数类型 说明 示例 下级对象 sparseSimilarityTopK 否 Int 关键词检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1,100] 默认值:30 30 SearchScope对象 参数 是否必填 参数类型 说明 示例 下级对象 infobaseId 是 String 知识库ID 600 fileIds 否 Array[Int] 文档ID列表。 fileIds为空时默认检索知识库ID下所有文档 [11,71] RerankParams对象 参数 是否必填 参数类型 说明 示例 下级对象 enableReranking 是 boolean 是否开启检索结果重排功能,开启后系统将对召回的文本切片执行重排策略 true rerankMinScore 否 float 重排阶段文本切片的相似度筛选阈值; 仅 Rank 模型返回的相似度分数大于等于该值的文本切片会被保留召回; 取值范围: [0.01, 1.00] 默认值:0.1 0.5 rerankTopN 否 integer 重排完成后最终返回的文本切片数量(Top N)。 取值范围:[120] 默认值为:5 30 请求代码示例 plaintext Curl X POST " H "ContentType: application/json" H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" data '{ "origin": [ { "role": "user", "content": "deepseek什么时候发布的" }, { "role": "assistant", "content": "2025年1月份" }, { "role": "user", "content": "它是由哪家公司研发的?" } ], "searchType": "SPARSESEARCH", "hybridParams": { "hybridTopK": 15, "denseWeight": 0.7, "sparseWeight": 0.3 }, "denseParams": { "denseSimilarityTopK": 25 }, "sparseParams": { "sparseSimilarityTopK": 15 }, "searchScope": [ { "infoBaseId": "302", "fileIds": [ 1107, 1108 ] }, { "infoBaseId": "304", "fileIds": [] } ], "enableRewrite": true, "rerankParams": { "enableReranking": true, "rerankMinScore": 0.5, "rerankTopN": 5 } } 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回状态,返回200表示成功 200 message String 返回Success Success returnObj Object 接口返回结果 returnObj表 returnObj表 参数 参数类型 说明 示例 下级对象 matchList Array[Object] 检索到的匹配文本片段列表 MatchListObject对象 count Integer 列表长度 3 MatchListObject表 参数 是否必填 参数类型 说明 示例 下级对象 FileID 是 Long 文件id FileName 是 String 文件名 KnowledgeID 是 Long 知识ID ChunkID 是 Long 文档片段ID ChunkText 是 String 文档片段文本 ContentID 是 Long 内容ID ContentText 是 String 内容文本 SubTitle 是 String 文档摘要 DocTitle 是 String 内容摘要 Score 是 Float 匹配得分 UserName 是 String 用户名 DbName 是 String 知识库名 From 是 String 来源,可以取值(Knowledge/PPT/Image/Excel) QAID 否 Long 问答对id Question 否 String 问题文本 Answer 否 String 答案文本 ScreenShot 是 String PPT截图 ImageShot 是 String 图片截图 HostLogo 否 String 联网搜索的logo地址 Order 否 Long 顺序 Url 否 String 联网搜索的地址 FileType 是 String 文档类型 FileID 是 Long 文件id FileName 是 String 文件名 KnowledgeID 是 Long 知识ID 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 1.请求成功返回值示例 plaintext { "statusCode": 200, "error": null, "message": "Success", "returnObj": { "count": 2, "matchList": [ { "FileID": 1108, "FileName": "知识库API.docx", "KnowledgeID": 461419421572632289, "ChunkID": 1, "ChunkText": "知识库API.docx...", "ContentID": 14, "ContentText": "1.请求成功返回值示例...", "SubTitle": "三、 API", "DocTitle": "知识库API.docxn天翼云StateCloud", "Score": 0.064522564, "UserName": "155535", "DbName": "302", "From": "Knowledge", "QAID": null, "Question": null, "Answer": null, "ScreenShot": null, "ImageShot": null, "HostLogo": null, "Order": null, "Url": null, "FileType": "doc" }, { "FileID": 1108, "FileName": "知识库API.docx", "KnowledgeID": 461419421572632275, "ChunkID": 1, "ChunkText": "知识库API.docxn...", "ContentID": 7, "ContentText": "需要在httpclient 的请求头部中加上...", "SubTitle": "二、 如何调用APIn3.拿kAk 作为密钥,eopdate 的年月日值作为数据,算出kdate。", "DocTitle": "知识库API.docxn天翼云StateCloud", "Score": 0.014622092, "UserName": "155535", "DbName": "302", "From": "Knowledge", "QAID": null, "Question": null, "Answer": null, "ScreenShot": null, "ImageShot": null, "HostLogo": null, "Order": null, "Url": null, "FileType": "doc" } ] } } 2.请求失败返回值示例 plaintext { "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 错误码 错误信息 错误描述 40004 业务异常 业务异常,详情见message 40005 知识库不存在
        来自:
        帮助文档
        知识库问答
        API参考
        API
        知识库检索
      • PUT Object - Copy
        本节主要介绍PUT ObjectCopy。 此操作用来创建一个存储在OOS里的文件拷贝。类似于执行一个GET,然后再执行一次PUT。要执行拷贝请求,用户需要对源文件有读权限,对目标Bucket有写权限。 注意 当OOS接收到请求或者正在执行拷贝操作时,拷贝操作可能会返回失败。如果在拷贝操作开始之前出现异常,OOS返回标准的错误信息。如果在拷贝操作过程中出现异常,由于200 OK状态码是先返回的,这意味着200 OK响应体可能包含成功或错误。请在客户端应用程序中解析响应体的内容并进行适当处理。 请求语法 plaintext PUT /destinationObject HTTP/1.1 Host: destinationBucket.ooscn.ctyunapi.cn xamzcopysource: /sourcebucket/sourceObject xamzmetadatadirective: metadatadirective xamzcopysourceifmatch: etag xamzcopysourceifnonematch: etag xamzcopysourceifunmodifiedsince: timestamp xamzcopysourceifmodifiedsince: timestamp xamzmetaparamater: value Authorization: SignatureValue Date: date 请求头 名称 描述 是否必须 xamzcopysource 源Bucket和文件的名称,用斜杠(/)分割。 类型:字符串。 是 xamzmetadatadirective 指明元数据是源文件的拷贝或者元数据被请求头提供的元数据覆盖。 类型:字符串。 取值: COPY:除存储类型(xamzstorageclass)、数据位置(xctyundatalocation)外的其他元数据保持不变,拷贝源文件的元数据。 REPLACE:所有原始元数据都被指定的元数据覆盖。 默认值为COPY。 注意 如果取值为COPY,源文件和目的文件相同,则必须携带xamzstorageclass,否则不能拷贝,返回400错误码。 否 xamzcopysourceifmatch 只有当源文件的Etag与给定Etag匹配时,才能执行文件拷贝操作,否则返回412 HTTP状态码错误。 类型:字符串。 否 xamzcopysourceifnonematch 只有当源文件的Etag与给定Etag不匹配时,才能执行文件拷贝操作,否则返回412 HTTP状态码错误。 类型:字符串。 否 xamzcopysourceifunmodifiedsince 只有源文件在指定时间点之后没有修改,才执行文件拷贝操作,否则返回412错误。 类型:字符串。 取值:格式为EEE, d MMM yyyy HH:mm:ss 'GMT'。 否 xamzcopysourceifmodifiedsince 只有源文件在指定时间点之后修改过,才执行文件拷贝操作,否则返回412错误。 类型:字符串。 取值:格式为EEE, d MMM yyyy HH:mm:ss 'GMT'。 否 xamzstorageclass 目标文件的存储类型。 类型:字符串。 取值: STANDARD:标准存储。 STANDARDIA:低频访问存储 默认值为STANDARD。 否 xctyundatalocation 目标文件的数据位置。 注意 香港节点不支持此参数。 类型:字符串。 取值: 格式为:typeLocal,scheduleStrategyscheduleStrategy 或者typeSpecified,locationlocation ,scheduleStrategyscheduleStrategy type:指定数据存储位置的类型,取值为Local或者Specified。Local表示就近写入,Specified表示指定位置。如果type取值为Specified,则需要指定具体的数据位置location,location可以填写多个,以逗号分隔: 对于对象存储网络,可取值为:ChengDu、GuiYang、LanZhou、QingDao、SH2、ShenYang、ShenZhen、SuZhou、WuHan、WuHu、WuLuMuQi、ZhengZhou。 对于对象存储网络2,可取值为:NeiMeng1、HangZhou1。 scheduleStrategy:调度策略,取值为: Allowed:允许OOS自动调度数据存储位置。 NotAllowed:不允许OOS自动调度数据存储位置。 否 xamzmetaparamater 用户自定义的元数据,用户可以根据需要,自定义一些元数据的参数。 类型:字符串。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Object的操作
        PUT Object - Copy
      • TeleDB内核架构
        本页介绍天翼云TeleDB数据库的内核架构。 分布式数据库方案架构如图所示。 Global Transaction Manager(简称 GTM),是全局事务管理器,负责全局事务管理,包括管理分布式事务和管理全局对象。GTM 上不存储业务数据。 管理分布式事务‌:GTM负责协调和管理分布式环境中的事务,确保事务的原子性、一致性、隔离性和持久性(ACID属性),从而保证数据的一致性和完整性。 管理全局对象‌:除了管理分布式事务本身,GTM还负责管理全局对象,如序列等,这些对象在分布式环境中需要跨多个节点进行协调和管理。 Coordinator(简称 CN)是协调节点,主要负责数据的分发和查询规划。协调节点需对外提供接口,确保高效处理和分发数据。协调节点是分布式系统中的一个组件,通过任务调度和数据分发来协调整个数据处理流程,提高处理速度和可靠性。它们还负责监控工作节点的状态和进度,确保数据的高效处理和分析。在大数据处理中,协调节点作为主节点,分配任务给工作节点,确保负载均衡和系统的容错能力。 任务调度‌:协调节点负责将任务分配给可用的工作节点,根据负载均衡策略和节点的可用性确定任务的分配方式。 数据分发‌:协调节点将输入数据分发给工作节点,实现数据并行处理,提高处理速度。 状态监控‌:协调节点监控工作节点的状态和进度,及时检测节点故障或任务失败,并采取相应的措施,如重新分配任务或启动备用节点。‌ Datanode(简称 DN)是数据节点,主要负责存储数据,执行协调节点分发的业务请求。‌它包含数据库的实际数据文件和索引文件,并接收来自应用程序或其他节点的数据读写请求,负责执行实际的数据存储和检索操作。数据节点以分布式方式组织,每个节点存储部分数据,通过分片(Sharding)技术来实现数据的水平扩展和负载均衡。这样的设计使得分布式数据库系统能够支持大规模的数据存储和高可用性,同时确保数据的均匀分布,避免单个节点成为瓶颈,从而提高系统的整体性能和可靠性。 说明 各个数据节点可以部署在不同的物理机上,也支持同物理机部署多个数据节点,注意互为主备数据节点不建议部署在同物理主机上。数据节点存储空间彼此之间独立、隔离,是标准的无共享存储拓扑结构。并且数据节点之间可以相互通信,互相交换数据。‌ TeleDB管控资源全生命周期管理。 说明 在接口上,TeleDB 支持 JDBC、ODBC、shell、C、Python、PHP、.NET 等大多数语言的 API。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB内核架构
      • 设置SSL数据加密
        本节主要介绍设置SSL数据加密 SSL(Secure Socket Layer,安全套接层),位于可靠的面向连接的网络层协议和应用层协议之间的一种协议层。SSL通过互相认证、使用数字签名确保完整性、使用加密确保私密性,以实现客户端和服务器之间的安全通讯。 认证用户和服务器,确保数据发送到正确的客户端和服务器。 加密数据以防止数据中途被窃取。 维护数据的完整性,确保数据在传输过程中不被改变。 SSL连接开启后,可以通过SSL方式连接实例,提高数据安全性。 使用须知 开启或关闭SSL会导致实例重启,请谨慎操作。 开启SSL,可以通过SSL方式连接数据库,具有更高的安全性。 目前已禁用不安全的加密算法,支持的安全加密算法对应的加密套件参考如下。 版本 支持的TLS版本 支持的加密算法套件 3.4 TLS 1.2 AES256GCMSHA384 AES128GCMSHA256 4.0 TLS 1.2 DHERSAAES256GCMSHA384 DHERSAAES128GCMSHA256 用户的客户端所在服务器需要支持对应的TLS版本以及对应的加密算法套件,否则会连接失败。 关闭SSL,可以采用非SSL方式连接数据库。 开启SSL连接 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的数据库实例,单击实例名称。 步骤 5 在“基本信息”页面的“数据库信息”区域,单击SSL处的。 开启SSL 您也可以在左侧导航树,单击“连接管理”。在“基本信息”区域的“SSL”处,单击。 开启SSL安全连接 步骤 6 在弹出框中,单击“是”,开启SSL连接。 步骤 7 稍后可在“基本信息”区域,查看到SSL已开启。 SSL开启成功 步骤 8 SSL连接开启后,可以单击SSL处的,下载SSL证书,用于连接实例时使用。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据安全性
        设置SSL数据加密
      • 整机镜像跨可用区迁移
        本章节介绍如何通过云主机备份,完成整机镜像的跨可用区迁移。 场景描述 云主机备份支持将弹性云主机的备份创建为镜像,可利用镜像发放弹性云主机,达到快速恢复业务运行环境的目的。使用云主机备份创建的镜像,在region内的其他可用区,快速创建相同配置的弹性云主机。 方案优势 跨可用区,快速共享并创建相同配置的弹性云主机,快速实现云主机迁移。 通过云主机备份创建的系统镜像包含操作系统、应用软件,以及用户的业务数据。 使用该镜像创建新的云主机,会包含已配置的自定义项,大大节省客户业务重复配置的时间。 前提条件 在进行本文操作之前,您需要完成以下准备工作: 请确保弹性云主机在备份前已完成如下操作: Linux弹性云主机优化并安装Cloudinit工具 Windows弹性云主机优化并安装Cloudbaseinit工具 创建镜像前备份的状态必须为“可用”,或者状态为“创建中”并在备份状态列显示“可用于创建镜像”时,才允许执行创建镜像操作。 操作步骤 步骤1:创建云主机备份 1、参照云主机备份操作指导章节,完成云主机备份的创建。 2、执行备份成功后,在“备份副本”页签,查看产生的备份状态为“可用”,表示当前备份任务执行成功。 步骤2:通过云主机备份创建整机镜像 1、登录天翼云管理控制台。选择“计算 > 镜像服务”。进入镜像服务页面。 2、单击右上角的“创建私有镜像”,进入创建私有镜像页面。在“镜像类型和来源”区域,选择镜像的创建方式为“整机镜像”。镜像源选择“云主机备份”,从列表中选择相应的云主机备份。 3、在“配置信息”区域,填写镜像的基本信息。例如,镜像的名称和镜像描述。单击“立即创建”。 4、根据界面提示,确认镜像参数。阅读并勾选协议,单击“提交申请”。返回私有镜像界面查询创建的整机镜像的状态。 5、当镜像的状态为“正常”时,表示创建完成。 步骤3:使用整机镜像创建云主机 1、登录天翼云管理控制台。选择“计算 > 镜像服务”。进入镜像服务页面。 2、在“私有镜像”页签下,选中创建成功的整机镜像,单击操作列“申请主机”,进入创建云主机的向导页面。 3、参考《弹性云主机用户指南》,在目的可用区完成弹性云主机的创建。使用整机镜像创建弹性云主机,如果整机镜像中包含了一块或多块数据盘,系统会自动设置好数据盘参数。
        来自:
        帮助文档
        云主机备份 CSBS
        最佳实践
        整机镜像跨可用区迁移
      • 数据库参数
        本页介绍了文档数据库服务参数。 能否调整实例的时区设定 鉴于无法调整文档数据库服务的时区设置,您可以通过在应用程序中获取当前时间并将其插入到表中的方式来处理。 用户需要关注实例的哪些参数 storage.engine 这个参数用于指定 MongoDB 使用的存储引擎,默认为 WiredTiger。可以根据需求选择其他存储引擎,如 InMemory 引擎或 MMAPv1 引擎。 storage.wiredTiger.engineConfig.cacheSizeGB 对于使用 WiredTiger 存储引擎的 MongoDB,这个参数用于配置缓存大小,即存储引擎使用的内存量。根据数据量和可用内存设置合适的值。 net.maxIncomingConnections 这个参数限制 MongoDB 实例可以同时处理的连接数。通过适当设置这个参数,可以控制 MongoDB 的并发连接数量。 security.authorization 使用这个参数可以启用或禁用 MongoDB 的访问控制功能。设置为 true 时,需要进行身份验证才能访问 MongoDB。 MapReduce提示不支持JavaScript MapReduce是一种用于对大型数据集进行处理和分析的功能强大的工具。然而,从安全性和性能方面考虑,在某些情况下可能会限制使用JavaScript代码,包括在MapReduce中执行JavaScript代码。 这种限制的目的是为了减少潜在的安全风险,避免不当的代码执行以及提高执行效率。JavaScript代码的执行可能会引起一些潜在的问题,例如代码注入攻击和性能下降。 为了安全考虑,mongodb默认限制了JavaScript脚本的执行。 文档数据库服务数据一致性策略:writeConcern与readConcern的运用与限制 MongoDB的写入和读取是数据库操作中重要的两个方面。为了确保数据的可靠性和一致性,MongoDB提供了writeConcern和readConcern这两个机制。 当我们谈论writeConcern时,实际上是在谈论写入操作的策略。通过配置writeConcern,我们可以控制数据写入的行为。例如,当我们将writeConcern设置为"majority"级别时,MongoDB会确保数据被写入到大多数节点上,从而降低了数据丢失的风险。这意味着,即使部分节点发生故障,大多数节点仍然保存着相同的数据,保障了数据的可靠性。 而readConcern则是与读取操作相关的策略。当我们设置readConcern为"majority"级别时,MongoDB会确保所读取的数据已经被写入到了大多数节点上。这就消除了因为读取操作而引起的脏读问题,因为我们可以确信读取到的数据已经经过大多数节点的确认。 然而,需要注意的是,目前文档数据库服务并不直接支持设置readConcern为"majority"级别。但这并不妨碍我们保障数据的一致性。通过设置writeConcern为"majority",我们可以将数据写入到大多数节点,从而实现了大多数节点数据的一致性。随后,通过读取单个节点的数据,仍然可以保证读取到的内容是已经经过多数节点确认的,避免了脏读的问题。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        数据库参数
      • 管理数据库连接
        本章节主要介绍如何管理数据库连接。 操作场景 数据库默认支持一定数量的连接,管理员用户可以通过管理数据库的连接,了解当前数据库的连接性能,或增加连接限制使更多用户或应用程序可以同时连接到数据库。 支持的连接数规格 集群支持的连接数与集群节点规格有关: 支持连接数规格表 参数 节点规格 CN连接数 DN连接数 maxconnections vCPUs 16 && < 32 1024 CN连接数 2 maxconnections other 2048 CN连接数 2 说明 commmaxstream,poolsize,maxpreparedtransactions策略同maxconnections 。 查看最大连接数 1. 使用SQL客户端工具连接集群中的数据库。 2. 执行以下命令: SHOW maxconnections; 界面显示的结果与以下信息类似,表示数据库默认支持的最大连接数为200。 maxconnections 200 (1 row) 查看已使用的连接数 1. 使用SQL客户端工具连接集群中的数据库。 2. 支持查看如下表所示的连接数场景。 须知 除了创建的时候用双引号引起的数据库和用户名称外,以下命令中用到的数据库名称和用户名称,其中包含的英文字母必须使用小写。 查看连接数介绍表 描述 命令 查看指定用户的会话连接数上限。 执行如下命令查看连接到指定用户dbadmin 的会话连接数上限。 SELECT ROLNAME,ROLCONNLIMIT FROM PGROLES WHERE ROLNAME'dbadmin'; 查询结果类似如下信息,其中“1”表示没有对用户dbadmin 设置连接数的限制。 rolname rolconnlimit + dwsadmin 1 (1 row) 查看指定用户已使用的会话连接数。 执行如下命令查看指定用户dbadmin 已使用的会话连接数。 SELECT COUNT() FROM V$SESSION WHERE USERNAME'dbadmin'; 查询结果类似如下信息,其中,“1”表示dbadmin 已使用的会话连接数。 count 1 (1 row) 查看指定数据库的会话连接数上限。 执行如下命令查看连接到指定数据库postgres的会话连接数上限。 SELECT DATNAME,DATCONNLIMIT FROM PGDATABASE WHERE DATNAME'postgres'; 查询结果类似如下信息,其中“1”表示没有对数据库postgres设置连接数的限制。 datname datconnlimit + postgres 1 (1 row) 查看指定数据库已使用的会话连接数。 执行如下命令查看指定数据库postgres上已使用的会话连接数。 SELECT COUNT() FROM PGSTATACTIVITY WHERE DATNAME'postgres'; 查询结果类似如下信息,其中,“1”表示数据库postgres上已使用的会话连接数。 count 1 (1 row) 查看所有用户已使用会话连接数。 执行如下命令查看所有用户已使用的会话连接数。 SELECT COUNT() FROM PGSTATACTIVITY; count 10 (1 row)
        来自:
        帮助文档
        数据仓库服务
        用户指南
        连接集群
        管理数据库连接
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • Linux操作系统云主机磁盘分区提示空间不足怎么办
        当您出现Linux操作系统云主机磁盘分区提示空间不足问题时可参考本文。 问题描述 云主机使用过程数据持续增长,容易导致磁盘空间不足的问题,相应的对系统运行造成影响,如系统性能下降、应用程序无法正常运行、系统崩溃等。 问题定位与解决方案 1. 查看磁盘空间占用情况 首先您需要了解当前磁盘下各个目录的空间占用情况,以便能够有针对性地进行优化。 执行 df h 命令查看磁盘空间的占用情况。 执行后可见系统上所有分区与挂载点的空间使用情况,可以判断哪个目录占用了大量的磁盘空间。 2. 清理临时文件 在Linux系统中,临时文件如果长时间不处理,将可能占用大量磁盘空间。您可以通过定期清理临时文件来释放磁盘空间。 以下是一些常见的临时文件所在的目录。 /tmp目录是存放临时文件的默认目录,您可以执行 rm rf /tmp/命令清理该目录下的全部临时文件,或者执行 rm rf /tmp/(文件名)命令清理该目录下的指定临时文件。 /var/tmp目录也是存放临时文件的目录,您可以执行 rm rf /var/tmp/命令清理该目录下的全部临时文件,或者执行 rm rf /var/tmp/(文件名)命令清理该目录下的指定临时文件。 3. 清理日志文件 在Linux系统中,日志文件如果长时间不处理,也可能占用大量磁盘空间。您可以通过清理不必要的日志文件来释放磁盘空间。 以下是一些常见的日志文件所在的目录: /var/log目录存放系统日志文件,您可以执行 rm rf /var/log/命令清理该目录下的全部日志文件,或者执行 rm rf /var/log/(文件名)命令清理该目录下指定日志文件。 因为Linux系统支持日志轮转策略,即日志文件保留一定时长后自动清理的策略,所以您可以通过调整日志轮转策略,即调整日志文件自动保留时间,达到日志文件常规管理的目的。 您可以编辑 /etc/logrotate.conf文件来调整系统日志轮转策略。 4. 压缩低频大文件 您可以通过临时压缩使用频率较低的大文件,释放部分磁盘空间。Linux系统中常用的压缩工具有gzip、bzip2以及zip等。 5. 删除不必要的软件和文件 如果您的系统中存在不使用或非必要的软件,或者无须留存的其它文件,可以通过清理它们来释放磁盘空间。 执行命令 sudo aptget remove (软件包名) 清理软件。 执行命令 rm rf (文件路径)/(文件名)清理指定文件。 6. 扩容磁盘空间 如果以上方法无法帮助您释放出足够的磁盘空间,请您考虑扩容已有云硬盘或添加新的云硬盘,实现存储空间扩容。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        磁盘空间管理
        Linux操作系统云主机磁盘分区提示空间不足怎么办
      • 更改时区
        本节介绍了更改时区的操作场景、更改Linux弹性云主机的时区、更改Windows弹性云主机的时区。 操作场景 弹性云主机默认设置的时区,是您制作镜像时选择的时区。如需修改,请参见本节内容,将其更改为所需的本地时间或网络中的其他时区。 弹性云主机登录成功后,如果发现弹性云主机系统时间与本地时间不一致,建议更改时区,将弹性云主机系统时间与本地时间进行同步。 更改Linux弹性云主机的时区 针对不同的Linux操作系统,更改时区的操作略有不同。本节以CentOS 6.x 64bit为例,介绍更改Linux弹性云主机时区的操作方法。 1. 登录弹性云主机。 2. 执行以下命令,切换至root帐号。 su root 3. 执行以下命令,查询支持使用的时区。 ls /usr/share/zoneinfo/ 其中,“/user/share/zoneinfo”目录显示了时区数据文件的目录结构。您可以通过该目录结构,查找您所需时区的文件。 “/user/share/zoneinfo”目录中显示的信息,部分为时区,部分为目录。其中,目录包含了针对特定城市的时区文件,您可以在此目录查找要用于弹性云主机的所在城市时区。 示例如下: − 假设您需要使用中国上海所在的时区,则需先执行命令ls /usr/share/zoneinfo/Asia打开目录。 其时区文件目录为“/usr/share/zoneinfo/Asia/Shanghai” − 假设您需要使用法国巴黎所在的时区,则需先执行命令ls /usr/share/zoneinfo/Europe打开目录,其时区文件目录为“/usr/share/zoneinfo/Europe/Paris”。 4. 设置新时区。 a. 执行以命令,打开“/etc/sysconfig/clock”文件。 vim /etc/sysconfig/clock b. 查找ZONE条目,将其更改为所需的时区文件名称。 示例如下: 假设更改为中国上海所在时区,需将ZONE条目更改为: ZONE"Asia/Shanghai" 假设更改为法国巴黎所在时区,需将ZONE条目更改为: ZONE"Europe/Paris" 5. 按“ESC”,执行以下命令,保存并退出文件。 :wq 6. 执行以下命令,查询弹性云主机中是否已经存在“/etc/localtime”文件。 ls /etc/localtime − 是,执行7。 − 否,跳转8。 7. 执行以下命令,删除已有的“/etc/localtime”文件。 rm /etc/localtime 8. 执行以下命令,在“/etc/localtime”与时区文件之间创建一个符号链接,使得弹性云主机在引用本地时间信息时找到此时区文件。 ln sf /usr/share/zoneinfo/Asia/Shanghai /etc/localtime 9. 执行以下命令,重启系统,使得所有服务和应用程序接受新时区信息。 reboot 10. 重新登录弹性云主机,使用root帐号执行以下命令,查询弹性云主机的时区,确认是否更改成功。 ls lh /etc/localtime 回显信息如下所示: ls lh /etc/localtime lrwxrwxrwx 1 root root 33 Nov 27 11:01 /etc/localtime > /usr/share/zoneinfo/Asia/Shanghai
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        管理弹性云主机
        更改时区
      • 安装Sidecar代理
        本章节介绍sidecar注入策略配置及代理安装 概述 应用服务网格基于K8s webhook技术拦截pod创建过程,并将sidecar容器注入到pod中,实现边车代理注入。服务网格支持灵活的sidecar注入策略,本文说明注入策略配置及sidecar注入过程。 Sidecar注入策略 服务网格支持根据pod及其所在的命名空间的标签、注解以及一些特殊规则决定是否注入sidecar。当前支持的注入策略配置说明如下: 配置 说明 Pod所在命名空间的标签需要满足的条件 包含istioinject:enabled:需要注入sidecar的Pod所在命名空间必须包含istioinject:enabled标签。 不包含istioinject:disabled:需要注入sidecar的Pod所在命名空间不能包含istioinject:disabled标签。 Pod标签/注解需要满足的条件 不包含sidecar.istio.io/inject:false:pod标签/注解不能包含sidecar.istio.io/inject:false。 包含sidecar.istio.io/inject:true:pod自身的标签/注解必须包含sidecar.istio.io/inject:true。 AlwaysInjectSelector 总是会注入sidecar的匹配标签匹配条件,多个标签是and关系;被选中的pod总是会注入sidecar。 NeverInjectSelector 总是不注入sidecar的匹配标签匹配条件,多个标签是and关系;被选中的pod总是不会注入sidecar。优先级高于AlwaysInjectSelector。 说明 AlwaysInjectSelector和NeverInjectSelector分别看作为匹配的Pod添加sidecar.istio.io/inject:true和sidecar.istio.io/inject:false,但是这个添加的标签优先级低于Pod原本的标签。也就是说,即使 Pod 匹配 NeverInjectSelector,但 Pod 本身具有 sidecar.istio.io/inject:true 标签时,仍然会被视为只包含 sidecar.istio.io/inject:true 标签。 在不同注入策略设置下,对于各种Pod所在命名空间标签以及Pod自身注解情况,Pod最终注入策略生效结果参考下表(表中的“Pod所在命名空间需要满足的条件”列中“包含标签”表示包含istioinject:enabled设置;“不包含标签”表示不包含istioinject:disabled设置。同理“Pod自身的注解/标签需要满足的条件”列中的“包含标签”表示包含sidecar.istio.io/inject:true设置;“不包含标签”表示不包含sidecar.istio.io/inject:false设置): 命名空间标签(istioinjection) Pod自身注解(sidecar.istio.io/inject) Pod所在命名空间需要满足的条件 Pod自身的注解/标签需要满足的条件 AlwaysInjectSelector NeverInjectSelector 结果 enabled true × × × × 注入 enabled false × × × × 不注入 enabled 未设置 × × 匹配 匹配 不注入 enabled 未设置 × × 匹配 不匹配 注入 enabled 未设置 × × 不匹配 匹配 不注入 enabled 未设置 × 包含 不匹配 不匹配 不注入 enabled 未设置 × 不包含 不匹配 不匹配 注入 disabled × × × × × 不注入 未设置 true 包含 × × × 不注入 未设置 true 不包含 × × × 注入 未设置 false × × × × 不注入 未设置 未设置 × × × × 不注入
        来自:
        帮助文档
        应用服务网格
        用户指南
        sidecar管理
        安装Sidecar代理
      • 整机镜像跨可用区迁移
        本章节介绍如何使用云服务备份完成整机镜像的跨可用区迁移。 场景描述 云服务备份支持将弹性云主机的备份创建为镜像,可利用镜像发放弹性云主机,达到快速恢复业务运行环境的目的。在本region的其他区域使用整机镜像创建弹性云主机,以实现跨区域使用镜像快速创建相同配置的弹性云主机。 方案优势 Region内跨AZ备份恢复,快速实现云主机迁移。 通过云服务备份创建的整机镜像包含操作系统、应用软件,以及用户的业务数据,可快速数据搬迁创建相同配置的弹性云主机。 前提条件 在进行本文操作之前,您需要完成以下准备工作: 请确保弹性云主机在备份前已完成如下操作: Linux弹性云主机优化并安装Cloudinit工具 Windows弹性云主机优化并安装Cloudbaseinit工具 创建镜像前备份的状态必须为“可用”,或者状态为“创建中”并在备份状态列显示“可用于创建镜像”时,才允许执行创建镜像操作。 用于创建镜像的备份必须包含系统盘的备份。 解决方案 步骤1:创建云主机备份 1、参照云服务备份操作指导章节,完成存储库的创建,用于存储整机镜像。 2、将需要迁移的云主机绑定至存储库,参照云主机备份创建指导完成该云主机的全量备份。 3、执行备份成功后,在“备份副本”页签,查看产生的备份状态为“可用”,表示当前备份任务执行成功。 步骤2:通过云备份创建整机镜像 1、登录天翼云管理控制台。选择“计算 > 镜像服务”。进入镜像服务页面。 2、单击右上角的“创建私有镜像”,进入创建私有镜像页面。在“镜像类型和来源”区域,选择镜像的创建方式为“整机镜像”。镜像源选择“云备份”,从列表中选择相应的云备份。 3、在“配置信息”区域,填写镜像的基本信息。例如,镜像的名称和镜像描述。单击“立即创建”。 4、根据界面提示,确认镜像参数。阅读并勾选协议,单击“提交申请”。返回私有镜像界面查询创建的整机镜像的状态。 5、当镜像的状态为“正常”时,表示创建完成。 步骤3:使用整机镜像创建云主机 1、登录天翼云管理控制台。选择“计算 > 镜像服务”。进入镜像服务页面。 2、在“私有镜像”页签下,选中创建成功的整机镜像,单击操作列“申请主机”,进入创建云主机的向导页面。 3、参考《弹性云主机用户指南》,在目的可用区完成弹性云主机的创建。使用整机镜像创建弹性云主机,如果整机镜像中包含了一块或多块数据盘,系统会自动设置好数据盘参数。
        来自:
        帮助文档
        云服务备份
        最佳实践
        整机镜像跨可用区迁移
      • 使用mysqldump迁移RDS for MySQL数据
        本章节会介绍如何使用mysqldump迁移RDS for MySQL数据 迁移准备 关系型数据库服务支持开启公网访问功能,通过弹性公网IP进行访问。您也可通过弹性云主机的内网访问关系型数据库。 1.准备弹性云主机或可通过公网访问关系型数据库。 通过弹性云主机连接关系型数据库实例,需要创建一台弹性云主机。 通过公网地址连接关系型数据库实例,需具备以下条件。 先对关系型数据库实例绑定公网地址。 保证本地设备可以访问关系型数据库实例绑定的公网地址。 2.在准备的弹性云主机或可访问关系型数据库的设备上,安装MySQL客户端。 说明 该弹性云主机或可访问关系型数据库的设备需要安装和RDS for MySQL数据库服务端相同版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 数据迁移到云数据库RDS后可能要面对更改IP的问题,为减少客户业务更改,降低迁移难度,支持更改内网IP。 云数据库RDS的系统库mysql和sys不支持导入到RDS for MySQL实例。 导出数据 要将源数据库迁移到关系型数据库,需要先对其进行导出。 说明 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 步骤 1 登录已准备的弹性云主机,或可访问关系型数据库的设备。 步骤 2 使用mysqldump将表结构导出至SQL文件。 说明 mysql数据库是关系型数据库服务管理所必须的数据库,导出表结构时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldumpdatabases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ] [ ] [^ ] / /' e 's/DEFINER[ ] . FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.168.151.18 P 3306 sed e 's/DEFINER[ ] [ ] [^ ]/ /' e 's/DEFINER[ ] . FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > dumpdefs.sql Enter password: 说明 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdefs.sql”文件,如下: [rds@localhost ~]$ ll dumpdefs.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdefs.sql 步骤 3 使用mysqldump将数据导出至SQL文件。 说明 mysql数据库是关系型数据库服务管理所必须的数据库,导出数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggersu ph P r 以上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.168.151.18 P 8635 r dumpdata.sql 说明 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdata.sql”文件,如下: [rds@localhost ~]$ ll dumpdata.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdata.sql
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库迁移实例
        使用mysqldump迁移RDS for MySQL数据
      • 手动扩展资源
        本文主要介绍如何手动扩展资源。 操作场景: 通过手动将实例移入到伸缩组、手动将实例移出伸缩组或手动修改期望实例数,扩展资源。 操作步骤: 将实例移入伸缩组: 您可以手动将云主机移入指定伸缩组,将云主机成功移入指定伸缩组必须满足如下约束: 表 手动移入实例的约束 项目 约束 伸缩组 处于“已启用”状态。 伸缩组没有正在进行的伸缩活动。 移入后总实例数不能大于伸缩组的最大实例数。 云主机 不能存在于其它伸缩组中。 云主机所在的VPC必须和伸缩组所在的VPC相同。 说明 单次最多批量移入实例个数为10个。 当伸缩组已添加负载均衡器,系统会自动将加入伸缩组的实例添加到负载均衡上。 将云主机移入伸缩组的步骤如下。 1. 选择“计算 > 弹性伸缩服务”。 2. 单击具体的伸缩组名称。 3. 在“伸缩实例”页签,单击“移入伸缩组”。 4. 选择待移入的实例名称,单击“确定”。 将实例移出伸缩组 您可以将实例移出伸缩组,更新实例或排查实例的问题,然后将实例重新移入伸缩组。移出伸缩组后实例不再处理应用程序流量。 例如,您可以随时更改伸缩组使用的伸缩配置,后续实例将使用此配置。不过,伸缩组不会更新当前正在运行的实例。您可以终止这些实例并让伸缩组替换这些实例,也可以先将实例移出伸缩组,更新软件,然后将该实例移入伸缩组。 云主机移出伸缩组的相关约束如下所示。 表 手动移出实例的约束 项目 约束 伸缩组 处于“已启用”状态。 伸缩组没有正在进行的伸缩活动。 云主机 生命周期状态是已启用。 云主机不在存储容灾服务中使用。 说明 单次最多批量移出实例个数为50个。 如果移除实例后使伸缩组实例数小于最小实例数,则会自动伸缩增加实例到期望实例数。 如果实例从添加了负载均衡器的伸缩组中移出,则自动取消与此负载均衡器的关联。 将云主机移出伸缩组的步骤如下。 1. 选择“计算 > 弹性伸缩服务”。 2. 单击具体的伸缩组名称。 3. 在“伸缩实例”页签中的实例所在行的“操作”列下,单击“移出伸缩组”或“移出伸缩组并删除”。 如果您要删除多个实例,可以勾选多个实例,单击“移出伸缩组”或“移出伸缩组并删除”。 如果您要删除所有实例,可以勾选参数“名称”左侧的方框,单击“移出伸缩组”或“移出伸缩组并删除”。 说明 自动添加的云主机默认计费方式是按需计费。 当您选择“移出伸缩组”时,系统仅将其移出伸缩组。 当您选择“移出伸缩组并删除”时,系统将云主机移出伸缩组时,也会将其删除。 手动移入伸缩组的实例,只能进行移出伸缩组操作,不能进行移出伸缩组并删除操作。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩活动管理
        手动扩展资源
      • 恢复副本集实例数据到指定时间点
        本文主要介绍恢复副本集实例数据到指定时间点 文档数据库服务支持使用指定时间点上的备份,恢复副本集实例的数据。 实例恢复到指定时间点,会从OBS备份空间中选择一个该时间点最近的全量备份下载到实例上进行全量恢复,再重放增量备份到指定时间点,恢复时长和实例的数据量有关,平均恢复速率为30MB/s。 使用须知 副本集实例恢复到指定时间点时,目前支持恢复到新实例和当前实例。 账户余额大于等于0元,才可恢复到新实例。 目前只有4.0版本的副本集实例支持恢复到指定时间点。 开启自动备份策略后,才允许恢复到指定时间点。 实例下能够恢复的到指定时间点的数据库不包括local数据库。 为了数据的安全性,增备恢复到指定时间点屏蔽了dropDatabase的操作。因此恢复后可能会存在残留空的库或view,用户可自行删除。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的副本集实例,单击实例名称。 步骤 5 在左侧导航树,单击“备份恢复”。 步骤 6 在“备份恢复”页面,单击“恢复到指定时间点”。 恢复到指定时间点 步骤 7 选择恢复日期和该日期内需要恢复的时间区间,输入该恢复时间区间内的一个恢复时间点,并根据业务需要选择恢复至“新实例”或“当前实例”,单击“确定”。 恢复到指定时间点 步骤 8 在服务选型页面,会根据步骤7中设置的恢复方式,进行实例恢复。 新实例跳转到“恢复到新实例”的服务选型页面,为用户重新创建一个和该备份数据相同的实例。恢复成功的新实例是一个独立的实例,与原有实例没有关联。 创建新实例时选择与原实例不同的可用区,保障应用程序不受单一位置故障的影响,提高数据的可靠性。 版本类型、实例类型、兼容MongoDB版本、存储引擎以及存储类型,与原实例相同,不可修改。 存储空间默认和原实例相同,可修改,但只可增加不可减小。 其他参数默认,用户需设置。 当前实例 说明 恢复到当前实例会导致实例数据被覆盖,且恢复过程中实例将不可用。 恢复成功后,数据库实例的管理员密码与恢复前一致。 对于备份方式为“逻辑备份”的备份,不支持恢复到当前实例。 在“实例管理”页面,可查看该实例状态为“恢复中”。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到指定时间点
        恢复副本集实例数据到指定时间点
      • 安装客户端
        本章节主要介绍安装客户端。 操作场景 该操作指导安装工程师安装MRS集群所有服务(不包含Flume)的客户端。MRS针对不同服务提供了Shell脚本,供开发维护人员在不同场景下登录其对应的服务维护客户端完成对应的维护任务。 说明 通过Manager界面修改服务端配置或系统升级后,建议重新安装客户端,否则客户端与服务端版本将不一致。 前提条件 安装目录可以不存在,会自动创建。但如果存在,则必须为空。目录路径不能包含空格。 客户端节点为集群外部服务器时,必须能够与集群业务平面网络互通,否则安装会失败。 客户端必须启用NTP服务,并保持与服务端时间一致,否则安装会失败。 对于下载所有组件客户端的情况,HDFS与Mapreduce是合一目录(“ 客户端目录 /HDFS/”)。 安装和使用客户端可以使用任意用户进行操作,用户名和密码请从管理员处获取,本章节以“userclient”进行举例。要求“userclient”用户为服务器文件目录(如“/opt/Bigdata/client”)和客户端安装目录(如“/opt/Bigdata/hadoopclient”)的“owner”,两个目录的权限为“755”。 使用客户端需要已从管理员处获取“组件业务用户”(默认用户或新增用户)和“密码”。 使用omm 和root以外的用户安装客户端时,若“/var/tmp/patch”目录已存在,需将此目录权限修改为“777”,将此目录内的日志权限修改为“666”。 操作步骤 1. 获取软件包。 登录FusionInsight Manager,具体请参考访问FusionInsight Manager(MRS 3.x及之后版本),在“集群”下拉列表中单击需要操作的集群名称。 选择“更多 > 下载客户端”,弹出“下载集群客户端”信息提示框。 详见下图:下载客户端 说明 在只安装单个服务的客户端的场景中,选择“集群 > 待操作集群的名称 > 服务 > 服务名称 > 更多 > 下载客户端”,弹出“下载客户端”信息提示框。 2. 选择客户端类型”中选择“完整客户端”。 “仅配置文件”下载的客户端配置文件,适用于应用开发任务中,完整客户端已下载并安装后,管理员通过Manager界面修改了服务端配置,开发人员需要更新客户端配置文件的场景。 平台类型包括x8664和aarch64两种: x8664:可以部署在x86平台的客户端软件包。 aarch64:可以部署在TaiShan服务器的客户端软件包。 说明 集群支持下载x8664和aarch64两种类型客户端,但是客户端类型必须和待安装节点的架构匹配,否则客户端会安装失败。 3. 是否在集群的节点中生成客户端文件? 是,勾选“仅保存到如下路径”,单击“确定”开始生成客户端文件,文件生成后默认保存在主管理节点“/tmp/FusionInsightClient”。支持自定义其他目录且omm用户拥有目录的读、写与执行权限。单击“确定”,等待下载完成后,使用omm用户或root用户将获取的软件包复制到将要安装客户端的服务器文件目录,例如“/opt/Bigdata/client”。然后执行步骤5。 说明 当用户无法获取root用户权限,需要用omm用户操作。 否,单击“确定”指定本地的保存位置,开始下载完整客户端,等待下载完成,执行步骤4。 4. 上传软件包。 使用WinSCP工具,以准备安装客户端的用户(如“userclient”),将获取的软件包上传到将要安装客户端的服务器文件目录,例如“/opt/Bigdata/client”。 客户端软件包名称格式为:“FusionInsightCluster ServicesClient.tar”。 后续步骤及章节以FusionInsightCluster1ServicesClient.tar进行举例。 说明 客户端所在主机可以是集群内节点,也可以是集群外节点。当该节点为集群外部服务器时,必须能够与集群网络互通,并启用NTP服务以保持与服务端时间一致。 例如可以为外部服务器配置与集群一样的NTP时钟源,配置之后可以执行ntpq np命令检查时间是否同步。 如果显示结果的NTP时钟源IP地址前有“”号,表示同步正常,如下: remote refid st t when poll reach delay offset jitter 10.10.10.162 .LOCL. 1 u 1 16 377 0.270 1.562 0.014 如果显示结果的NTP时钟源IP前无“”号,且“refid”项内容为“.INIT.”,或者回显异常,表示同步不正常,请联系技术支持。 remote refid st t when poll reach delay offset jitter 10.10.10.162 .INIT. 1 u 1 16 377 0.270 1.562 0.014 也可以为外部服务器配置与集群一样的chrony时钟源,配置之后可以执行chronyc sources命令检查时间是否同步。 如果显示结果的主OMS节点chrony服务IP地址前有“”号,表示同步正常,如下: MS Name/IP address Stratum Poll Reach LastRx Last sample ^10.10.10.162 10 10 377 626 +16us[ +15us] +/ 308us 如果显示结果的主OMS节点NTP服务IP前无“”号,且“ Reach ”项内容为“0”,表示同步不正常。 MS Name/IP address Stratum Poll Reach LastRx Last sample ^? 10.1.1.1 0 10 0 +0ns[ +0ns] +/ 0ns 5. 以userclient用户登录将要安装客户端的服务器。 6. 解压软件包。 进入安装包所在目录,例如“/opt/Bigdata/client”。执行如下命令解压安装包到本地目录。 tar xvf FusionInsightCluster1ServicesClient.tar 7. 校验软件包。 执行sha256sum命令校验解压得到的文件,检查回显信息与sha256文件里面的内容是否一致,例如: sha256sum c FusionInsightCluster1ServicesClientConfig.tar.sha256 FusionInsightCluster1ServicesClientConfig.tar: OK 8. 解压获取的安装文件。 tar xvf FusionInsightCluster1ServicesClientConfig.tar 9. 配置客户端网络连接。 a.确保客户端所在主机能与解压目录下“hosts”文件(例如“/opt/Bigdata/client/FusionInsightCluster ServicesClientConfig/hosts”)中所列出的各主机在网络上互通。 b.当客户端所在主机不是集群中的节点时,需要在客户端所在节点的“/etc/hosts”文件(更改此文件需要root用户权限)中设置集群所有节点主机名和业务平面IP地址映射,主机名和IP地址请保持一一对应,可执行以下步骤在hosts文件中导入集群的域名映射关系。 切换至root用户或者其他具有修改hosts文件权限的用户。 su root 进入客户端解压目录。 cd /opt/Bigdata/client/FusionInsightCluster1ServicesClientConfig 执行 cat realm.ini >>/etc/hosts ,将域名映射关系导入到hosts文件中。 说明 当客户端所在主机不是集群中的节点时,配置客户端网络连接,可避免执行客户端命令时出现错误。 如果采用yarnclient模式运行Spark任务,请在“ 客户端安装目录 /Spark/spark/conf/sparkdefaults.conf”文件中添加参数“spark.driver.host”,并将参数值设置为客户端的IP地址。 当采用yarnclient模式时,为了Spark WebUI能够正常显示,需要在Yarn的主备节点(即集群中的ResourceManager节点)的hosts文件中,配置客户端的IP地址及主机名对应关系。 10. 进入安装包所在目录,执行如下命令安装客户端到指定目录(绝对路径),例如安装到“/opt/hadoopclient”目录。 cd /opt/Bigdata/client/FusionInsightCluster1ServicesClientConfig 执行./install.sh /opt/hadoopclient命令,等待客户端安装完成(以下只显示部分屏显结果)。 The component client is installed successfully 说明 如果已经安装的全部服务或某个服务的客户端使用了“/opt/hadoopclient”目录,再安装其他服务的客户端时,需要使用不同的目录。 卸载客户端请删除客户端安装目录。 如果要求安装后的客户端仅能被该安装用户(如“userclient”)使用,请在安装时加“o”参数,即执行./install.sh /opt/hadoopclient o命令安装客户端。 如果安装NTP服务器为chrony模式,请在安装时加“chrony”参数,即执行./install.sh /opt/hadoopclient ochrony命令安装客户端。 由于HBase使用的Ruby语法限制,如果安装的客户端中包含了HBase客户端,建议客户端安装目录路径只包含大写字母、小写字母、数字以及?.@+字符。 客户端节点为集群外部服务器且此节点无法与主oms节点的业务平面IP互通时或者无法访问主节点的20029端口时,客户端可以正常安装成功,但无法注册到集群中,无法在界面上进行展示。 a.执行cd /opt/hadoopclient命令进入客户端安装目录。 b.执行source bigdataenv命令配置客户端环境变量。 c.如果集群为安全模式,执行以下命令,设置kinit认证,输入客户端用户登录密码;普通模式集群无需执行用户认证。 kinit admin Password for admin@HADOOP.COM:
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        配置客户端
        安装客户端
      • 性能类
        为什么执行ls命令时,会卡顿或无响应? 默认情况下,ls会遍历目录下的所有文件,获取文件的元数据信息并展现给用户,如果目录过大如包含10万个文件,可能需要发出10万个读指令,需要耗费很长的时间。 解决方案: 避免单个目录包含过多的文件,建议单目录下文件数量不超过1万个。 执行ls时采用全路径/usr/bin/ls,不添加colorauto参数,可避免遍历目录下文件,大幅减少读指令数量。 为什么在目录下并发创建文件,每秒创建的文件数量达不到IOPS标称的值? 创建文件涉及到“为新文件分配磁盘空间”和“将新文件加入目录”至少2个IO指令: “为新文件分配磁盘空间”可以并发执行,并发程度受文件系统大小影响,文件系统越大,并发程度越高。 “将新文件加入目录”如果修改的是同一目录,不能并发执行。修改速度受IO时延影响较大,如文件系统时延为1ms,无并发的情况下1秒内能完成1000次IO,单目录的创建性能就不会超过1000文件/秒。 解决方案: 避免单个目录包含过多的文件,建议单目录下文件数量不超过1万个。 扩容文件系统,可以提升文件系统的读写性能。 如何解决向多台云主机中挂载的NFS文件系统中写入数据延迟问题? 问题描述: 云主机1更新了文件A,但是云主机2立即去读取时,仍然获取到的是旧的内容。 问题原因: 这涉及两个原因: 第一个原因是,云主机1在写入文件A后,并不会立即进行刷新(flush),而是先进行PageCache操作,依赖于应用层调用fsync或者close来进行刷新。 第二个原因是,云主机2存在文件缓存,可能不会立即从服务器获取最新的内容。例如,在云主机1更新文件A时,云主机2已经缓存了数据,当云主机2再次读取时,仍然使用了缓存中的旧内容。 解决方案: 方案一:在云主机1更新文件后,一定要执行close或者调用fsync。在云主机2读取文件之前,重新打开文件,然后再进行读取。 方案二:关闭云主机1和云主机2的所有缓存。这会导致性能较差,所以请根据实际业务情况选择适合的方案。 关闭云主机1的缓存:在挂载时,添加noac参数,确保所有写入立即落盘。挂载命令示例如下: mount t nfs o vers3,prototcp,async,nolock,noatime,noresvport,nodiratime,wsize1048576,rsize1048576,timeo600,noac 挂载地址 本地挂载路径1 关闭云主机2的缓存:在挂载时,添加actimeo0参数,忽略所有缓存。挂载命令示例如下: mount t nfs o vers3,prototcp,async,nolock,noatime,noresvport,nodiratime,wsize1048576,rsize1048576,timeo600,actimeo0 挂载地址 本地挂载路径2 根据实际情况合理以上方案可要确保云主机1更新文件后,云主机2能立即获取到最新内容。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        性能类
      • 变更实例的CPU和内存规格
        本节介绍了如何变更云数据库TaurusDB实例的CPU和内存规格。 操作场景 可以根据业务需要对包年/包月和按需实例的规格进行变更,规格指实例的CPU/内存。当实例的状态由“规格变更中”变为“正常”,则说明变更成功。 约束限制 当实例进行CPU/内存规格变更时,该实例不可被删除。 您只能对整个实例进行规格变更,无法对实例中的单个节点进行操作。 仅按需实例支持选择可维护时间段进行规格变更,且该任务不可被取消。 注意 变更规格后会主备倒换,请选择业务低峰期,避免业务异常中断。 变更规格后主节点与只读节点的读内网地址会发生变化,请及时在应用程序中修改您的连接地址以免影响业务。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 您可以通过两种途径进行规格变更。 在“实例管理”页面,选择目标实例,单击“操作”列的“更多 > 规格变更”,进入“规格变更”页面。 单击目标实例名称,进入“基本信息”页面,在“实例信息”模块的“性能规格”处,单击“规格变更”,进入“规格变更”页面。 步骤 5 在“规格变更”页面,选择所需修改到的性能规格,您可以根据自己的需求缩小或扩大规格,并设置“切换时间”,单击“下一步”。 切换时间支持如下两种方式: 立即变更:系统会立即进行规格变更。 可维护时间段:在当前可维护时间段实现数据库资源变更,预约变更时间。 步骤 6 在规格确认页面,确认性能规格。 如需重新选择,单击“上一步”,修改性能规格。 按需计费模式的实例,单击“提交”,提交变更。 由规格变更产生的费用,您可在“费用中心 > 费用账单”中查看费用详情。 包年/包月模式的实例 缩小规格:单击“提交订单”,提交变更。由缩小规格产生的退款,系统会自动退还至客户帐户,您可通过单击“费用中心”进入“费用中心”页面,在左侧导航栏“订单管理”下的“我的订单”查看费用详情。 扩大规格:单击“提交订单”,跳转至支付页面,支付成功后,才可进行规格变更。 步骤 7 查看变更结果。 在实例管理页面,可以看到实例状态为“规格变更中”。稍后在对应的“基本信息”页面,查看实例规格,检查修改是否成功。此过程需要5~15分钟。 注意 TaurusDB实例规格变更成功后,系统将根据新内存大小,调整如下参数的值:“innodbbufferpoolsize”、“innodblogbuffersize”、“maxconnections”、“innodbbufferpoolinstances” “innodbpagecleaners”、“innodbparallelreadthreads”、“innodbreadiothreads”、“innodbwriteiothreads”、“threadpoolsize”。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        变更实例配置
        变更实例的CPU和内存规格
      • 数据迁移
        本节介绍了如何使用mysqldump工具迁移云数据库TaurusDB。 使用mysqldump迁移TaurusDB数据 注意 对于mysqlpump工具,由于在并行备份场景有coredump问题,不建议您使用,推荐您使用mysqldump工具迁移。 迁移准备 TaurusDB支持开启公网访问功能,通过弹性IP进行访问。您也可通过弹性云主机的内网访问TaurusDB。 1. 准备弹性云主机或可通过公网访问TaurusDB。 1. 通过弹性云主机连接TaurusDB数据库实例,需要创建一台弹性云主机。创建并登录弹性云主机,请参见《弹性云主机用户指南》中“创建弹性云主机”和“登录弹性云主机”。 2. 通过公网地址连接TaurusDB数据库实例,需具备以下条件。 1. 先对TaurusDB数据库实例绑定公网地址。 2. 保证本地设备可以访问TaurusDB数据库实例绑定的公网地址。 2. 在准备的弹性云主机或可访问TaurusDB数据库的设备上,安装MySQL客户端。 如何获取相应安装包及完成安装,请参见如何安装MySQL客户端。 说明 该弹性云主机或可访问TaurusDB数据库的设备需要安装和TaurusDB数据库服务端相同版本或更高版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 导出数据 要将源数据库迁移到TaurusDB数据库,需要先对其进行导出。 注意 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 步骤 1 登录已准备的弹性云主机,或可访问TaurusDB数据库的设备。 步骤 2 使用mysqldump将元数据导出至SQL文件。 注意 MySQL数据库是TaurusDB数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ] [ ] [^ ] / /' e 's/DEFINER[ ]. FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases gaussdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.xx.xx.xx P 3306 sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > dumpdefs.sql Enter password: 命令执行完会生成“dumpdefs.sql”文件。 步骤 3 使用mysqldump将数据导出至SQL文件。 注意 MySQL数据库是TaurusDB数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u p h P r 以上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases gaussdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.xx.xx.xx P 3306 r dumpdata.sql 命令执行完会生成“dumpdata.sql”文件。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        数据迁移
      • 后端主机
        是否支持添加端口号不一致的后端主机? 支持。为弹性负载均衡的添加后端主机时,您可以为每个独立的指定每个后端主机的端口号。不同后端主机之间端口号可以相同也可以不同,也可以根据需要调整后端主机的端口号。修改后端主机的端口号请参考 修改后端主机端口和权重。 弹性负载均衡是否支持添加不同操作系统的云主机? 支持,弹性负载均衡本身不会限制后端云主机的操作系统,只需确保两台云主机上的应用服务部署相同且数据一致即可。然而,我们建议您选择两台操作系统相同的云主机进行配置,以方便以后的管理和维护。 弹性负载均衡是否支持跨AZ的后端云主机? 支持。可以同时将同一VPC内的有不同可用区属性的云主机加入同一个后端主机组。可用区资源池类型的资源池有多个可用区,具体可参考 资源池区别。 在可用区资源池为负载均衡配置跨可用区的后端主机,可以实现业务的跨可用区容灾。当一个可用区内的云主机全部发生异常无法提供服务时,如果有其他可用区可正常承载服务的后端主机时,负载均衡可将流量分发至剩余的正常的后端主机保障业务正常。 弹性负载均衡可以只绑定一台云主机上使用吗? 可以,但是仅一台云主机无法做到负载均衡,建议使用两台以上云主机作为后端主机。通过配置调度算法和后端主机权重,实现业务流量在多台云主机之间均衡负载。 后端主机的权重用于指定负载均衡器在将请求分发给后端主机时所采用的权重比例。通过为每个后端主机设置不同的权重,可以实现对主机资源的分配控制和负载均衡策略的调整。 天翼云负载均衡支持的算法会根据后端主机的权重比例,决定将多少流量分发给每个后端主机,具体如下: 调度算法 权重 算法策略 轮询 调度算法权重算法策略轮询权重取值范围为[1,256] 根据后端主机的权重, 将流量按照顺序逐个分发给后端主机,每台主机依次接收请求,实现流量均衡。相应的权重表示后端主机的处理性能, 常用于短连接服务。 最小连接 权重取值范围为[1,256] 将流量分发给当前连接数最少的主机,以确保负载较小的主机能够处理更多的请求。加权最小连接即根据主机的权重和当前连接数来分发流量,常用于长连接服务。 源算法 在非0的权重下,由于使用了源算法,各个后端主机的权重属性将不再生效 将请求的源IP地址进行Hash运算,得到一个具体的数值,同时对后端主机进行编号,按照运算结果将请求分发到对应编号的主机上。这可以使得对不同源IP的访问进行负载分发,同时使得同一个客户端IP的请求始终被派发至某特定的主机。 通过调整后端服务器的权重,您可以根据服务器的性能、处理能力或其他因素,合理分配请求流量。较高权重的主机将处理更多的请求,而较低权重的主机将处理较少的请求,从而实现负载均衡和资源优化。
        来自:
        帮助文档
        弹性负载均衡 ELB
        常见问题
        后端主机
      • 操作指导
        功能 描述 首页 资产总量分布 统计资产总数及不同类型资产数目及占比。 统计主机风险资产、网站风险资产占比(风险等级非信息类资产)。 首页 弱点总量分布 统计当前发现的所有弱点数及根据不同弱点类型统计弱点数目。 首页 资产风险分布 从不同风险等级维度统计风险资产数量。 首页 风险主机TOP5 根据风险主机弱点数,列出风险数最多的5个主机资产。 首页 风险网站TOP5 根据风险网站的弱点数,列出风险数最多的5个网站资产。 首页 主机资风险/服务分布 统计主机资产出现次数最多的10个弱点、漏洞风险、服务类型、端口。 首页 网站资产风险/服务分布 统计网站资产出现次数最多的10个弱点、漏洞风险、服务类型。 首页 弱点发现趋势 按时间展示弱点的趋势状态,弱点的数据包括所有扫描类型的数据(不包含信息类漏洞)。 资产管理 资产列表 支持主机资产、网站资产两种类型。 支持新增、导入、导出、删除、编辑资产。 支持按照组织视角展示资产。 资产管理 授权管理 支持主机授权信息管理。 支数据库授信息管理。 任务管理 创建任务 支持创建通用任务、专项任务。 通用任务支持主机扫描、网站扫描、数据库扫描、基线配置核查、事件内容。 专项任务支持弱口令扫描、存活主机探测、大数据漏洞扫描、物联网漏洞扫描、信创漏洞扫描。 任务管理 任务列表 支持查看已下发的所有扫描任务,可对任务进行集中管理,包括查询任务、新增任务、执行任务等。 模板中心 漏洞模板 支持主机策略、网站策略、数据库策略管理。 支持新增、编辑、另存为、删除、查看策略。 支持使用自定义策略下发扫描任务。 模板中心 基线模板 支持工信部、公安部行业基线核查模板。 支持对应用程序、操作系统、网络设备、虚拟化设备、数据库五类资产的安全配置进行核查。 支持查看基线模板详情。 模板中心 扫描参数 支持设置主机扫描、网站扫描高级参数模板。 可根据需要设置与恢复默认扫描参数配置。 模板中心 字典模板 主机扫描和弱口令发现任务中引用的各协议弱口令字典。可自定义弱口令字典。 模板中心 报告模板 根据不同任务类型,设置离线报告导出的内容。 支持设置主机扫描报告、网站扫描报告、数据库扫描报告、基线核查报告、事件内容报告。 支持系统默认模板及自定义报告内容模板。 模板中心 端口列表 系统默认提供的端口列表模板。 报告管理 报告管理 支持对已扫描完成的任务导出离线报告。 支持对已导出报告进行下载。 系统管理 用户管理 支持角色管理及用户管理。 支持新增角色、编辑角色、删除角色。 支持新增用户,并指定用户角色。 系统管理 系统设置 提供系统服务、升级、数据备份等管理功能。 支持在线升级和离线升级。 支持系统SSH服务开启、系统重启、系统关闭、网卡重启操作。 支持设置系统时间。 支持根据需要备份系统数据。 系统管理 配置管理 提供网络配置、安全配置、告警配置、版权配置功能。 支持网卡设置、路由配置、DNS配置、网关配置。 支持密码安全复杂度、登录安全设置、超时设置、磁盘告警设置、多因子认证设置。 支持验证码登录、认证证书登录、用户名密码登录。 系统管理 引擎管理 支持对系统各个引擎状态进行查看与监控。 系统管理 常用工具 支持Ping、Traceroute、Dig、Telnet、SSH、CURL、Nmap命令工具。 系统管理 许可管理 支持查看许可授权内容及更新许可。
        来自:
        帮助文档
        云等保专区
        用户指南
        漏洞扫描
        操作指导
      • 设置目的端
        本章介绍如何进行目的端的配置。 操作场景 迁移前,您需要设置目的端服务器。该目的端用来接收源端的数据,同时您也可以使用该目的端进行迁移测试和启动目的端。 前提条件 只有“迁移阶段”为“已就绪”时才可设置目的端。 操作步骤 1. 登录主机迁移服务管理控制台。 2. 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 3. 在迁移服务器列表页面找到待迁移的服务器,在“目的端”列,单击“设置目的端”,进入迁移配置页面。或单击“操作”列的“更多 > 设置目的端”,进入迁移配置页面。如果在迁移服务器列表中没有看到源端服务器记录,请检查是否登录的是目的端天翼云帐号。 4. 在“迁移配置”页面的基本配置页签,根据下表参数说明,设置相关参数。 参数 子参数 说明 迁移参数模版 选择某个迁移参数模版后,页面根据模版的值自动设置网络类型、网络限流值、迁移方式、是否持续同步、是否调整分区、区域、项目;系统会为每个用户自动创建一个默认迁移参数模版,您也可以提前手动创建迁移参数模版,参见创建迁移参数模板。 网络类型 公网 若使用公网迁移,要求目的端服务器配置有“弹性IP”。 “网络类型”默认设置为公网。 私网 私网包括专线、VPN、对等连接、同VPC子网,如选择私网则需要提前创建,迁移时会使用目的端私有IP。 IP版本 IPv4 使用IPv4进行数据迁移。 IPv6 双栈网络下,可以选择使用IPv6进行主机迁移。 网络限流 根据要迁移的源端带宽大小及业务要求,设置限制带宽大小。 设置为0时,代表不限流。 Linux限流功能是基于TC(Traffic Control)模块控制,如果源端服务器没有TC模块,则无法支持限流。 部分Linux系统,暂不支持限流。(例如:CentOS 8.x以及基于其构建的其它发行版本均没有TC模块。) CPU限制 仅支持Linux迁移。 内存限制 磁盘吞吐限制 迁移方式 Linux文件级 Linux文件级迁移是指全量复制和持续同步最小粒度为文件,这种方式同步效率低,但兼容性好。 Windows块级 Windows块级迁移是指全量复制和持续同步的最小粒度为磁盘逻辑单位"块"。Windows当前仅支持块级迁移,这种迁移方式迁移和同步效率高。 是否持续同步 否 全量复制完成后,系统会自动启动目的端,无需用户进行操作。 若要同步新增数据,请单击操作列的“同步”,将增量数据同步至目的端服务器。 是 全量复制完成后,会进入持续同步阶段,该阶段系统会定时自动同步源端增量数据到目的端,此时目的端并未启动,无法操作。如需退出该阶段,单击“启动目的端”即可。 是否调整分区 否 选择否,目的端磁盘分区与源端保持一致。 是 选择是,用来调整目的端磁盘分区。 迁移后主机状态 关机 选择关机,迁移完成后目的端服务器自动关机。 开机 选择开机,迁移完成后目的端服务器保持开机状态。 是否检测网络质量 否 不进行网络质量评估。 是 首次全量迁移时,会生成一个“迁移网络质量评估”的子任务,该子任务通过检测丢包率、抖动、网络时延、带宽以及内存占用率和CPU占用率,给出网络质量评估结果。 是否启用多进程 否 默认使用1个进程进行迁移、同步。 是 设置迁移和同步最大进程个数,SMSAgent根据设置的进程个数,启用多个进程执行迁移任务。仅适用Linux文件迁移。 迁移特殊配置项 Linux文件级配置不同步、不迁移等特殊配置信息。 Windows块级迁移,专线场景下,可配置目的端中转IP。 调整磁盘分区 单击右侧出现的“调整磁盘分区”,弹出“磁盘分区调整”窗口,如下图所示,用户根据实际业务场景,完成磁盘分区的设置。 图 Windows磁盘分区调整 图 Linux磁盘分区调整 说明 磁盘分区调整可以修改是否迁移以及调整分区大小。 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 注意 Windows系统分区和启动分区是否迁移不可选,默认必须进行迁移。 Windows调整分区大小时只能增大当前分区大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。 LVM中的逻辑卷如果是否迁移都选择“否”,则卷组不迁移,对应的物理卷是否迁移也会全部自动切换成“否”。 Linux块级迁移,磁盘分区只可以调大。 Linux文件级迁移,磁盘分区可以调大,也可以调小,调小时需保证调小后的分区大小大于已使用空间+1GB。如果调整前分区大小小于已使用空间+1GB,则无法将磁盘分区大小调小。 如果调整分区大小超过当前磁盘大小时,请先单击“磁盘调整”,调大磁盘大小后再进行分区调整。 如果调整分区大小后,小于当前磁盘大小,如有必要,可单击“磁盘调整”,调小磁盘大小。 单击“下一步 磁盘调整”,确认磁盘调整无误后,单击“确定”,完成磁盘分区的调整。 注意 确定后,是否调整磁盘分区无法重新设置为“否”。如果想要恢复原始磁盘分区设置,请在操作栏下,下拉“更多”,单击“删除”,然后在源端重启Agent,之后重新设置目的端配置,是否调整磁盘分区选择“否”。 5. 单击右下角的“下一步:目的端配置”,进入目的端配置页签。 6. 在目的端配置页签,设置相关参数。 参数 子参数 说明 区域 下拉菜单中选择目的端服务器所在区域。 您可以根据业务要求,选择具体的区域。 项目 下拉菜单中选择目的端所在区域的项目。 选择区域后,才能选择项目 服务器选择 已有服务器 在已有的服务器列表中,根据“推荐目的端,操作系统”勾选目的端服务器。 创建新服务器 根据需求,您可以配置虚拟私有云、子网、安全组等参数,详细说明参见创建新服务器。 已有服务器 目的端服务器需要满足如下条件,否则请单击“前往ECS购买”,根据“推荐目的端,操作系统”购买满足如下条件的弹性云主机。当前已支持将源端服务器迁移到“包年/包月”和“按需计费”这两种计费模式的弹性云主机,您可根据需求选择对应计费模式的弹性云主机。 Windows系统的目的端服务器(即弹性云主机)“规格”中的“内存”大小要不小于2GB。 目的端服务器的磁盘个数不小于源端服务器磁盘个数,且目的端服务器每块磁盘的大小要不小于对应的源端服务器“推荐规格”大小。 目的端服务器的操作系统类型需要和源端的OS类型保持一致。否则,迁移完成后服务器OS系统类型与镜像类型不一致,造成名字冲突及其他问题。 确保源端服务器可以访问目的端服务器,即要有可用的EIP,或者配置VPN、专线。 确保目的端服务器所在VPC安全组配置准确。需配置目的端服务器所在VPC安全组。如果是Windows系统,开放TCP的8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移开放22端口。 以上端口,建议只对源端服务器开放。 防火墙开放端口与操作系统开放端口保持一致。 创建新服务器 选择“自动推荐”时,虚拟私有云、子网与安全组默认为自动创建,也可以根据需求手动选择。 高级配置中服务器名称、可用区、规格、系统盘、数据盘、弹性公网IP默认自动推荐和选择,也可以根据需求手动选择。 说明 数据盘支持的磁盘模式包括:VBD类型(默认)、SCSI类型。关于磁盘模式的详细介绍请参见 数据盘支持创建“共享盘”,关于共享磁盘的详细介绍请参见 选择已有模板时,虚拟私有云、子网、安全组、可用区、磁盘类型根据模板确定,也可以手动调整。 注意 虚拟私有云选择自动创建时,SMS会帮助用户创建一个VPC: 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172.16.0.0/12。 若源端IP是10. X .X.X,则推荐创建的VPC网段是10.0.0.0/8,同时创建一个子网,网段也是10.0.0.0/8。 安全组选择自动创建时,则SMS服务会自动创建一个安全组,并根据SMS的需要开放端口,Windows开放8899端口、8900端口和22端口;如果是Linux系统,块级迁移开放8900端口和22端口,文件级迁移只开放22端口。 7.目的端参数配置完成后,单击右下角“下一步:确认配置”,进入确认配置页签。 8.(可选)单击“保存为虚拟机配置模板”,弹出“创建虚拟机配置模板”窗口,输入模板名称,单击“确定”,可将配置信息保存为模板。 说明 在目的端配置时,只有服务器选择“创建新服务器”时,才能单击“保存为虚拟机配置模板”。 图 创建虚拟机配置模板窗口 9. 确认信息无误后,单击“保存配置”按钮,弹出“是否保存配置”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。如果您想立即开始迁移,可单击“保存配置并开始迁移”按钮,弹出“是否保存配置并开始迁移”窗口。仔细阅读“迁移条件须知和风险提示”后,单击“是”。 说明 当迁移服务器列表的迁移阶段列显示为,迁移实时状态为已就绪,说明目的端已配置完成。
        来自:
        帮助文档
        主机迁移服务SMS
        用户指南
        迁移服务器管理
        设置目的端
      • 新建对账作业
        本章节主要介绍新建对账作业操作。 数据对账对于数据开发和数据迁移流程中的数据一致性至关重要,而跨源数据对账的能力是检验数据迁移或数据加工前后是否一致的关键指标。 数据质量监控中的对账作业支持跨源数据对账能力,可将创建的规则应用到两张表中进行质量监控,并输出对账结果。 前提条件 在DataArts Studio控制台的数据质量模块,“数据质量监控 > 对账作业”页面创建归属目录。基于某个数据连接创建对账作业,需要选择作业归属目录,请参见下图创建归属目录。 下表是目录导航栏按键说明 序号 说明 1 新建目录 2 刷新目录 3 选择目录,单击右键,可新建目录、删除目录和对目录重命名。 创建作业 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据质量”模块,进入数据质量页面。 2.选择“数据质量监控 > 对账作业”。 3.单击“新建”,在弹出的对话框中,参见下表配置相关参数。 参数名 说明 作业名称 对账作业的名称,只能包含中文、英文字母、数字、“”,且长度为1~64个字符。 描述 为更好的识别数据对账作业 ,此处加以描述信息。描述信息长度不能超过256个字符。 所属目录 数据对账作业的存储目录,可选择已创建的目录。 作业级别 支持提示,一般,严重和致命四种级别,作业级别决定发出通知消息的模板样式。 4.单击“下一步”,进入规则配置页面。您需要点击规则下图中红框内按钮,然后参见以下表“配置模板规则”配置数据对账规则。您也可选择添加对账规则。 打开对账作业规则配置 配置模板规则 模块 参数名 说明 基本信息 子作业名称 在作业的执行结果中,每条规则对应一个子作业。为便于结果查看和日志定位,建议您补充子作业信息。 基本信息 描述 为更好的识别子作业,此处加以描述信息。 来源对象/目的对象 规则类型 来源对象的“规则类型”包括“表级规则”,“字段级规则”和“自定义规则”。字段级规则可针对表中的具体字段配置监控规则。此处选择为表级规则,页面中其他设置项对应为表级规则配置项。 目的对象的“规则类型”由来源对象的规则类型自动生成。 来源对象/目的对象 数据连接 来源对象/目的对象支持的数据源类型:DWS,MRS Hive,DLI,ORACLE、RDS(MySQL、PostgreSQL)。 从下拉列表中选择已创建的数据连接。 说明 规则都是基于数据连接的,所以在建立数据质量规则之前需要先到管理中心模块中建立数据连接。 针对通过代理连接的MRS HIVE,需要选择MRS API方式或者代理方式提交: MRS API方式:通过MRS API的方式提交。历史作业默认是MRS API提交,编辑作业时建议不修改。 代理方式:通过用户名、密码访问的方式提交。新建作业建议选择代理提交,可以避免权限问题导致的作业提交失败。 来源对象/目的对象 数据对象 在来源对象选择的数据表将和右侧目的对象的数据表做结果比较。选择配置的数据对账规则所应用到的表。 说明 数据表与数据库强相关,基于已选择的数据库。数据库基于已建立的数据连接。 来源对象/目的对象 SQL 当“规则类型”选择“自定义规则”时,需要配置该参数。此处需输入完整的SQL语句,定义如何对数据对象进行数据质量监控。 计算引擎 集群名称 选择运行对账作业的引擎。仅数据连接为DLI类型时,此参数有效。 规则模板 模板名称 该参数定义如何对数据对象做数据质量监控。 来源对象的模板名称包含内置的规则模板和用户自定义的规则模板。 目的对象的“模板名称”由来源对象的规则类型自动生成。 说明 模板类型与规则类型强相关,详情请参见新建规则模板章节中的 系统内置的规则模板一览表。除去系统内置规则模板外,您也可关联在新建规则模板中新建的自定义模板。 规则模板 版本 仅“模板名称”选择为自定义的规则模板时,需要配置该参数。自定义的规则模板发布后,会产生对应的版本号,此处选择所需的版本。 计算范围 选择扫描区域 支持选择“全表扫描”或“条件扫描”,默认为全表扫描。 当仅需计算一部分数据,或需周期性按时间戳运行质量作业时,建议通过设置where条件进行条件扫描。 计算范围 where条件 输入where子句,系统会选择符合条件的数据进行扫描。 例如需要筛选数据表中“age”字段在(18, 60]区间范围内的数据时,where条件可设置为如下内容: age > 18 and age (datetrunc('hour', now()) interval '24 h') and time :大于 :大于等于 :大于 :大于等于 <:小于等于 !:非 ll:或 &&:与 例如,“规则模板”为“表行数”,需要配置来源侧表行数小于100或来源侧表行数不等于目的侧表行数时告警,则此处可设置为“(${11}<100)(${11}!${21})”,其中“${11}”和“${21}”分别为通过告警参数配置的来源侧表和目的侧表的“总行数”,“”表示满足两个条件之一即会告警。 5.单击“下一步”,设置订阅配置信息,如果需要接收SMN通知,打开通知状态,选择通知类型和SMN服务主体,如下图。 订阅配置 6.单击“下一步”,选择调度方式,支持单次调度和周期调度两种方式,周期调度的相关参数配置请参见下表“配置周期调度参数”。配置完成后单击“提交”。 说明 1. 单次调度会产生手动任务的实例,手动任务的特点是没有调度依赖,只需要手动触发即可。 2. 周期调度会产生周期实例,周期实例是周期任务达到启用调度所配置的周期性运行时间时,被自动调度起来的实例快照。 3. 周期任务每调度一次,便生成一个实例工作流。您可以对已调度起的实例任务进行日常的运维管理,如查看运行状态,对任务进行终止、重跑等操作。 4. 只有支持委托提交作业的MRS集群,才支持对账作业周期调度。支持委托方式提交作业的MRS集群有: MRS的非安全集群。 MRS的安全集群,集群版本大于 2.1.0,并且安装了MRS 2.1.0.1以上的补丁。 配置周期调度参数 参数名 说明 生效日期 调度任务的生效日期。 调度周期 选择调度任务的执行周期,并配置相关参数。 分钟 小时 天 周 说明 调度周期选择分钟/小时,需配置调度的开始时间、间隔时间和结束时间。 调度周期选择天,需要配置调度时间,即确定了调度任务于每天的几时几分启用。 调度周期选择周,需要配置生效时间和调度时间,即确定了调度任务于周几的几时几分启用。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        数据质量监控
        新建对账作业
      • 标准快照功能概述(白名单开放)
        使用场景 快照功能可以帮助您实现以下需求: 日常备份数据 通过对云硬盘定期创建快照,实现数据的日常备份,可以应对由于误操作、病毒以及黑客攻击等导致数据丢失或不一致的情况。 快速恢复数据 应用软件升级或业务数据迁移等重大操作前,您可以创建一份或多份快照,一旦升级或迁移过程中出现问题,可以通过快照及时将业务恢复到快照创建点的数据状态。 例如,当由于云服务器A的系统盘A发生故障而无法正常开机时,由于系统盘A已经故障,因此也无法将快照数据回滚至系统盘A。此时您可以使用系统盘A已有的快照新创建一块云硬盘B并挂载至正常运行的云服务器B上,从而云服务器B能够通过云硬盘B读取原系统盘A的数据。 说明 当前通过快照回滚数据,只支持回滚快照数据至源云硬盘,不支持快照回滚到其它云硬盘。 快速部署多个业务 通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。例如数据挖掘、报表查询和开发测试等业务。这种方式既保护了原始数据,又能通过快照创建的新云硬盘快速部署其他业务,满足企业对业务数据的多元化需求。 快照原理 标准快照存储原理 标准快照是以数据块作为快照数据备份的最小粒度,快照分为全量快照和增量快照。为云硬盘创建的第一个快照为全量快照,全量快照包含创建快照时间点前云硬盘上的所有数据(数据块);后续创建的快照均为增量快照,增量快照仅存储较上一个快照有变化的数据块。 全量快照和增量快照的元数据文件中会记录快照创建时间点前的所有数据块信息,因此通过任何一个快照回滚数据至云硬盘时,均可以恢复创建快照时间点前的所有云硬盘数据。 根据数据块的来源区分,快照元数据文件中包含三类数据块:继承数据块(继承于上一个快照的数据块)、修改数据块(较上一个快照有修改的数据块)、新增数据块(较上一个快照新增的数据块)。 快照的数据文件中只会存储较上一个快照有变化的数据块(修改数据块、新增数据块)。 如图所示,假设云硬盘在9:30和10:30均有数据写入,为了备份数据,在9:00创建快照1,在10:00创建快照2,在11:00创建快照3,创建快照原理如下: 9:00首次创建快照,快照1中包含云硬盘的所有数据,其中的数据块有A、B、C,快照1为全量快照。快照1的元数据文件中会记录云硬盘全量的数据块A、B、C。 随后写入数据,修改数据块A为A1,修改数据块B为B1,新增数据块D,10:00创建快照2,仅存储较快照1有变化的数据块A1、B1、D,快照2为增量快照。快照2的元数据文件中会记录云硬盘全量的数据块A1、B1、C、D,其中数据块C继承于快照1。 随后写入数据,修改数据块A1为A2,修改数据块C为C1,新增数据块E,11:00创建快照3,仅存储较快照2有变化的数据块A2、C1、E,快照3为增量快照。快照3的元数据文件中会记录云硬盘全量的数据块A2、B1、C1、D、E,其中数据块B1、D继承于快照2。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        标准快照(白名单开放)
        标准快照功能概述(白名单开放)
      • 1
      • ...
      • 283
      • 284
      • 285
      • 286
      • 287
      • ...
      • 349
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      恢复文件和文件夹备份

      产品定义

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号