活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      数据集成工具_相关内容
      • ALM-14011 DataNode数据目录配置不合理
        本章节主要介绍ALM14011 DataNode数据目录配置不合理的告警。 告警解释 DataNode的配置参数“dfs.datanode.data.dir”指定了DataNode的数据目录。当所配置的目录路径无法创建、与系统关键目录使用同一磁盘或多个目录使用同一磁盘时,系统即刻产生此告警。 当修改DataNode的数据目录合理后,重启该DataNode,告警清除。 告警属性 告警ID 告警级别 是否自动清除 14011 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。 不合理的DataNode数据目录配置,会造成HDFS的性能下降。 可能原因 DataNode数据目录创建失败。 DataNode数据目录与系统关键目录(“/”或“/boot”)使用同一磁盘。 DataNode数据目录中多个目录使用同一磁盘。 处理步骤 查看告警原因和产生告警的DataNode节点信息 1.在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在 2.通过“定位信息”的“主机名”,获取告警产生的DataNode节点的主机名。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-14011 DataNode数据目录配置不合理
      • 新建复合指标
        预览SQL 1. 在数据架构控制台,单击左侧导航树的“技术指标”,然后选择“复合指标”页签,进入复合指标页面。 2. 在复合指标列表中,找到需要查看的复合指标,单击“更多 > 预览SQL”,弹出“预览SQL”对话框。 3. 在“预览SQL”中,您可以查看SQL语句,也可以复制SQL。 下线复合指标 对于已发布的复合指标,如果不在需要使用,可以将其下线。 说明 下线复合指标的前提是无依赖引用,即无汇总表引用。 1. 在数据架构控制台,单击左侧导航树的“技术指标”,然后选择“复合指标”页签,进入复合指标页面。 2. 在复合指标列表中,勾选需要下线的复合指标,单击“下线”按钮,弹出“批量下线”对话框。 3. 确认无误后,单击“确认提交”。 删除复合指标 说明 删除复合指标的前提是无依赖引用,即无汇总表引用。 1. 在数据架构控制台,单击左侧导航树的“技术指标”,然后选择“复合指标”页签,进入复合指标页面。 2. 在复合指标列表中,勾选需要删除的复合指标,单击列表上方的“更多 >删除”按钮,系统弹出“删除”对话框。 3. 单击“确定”。 导入复合指标 可通过导入的方式将复合指标批量快速的导入到系统中。 1. 在复合指标列表上方,单击“更多>导入”,进入“导入配置”页签。 2. 下载复合指标导入模板,编辑完成后保存至本地。 3. 选择是否更新已有数据。 说明 如果系统中已有的编码和模板中的编码相同,系统则认为是数据重复。 − 不更新:当数据重复时,不会替换系统中原有的数据。 − 更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 4. 单击“添加文件”,选择编辑完成的导入模板。 5. 单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。 6. 单击“关闭”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        指标设计
        技术指标
        新建复合指标
      • 退订数据迁移实例
        本页重点介绍通过天翼云官网门户退订数据迁移实例的过程。 操作步骤 1、登入天翼云门户。 登录天翼云 2、进入数据传输服务DTS控制台。 在天翼云门户首页顶部菜单栏,点击“控制中心”进入【控制中心】页面。 在【控制中心】页面顶部的资源池下拉列表框中选择相应资源池(目前仅支持上海36/华东1/西南1 ),找到页面中的“数据库”服务列表,选择“数据传输服务DTS”,进入DTS控制台。 在控制台左侧菜单栏点击“数据迁移”,进入【数据迁移】实例列表页面。 3、在实例列表,选择目标实例,点击“更多”>“退订”。 在【数据迁移】实例列表页面中,点击需要退订的迁移实例的操作列中的“更多”下拉菜单,点击“退订”,跳转到【退订】页面。 注意 当实例状态为“开通中”和“续订中”时,退订菜单不能点击。 当实例为其他状态时“退订”菜单可点击。 4、点击确认,完成退订。 在【退订】页面,点击“确认”按钮,页面提示退订中。 过程需要消耗一段时间,退订成功后,原有实例将被“冻结”,退订后底层数据保留固定时间(以天为单位)。
        来自:
      • 查看Redis 3.0 Proxy集群实例的数据存储统计信息
        您需要查看Proxy集群内各个存储节点的数据存储统计信息,当集群中各存储节点的数据存储分布不均匀时,您可对实例进行扩容或者清理数据。 当前仅Redis 3.0 Proxy集群实例支持查看数据存储统计信息,其他实例类型如主备只有一个存储节点,可在实例的基本信息中的已用内存查看,所以不支持。 说明 Cluster集群实例不止有一个存储节点,查看其数据存储统计信息可通过监控中的数据节点监控。 操作步骤 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击,选择区域和项目。 步骤 3 单击左侧菜单栏的“缓存管理”。进入缓存管理页面。 “缓存管理”页面支持通过搜索栏筛选对应的缓存实例。 步骤 4 实例类型选择Proxy集群,单击实例的名称,进入该实例的基本信息页面。 步骤 5 单击“节点管理”页签。 界面显示集群实例中各个节点的数据量信息。 当集群的节点数据存储容量满时,需要对实例进行扩容,具体扩容操作,请参考变更规格。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例配置管理
        查看Redis 3.0 Proxy集群实例的数据存储统计信息
      • KMS支持的密钥算法类型
        密钥类型 算法类型 密钥规格 说明 用途 对称密钥 AES AES256 AES对称密钥 小量数据的加解密或用于加解密数据密钥。 对称密钥 SM4 SM4 国密SM4对称密钥 小量数据的加解密或用于加解密数据密钥。 非对称密钥 RSA RSA204 8RSA3072 RSA4096 RSA非对称密钥 小量数据的加解密或数字签名。 非对称密钥 ECC ECP25 6ECP384 椭圆曲线密码,使用NIST推荐的椭圆曲线 数字签名。 非对称密钥 SM2 SM2 国密SM2非对称密钥 小量数据的加解密或数字签名。
        来自:
        帮助文档
        数据加密
        常见问题
        密钥管理类
        KMS支持的密钥算法类型
      • 创建密钥
        密钥类型 算法类型 密钥规格 说明 用途 对称密钥 AES AES256 AES对称密钥 小量数据的加解密或用于加解密数据密钥。 对称密钥 SM4 SM4 国密SM4对称密钥 小量数据的加解密或用于加解密数据密钥。 非对称密钥 RSA RSA2048、RSA3072、RSA4096 RSA非对称密钥 小量数据的加解密或数字签名。 非对称密钥 ECC ECP256、ECP384 椭圆曲线密码,使用NIST推荐的椭圆曲线 数字签名 非对称密钥 SM2 SM2 国密SM2非对称密钥 小量数据的加解密或数字签名。
        来自:
        帮助文档
        数据加密
        用户指南
        密钥管理
        创建密钥
      • 态势感知的数据来源是什么?
        态势感知的数据来源。 态势感知基于云上威胁数据和云服务采集的威胁数据,通过大数据挖掘和机器学习,分析并呈现威胁态势,并提供防护建议。 一方面采集全网流量数据,以及安全防护设备日志等信息,通过大数据智能AI分析采集的信息,呈现资产的安全状况,并生成相应的威胁告警。 另一方面汇聚企业主机安全(Host Security Service,HSS)等安全防护服务上报的告警数据,从中获取必要的安全事件记录,进行大数据挖掘和机器学习,智能AI分析并识别出攻击和入侵,帮助用户了解攻击和入侵过程,并提供相关的防护措施建议。 态势感知通过对多方面的安全数据的分析,为安全事件的处置决策提供依据,实时呈现完整的全网攻击态势。
        来自:
        帮助文档
        态势感知(专业版)
        常见问题
        产品咨询
        态势感知的数据来源是什么?
      • 支持云硬盘备份功能
        云硬盘备份的使用场景 云硬盘备份广泛应用于灾难恢复,数据保护与数据迁移场景: 灾难恢复:在主存储系统故障、数据丢失或灾难事件发生时,可以使用备份数据进行恢复操作,以快速恢复业务运行。 长期数据保护:备份数据可以长期保存,作为数据的长期保护措施,以满足法律合规、合约要求或数据归档的需求。 数据迁移:备份数据可以用于数据迁移,将数据从一个云环境迁移到另一个云环境,或从云环境迁移到本地环境。 云硬盘备份使用方式 云硬盘备份的操作方法,请参见云硬盘备份。
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        功能特性
        支持云硬盘备份功能
      • 表达式使用示例
        本章节主要介绍DataArts Studio的表达式使用示例流程。 通过本示例,用户可以了解数据开发模块EL表达式的如下应用: 如何在数据开发模块的SQL脚本中使用变量? 作业如何传递参数给SQL脚本变量? 在参数中如何使用EL表达式? 背景信息 使用数据开发模块的作业编排和作业调度功能,每日通过统计交易明细表,生成日交易统计报表。 本示例涉及的数据表如下所示: tradelog:记录每一笔交易数据。 tradereport:根据tradelog统计产生,记录每日交易汇总。 前提条件 已建立DLI的数据连接,以“dlidemo”数据连接为例。 如未建立,请参考创建数据连接进行操作。 已在DLI中创建数据库,以“dlidb”数据库为例。 如未创建,请参考新建数据库进行操作。 已在“dlidb”数据库中创建数据表tradelog和tradereport。 如未创建,请参考新建数据表进行操作。 操作步骤 1.新建和开发SQL脚本。 a.在数据开发模块控制台的左侧导航栏,选择“数据开发 > 脚本开发”。 b.进入右侧区域页面,选择“新建SQL脚本 > DLI”。 c.进入SQL脚本开发页面,在脚本属性栏选择“数据连接”、“数据库”、“资源队列”。 d.在脚本编辑器中输入以下SQL语句。 INSERT OVERWRITE TABLE tradereport SELECT sum(tradecount), '${yesterday}' FROM tradelog where dateformat(tradetime, 'yyyyMMdd') '${yesterday}' e.单击,将脚本的名称设置为“generatetradereport”。 2.新建和开发作业。 a.在数据开发模块控制台的左侧导航栏,选择“数据开发 > 作业开发”。 b.进入右侧区域页面,单击“新建作业”,新建一个名称为“job”的空作业。 c.进入作业开发页面,将DLI SQL节点拖至画布中,单击其图标并配置“节点属性”。 关键属性说明: SQL脚本:关联步骤1中开发完成的SQL脚本“generatetradereport”。 数据库名称:自动填写SQL脚本“generatetradereport”中选择的数据库。 队列名称:自动填写SQL脚本“generatetradereport”中选择的资源队列。 脚本参数:显示SQL脚本“generatetradereport”中的参数“yesterday”,输入以下EL表达式作为其参数值。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        EL表达式参考
        表达式使用示例
      • MySQL空间分析
        空间分析可以直观地查看数据库实例的空间使用概况、空间剩余可用天数,以及数据库中Top表的空间使用情况、空间碎片、Top库空间使用情况、空间异常诊断等,可以根据分析内容进行判断磁盘是否需要扩容以及碎片整理、索引的合理性等。 前提条件 仅限来源为天翼云RDS的MySQL数据库。 仅支持西南1、华东1、上海36、华北2、长沙42、华南2、青岛20、南昌5、西安7、杭州7资源池。 已录入DMS中,且实例状态正常的数据库实例。 操作步骤 1. 登录数据管理服务。 2. 在左侧导航栏中,单击 智能运维 > 空间分析,进入空间分析界面。 注意事项 实例纳管至DMS后,默认开启空间分析数据采集,默认采集频率为6小时。 支持用户关闭空间分析数据采集,关闭后,将无法查看最新的空间分析数据。 空间分析数据采集频率支持更改为15分钟、30分钟、1小时、6小时、12小时、24小时。 功能介绍 空间分析可以直观地查看数据库实例的空间使用概况、空间剩余可用天数,以及数据库中Top表的空间使用情况、空间碎片、Top库空间使用情况、空间异常诊断等。 磁盘空间概况:磁盘剩余量、使用量、近一周日均增长量、预计可用天数。 磁盘空间变化趋势:数据空间变化趋势、磁盘使用量变化趋势,最大可支持查看近30天磁盘空间变化。 Top表分析:Top20表总占用空间、数据空间、索引空间、碎片空间、碎片率、行数、平均行长度,支持下载、以及查看数据变化趋势。 Top库分析:Top20总占用空间、库数据空间、索引空间分析,支持下载、以及查看数据变化趋势。 问题分析:分析存在多列索引、未使用索引、冗余索引、未分区大表等异常情况的表。 表检索:可实时查看指定库下的表空间信息。
        来自:
        帮助文档
        数据管理服务
        用户指南
        智能运维
        空间分析
        MySQL空间分析
      • 数据传输服务DTS
        天翼云数据传输服务DTS(TeleDB DTS)是一种集数据迁移和数据实时同步于一体的数据传输服务。它支持关系型数据库、NoSQL数据库间的数据传输,致力于解决远距离、毫秒级异步数据传输难题。
        来自:
        帮助文档
        数据传输服务DTS
      • 使用标准快照回滚数据至云硬盘(白名单开放)
        操作场景 如果云硬盘的数据发生错误或者损坏,可以回滚快照数据至创建该快照的云硬盘,从而恢复数据。 注意 回滚云硬盘后,所有在该快照之后做的更改都会丢失。 约束与限制 只支持回滚快照数据至源云硬盘,不支持快照回滚到其它云硬盘。 当快照在创建中时,不支持使用快照回滚数据至云硬盘。 开头为“autobksnapshotvbs”、“manualbksnapshotvbs”、“autobksnapshotcsbs”、“manualbksnapshotcsbs”的快照,是创建备份时系统自动生成的快照。该快照仅支持查看详细信息,无法用于回滚数据。 前提条件 回滚云硬盘前,已为云硬盘创建云硬盘快照。 当源云硬盘状态为“可用”(即未挂载给云服务器,如果云硬盘已挂载至云服务器,需要先卸载云硬盘)或者“回滚数据失败”时,才可以执行该操作。 使用快照回滚数据至云硬盘 1. 登录管理控制台。 2. 单击页面左上角“”,选择“存储 > 云硬盘”。进入云硬盘页面。 3. 在左侧导航栏,选择“云硬盘 > 快照”。进入“快照”页面。 4. 在快照列表中,找到目标快照并单击快照所在行的“操作”列下的“回滚数据”。 5. 在弹出的对话框中,只有当快照的状态为“可用”,并且源云硬盘状态为“可用”或者“回滚数据失败”时,才可以单击“确定”。返回快照列表页面,当快照状态由“正在回滚”变为“可用”时,表示回滚数据成功。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        标准快照(白名单开放)
        使用标准快照回滚数据至云硬盘(白名单开放)
      • 配置HDFS源端参数
        参数类型 参数名 说明 取值样例 基本参数 源连接名称 由用户下拉选择即可。 hdfstocdm 基本参数 源目录或文件 “列表文件”选择为“否”时,才有该参数。 待迁移数据的目录或单个文件路径。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 /user/cdm/ 基本参数 文件格式 传输数据时所用的文件格式,可选择以下文件格式: CSV格式:以CSV格式解析源文件,用于迁移文件到数据表的场景。 二进制格式:选择“二进制格式”时不解析文件内容直接传输,不要求文件格式必须为二进制。适用于文件到文件的原样复制。 Parquet格式:以Parquet格式解析源文件,用于HDFS数据导到表的场景。 CSV格式 基本参数 列表文件 当“文件格式”选择为“二进制格式”时,才有该参数。 打开列表文件功能时,支持读取OBS桶中文件(如txt文件)的内容作为待迁移文件的列表。该文件中的内容应为待迁移文件的绝对路径(不支持目录),文件内容示例如下: /mrs/jobproperties/application16348916046210014/job.properties /mrs/jobproperties/application16348916046210029/job.properties 是 基本参数 列表文件源连接 当“列表文件”选择为“是”时,才有该参数。可选择列表文件所在的OBS连接。 OBStestlink 基本参数 列表文件OBS桶 当“列表文件”选择为“是”时,才有该参数。该参数表示列表文件所在的OBS桶名。 01 基本参数 列表文件或目录 当“列表文件”选择为“是”时,才有该参数。该参数表示列表文件所在的OBS桶中的绝对路径或目录。 /0521/Lists.txt 高级属性 换行符 文件中的换行符,默认自动识别“n”、“r”或“rn”。当“文件格式”选择为“CSV格式”时,才有该参数。 n 高级属性 字段分隔符 文件中的字段分隔符,使用Tab键作为分隔符请输入“t”。当“文件格式”选择为“CSV格式”时,才有该参数。 , 高级属性 首行为标题行 “文件格式”选择“CSV格式”时才有该参数。在迁移CSV文件到表时,CDM默认是全部写入,如果该参数选择“是”,CDM会将CSV文件的第一行数据作为标题行,不写入目的端的表。 否 高级属性 源文件处理方式 作业执行成功后对源端文件的处理方式: 不处理。 重命名:作业执行成功后将源文件重命名,添加用户名和时间戳的后缀。 删除:作业执行成功后将源文件删除。 不处理 高级属性 启动作业标识文件 选择是否开启作业标识文件的功能。当源端路径下存在启动作业的标识文件时才启动作业,否则会挂起等待一段时间,等待时长在下方“等待时间”中配置。 ok.txt 高级属性 过滤类型 满足过滤条件的路径或文件会被传输,该参数有“无”、“通配符”和“正则表达式”三种选择。 高级属性 路径过滤器 “过滤类型”选择“通配符”时,用通配符过滤目录,符合过滤器规则的目录,允许进行迁移。支持配置多个路径,中间使用“,”分隔。 input 高级属性 文件过滤器 “过滤类型”选择“通配符”时,用通配符过滤目录下的文件,符合过滤器规则的文件,允许进行迁移。支持配置多个文件,中间使用“,”分隔。 .csv 高级属性 时间过滤 选择“是”时,可以根据文件的修改时间,选择性的传输文件。 是 高级属性 起始时间 “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间大于该时间才会被传输,输入的时间格式需为“yyyyMMdd HH:mm:ss”。 该参数支持配置为时间宏变量,例如${timestamp(dateformat(yyyyMMdd HH:mm:ss,90,DAY))} 表示:只迁移最近90天内的文件。 20190701 00:00:00 高级属性 终止时间 “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间小于该时间才会被传输,输入的时间格式需为“yyyyMMdd HH:mm:ss”。 该参数支持配置为时间宏变量,例如${timestamp(dateformat(yyyyMMdd HH:mm:ss))} 表示:只迁移修改时间为当前时间以前的文件。 20190730 00:00:00 高级属性 创建快照 如果选择“是”,CDM读取HDFS系统上的文件时,会先对待迁移的源目录创建快照(不允许对单个文件创建快照),然后CDM迁移快照中的数据。 需要HDFS系统的管理员权限才可以创建快照,CDM作业完成后,快照会被删除。 否 高级属性 加密方式 “文件格式”选择“二进制格式”时,该参数才显示。 如果源端数据是被加密过的,则CDM支持解密后再导出。这里选择是否对源端数据解密,以及选择解密算法: 无:不解密,直接导出。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 AES256GCM 高级属性 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成,且必须与加密时配置的“数据加密密钥”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 高级属性 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成,且必须与加密时配置的“初始化向量”一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F 高级属性 MD5文件名后缀 “文件格式”选择“二进制格式”时,该参数才显示。 校验CDM抽取的文件,是否与源文件一致。 .md5
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业源端参数
        配置HDFS源端参数
      • 数据空间管理
        本页介绍天翼云TeleDB数据库空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 注意 在进行数据迁移前,请确保所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据将无法完成迁移。 1. 选择数据迁移 页签,单击 创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入 任务名称 、 源节点 、目标节点 和 迁移类型 。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移 和百分比迁移 。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务 ,出现创建清理任务对话框。 2. 选择 源节点 、清理开始时间 和清理结束时间 ,单击确定 。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务对话框。 2. 选择回收节点 、设置回收开始时间 和 回收结束时间 ,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务 页签,单击 创建任务 ,出现创建数据重平衡任务对话框。 2. 输入任务名称 ,选择节点组 ,单击确定 ,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 , 并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1. 不能以pg开头。 2. 只支持大小写字母、数字和下划线。 3. 只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • 数据集存储(1)
        本节介绍数据集存储容量。 数据集当前支持对象存储和并行文件两种类型。 对象存储 因对象存储产品本身不支持容量管理,因此数据集也无法进行容量管理。 并行文件 纳管并行文件类型数据集,其数据集容量和并行文件实例保持一致,在购买并行文件实例时,可以选择其容量。
        来自:
      • 告警列表
        告警规则名称 告警级别 告警条件 自动解除条件 告警失效条件 是否允许手动解除 告警邮件发送频率 数据目录读写错误 PathIOError 重要 数据目录状态为坏盘 数据目录状态为正常 数据目录被移除 数据目录从存储池中移除 数据目录所在服务器被移除 是 每天一次 数据目录所在磁盘写入速度慢 DiskWriteSlow 警告 数据目录所在磁盘写入速度慢 数据目录所在盘恢复正常 数据目录被移除 数据目录从存储池中移除 数据目录所在服务器被移除 是 每天一次 许可证即将到期 LicenseWillExpire 警告 当前时间(告警模块所在服务器的系统时间)距离最后导入的许可证的到期时间<15天且>0天 当前时间(告警模块所在服务器的系统时间)距离告警许可证的到期时间>15天 许可证过期, 导入新的许可证(不同id的许可证) 是 每天一次 许可证过期 LicenseExpired 严重 当前时间(告警模块所在服务器的系统时间)距离最后导入的许可证的到期时间< 0天 当前时间(告警模块所在服务器的系统时间)距离告警许可证的到期时间>0天 导入新的许可证(不同id的许可证) 是 每天一次 许可证维保即将到期 LicenseMaintenanceWillExpire 警告 当前时间(告警模块所在服务器的系统时间)距离最后导入的许可证的维保到期时间<15天且>0天 当前时间(告警模块所在服务器的系统时间)距离告警许可证的维保到期时间>15天 许可证过期 导入新的许可证(不同id的许可证) 是 每天一次 许可证过保 LicenseMaintenanceExpired 警告 当前时间(告警模块所在服务器的系统时间)距离最后导入的许可证的维保到期时间< 0天 当前时间(告警模块所在服务器的系统时间)距离告警许可证的维保到期时间>0天 导入新的许可证 是 每天一次 试用期即将到期 TrialVersionWillExpire 警告 当前未导入生效的许可证,并且当前时间(告警模块所在服务器的系统时间)距离试用期过期时间<15天且>0天 无解除条件,只能手动解除 导入新的许可证 是 每天一次 资源用量接近使用上限 ResourceUsageApproachingLimit 重要 本地卷总容量>许可证容量的80% 本地卷总容量<许可证容量的75% 导入新的许可证 是 每天一次 告警中的告警条数接近上限 AlarmNumberApproachingLimit 严重 告警中的告警条数>8000 告警条数<7500 无 是 每天一次 告警邮件发送失败 FailToSendAlarmEmail 严重 告警邮件发送失败 告警邮件发送成功 邮件配置被删除 邮件发送设置为disable 是 每天一次 配额使用率超阈值 CapacityQuotaUsageExceedsThreshold 警告 存储池中数据目录关联磁盘的PathCapQuotaRate>80%, 数据目录层级的数据目录关联磁盘的PathCapQuotaRate>80% 说明 数据目录未设置容量配额,则按容量配额磁盘总容量计算。 存储池中数据目录关联磁盘的PathCapQuotaRate<75%,或数据目录层级的数据目录关联磁盘的PathCapQuotaRate<75% 说明 数据目录未设置容量配额,则按容量配额磁盘总容量计算。 存储池名称变更 存储池中的数据目录被全部移除 是 每天一次 配额用尽 CapacityQuotaUsageApproachLimit 严重 基础存储池中数据目录对应磁盘总配额使用率>95% 基础存储池中数据目录对应磁盘总配额使用率<90% 基础存储池名称变更 是 每天一次 配额用尽 CapacityQuotaUsageApproachLimit 警告 非基础存储池中数据目录对应磁盘总配额使用率>95%,或数据目录对应磁盘配额使用率>95% 非基础存储池中数据目录对应磁盘总配额<90%,或数据目录对应磁盘配额使用率<90% 存储池名称变更 存储池中的数据目录被全部移除 是 每天一次 磁盘使用率超阈值 DiskUsageExceedsThreshold 警告 存储池中数据目录对应磁盘的PathRate>80%,或数据目录对应磁盘的PathRate>80% 存储池中数据目录对应磁盘的PathRate<75%,或数据目录对应磁盘的PathRate<75% 存储池名称变更 存储池中的数据目录被全部移除 是 每天一次 可用故障域数量不满足卷写入要求 InsufficientFDForLUNToWrite 警告 卷所在缓存存储池或存储池的可用故障域数量及健康数据目录数量不满足卷的最小副本数要求 告警存储池的可用故障域数量及健康数据目录数量满足卷的最小副本数要求 卷被删除 卷删除失败 卷还原失败 卷挂起中 卷已挂起 卷挂起失败 存储池名称变更 卷禁用(仅3.9之前版本支持) 是 每天一次 数据目录健康状态变为警告 DiskPathHealthStatusWarning 警告 数据目录健康状态变为警告 数据目录健康状态恢复正常 数据目录被移除 数据目录从存储池中移除 数据目录健康状态变为“Error” 是 每天一次 数据目录健康状态变为错误 DiskPathHealthStatusError 警告 数据目录健康状态变为错误 数据目录健康状态恢复正常 数据目录被移除。 数据目录从存储池中移除 是 每天一次 数据服务健康状态变为警告 DataServiceHealthStatusWarning 警告 数据服务健康状态变为警告 数据服务健康状态恢复正常 服务器被移除 数据目录被移除 数据目录从存储池中移除 数据目录健康状态变为“Error” 存储池名称变更 是 每天一次 数据服务健康状态变为错误 DataServiceHealthStatusError 重要 数据服务健康状态变为错误 数据服务健康状态恢复正常 服务器被移除 数据目录被移除 数据目录从存储池中移除 存储池名称变更 是 每天一次 协议解析服务异常 ProtocolServiceAbnormal 重要 协议解析服务异常 协议解析服务恢复正常 服务器被移除 target被删除 target被迁移 是 每天一次 故障域状态变为警告 FaultDomainWarning 警告 故障域状态变为警告 故障域状态恢复正常 服务器被移除 数据目录被移除 数据目录从存储池中移除 故障域健康状态变为“Error” 存储池名称变更或故障域全路径名称中任一节点名称变更 故障域中的数据目录被全部移除 是 每天一次 故障域状态变为错误 FaultDomainError 重要 故障域状态变为Error 故障域状态变为非Error 服务器被移除 数据目录被移除 数据目录从存储池中移除 存储池名称变更或故障域全路径名称中任一节点名称变更 故障域中的数据目录被全部移除 是 每天一次 无法连接到云 CannotConnectToCloud 严重 与云端连接断开超过10分钟 卷通过此服务器向云端读取或写入成功一次 卷被删除 卷删除失败 卷还原失败 卷挂起失败 卷已挂起 服务器被移除 target发生迁移 卷禁用(仅3.9之前版本支持) 是 每天一次 云账户异常 CloudAccountAbnormal 严重 云端读取或写入失败:欠费冻结、欠费冻结或违规冻结 云端读取或写入成功一次 卷被删除 卷删除失败 卷还原失败 卷挂起失败 卷已挂起 卷禁用(仅3.9之前版本支持) 是 每天一次 卷云端数据冲突 LUNCloudDataConflict 严重 卷对应的云端数据出现比本地更新的版本 卷对应的云端数据版本全部比本地旧 卷被删除 卷删除失败 卷还原失败 卷挂起失败 卷已挂起 卷禁用(仅3.9之前版本支持) 是 每天一次 卷云端心跳冲突 LUNCloudHeartbeatConflict 严重 卷的云端出现来自非本集群的心跳 卷的云端心跳仅来自本集群 卷被删除或 卷删除失败 卷还原失败 卷挂起失败 卷已挂起 卷禁用(仅3.9之前版本支持) 是 每天一次 卷数据残留 LUNDataResidue 警告 强制删除卷,卷数据残留: 本地数据残留:由于本地磁盘故障,导致卷数据无法同步删除 云端数据残留:删除云上数据时,由于云端数据存储位置无法访问(包括网络连接失败、账号异常等),导致数据无法同步删除 无法自动解除,只能手动解除告警 本地数据残留:数据目录从机器中移除 云端数据残留:不会自动解除,清理完云端残留数据后,可手动解除告警 是 每天一次 客户端连接断开 InitiatorConnectionFailed 警告 因为客户端的原因,HBlock无法收到客户端心跳,导致HBlock认为和客户端连接断开,立即告警。但是客户端主动断开连接的情况除外 该客户端与target连接成功。 告警的IQN所在target被删除 target被迁移 是 每天一次 安装目录剩余空间不足 InsufficientSpaceonInstallationPath 严重 安装目录所在磁盘的文件系统剩余空间<4GiB 安装目录所在磁盘的文件系统剩余空间>5GiB 服务器被移除 是 每天一次 基础服务异常 BaseServiceAbnormal 严重 发生以下任一情况时,分别发出相应告警实例的告警: 元数据管理服务(mdm)异常:集群中stor:mdm服务有2个,仅允许一个故障,故障时发出告警 故障转移控制服务(fc)异常:集群中stor:fc服务有2个,仅允许一个故障,故障时发出告警 日志服务(ls)异常:集群中stor:ls服务有3个,仅允许一个故障,故障时发出告警 协调服务(cs)异常:集群中stor:cs服务有3个,仅允许一个故障,故障时发出告警 匹配的告警实例恢复到以下程度: 元数据管理服务(mdm)在告警机器上恢复正常:告警机器上的stor:mdm服务恢复正常 故障转移控制服务(fc)在告警机器上恢复正常:告警机器上的stor:fc服务恢复正常 日志服务(ls)在告警机器上恢复正常:告警机器上的stor:ls服务恢复正常 协调服务(cs)在告警机器上恢复正常:告警机器上的stor:cs服务恢复正常 告警机器上的基础服务迁移完成 是 每天一次 基础服务数据目录剩余空间不足 InsufficientSpaceonMetaDir 严重 基础服务数据目录所在磁盘的文件系统剩余空间<4GiB 基础服务数据目录所在磁盘的文件系统剩余空间>5GiB 服务开始迁移 是 每天1次 卷数据健康度降级 LUNDataLowRedundancy 警告 卷数据降级的百分比(含缓存池和最终池数据)>10%,持续超过10分钟(10分钟内降级百分比一直低于或等于10%) 卷数据降级的百分比(含缓存池和最终池数据)0% 卷被删除 卷删除失败 是 每天1次 卷数据损坏 LUNDataCorrupted 重要 卷数据Error的百分比(含缓存池和最终池数据)>0% 卷数据Error的百分比(含缓存池和最终池数据)0% 卷被删除 卷删除失败 是 每天1次 存储池数据健康度降级 PoolDataLowRedundancy 重要 基础存储池数据降级的百分比 > 10%,持续超过10分钟(10分钟内降级百分比一直低于或等于10%) 基础存储池数据降级的百分比 0% 存储池名称修改 是 每天1次 存储池数据健康度降级 PoolDataLowRedundancy 警告 普通存储池数据降级的百分比 > 10%,持续超过10分钟(10分钟内降级百分比一直低于或等于10%) 普通存储池数据降级的百分比 0% 存储池名称修改 存储池被删除 是 每天1次 存储池数据损坏 PoolDataCorrupted 严重 基础存储池数据Error的百分比> 0% 基础存储池数据Error的百分比 0% 存储池名称修改 是 每天1次 存储池数据损坏 PoolDataCorrupted 重要 普通存储池数据Error的百分比> 0% 普通存储池数据Error的百分比 0% 存储池名称修改 存储池被删除 是 每天1次
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        告警
        告警列表
      • 支持的监控指标
        Redis实例数据节点监控指标 说明 测量对象列,表示支持该指标的实例和实例类型。 监控指标的维度请参考下文维度表格。 实例中数据节点监控指标 指标ID 指标名称 含义 取值范围 测量对象 监控周期(原始指标) cpuusage CPU利用率 该指标对于统计周期内的测量对象的CPU使用率进行多次采样,表示多次采样的最高值。单位:%。 0100% Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 memoryusage 内存利用率 该指标用于统计测量对象的内存利用率。单位:%。 0100% Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 connectedclients 活跃的客户端数量 该指标用于统计已连接的客户端数量,不包括来自从节点的连接。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 clientlongestoutlist 客户端最长输出列表 该指标用于统计客户端所有现存连接的最长输出列表。 >0 Redis 4.0主备、读写分离、集群实例数据节点 1分钟 clientbiggestinbuf 客户端最大输入缓冲 该指标用于统计客户端所有现存连接的最大输入数据长度。单位:byte。 >0byte Redis 4.0主备、读写分离、集群实例数据节点 1分钟 blockedclients 阻塞的客户端数量 该指标用于被阻塞操作挂起的客户端的数量。阻塞操作如BLPOP,BRPOP,BRPOPLPUSH。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 usedmemory 已用内存 该指标用于统计Redis已使用的内存字节数。单位:byte。 >0byte Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 usedmemoryrss 已用内存RSS 该指标用于统计Redis已使用的RSS内存。即实际驻留“在内存中”的内存数,包含和堆,但不包括换出的内存。单位:byte。 >0byte Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 usedmemorypeak 已用内存峰值 该指标用于统计Redis服务器启动以来使用内存的峰值。单位:byte。 >0byte Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 usedmemorylua Lua已用内存 该指标用于统计Lua引擎已使用的内存字节。单位:byte。 >0byte Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 memoryfragratio 内存碎片率 该指标用于统计当前的内存碎片率。其数值上等于usedmemoryrss / usedmemory。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 totalconnectionsreceived 新建连接数 该指标用于统计周期内新建的连接数。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 totalcommandsprocessed 处理的命令数 该指标用于统计周期内处理的命令数。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 instantaneousops 每秒并发操作数 该指标用于统计每秒处理的命令数。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 totalnetinputbytes 网络收到字节数 该指标用于统计周期内收到的字节数。单位:byte。 >0byte Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0主备实例数据节点 1分钟 totalnetoutputbytes 网络发送字节数 该指标用于统计周期内发送的字节数。单位:byte。 >0byte Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 instantaneousinputkbps 网络瞬时输入流量 该指标用于统计瞬时的输入流量。单位:KB/s。 >0KB/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 instantaneousoutputkbps 网络瞬时输出流量 该指标用于统计瞬时的输出流量。单位:KB/s。 >0KB/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 rejectedconnections 已拒绝的连接数 该指标用于统计周期内因为超过maxclients而拒绝的连接数量。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 expiredkeys 已过期的键数量 该指标用于统计周期内因过期而被删除的键数量。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 evictedkeys 已逐出的键数量 该指标用于统计周期内因为内存不足被删除的键数量。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 pubsubchannels Pubsub通道个数 该指标用于统计Pub/Sub通道个数。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 pubsubpatterns Pubsub模式个数 该指标用于统计Pub/Sub模式个数。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 keyspacehitsperc 缓存命中率 该指标用于统计Redis的缓存命中率,其命中率算法为:keyspacehits/(keyspacehits+keyspacemisses)单位:%。 0100% Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 commandmaxdelay 命令最大时延 统计节点的命令最大时延。单位:ms。 >0ms Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 isslowlogexist 是否存在慢日志 统计节点是否存在慢日志。说明该监控不统计由migrate、slaveof、config、bgsave、bgrewriteaof命令导致的慢日志。 l 1:表示存在l 0:表示不存在。 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 keys 缓存键总数 该指标用于统计Redis缓存中键总数。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 sadd SADD 该指标用于统计平均每秒sadd操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 smembers SMEMBERS 该指标用于统计平均每秒smembers操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 msreploffset 主从数据同步差值 该指标用于统计主从节点之间的数据同步差值。 Redis4.0/Redis5.0集群实例数据节点的备节点 1分钟 del DEL 该指标用于统计平均每秒del操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 expire EXPIRE 该指标用于统计平均每秒expire操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 get GET 该指标用于统计平均每秒get操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 hdel HDEL 该指标用于统计平均每秒hdel操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 hget HGET 该指标用于统计平均每秒hget操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 hmget HMGET 该指标用于统计平均每秒hmget操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 hmset HMSET 该指标用于统计平均每秒hmset操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 hset HSET 该指标用于统计平均每秒hset操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 mget MGET 该指标用于统计平均每秒mget操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 mset MSET 该指标用于统计平均每秒mset操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 set SET 该指标用于统计平均每秒set操作数。单位:Count/s 0500000 Count/s Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 rxcontrolled 流控次数 该指标用于统计周期内被流控的次数。单位:Count。 >0 Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟 bandwidthusage 带宽使用率 计算当前流量带宽与最大带宽限制的百分比。 0200% Redis读写分离、集群实例数据节点Redis 4.0/Redis 5.0/Redis 6.0主备实例数据节点 1分钟
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        监控
        支持的监控指标
      • 使用OpenSearch客户端导入数据至OpenSearch实例
        本文为您介绍使用OpenSearch客户端导入数据至天翼云云搜索服务OpenSearch实例的方法。 OpenSearch提供官方的客户端库,支持多种编程语言,如 Java、Python、JavaScript 等。 适用场景 编程场景:当你有自定义应用程序,需要通过代码直接与OpenSearch交互时,OpenSearch客户端提供了灵活的 API 进行复杂查询和批量导入数据。 批量数据导入:通过客户端库可以实现大规模数据的分块导入,并发写入,适用于处理大数据量的场景。 动态数据处理:如果数据在导入前需要复杂的逻辑处理,可以通过编程语言和客户端实现定制的数据流。 前提条件 已经开通天翼云云搜索OpenSearch实例。 能够通过HTTP访问OpenSearch实例。 客户端使用实例 这里以Python和Java客户端为例。 使用Python客户端 (opensearchpy) Python客户端opensearchpy是一个与OpenSearch交互的轻量级库。使用它,你可以通过index方法将数据导入到指定索引中。 python from opensearchpy import OpenSearch 创建OpenSearch客户端 osclient OpenSearch(" 要导入的数据 data { "title": "OpenSearch入门", "content": "OpenSearch是一款分布式搜索引擎,用于高效搜索和分析大量数据。", "date": "20240823" } 将数据导入到名为"articles"的索引 response osclient.index(index"articles", bodydata) print(response) 使用Java客户端 Java 是 OpenSearch 的主要编程语言之一,其官方客户端提供了丰富的功能。以下示例展示了如何使用 Java 客户端导入数据: java import org.opensearch.client.RestClient; import org.opensearch.client.RestHighLevelClient; import org.opensearch.client.RequestOptions; import org.opensearch.action.index.IndexRequest; import org.opensearch.action.index.IndexResponse; import org.opensearch.common.xcontent.XContentType; public class DataImporter { public static void main(String[] args) throws Exception { RestHighLevelClient client new RestHighLevelClient( RestClient.builder(new HttpHost("ip", 9200, "http")) ); String jsonString "{" + ""title":"OpenSearch入门"," + ""content":"OpenSearch是一款分布式搜索引擎..."," + ""date":"20240823"" + "}"; IndexRequest request new IndexRequest("articles"); request.source(jsonString, XContentType.JSON); IndexResponse response client.index(request, RequestOptions.DEFAULT); System.out.println(response.getId()); client.close(); } }
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        导入数据至OpenSearch实例
        使用OpenSearch客户端导入数据至OpenSearch实例
      • 使用Kibana或API导入数据到Elasticsearch
        本章节主要介绍如何使用Kibana或API导入数据到Elasticsearch。 云搜索服务支持使用Kibana或者API将数据导入到Elasticsearch中,数据文件支持JSON、CSV等格式。 使用Kibana导入数据 在导入数据之前,您可以使用Kibana接入集群。如下操作步骤介绍如何使用POST命令导入数据。 1.登录Kibana Console页面,详细操作请参见接入集群章节中的 在管理控制台通过Kibana接入集群。 首次登录时,需要在Kibana的左侧导航中选择“Dev Tools”,单击“Get to work”,进入Console界面。非首次登录可单击“Dev Tools”直接进入Kibana Console页面。 2.(可选)在Console界面,执行命令创建待存储数据的索引,并指定自定义映射来定义数据类型。 如果待导入数据的集群已存在可用的索引,则不需要再创建索引;如果待导入数据的集群不存在可用的索引,则需要参考如下示例创建索引。 例如:在Console界面,执行如下命令,创建索引“mystore”,并指定自定义映射来定义数据类型。 7.x之前版本 PUT/mystore { "settings": { "numberofshards": 1 }, "mappings": { "products": { "properties": { "productName":{ "type":"text" }, "size": { "type":"keyword" } } } } } 7.x之后版本 PUT/mystore { "settings": { "numberofshards": 1 }, "mappings": { "properties": { "productName": { "type":"text" }, "size": { "type":"keyword" } } } } 3.在Console界面的右侧文本框中输入要导入数据的POST命令,以导入一条数据为例,执行如下命令。 7.x之前版本 POST/mystore/products/bulk {"index":{}} {"productName":"Latest art shirts for women in 2017 autumn","size":"L"} 7.x之后版本 POST/mystore/bulk {"index":{}} {"productName":"Latest art shirts for women in 2017 autumn","size":"L"} 返回结果如下图所示,当返回结果信息中“errors”字段的值为“false”时,表示导入数据成功。 详见下图:返回消息
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        导入数据到Elasticsearch
        使用Kibana或API导入数据到Elasticsearch
      • 记录数据迁移入库时间
        本章节主要介绍记录数据迁移入库时间。 CDM在创建表/文件迁移的作业,支持连接器源端为关系型数据库时,在表字段映射中使用时间宏变量增加入库时间字段,用以记录关系型数据库的入库时间等用途。 前提条件 已创建连接器源端为关系型数据库,以及目的端数据连接。 创建表/文件迁移作业 1.在创建表/文件迁移作业时,选择已创建的源端连接器、目的端连接器。 图 配置作业 2.单击“下一步”,进入“字段映射”配置页面后,单击源字段图标。 图 配置字段映射 3.选择“自定义字段”页签,填写字段名称及字段值后单击“确认”按钮,例如: 名称:InputTime。 值:${timestamp()},更多时间宏变量请参见下表。 图 添加字段 表 时间变量宏定义具体展示 宏变量 含义 实际显示效果 ${dateformat(yyyyMMdd)} 以yyyyMMdd格式返回当前时间。 20171016 ${dateformat(yyyy/MM/dd)} 以yyyy/MM/dd格式返回当前时间。 2017/10/16 ${dateformat(yyyyMMdd HH:mm:ss)} 以yyyyMMdd HH:mm:ss格式返回当前时间。 20171016 09:00:00 ${dateformat(yyyyMMdd HH:mm:ss, 1, DAY)} 以yyyyMMdd HH:mm:ss格式返回时间,时间为当前时间的前一天。 20171015 09:00:00 ${timestamp()} 返回当前时间的时间戳,即1970年1月1日(00:00:00 GMT)到当前时间的毫秒数。 1508115600000 ${timestamp(10, MINUTE)} 返回当前时间点10分钟前的时间戳。 1508115000000 ${timestamp(dateformat(yyyyMMdd))} 返回今天0点的时间戳。 1508083200000 ${timestamp(dateformat(yyyyMMdd,1,DAY))} 返回昨天0点的时间戳。 1507996800000 ${timestamp(dateformat(yyyyMMddHH))} 返回当前整小时的时间戳。 1508115600000 说明 添加完字段后,新增的字段在界面不显示样值,不会影响字段值的传输,CDM会将字段值直接写入目的端。 这里“添加字段”中“自定义字段”的功能,要求源端连接器为JDBC连接器、HBase连接器、MongoDB连接器、ElasticSearch连接器、Kafka连接器,或者目的端为HBase连接器。 4.单击“下一步”配置任务参数,一般情况下全部保持默认即可。 该步骤用户可以配置如下可选功能: 作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。这里保持默认值“1”。 是否写入脏数据:如果需要将作业执行过程中处理失败的数据、或者被清洗过滤掉的数据写入OBS中,以便后面查看,可通过该参数配置,写入数据前需要先配置好OBS连接。这里保持默认值“否”即可,不记录脏数据。 作业运行完是否删除:这里保持默认值“不删除”。 5.单击“保存并运行”,回到作业管理的表/文件迁移界面,在作业管理界面可查看作业执行进度和结果。 6.作业执行成功后,单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。 在历史记录界面单击“日志”,可查看作业的日志信息。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        记录数据迁移入库时间
      • 存储卷
        本节介绍了云容器引擎的最佳实践:存储卷。 存储基础知识 云容器引擎使用Kubernetes编排系统作为集群、应用、存储、网络等模块的管理平台。本文为您介绍容器存储相关的基础知识,以便在使用容器服务的存储能力时,了解相应模块的基础知识和使用原则。 数据卷(Volume) 因为容器中的文件在磁盘上是临时存放的,所以Kubernetes定义了数据卷(Volume)以解决容器中的文件因容器重启而丢失的问题。数据卷(Volume)是Pod与外部存储设备进行数据传递的通道,也是Pod内部容器间、Pod与Pod间、Pod与外部环境进行数据共享的方式。数据卷(Volume)定义了外置存储的细节,并内嵌到Pod中作为Pod的一部分。实质是外置存储在Kubernetes系统的一个资源映射,当负载需要使用外置存储的时候,可以从数据卷(Volume)中查到相关信息并进行存储挂载操作。 数据卷(Volume)分类 描述 本地存储 适用于本地存储的数据卷,例如HostPath、emptyDir等。本地存储卷的特点是数据保存在集群的特定节点上,并且不能随着应用漂移,节点停机时数据即不再可用。 网络存储 适用于网络存储的数据卷,例如Ceph、GlusterFS、NFS、iSCSI等。网络存储卷的特点是数据不在集群的某个节点上,而是在远端的存储服务上,使用存储卷时需要将存储服务挂载到本地使用。 Secret和ConfigMap Secret和ConfigMap是特殊的数据卷,其数据是集群的一些对象信息,该对象数据以卷的形式被挂载到节点上供应用使用。 PVC 一种数据卷定义方式,将数据卷抽象成一个独立于Pod的对象,这个对象定义(关联)的存储信息即存储卷对应的真正存储信息,供Kubernetes负载挂载使用。 数据卷(Volume)使用原则:一个Pod可以挂载多个数据卷(Volume)。一个Pod可以挂载多种类型的数据卷(Volume)。每个被Pod挂载的Volume卷,可以在不同的容器间共享。Kubernetes环境推荐使用PVC和PV方式挂载数据卷(Volume)。虽然单Pod可以挂载多个数据卷(Volume),但是并不建议给一个Pod挂载过多数据卷。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        存储
        存储卷
      • 敏感列权限管控
        在实例元数据页管理敏感列权限 具体操作流程如下: 1. 登录数据管理服务DMS。 2. 进入数据权限管理页面。在左侧菜单栏依次点击数据资产 >实例管理 ,选择某个实例,点击更多>数据权限管理按钮进入数据权限管理页面。 3. 选择需要授权的敏感列。切换到敏感列授权 页面,点击添加授权按钮进入授权页面,在左侧”请选择“框内勾选想要授权的敏感列的复选框,然后点击中间的”>“按钮,即可将当前页选中的敏感列加入到右侧”已选择“框内。 4. 选择需要授权的用户。从用户名下拉列表中选择至少一个用户。 5. 选择权限的类型。 6. 选择权限的有效期。权限有效期默认为1个月,根据用户需要,可以选择3个月、半年或者1年,也可以点击时间栏,直接指定权限的到期时间。 7. 确定信息无误后,点击页面右下角的确认授权按钮即可完成授权。 在用户管理页管理敏感列权限 具体操作流程如下: 1. 登录数据管理服务DMS。 2. 进入数据授权页面。在左侧菜单栏依次点击安全协作>用户与角色 ,选择某个用户,点击数据授权 按钮进入数据授权页面;或者在左侧菜单栏依次点击安全协作>团队管理 ,切换到团队成员管理 页面,选择某个团队成员,点击数据授权按钮进入数据授权页面。 3. 搜索需要授权的敏感列。切换到敏感列授权页面,先输入库/模式/实例关键字搜索指定库/模式,然后输入列名、表名关键字搜索敏感列,再点击查询。也可以选择指定的团队、数据库类型、敏感等级对敏感列进行筛选。 4. 选择需要授权的敏感列。在左侧”请选择“框内勾选想要授权的敏感列的复选框,然后点击中间的”>“按钮,即可将当前页选中的敏感列加入到右侧”已选择“框内。 5. 选择权限的类型。 6. 选择权限的有效期。权限有效期默认为1个月,根据用户需要,可以选择3个月、半年或者1年,也可以点击时间栏,直接指定权限的到期时间。 7. 确定信息无误后,点击页面右下角的确认授权按钮即可完成授权。
        来自:
        帮助文档
        数据管理服务
        用户指南
        数据资产
        敏感数据保护
        敏感列权限管控
      • 使用DAS的导出和导入功能迁移RDS for PostgreSQL数据
        本节包含使用DAS的导出和导入功能迁移RDS for PostgreSQL数据的相关内容。 操作场景 当进行数据备份或迁移时,支持使用数据管理服务的数据导出功能,获取完整的数据信息,再将数据从本地或者从OBS桶导入目标数据表。 约束限制 导出或导入数据时,请谨慎,避免因操作不当导致实例或业务异常。 导入单文件大小最大可达1GB。 暂不支持BINARY、VARBINARY、TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB等二进制类型字段的导入。 RDS for PostgreSQL实例表数量超过10万时,使用DAS的“导出数据库”功能会报错表数量过多,无法导出数据。此时请使用“导出SQL结果集”功能。 导出数据 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击操作列的“登录”,进入数据管理服务实例登录界面。 步骤 5 正确输入数据库用户名和密码,单击“登录”,即可进入您的数据库并进行管理。 步骤 6 在顶部菜单栏选择“导入·导出”>“导出”。 步骤 7 在导出页面,单击左上角“新建任务”,您可根据需要选择“导出数据库”或“导出SQL结果集”。下文以导出数据库为例,导出SQL集同理。 您也可通过单击“快速导出”,选择目标数据库,在创建快速导出任务弹窗中选择存储位置,并单击“确定”。 步骤 8 在导出数据库弹出页面,您可按需选填“基本信息”及“高级选项”,并在页面右侧选择需要导出的表。 说明 SQL结果集导出任务中,执行SQL的最大限制是5M。 数据库分用户库和系统库,系统库不支持导出功能。如需导出,您需把创建用户数据库,业务部署到用户库,然后再执行导出操作。 DAS在执行导出操作时,会连接到您的备库进行导出,可以有效规避导出时对主库的性能影响,但当备库复制延迟较大时,会存在“导出的数据不是最新数据“的可能性。 步骤 9 设置完导出任务信息,单击弹出页面下部“确定”,创建导出任务。 步骤 10 在导出任务列表页面,您可查看任务ID、任务类型、任务状态、进度等信息。 步骤 11 您可在列表操作栏,单击“查看详情”,在任务详情弹出页面,查看本次导出任务执行的详情信息。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据库迁移
        使用DAS的导出和导入功能迁移RDS for PostgreSQL数据
      • 分布式存储架构及可扩展性
        相比于传统的集中式数据库,分布式数据被分散存储在多个物理位置(多台服务器或数据中心)上,并将这些分散的存储资源构成一个虚拟的存储设备。这种存储方式不仅实现在线扩容能力,同时也提升了数据的检索能力。而且分布式数据库利用SQL语言进行分布式查询和处理,使其性能和扩展性得到显著提升。 分布式数据存储原理 分布式存储架构通常由三个部分组成:客户端、元数据服务器(协调节点)和数据服务器(数据节点)。其主要流程是:客户端负责发送读写请求,缓存文件元数据和文件数据。元数据服务器(协调节点)管理元数据和处理客户端的请求。数据服务器(数据节点)存放文件数据,保证数据的可用性和完整性。分布式存储主要通过以下几种方式实现: 数据分片‌:在分布式存储系统中,数据被分成多个部分,每个部分存储在不同的数据节点上,以实现数据的分布式存储和管理。这种分片通常使用哈希函数或一致性哈希算法来实现。 主备复制‌:为了提高数据的可靠性和可用性,分布式存储系统通常分为主备节点。每个数据都存储在不同的数据节点上,以确保即使某些节点出现故障,仍然可以从其他节点中恢复数据。 数据一致性‌:确保数据在不同节点之间的一致性是分布式存储系统的关键。为了实现数据同步和管理,分布式存储系统使用数据同步和管理机制,如Paxos算法、Raft算法或ZooKeeper等分布式协调服务。 数据访问‌:在分布式存储系统中,数据可以并行地从多个节点中读取和写入,以提高读写性能和吞吐量。数据访问使用负载均衡机制实现,如分布式哈希表、分布式缓存或分布式文件系统等技术。 通过这种存储方式可实现TeleDB在线扩容能力,在业务无感知的情况下,在线弹性伸缩,提升系统容量和处理能力,以便满足大规模存储应用的需求。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式存储架构及可扩展性
      • 导入导出表
        参数名 参数说明(导入DLI/POSTGRESQL/DWS/MRSHIVE类型的表) 所属主题 需填写已有的主题的编码路径,以/分隔。如果您未新建主题信息,请参见 逻辑实体名称 表名称,只能包含中文、英文字母、数字、左右括号、中划线和下划线,且以中文和英文字母开头。 表名称 表英文名称,只能包含英文字母、数字、下划线、$、{、},且不能以数字开头。 表别名 用户在配置中心打开了“表别名”时显示此项,名称别名。 表级标签 给表添加的标签,请输入已有的标签或新的标签名称。您也可以先前往DataArts Studio数据目录模块的“标签管理”页面添加标签,然后再回到此处设置相应的标签。添加标签的具体操作,请参见 描述 表的描述信息。 资产责任人 需输入DataArts Studio实例当前工作空间中的用户名。只有工作空间管理员或开发者、运维者角色的用户才可以设置为责任人。 数据连接类型 支持以下连接类型:DLI、POSTGRESQL、DWS、MRSHIVE。 表类型 DLI模型的表支持以下表类型: Managed:数据存储位置为DLI的表。 External:数据存储位置为OBS的表。当“表类型”设置为External时,需设置“OBS路径””参数。 DLIVIEW:该类型只支持导入,不支持在控制台页面创建。 DWS模型的表支持以下表类型: DWSROW:行类型。 DWSCOLUMN:列类型。 DWSVIEW:视图类型。 MRSHIVE模型的表不支持该参数。 OBS路径 DLI模型的表类型为DLIEXTERNAL时,需填写与表相关联的存放源数据的OBS路径。OBS路径格式如:bucketname/filepath。 数据格式 该参数仅DLI模型的表有效。 表类型为DLIMANAGED的表支持的数据格式有: Parquet、Carbon。 表类型为DLIEXTERNAL的表支持的数据格式有: Parquet、Carbon、CSV、ORC、JSON、Avro。 表所属的数据连接 输入已创建的数据连接名称。 表所属的数据库 输入已创建的数据库名称。 数据连接扩展信息 连接类型为DLI时,输入DLI队列名称。连接类型为DWS或POSTGRESQL时,输入Schema名称。 属性名称(CHN) 表中的属性字段的中文名称。只能包含中文、英文字母、数字、左右括号、中划线和下划线,且以中文或英文字母开头。 属性名称(ENG) 表中的属性字段的英文名称。只能包含英文字母、数字和下划线,且以英文字母开头。 顺序 属性字段在表中的顺序,从1开始。可以不填,不填时属性字段默认按模板中的顺序在表中排列。 属性描述 属性字段的描述信息。 数据类型 不同的数据连接类型支持的数据类型不一样,请参见 数据长度 对于不定长的数据类型,如果所指定的数据连接类型支持对其指定数据长度,请指定数据长度。 例如,DWS连接类型,如果字段类型为CHAR(10),需要在“数据类型”中填写“CHAR”,在“数据长度”中填写“10”。 是否分区 填写“Y”表示该字段为分区字段,填写“N”表示不是分区字段。 是否主键 填写“Y”表示该字段为主键,填写“N”表示不是主键。 不为空 填写“Y”表示该字段不为空,填写“N”表示字段允许为空。 引用的数据标准编码 填写需要引用的数据标准的编码,也可以不填。如果未创建数据标准,请参见 属性标签 为属性字段添加的标签,请输入已有的标签或新的标签名称。您也可以先前往DataArts Studio数据目录模块的“标签管理”页面添加标签,然后再回到此处设置相应的标签。添加标签的具体操作,请参见 其他配置 为JSON格式,用于存放表额外配置信息。格式如下:{"optionname1": "value","optionname2": "value"……}例如:{"a1": "100","a2": "30"} 版本号 可选参数。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        通用操作
        导入导出表
      • 使用迁移任务在线迁移自建Redis
        section8d423a096bed9377)开启Proxy集群多DB设置。 如果是单机/主备等多DB的源端实例迁移到Cluster集群实例,Cluster集群不支持多DB,仅有一个DB0,请先确保源端实例DB0以外的DB是否有数据,如果有,请将数据转存到DB0,否则会出现迁移失败,将数据转存到DB0的操作请参考使用Rump在线迁移。 已获取准备迁移的源Redis实例的IP地址和端口。 如果您还没有目标Redis,请先创建目标Redis,具体操作请参考创建实例。 如果您已有目标Redis,则不需要重复创建,为了对比迁移前后数据及预留足够的内存空间,建议在数据迁移之前清空目标实例数据,清空操作请参考清空实例数据。如果没有清空实例数据,数据迁移后,目标Redis与源Redis实例重复的数据迁移后会被覆盖,源Redis没有、目标Redis有的数据会保留。 创建在线迁移任务 步骤 1 请使用DCS目标Redis所在的账号登录分布式缓存服务控制台。 步骤 2 在管理控制台左上角单击 ,选择DCS目标Redis所在的区域。 步骤 3 单击左侧菜单栏的“数据迁移”。页面显示迁移任务列表页面。 步骤 4 单击右上角的“创建在线迁移任务”。 步骤 5 设置迁移任务名称和描述。 任务名称请以字母开头,长度不小于4位且不超过64位。任务名称只能包含字母、数字、中划线、下划线。 步骤 6 配置在线迁移任务虚拟机资源的VPC、子网和安全组。 请选择与目标Redis相同的VPC,确保迁移资源能访问目标Redis实例。 创建的在线迁移任务会占用一个租户侧IP,即控制台上迁移任务对应的“迁移IP”。如果源端Redis或目标端Redis配置了白名单,需确保配置了迁移IP或关闭白名单限制。 迁移任务所选安全组的“出方向规则”需放通源端Redis和目标端Redis的IP和端口(安全组默认情况下为全部放通,则无需单独放通),以便迁移任务的虚拟机资源能访问源Redis和目标Redis。 结束
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        数据迁移指南
        自建Redis迁移至DCS
        使用迁移任务在线迁移自建Redis
      • 使用迁移任务在线迁移自建Redis(1)
        section8d423a096bed9377)开启Proxy集群多DB设置。 如果是单机/主备等多DB的源端实例迁移到Cluster集群实例,Cluster集群不支持多DB,仅有一个DB0,请先确保源端实例DB0以外的DB是否有数据,如果有,请将数据转存到DB0,否则会出现迁移失败,将数据转存到DB0的操作请参考使用Rump在线迁移。 已获取准备迁移的源Redis实例的IP地址和端口。 如果您还没有目标Redis,请先创建目标Redis,具体操作请参考创建实例。 如果您已有目标Redis,则不需要重复创建,为了对比迁移前后数据及预留足够的内存空间,建议在数据迁移之前清空目标实例数据,清空操作请参考清空实例数据。如果没有清空实例数据,数据迁移后,目标Redis与源Redis实例重复的数据迁移后会被覆盖,源Redis没有、目标Redis有的数据会保留。 创建在线迁移任务 步骤 1 请使用DCS目标Redis所在的账号登录分布式缓存服务控制台。 步骤 2 在管理控制台左上角单击 ,选择DCS目标Redis所在的区域。 步骤 3 单击左侧菜单栏的“数据迁移”。页面显示迁移任务列表页面。 步骤 4 单击右上角的“创建在线迁移任务”。 步骤 5 设置迁移任务名称和描述。 任务名称请以字母开头,长度不小于4位且不超过64位。任务名称只能包含字母、数字、中划线、下划线。 步骤 6 配置在线迁移任务虚拟机资源的VPC、子网和安全组。 请选择与目标Redis相同的VPC,确保迁移资源能访问目标Redis实例。 创建的在线迁移任务会占用一个租户侧IP,即控制台上迁移任务对应的“迁移IP”。如果源端Redis或目标端Redis配置了白名单,需确保配置了迁移IP或关闭白名单限制。 迁移任务所选安全组的“出方向规则”需放通源端Redis和目标端Redis的IP和端口(安全组默认情况下为全部放通,则无需单独放通),以便迁移任务的虚拟机资源能访问源Redis和目标Redis。 结束
        来自:
      • 边缘接入服务业务实例
        步骤五: 功能验收 在客户控制台成功添加加速域名/实例后,为保证DNS解析顺利切换而不影响现有业务,建议先模拟访问进行功能验收,验收无误后,再切换DNS解析。 具体流程如下: 1. 在天翼云客户控制台的【域名】【IP应用加速接入】,复制加速域名/实例对应的CNAME记录值。 2. 通过ping(Windows)或dig(MAC) CNAME记录的方式,如 ping .ctdns.cn 获取该CNAME解析出来的天翼云已为您分配的某个节点IP,即为可测试验证功能的线上节点IP。 3. 用户修改本地电脑“C:WindowsSystem32Driversetc”的hosts文件,添加一条记录,如:“IP 加速域名”,让本地电脑访问加速域名时,强制绑定解析到该节点IP,由该节点IP进行服务,从而可以通过本地电脑来验证加速域名对应的相关业务功能和场景;如遇到修改后的host文件无法访问,可参考如下步骤: Hosts文件无法保存解决方法: Hosts文件无法修改可能是因为没有管理员权限所致的,完成以下的设置后,当我们修改了Hosts文件后就可以顺利保存了。 打开“计算机”,依次进入“C:WindowsSystem32Driversetc”(不同系统不同版本下,该文件的位置可能不同,仅供参考),找到hosts文件。 先选择“hosts”文件,打开其“属性”。 切换到“安全”选项卡,点击“高级”。 在“权限”下,点击“更改权限”。 点击“添加”,增添一个新权限。 点击“高级”进入高级设置。 选择“立即查找”,并在下方选择当前的系统账户,点击“确定”将其打开。 将“完全控制”勾上允许,并点击“确定”。 此时弹出一个安全警告窗口,点击“是”即可。 4. 验证内容: 成功绑定hosts文件后,您可以打开浏览器,在本地电脑访问加速域名进行连通性测试,测试结果可通过浏览器自带的开发者工具(F12)查看。如果浏览器访问到的IP和您在hosts文件中绑定的IP一致,表示配置正确。如果访问到的IP和您在hosts文件中绑定的IP不一致,表示配置不正确,您需要检查hosts文件中绑定的IP地址是否正确,确保该IP地址是CNAME地址的IP。 在电脑本地成功访问加速域名绑定的IP后,您可以基于自己的测试用例,或者必要的核验步骤,验证相关功能的准确性,如果功能验证不如预期,请提工单联系运维处理。
        来自:
        帮助文档
        边缘安全加速平台
        最佳实践
        技术最佳实践
        边缘接入服务业务实例
      • 使用OpenSearch搜索数据
        检索数据 首先,我们进行基本的全文检索,不设置匹配条件,可以得到所有数据。 检索语句如下: plaintext GET /productsfruits/search { "query": { "matchall": {} } } 同样,我们可以设置检索条件、指定分词器、指定评分等多种条件根据Rest API的语法对检索的匹配数据进行筛选,得到我们希望的数据。 聚合数据 同样,OpenSearch也可以提供数据聚合,我们按照价格区间将商品进行聚合,返回的结果如下: 这里的聚合语句如下: plaintext GET /productsfruits/search { "size": 0, "aggs": { "priceranges": { "range": { "field": "price", "ranges": [ { "from": 0, "to": 10 }, { "from": 10, "to": 20 }, { "from": 20, "to": 30 } ] } } } } 数据排序 同样,数据结果排序,也是OpenSearch一个重要的用途,我们这里按照价格排序将结果检索出来,右侧边栏按照价格降序进行输出,如下: 排序语句如下: plaintext GET /productsfruits/search { "query": { "matchall": {} } , "sort": [ { "price": { "order": "desc" } } ] }
        来自:
        帮助文档
        云搜索服务
        快速入门
        使用OpenSearch搜索数据
      • 功能特性
        本节介绍专属加密服务的功能特性。 专属加密(Dedicated Hardware Security Module,Dedicated HSM)是一种云上数据加密的服务,可处理加解密、签名、验签、产生密钥和密钥安全存储等操作。 Dedicated HSM为您提供的加密硬件,帮助您保护弹性云服务器上数据的安全性与完整性,满足FIPS 1402安全要求。同时,您能够对专属加密实例生成的密钥进行安全可靠的管理,也能使用多种加密算法来对数据进行可靠的加解密运算。 功能介绍 Dedicated HSM提供以下功能: 生成、存储、导入、导出和管理加密密钥(包括对称密钥和非对称密钥) 使用对称和非对称算法加密和解密数据 使用加密哈希函数计算消息摘要和基于哈希的消息身份验证代码 对数据进行加密签名(包括代码签名)并验证签名 以加密方式生成安全随机数据 Dedicated HSM支持的密码算法 支持国际通用密码算法,满足用户各种加密算法需求。 Dedicated HSM支持的密码算法 加密算法分类 通用密码算法 国密算法 对称密码算法 AES SM1、SM4、SM7 非对称密码算法 RSA(10244096) SM2 摘要算法 SHA1、SHA256、SHA384 SM3 Dedicated HSM支持的密码机类型 密码机类型 功能 适用场景 服务器加密机 数据加密/解密、数据签名/验签、数据摘要、支持MAC的生成和验证 满足各种行业应用中的基础密码运算需求,比如身份认证、数据保护、SSL密钥和运算卸载等。 金融加密机 支持PIN码的生成/加密/转换/验证 支持MAC生成及验证 支持CVV生成及验证 支持TAC生成及验证 支持常用Racal指令集 支持PBOC3.0常用指令集 满足金融领域密码运算需求,比如发卡系统、POS系统等。 签名服务器 签名/验签、编码/解码数字信封、编码/解码带签名的数字信封、证书验证 满足签名业务相关需求,比如CA系统、证书验证、大量数据的加密传输和身份认证。
        来自:
      • 数据回源简介
        本文帮助您了解对象存储数据回源功能及其分类。 当用户访问的数据在对象存储(简称ZOS)存储桶中不存在时,会直接返回404错误。如果您配置了数据回源功能,则可以通过数据回源规则从源站访问到对应的数据。 数据回源分为镜像回源和重定向两类,区别如下: 镜像回源 当用户访问ZOS中不存在的资源时,ZOS会根据预先配置的回源规则,向指定的源站抓取对应的资源,并将其转发给客户端。同时在后台会生成回源任务,将源站数据保存至ZOS中。这样的机制使得用户在无感知的情况下可以将业务从源站无缝迁移到ZOS上,实现平稳过渡和高效迁移。回源规则的灵活配置为业务迁移和资源访问提供了便利,同时保证了数据的安全性和一致性。 重定向回源 当用户访问桶并发生指定错误时,ZOS会根据预先设定的回源规则生成新的URL,并将用户的请求重定向到该新的URL。客户端会根据重定向的URL重新发起访问请求,而ZOS本身并不存储源站数据。 这种机制允许ZOS在符合特定条件时将用户请求转发到指定的源站,实现资源重定向,以优化用户体验,并确保数据的完整性和一致性。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        数据访问
        数据回源
        数据回源简介
      • 备份存储桶
        介绍备份存储桶的最佳操作。 对于存储在媒体存储对象存储的数据,本产品提供了数据迁移以及存储桶复制的备份能力。用户可根据不同场景的备份需求,选择对应的备份方式。 通过数据迁移备份 媒体存储提供在线迁移服务,用户可通过在线迁移服务实现以下数据迁移场景: 将同个账号的媒体存储的某个bucket数据迁移至另一个bucket。 跨不同的天翼云账号迁移媒体存储间的数据。 将第三方数据,如阿里云、AWS等数据迁移到媒体存储。 数据迁移会产生备份存储空间、请求次数等费用,具体可参考:计费说明。 支持通过控制台进行数据迁移的配置,具体配置方法可参考:创建迁移任务。 通过存储桶复制备份 存储桶复制是跨不同存储区域或同一存储区域的Bucket 自动、异步(近实时)复制对象(object),可根据配置,将源桶Object的创建、更新和删除等操作复制到目标Bucket。具体介绍及配置方法可参考:存储桶复制。 存储桶复制流程如下图:用户配置BucketA复制到BucketB的增改同步规则,当BucketA的创建对象时,会自动复制一份到BucketB,满足备份需求。用户可根据业务规划,切换写入或读取链路,保证业务不受影响。
        来自:
        帮助文档
        媒体存储
        最佳实践
        对象存储
        数据迁移与备份
        备份存储桶
      • 1
      • ...
      • 83
      • 84
      • 85
      • 86
      • 87
      • ...
      • 449
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      天翼云CTyunOS系统

      训推服务

      AI Store

      一站式智算服务平台

      智算一体机

      知识库问答

      推荐文档

      管理服务器

      产品续订

      消费重置

      常见问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号