活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云创校园_相关内容
      • 使用ZOS静态存储卷
        步骤三:创建持久卷声明(PVC) 1. 创建示例yaml文件pvcstaticzos.yaml: plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: annotations: volume.beta.kubernetes.io/storageprovisioner: zos.csi.cstor.com name: pvcstaticzos namespace: default spec: accessModes: ReadWriteOnce resources: requests: storage: 5Gi volumeMode: Filesystem volumeName: {YOURPVNAME} 替换PV名称 2. 执行以下命令,创建pvc: plaintext kubectl apply f pvcstaticzos.yaml 步骤四:创建工作负载 1. 创建示例yaml文件podpvcstaticzos.yaml: shell apiVersion: apps/v1 kind: StatefulSet metadata: name: nginxpvcstaticzos labels: app: nginxpvcstaticzos spec: replicas: 1 serviceName: "" selector: matchLabels: app: nginxpvcstaticzos template: metadata: labels: app: nginxpvcstaticzos spec: containers: image: "registryhuadong1.crsinternal.ctyun.cn/opensource/nginx:1.26alpineslim" imagePullPolicy: "IfNotPresent" name: "nginx" resources: limits: cpu: "100m" memory: "256Mi" requests: cpu: "100m" memory: "256Mi" volumeMounts: mountPath: "/mnt/data" name: "volume1" subPath: "scetest" volumes: name: "volume1" persistentVolumeClaim: claimName: {YOURPVCNAME} 替换为步骤3中的PVC名称 2. 执行以下命令,创建StatefulSet: plaintext kubectl apply f podpvcstaticzos.yaml 步骤五:验证数据持久化 1. 登录弹性容器服务管理控制台。 2. 在容器组列表页点击刚才创建的实例。 3. 点击“远程连接”页签,进入到容器内。 4. 向/mnt/data 目录下写一个文件,执行: plaintext echo "Hello World" > /mnt/data/test.log 5. 查看/mnt/data 目录下文件,执行: plaintext cat /mnt/data/test.log 预期结果如下: 6. 退出“远程连接”,使用kubectl删除pod,会触发pod自动重建,等待Pod重新运行正常。 plaintext kubectl delete po nginxpvcstaticzos0 7. 对新建Pod,登录“弹性容器服务”管理控制台,继续执行“远程连接”,进入到容器内查看数据。执行: plaintext cat /mnt/data/test.log 预期结果如下: 8. 登录天翼云对象存储管理控制台,根据PV名称查看bucket,进入bucket中的文件管理,可以看到在容器内创建的文件: 下载文件并查看内容,预期结果与容器内写入数据一致。 9. 以上步骤说明,pod删除重建后,重新挂载对象存储卷,数据仍然存在;从对象存储下载数据并与写入数据一致, 说明对象存储中的数据可持久化保存。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        存储
        对象存储存储卷
        使用ZOS静态存储卷
      • 开启SQL审计日志
        本章节会介绍如何开启数据库SQL审计日志。 当您开通SQL审计功能,系统会将所有的SQL操作记录下来存入日志文件,方便用户下载并查询。 RDS for MySQL默认关闭SQL审计功能,打开可能会有一定的性能影响,本章节指导您如何打开、修改或关闭SQL审计日志。 说明 主实例和只读实例都支持开启SQL审计日志。 审计日志开通后,系统会将SQL操作记录下来,生成的审计日志文件会暂存在本地,随后上传到OBS并保存在备份存储空间。如果审计日志的大小超过了备份空间容量,就会按照超出的部分进行计费。 审计日志清理周期为1小时。修改审计日志的保留天数,1个小时后开始清理过期的审计日志。 审计日志开通后,在业务高峰期可能会产生大量的审计日志,导致本地暂存较多的日志文件,有磁盘打满风险,建议同步开启磁盘自动扩容。 支持的数据库版本 仅如下版本支持SQL审计功能。 对于RDS for MySQL 5.6,支持5.6.43及其以上版本。 对于RDS for MySQL 5.7,支持5.7.23及其以上版本。 支持RDS for MySQL 8.0版本。 操作步骤 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页签。 步骤5 在左侧导航栏单击“SQL审计”,单击“设置SQL审计”,在弹出框中设置SQL审计日志保留策略,单击“确定”,保存设置策略。 开启或修改SQL审计 : 单击设置为,开启SQL审计日志保留策略。 保留天数默认为7天,可设置范围为1~732天。 关闭SQL审计: 单击设置为,关闭该SQL审计。 勾选“确认关闭审计日志后,所有审计日志文件将立即删除。”复选框,表示同意删除审计日志。 注意 SQL审计关闭后,所有审计日志都会被立即删除,不可恢复,请您谨慎操作。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        日志管理
        开启SQL审计日志
      • 将MongoDB同步到DDS
        操作步骤 本章节将以DDS副本集为示例,介绍在VPC网络场景下,通过数据复制服务配置DDS副本集同步任务的流程。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表 任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表 同步实例信息 参数 描述 数据流动方向 选择入云。入云指目标端数据库为本云数据库。 源数据库引擎 选择“MongoDB”。 目标数据库引擎 选择“DDS”。 网络类型 此处以“公网网络”为示例,默认为公网网络类型,可按照需求选择VPC网络、VPN网络、专线网络、公网网络。 目标数据库实例 用户所创建的目标数据库实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量:该模式为数据库持续性同步,适用于对业务中断敏感的场景,通过全量同步过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 源数据库实例类型 同步模式为“全量+增量”时,需要根据源数据库的具体来源进行设置,目前源库仅支持副本集,该项为非集群。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 源库信息 表 源库信息 参数 描述 数据库类型 源数据库类型可以为“ECS自建库”或“DDS实例”,本示例选择“DDS实例”。 VPC 源数据库类型选择“ECS自建库”可见,指源数据库实例所在的虚拟专用网络,可以对不同业务进行网络隔离。 子网 源数据库类型选择“ECS自建库”可见,通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。 IP地址或域名 源数据库类型选择“ECS自建库”可见,源数据库的IP地址或域名。 数据库实例名称 源数据库类型选择“DDS实例”可见,选择作为源数据库的DDS实例。 帐号认证数据库 填写的数据库帐号所属的数据库名称。例如:DDS实例默认的帐号认证数据库为admin。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对同步链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 说明 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该同步任务后自动清除。 目标库信息配置 表 目标库信息 参数 描述 数据库实例名称 默认为创建同步任务时选择的数据库实例,不可进行修改。 帐号认证数据库 填写的数据库帐号所属的数据库名称。例如:DDS实例默认的帐号认证数据库为admin。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 目标数据库的登录密码。 SSL安全连接 通过该功能,用户可以选择是否开启对同步链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 说明 目标数据库的用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 步骤 4 在“同步设置”页面,设置同步对象,单击“下一步”。 表同步对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考4.6.5.2 对象名映射。映射后名称长度在1到63个字符之间,不支持以下字符:/ . " $<>。 如果有切换源数据库的操作或源库同步对象变化的情况,请务必在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 说明 l 选择对象的时候支持对展开的库 进行搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 步骤 5 在“预检查”页面,进行同步任务预校验,校验是否可进行同步。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 6 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 7 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将MongoDB同步到DDS
      • 将Oracle同步到PostgreSQL
        前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见 实时同步。 操作步骤 本小节以Oracle到RDS for PostgreSQL的实时同步为示例,介绍如何使用数据复制服务配置实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表 任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“Oracle”。 目标数据库引擎 选择“PostgreSQL”。 网络类型 此处以“公网网络”为示例。目前支持可选“公网网络”、“VPC网络”和“VPN、专线网络”。 目标数据库实例 创建好的RDS for PostgreSQL实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量 该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 全量该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将用户选择的数据库对象和数据一次性同步至目标端数据库。 标签 表标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。说明对于RAC集群,建议使用SCAN IP接入,提高访问性能。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库服务名 数据库服务名(Service Name/SID),客户端可以通过其连接到Oracle,具体查询方法请参照界面提示。 PDB名称 PDB同步仅在Oracle12c及以后的版本支持,该功能为选填项,当需要迁移PDB中的表时开启。PDB功能开启后,只能迁移该PDB中的表,并且需要提供CDB的service name/sid及用户名和密码,不需要PDB的用户名和密码。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 表目标库信息 参数 描述 数据库实例名称 默认为创建任务时选择的RDS for PostgreSQL实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。支持在任务创建后修改密码。 步骤 4 在“设置同步”页面,选择同步对象类型和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 同步对象类型 可选同步表结构、同步数据、同步索引,根据实际需求进行选择要同步内容。 l 同步数据为必选项。 l 选则同步表结构的时候目标库不能有同名的表。 l 不选同步表结构的时候目标库必须有相应的表,且要保证表结构与所选表结构相同。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步,您可以根据业务场景选择对应的数据进行同步。选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 l 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 说明 l 选择对象的时候支持对展开的库 进行搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 步骤 5 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 6 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 7 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见 任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到PostgreSQL
      • 高级SQL语句编写
        本页介绍天翼云TeleDB数据库中窗口函数的使用方法。 窗口函数的使用 1. 环境准备 plaintext drop table if exists bills ; create table bills ( id serial not null, goodsdesc text not null, beginunit text not null, begincity text not null, pubtime timestamp not null, amount float8 not null default 0, primary key (id) ) distribute by shard(id) to group defaultgroup; COMMENT ON TABLE bills is '运单记录'; COMMENT ON COLUMN bills.id IS 'id号'; COMMENT ON COLUMN bills.goodsdesc IS '货物名称'; COMMENT ON COLUMN bills.beginunit IS '启运省份'; COMMENT ON COLUMN bills.begincity IS '启运城市'; COMMENT ON COLUMN bills.pubtime IS '发布时间'; COMMENT ON COLUMN bills.amount IS '运费'; INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'衣服','海南省','三亚市','20151005 09:32:01',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'建筑设备','福建省','三明市','20151005 07:21:22',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','福建省','三明市','20151005 11:21:54',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货','福建省','三明市','20151005 15:19:17',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'5 0铲车,后八轮翻斗车','河南省','三门峡市','20151005 07:53:13',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'鲜香菇2000斤','河南省','三门峡市','20151005 10:38:29',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件38吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件35吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件39吨','河南省','三门峡市','20151005 11:38:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','上海市','上海市','20151005 07:59:35',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货40吨需13米半挂一辆','上海市','上海市','20151005 08:13:59',ROUND((random()10000)::NUMERIC,2)); 2. rownumber()返回行号,不分组 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        进阶开发
        高级SQL语句编写
      • 高级SQL语句编写
        本页介绍天翼云TeleDB数据库中窗口函数的使用方法。 窗口函数的使用 1. 环境准备 plaintext drop table if exists bills ; create table bills ( id serial not null, goodsdesc text not null, beginunit text not null, begincity text not null, pubtime timestamp not null, amount float8 not null default 0, primary key (id) ) distribute by shard(id) to group defaultgroup; COMMENT ON TABLE bills is '运单记录'; COMMENT ON COLUMN bills.id IS 'id号'; COMMENT ON COLUMN bills.goodsdesc IS '货物名称'; COMMENT ON COLUMN bills.beginunit IS '启运省份'; COMMENT ON COLUMN bills.begincity IS '启运城市'; COMMENT ON COLUMN bills.pubtime IS '发布时间'; COMMENT ON COLUMN bills.amount IS '运费'; INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'衣服','海南省','三亚市','20151005 09:32:01',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'建筑设备','福建省','三明市','20151005 07:21:22',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','福建省','三明市','20151005 11:21:54',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货','福建省','三明市','20151005 15:19:17',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'5 0铲车,后八轮翻斗车','河南省','三门峡市','20151005 07:53:13',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'鲜香菇2000斤','河南省','三门峡市','20151005 10:38:29',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件38吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件35吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件39吨','河南省','三门峡市','20151005 11:38:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','上海市','上海市','20151005 07:59:35',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货40吨需13米半挂一辆','上海市','上海市','20151005 08:13:59',ROUND((random()10000)::NUMERIC,2)); 2. rownumber()返回行号,不分组 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        开发手册
        进阶开发
        高级SQL语句编写
      • 数据库脏表检测
        查看数据库脏表检测结果 数据库脏表检测开启后,您可以在“总览 > 语句”中,查看原始审计日志访问脏表的SQL语句。 1. 登录管理控制台。 2. 在页面上方选择“区域”后,单击,选择“安全与合规 > 数据库安全服务”。 3. 在左侧导航树中,选择“总览”,进入“总览”界面。 4. 在“选择实例”下拉列表框中,选择需要查看数据库脏表检测语句信息的实例。 5. 选择“语句”页签。 6. 您可以按照以下方法,查询指定的SQL语句。选择“时间”(“全部”、“近30分钟”、“近1小时”、“近24小时”、“近7天”或“近30天”),或者单击,选择开始时间和结束时间,单击“提交”,列表显示该时间段的SQL语句。选择“风险等级”(“高”,数据库脏表检测规则默认为高),单击“提交”,列表显示该级别的SQL语句。单击“高级选项”后的,输入相关信息,如图所示,单击“搜索”,列表显示该选项的SQL语句。 说明 一次查询最多可查询10,000条记录。 7. 在需要查看数据库脏表检测详情的SQL语句所在行的“操作”列,单击“详情”,在详情提示框中,查看数据库访问脏表的SQL语句的详细信息,如图所示,相关参数说明如表所示。 SQL语句详情参数说明 参数名称 说明 会话ID SQL语句的ID,由系统自动生成。 数据库实例 SQL语句所在的数据库实例。 数据库类型 执行SQL语句所在的数据库的类型。 数据库用户 执行SQL语句的数据库用户。 客户端MAC地址 执行SQL语句所在客户端MAC地址。 数据库MAC地址 执行SQL语句所在数据库MAC地址。 客户端IP 执行SQL语句所在客户端的IP地址。 数据库IP 执行SQL语句所在的数据库的IP地址。 客户端端口 执行SQL语句所在的客户端的端口。 数据库端口 执行SQL语句所在的数据库的端口。 客户端名称 执行SQL语句所在客户端名称。 操作类型 SQL语句的操作类型。 操作对象类型 SQL语句的操作对象的类型。 响应结果 执行SQL语句的响应结果。 影响行数 执行SQL语句的影响行数。 开始时间 SQL语句开始执行的时间。 应结束时间 SQL语句结束的时间。 SQL请求语句 SQL语句的名称。 请求结果 SQL语句请求执行的结果。
        来自:
        帮助文档
        数据库安全
        最佳实践
        数据库脏表检测
      • 备份恢复
        本页介绍天翼云TeleDB数据库备份恢复相关操作。 操作场景 备份恢复包括了备份机管理和备份管理相关操作。 备份机管理是指通过管理平台进行发布,启动,停止,重启,删除操作对备份机进程进行管理。 备份管理是指包含了全量备份,日志备份,数据恢复,任务列表等操作。 操作步骤 1. 登录TelePG控制台。 2. 在左侧导航树上单击实例列表,进入实例详情页面。 3. 将当前实例切换至目标实例,单击备份恢复 页签。 4. 在备份恢复页签,您可创建备份、修改备份策略、恢复到指定时间点和绑定备份机。 5. 创建备份 1. 单击创建备份 页签,出现创建备份对话框。 2. 在创建备份对话框,填写备份名称 和描述 ,单击确定,完成创建备份。 6. 修改备份策略 1. 单击修改备份策略页签,出现修改备份策略对话框。 2. 在备份策略对话框填写基本信息。 参数 说明 开启备份 您可根据业务需求选择开启或关闭。 备份周期 您可根据业务需求选择星期一、星期二、星期三、星期四、星期五、星期六和星期天。 备份开始时间 您可根据业务需求选择备份开始时间。 全量备份保留 您可根据业务需求选择全量备份天数。 日志备份 您可根据业务需求选择开启或关闭。 日志备份保留 您可根据业务需求选择日志备份保留天数。 3. 确认信息无误后,单击确定 完成修改备份策略。 注意 如果开启增量备份,那么WAL日志的保留时长必须大于全量备份的保留时长,避免无法恢复到指定的时间点。开关默认关闭,如果需要使用自动备份清理的功能,请及时开启。 7. 恢复到指定时间点 1. 单击恢复到指定时间点 页签,出现恢复到指定时间点对话框。 2. 在恢复到指定时间点 对话框,选择恢复的时间点 、在目标实例下拉框选择需要恢复的目标实例 。 3. 单击确定 ,即可恢复到指定的时间点。系统会根据恢复的时间点拷贝最相近的全量备份数据,再将相关的WAL日志拷贝到目标实例。 注意 目前只支持恢复到其他实例,不支持恢复到本实例。目标实例最终的实例配置文件包括postgresql.conf,pghba.conf等是不会改变的。 8. 绑定备份机 1. 单击绑定备份机 页签,出现绑定备份机 对话框。 2. 在绑定备份机 对话框,绑定新备份机下拉框选择新备份机 。 3. 确认信息无误后,单击确定 ,实例的备份数据包括全量数据以及WAL日志数据都将保存到备份机指定的data目录中。 9. 恢复实例 1. 单击目标实例所在行的恢复 ,出现恢复备份对话框。 2. 在恢复备份对话框的目标实例下拉框选择需恢复的实例。 3. 确认信息无误后,单击确定 完成恢复实例。 注意 目前只支持恢复到其他实例,不支持恢复到本实例。 10. 复制实例 1. 单击目标实例所在行的复制 ,出现复制备份 对话框。 2. 在复制备份对话框,填写备份名称 和描述 ,确认信息无误后,单击确定 完成复制备份。 3. 通过复制实例可手动创建所选备份的一个副本,备份名称默认为原有备份名称backup,备份类型为手动 ,手动的备份,不会被自动清理。 11. 删除实例 1. 单击目标实例所在行的删除 ,出现删除备份对话框。 2. 单击确定 ,即可删除备份。 3. 通过删除实例可手动删除,备份类型为手动 或者状态异常 的备份数据。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        管理平台使用手册
        备份与恢复
        备份恢复
      • 跨域资源共享
        本文介绍跨域资源共享功能及其配置说明。 功能介绍 HTTP响应头是HTTP响应消息头的组成部分之一,可携带特定响应参数并传递给客户端。配置自定义HTTP响应头后,当用户请求加速域名下的资源时,边缘安全加速平台—安全与加速服务返回的响应消息会携带您配置的响应头,从而实现特定功能。跨域资源共享(CrossOrigin Resource Sharing,简写为CORS)简称跨域访问,是HTML5提供的标准跨域解决方案,允许Web应用服务器进行跨域访问控制,实现跨域数据的安全传输。当客户的业务需要跨域共享或者访问资源时,客户可以通过自定义HTTP响应头来实现。 前提条件 您已经完成添加服务域名,如果您未添加,请参考添加服务域名。 注意 若源站与客户控制台同时配置CORS跨域头,则天翼云边缘安全加速平台—安全与加速服务的配置将覆盖源站CORS跨域头。 操作步骤 1.登录边缘安全加速控制台,进入【安全与加速工作台】【域名】【基础配置】,在域名列表中选中需要配置的域名。 2.进入域名配置详情页面后,选择【头部修改】【HTTP响应头】。 3.单击【编辑配置】按钮,单击【增加规则】,HTTP响应头部值配置:AccessControlAllowOrigin。 4.配置完成后,单击【保存】,单击【确定】提交。 参数名 说明 示例 头部值 跨域头部固定填写:AccessControlAllowOrigin。 AccessControlAllowOrigin 跨域验证 跨域验证开关默认关闭。 关闭:固定响应“AccessControlAllowOrigin”头部及其配置的取值。 开启:按照以下规则对用户请求进行跨域校验。 1.任意匹配:取值配置为“ ”,固定响应“AccessControlAllowOrigin:”。 2.泛匹配:取值配置为泛域名,校验请求头Origin值与配置的泛域名是否匹配,匹配则“AccessControlAllowOrigin”头部值响应Origin请求头值,匹配不上则不响应跨域头。 3.精确匹配:取值配置为单个或者多个精确域名,校验请求头Origin值与配置的精确域名是否匹配,匹配则“AccessControlAllowOrigin”头部值响应Origin请求头值,匹配不上则不响应跨域头。 开启 取值 1、响应头取值配置为“ ”,可匹配所有来源。 2、响应头取值配置非“ ”,必须包含协议头“http:// ”或者“ 3、响应头取值配置非“ ”,支持配置多个域名,多个值之间用英文逗号分隔。 4、响应头取值支持携带端口。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        加速管理
        缓存配置
        跨域资源共享
      • 产品定义
        本文为您介绍重点操作验证的定义和重点操作范围。 产品定义 重点操作验证,是天翼云平台为了保障安全,在用户进行重点操作前增加的二次认证,二次认证通过后系统才能执行用户操作。可避免因误操作引起严重后果,提供更高的安全性。 目前二次认证仅支持短信验证码方式认证。若您开启短信验证能力,在控制台进行重点操作时,系统会向您的手机号(绑定天翼云账号的手机号)发送短信验证码,需输入正确的验证码才能执行该重点操作。从而避免您进行误操作,造成云产品数据的丢失;另一方面,确保操作人身份,避免影响业务运行。 重点操作:可能引起服务运行中断、网络中断、数据丢失等情况的操作。 重点操作范围 当您开启操作保护后,进行重点操作时,需要进行身份验证,重点操作范围如下表: (操作范围会不定期更新,敬请关注) 产品名称 功能 上线时间 ::: 弹性云主机 关机 2023年2月10日 弹性云主机 批量关机 2023年2月10日 弹性云主机 重启 2023年2月10日 弹性云主机 批量重启 2023年2月10日 弹性云主机 一键重装 2023年2月10日 弹性云主机 重置密码 2023年2月10日 弹性云主机 批量重置密码 2023年2月10日 弹性云主机 变配 2023年2月10日 弹性云主机 删除(按需) 2023年2月10日 弹性云主机 退订(包周期) 2023年2月10日 弹性云主机 批量删除/退订 2023年2月10日 弹性云主机 弹性IP解绑 2023年2月10日 云硬盘 卸载 2023年2月10日 云硬盘 删除(按需) 2023年2月10日 云硬盘 退订(包周期) 2023年2月10日 虚拟私有云 VPC安全组删除 2023年2月10日 弹性IP 弹性IP解绑 2023年2月10日 弹性IP 弹性IP删除 2023年2月10日 弹性IP 弹性IP退订 2023年2月10日 弹性IP 共享带宽删除 2023年2月10日 弹性负载均衡 弹性负载均衡删除 2023年2月10日 弹性负载均衡 弹性负载均衡退订 2023年2月10日 NAT网关 DNAT规则删除 2023年2月10日 NAT网关 SNAT规则删除 2023年2月10日 VPN连接 VPN删除 2023年2月10日
        来自:
        帮助文档
        重点操作短信验证
        产品介绍
        产品定义
      • 停止实例
        GPU云主机作为弹性云主机的一类实例规格,其关机操作与弹性云主机保持一致。 操作场景 关机操作可以将GPU云主机从运行状态切换为关机状态,以进行维护等操作。 使用须知 按需付费的弹性云主机支持节省关机和普通关机两种计费模式(节省关机目前仅部分资源池支持)。 节省关机模式下,计算资源 (CPU、内存、GPU)不再收费,其余收费的资源正常计费,如系统盘、数据盘、带宽等,且再次开机后不会导致内网IP或弹性公网IP地址变更。 由于计算资源被回收,节省关机模式下,再次开机时可能因为资源不足导致启动失败,您可以稍后尝试再次开机或者尝试变配为其他规格,如一直没有可用资源,云主机有一直不能开机的风险。 如下场景不支持节省关机 所开通的云主机为包周期计费模式 已经加入主机组的云主机 已经加入云主机快照、云主机备份策略的云主机 注意 按量付费云主机的计费规则详见:按量计费模式弹性云主机购买指南计费模式 天翼云 (ctyun.cn) 操作步骤 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 选择“计算 > 弹性云主机”。 4. 根据实际需求对云主机进行关机。 1. 对单台云主机进行关机操作:在云主机列表中,选择需要关机的云主机,点击云主机列表左上角的关机操作按钮。 2. 对多台云主机进行关机操作:在云主机列表中,选择需要关机的多台云主机,点击云主机列表左上角的关机操作按钮。 5. 在关机弹窗中,设置关机方式和模式,并确认操作是否正确,无误后点击确定。 设置 说明 关机方式 关机:正常关机流程。但为避免关机失败,当您选择关机时,普通关机超时会自动执行强制关机操作。 强制关机:等同于断电处理,可能丢失云主机操作系统中未写入磁盘的数据。 关机模式 普通关机模式:普通关机后保留计算、存储、网络资源。 节省关机模式:节省关机后,计算资源(CPU、内存、GPU)均被释放且不计费,其余网络、存储资源继续保留并收费。 注意 请注意云主机状态的说明:如果云主机在中间状态停留超过30分钟(如启动中、停止中、重启中),表示可能出现异常情况,请及时提交工单以寻求进一步处理。
        来自:
        帮助文档
        GPU云主机
        用户指南
        管理GPU云主机
        停止实例
      • 攻击惩罚
        本节介绍如何配置攻击惩罚,使WAF按配置的攻击惩罚时长来自动封禁访问者。 网站域名接入Web应用防火墙后,您可以选择开启攻击惩罚功能。开启并配置攻击惩罚功能后,当WAF检测到访问者的IP、Cookie或请求参数中有恶意请求时,WAF将按配置的攻击惩罚时长来自动封禁访问者。 配置的攻击惩罚标准会提供给BOT防护、精准访问控制防护模块使用。当配置BOT防护规则、精准访问控制规则时,可使用攻击惩罚标准功能。 BOT防护规则:当处置动作选择拦截、动态拦截时,支持勾选“攻击惩罚”。 精准访问控制规则:当处置动作选择拦截时,支持勾选“攻击惩罚”。 攻击惩罚对象 攻击惩罚的对象包含IP以及SESSION会话对象。 前提条件 已开通Web应用防火墙(原生版)实例。 已完成网站域名接入。 使用限制 基础版和标准版不支持攻击惩罚功能,请升级到更高版本使用。 配置攻击惩罚标准 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 对象防护配置”,进入防护配置页面。 5. 在“防护配置”页面上方的“防护对象选择”下拉框,切换到要设置的域名。 6. 选择“系统配置”页签,定位到“攻击惩罚”模块,可以选择开启/关闭防护。 7. 单击攻击惩罚右侧的“前去配置”,进入攻击惩罚配置页面。 8. 配置攻击惩罚参数。 配置项 说明 拦截周期 配置初次拦截的时长,即第一次惩罚的时长。 单位为“分钟”,可输入10~60的整数。 说明 攻击惩罚与动态拦截同时生效,实际拦截时长按照攻击惩罚和动态拦截的最大时间进行拦截。 每次增长时长 配置多次拦截的增长时长,即在上一次惩罚时长的基础上增长对应的时间。 单位为“分钟”,可输入10~60的整数,10代表拦截时长每次增长10分钟。 最多拦截次数 配置最多拦截的次数。 可输入1~5的数字,1代表着惩罚目标增长1次处罚时间,下一次被永久拦截。5代表惩罚目标增长5次处罚时间后,下一次被永久拦截。 生效范围 默认为全部规则。 9. 单击“确认”,完成攻击惩罚配置。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        对象防护配置(系统配置)
        攻击惩罚
      • 创建应急切换
        本文为您介绍创建应急切换的具体操作。 概述 应急切换用于灾难发生后为了快速恢复业务而进行的一系列切换或恢复任务,涉及的切换任务来源于相应的预案流程。故障切换场景下可根据预设的切换预案流程拉起依次数据库、存储、灾备云主机等相关服务;故障回切场景下可根据预设的回切预案流程执行数据库、存储、容灾云主机的回切操作,以确保业务正常运行。 使用条件 应急切换主要用于突发故障下切换工作,为单次执行,不可重复执行。若需定时多次演练,可在容灾演练模块进行相关操作。 进行应急切换前,需完成命名空间创建、容灾管理中心配置、应用接入(可选)、预案编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“容灾切换”“应急切换”,进入应急切换列表页。 5. 在列表上方下拉菜单中选择需要进行应急切换的命名空间。 6. 点击列表上方的“创建应急切换”按钮,弹出创建应急演练弹窗。 7. 填写创建应急切换信息,各配置项信息如下: 参数 是否必填 配置说明 切换名称 √ 填写切换名称,同命名空间下切换名称需唯一。 关联预案 √ 选择当前命名空间下已发布状态的预案名称。 涉及容灾管理中心 × 显示选择关联预案后容灾管理中心。 切换超时时间 √ 填写切换超时时间,单位为分钟。 系统将在执行“开始切换”操作后计时,超时系统将自动终止该切换,最新切换状态更新为“已终止”且无法恢复。 时间范围为10分钟6小时。 单个任务超时时间 √ 填写单个任务超时时间,单位为分钟。 单个任务超时时间指任务执行时间超出后系统自动将该任务状态置为“已超时”,需人工介入处理。 该超时时间仅对脚本任务及资源操作类的内置任务有效,人工任务及流程控制类的内置任务不受此超时时间影响。 时间范围为1分钟2小时。 描述 × 填写容灾切换描述。 长度为0100个字符。 8. 点击“确定”按钮,完成应急切换创建。成功创建后,列表新增一条相关记录,状态为“未开始”。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        容灾切换
        应急切换
        创建应急切换
      • 购买主机安全防护配额
        参数名称 参数说明 取值样例 计费模式 根据您的需求选择“包年/包月”或“按需”计费模式。 包年/包月:在版本选择时可选择基础版、企业版、旗舰版、网页防篡改版,单次购买固定的版本使用周期,费用方面比“按需”付费方式每月优惠30%,如果您长期使用,建议包周期购买。 按需:当前购买页支持选择企业版,开启防护需要在服务器列表页开启。按实际使用的时长收费,以小时为单位,每小时整点结算,不设最低消费标准。 开启按需防护步骤: 1. 在购买页选择按需,默认选择企业版,在页面右下角单击“立即开通”,页面跳转到云服务器列表页面。 2. 在云服务器列表的“操作”列单击“开启防护”,“计费模式”选择“按需计费”,“主机安全版本”选择“企业版”。 3. 确认信息无误,单击“确认”完成开启。 包年/包月 区域 配额的“区域”建议与主机的“区域”相同。 HSS不支持跨区域使用,如果您购买了与主机不在同一区域的配额,请退订配额后重新购买主机所在区域的配额。 苏州 版本选择 支持购买的版本有“基础版(包年/包月)”、“企业版”、“旗舰版”、“网页防篡改版”。 首次开启基础版可免费体验30天,体验结束后进行购买即可。 若您购买的是基础版/企业版/旗舰版配额,请在“资产管理>主机管理>云服务器”页面开启防护。 若您购买的网页防篡改版配额,请在“主动防御>网页防篡改>防护配置”页面开启防护。 企业版 购买时长 根据您的需求选择时长,“按需”模式无需选择。 为避免因服务到期未及时续费导致您的主机遭受攻击,建议勾选“自动续费”。 勾选“自动续费”后,当购买的主机安全到期时,如果帐号余额充足,系统将自动为购买的主机安全续费,续费周期与购买时长保持一致。 若未勾选自动“自动续费”,在即将到期时,请手动续费。 1年 防护主机数量 输入购买主机安全防护配额的数量,“按需”模式无需选择。 为防止未防护主机感染勒索、挖矿等病毒后传染给其他主机,导致企业内网整体沦陷,购买的主机安全服务数量建议与使用的主机数量保持一致。 购买成功后不支持增加配额,如需增加配额,请重新购买即可。 20 标签 为同一种类型云资源进行自定义标签,帮助您实现快速查找,“按需”模式无需填写。 data
        来自:
        帮助文档
        企业主机安全
        快速入门
        开启HSS防护
        购买主机安全防护配额
      • 设置安全组规则
        说明:本章节会介绍天翼云关系型数据库如何设置安全组规则 操作场景 安全组是一个逻辑上的分组,为同一个虚拟私有云内具有相同安全保护需求,并相互信任的弹性云服务器和关系型数据库实例提供访问策略。 为了保障数据库的安全性和稳定性,在使用关系型数据库实例之前,您需要设置安全组,开通需访问数据库的IP地址和端口。 内网连接RDS实例时,设置安全组分为以下两种情况: ECS与RDS实例在相同安全组时,默认ECS与RDS实例互通,无需设置安全组规则,执行步骤三:通过内网连接MySQL实例。 ECS与RDS实例在不同安全组时,需要为RDS和ECS分别设置安全组规则。 设置RDS安全组规则:为RDS所在安全组配置相应的入方向规则。 设置ECS安全组规则:安全组默认规则为出方向上数据报文全部放行,此时,无需对ECS配置安全组规则。当在ECS所在安全组为非默认安全组且出方向规则非全放通 时,需要为ECS所在安全组配置相应的出方向规则。 注意事项 因为安全组的默认规则是在出方向上的数据报文全部放行,同一个安全组内的弹性云服务器和关系型数据库实例可互相访问。安全组创建后,您可以在安全组中定义各种访问规则,当关系型数据库实例加入该安全组后,即受到这些访问规则的保护。 默认情况下,一个租户可以创建500条安全组规则。 为一个安全组设置过多的安全组规则会增加首包延时,因此,建议一个安全组内的安全组规则不超过50条。 当需要从安全组外访问安全组内的关系型数据库实例时,需要为安全组添加相应的入方向规则。 源地址默认的IP地址0.0.0.0/0是指允许所有IP地址访问安全组内的关系型数据库实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在系统首页,单击“网络 > 虚拟私有云”。 步骤 3 在左侧导航树选择“访问控制 > 安全组”。 步骤 4 在安全组界面,单击操作列的“配置规则”,进入安全组详情界面。 步骤 5 在安全组详情界面,单击“添加规则”,弹出添加规则窗口。 步骤 6 根据界面提示配置安全组规则。 步骤 7 单击“确定”。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        快速入门
        通过内网连接MySQL实例
        设置安全组规则
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 高级SQL语句编写
        本页介绍天翼云TeleDB数据库中窗口函数的使用方法。 窗口函数的使用 1. 环境准备 plaintext drop table if exists bills ; create table bills ( id serial not null, goodsdesc text not null, beginunit text not null, begincity text not null, pubtime timestamp not null, amount float8 not null default 0, primary key (id) ) distribute by shard(id) to group defaultgroup; COMMENT ON TABLE bills is '运单记录'; COMMENT ON COLUMN bills.id IS 'id号'; COMMENT ON COLUMN bills.goodsdesc IS '货物名称'; COMMENT ON COLUMN bills.beginunit IS '启运省份'; COMMENT ON COLUMN bills.begincity IS '启运城市'; COMMENT ON COLUMN bills.pubtime IS '发布时间'; COMMENT ON COLUMN bills.amount IS '运费'; INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'衣服','海南省','三亚市','20151005 09:32:01',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'建筑设备','福建省','三明市','20151005 07:21:22',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','福建省','三明市','20151005 11:21:54',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货','福建省','三明市','20151005 15:19:17',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'5 0铲车,后八轮翻斗车','河南省','三门峡市','20151005 07:53:13',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'鲜香菇2000斤','河南省','三门峡市','20151005 10:38:29',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件38吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件35吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件39吨','河南省','三门峡市','20151005 11:38:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','上海市','上海市','20151005 07:59:35',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货40吨需13米半挂一辆','上海市','上海市','20151005 08:13:59',ROUND((random()10000)::NUMERIC,2)); 2. rownumber()返回行号,不分组 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        开发手册
        进阶开发
        高级SQL语句编写
      • 高级SQL语句编写
        本页介绍天翼云TeleDB数据库中窗口函数的使用方法。 窗口函数的使用 1. 环境准备 plaintext drop table if exists bills ; create table bills ( id serial not null, goodsdesc text not null, beginunit text not null, begincity text not null, pubtime timestamp not null, amount float8 not null default 0, primary key (id) ) distribute by shard(id) to group defaultgroup; COMMENT ON TABLE bills is '运单记录'; COMMENT ON COLUMN bills.id IS 'id号'; COMMENT ON COLUMN bills.goodsdesc IS '货物名称'; COMMENT ON COLUMN bills.beginunit IS '启运省份'; COMMENT ON COLUMN bills.begincity IS '启运城市'; COMMENT ON COLUMN bills.pubtime IS '发布时间'; COMMENT ON COLUMN bills.amount IS '运费'; INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'衣服','海南省','三亚市','20151005 09:32:01',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'建筑设备','福建省','三明市','20151005 07:21:22',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','福建省','三明市','20151005 11:21:54',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货','福建省','三明市','20151005 15:19:17',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'5 0铲车,后八轮翻斗车','河南省','三门峡市','20151005 07:53:13',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'鲜香菇2000斤','河南省','三门峡市','20151005 10:38:29',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件38吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件35吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件39吨','河南省','三门峡市','20151005 11:38:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','上海市','上海市','20151005 07:59:35',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货40吨需13米半挂一辆','上海市','上海市','20151005 08:13:59',ROUND((random()10000)::NUMERIC,2)); 2. rownumber()返回行号,不分组 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        开发手册
        进阶开发
        高级SQL语句编写
      • 高级SQL语句编写
        本页介绍天翼云TeleDB数据库中窗口函数的使用方法。 窗口函数的使用 1. 环境准备 plaintext drop table if exists bills ; create table bills ( id serial not null, goodsdesc text not null, beginunit text not null, begincity text not null, pubtime timestamp not null, amount float8 not null default 0, primary key (id) ) distribute by shard(id) to group defaultgroup; COMMENT ON TABLE bills is '运单记录'; COMMENT ON COLUMN bills.id IS 'id号'; COMMENT ON COLUMN bills.goodsdesc IS '货物名称'; COMMENT ON COLUMN bills.beginunit IS '启运省份'; COMMENT ON COLUMN bills.begincity IS '启运城市'; COMMENT ON COLUMN bills.pubtime IS '发布时间'; COMMENT ON COLUMN bills.amount IS '运费'; INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'衣服','海南省','三亚市','20151005 09:32:01',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'建筑设备','福建省','三明市','20151005 07:21:22',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','福建省','三明市','20151005 11:21:54',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货','福建省','三明市','20151005 15:19:17',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'5 0铲车,后八轮翻斗车','河南省','三门峡市','20151005 07:53:13',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'鲜香菇2000斤','河南省','三门峡市','20151005 10:38:29',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件38吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件35吨','河南省','三门峡市','20151005 10:48:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'旋挖附件39吨','河南省','三门峡市','20151005 11:38:38',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'设备','上海市','上海市','20151005 07:59:35',ROUND((random()10000)::NUMERIC,2)); INSERT INTO bills(id,goodsdesc,beginunit,begincity,pubtime,amount) VALUES(default,'普货40吨需13米半挂一辆','上海市','上海市','20151005 08:13:59',ROUND((random()10000)::NUMERIC,2)); 2. rownumber()返回行号,不分组 plaintext teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        开发手册
        进阶开发
        高级SQL语句编写
      • 产品定义
        产品突出优势 云数据库ClickHouse专为大规模数据分析而设计,它以卓越的性能和可扩展性著称,能够处理海量数据,并以极快的速度进行查询。 数据压缩:除了高效通用压缩编解码器之外,云数据库ClickHouse还提供针对不同类型数据的专用编码器,使数据在磁盘空间和CPU消耗之间取得平衡。 磁盘存储:云数据库ClickHouse适用于传统磁盘存储系统,提供更低的存储成本,但也能充分利用SSD和内存等资源(如果可用)。 多核并行处理:云数据库ClickHouse充分利用服务器上的所有可用资源,以最自然的方式并行处理大型查询。 SQL支持:云数据库ClickHouse在很多情况下与ANSI SQL标准一致,为用户提供熟悉和强大的查询语言。 实时数据更新:云数据库ClickHouse支持定义主键,数据以增量方式有序存储在MergeTree中,以便快速范围查询。这意味着数据可以持续高效地写入表中,而不需要任何锁定操作。 向量化引擎:为了更有效地利用CPU,云数据库ClickHouse不仅按列存储数据,还按照向量(列的一部分)进行处理,提高处理效率。 增强性能与云优势 天翼云数据库ClickHouse具备以下增强性能与云优势: 弹性扩展:在公有云环境中,用户可以根据实际需求轻松增加计算节点和存储容量,以适应数据规模和查询负载的变化。 自动化管理:公有云平台提供了自动化的管理工具和服务,使得云数据库ClickHouse的部署、配置和维护变得更加简单。用户可以利用云平台的管理功能,轻松管理云数据库ClickHouse集群,减少了繁琐的操作和手动配置的工作量。 弹性存储:公有云平台提供了灵活的存储选项,包括标准存储和高性能存储,以满足不同的性能和成本需求。用户可以根据数据访问模式和业务需求选择适当的存储类型,从而实现性能和成本的最佳平衡。 安全性和合规性:公有云平台提供了严格的安全性措施和合规性标准,保护云数据库ClickHouse中的数据安全。用户可以通过公有云的身份验证、访问控制和加密功能,确保数据在传输和存储过程中的安全性,满足行业和法规的合规性要求。 通过结合公有云的特点,云数据库ClickHouse在可扩展性、可靠性、弹性存储和安全性等方面为用户提供了更加灵活和可信赖的解决方案。同时,利用公有云平台的自动化和管理功能,用户可以更轻松地部署和运维云数据库ClickHouse,并专注于数据分析和业务价值的提升。
        来自:
        帮助文档
        云数据库ClickHouse
        产品简介
        产品定义
      • 支持的数据源
        类别 类型 简要释义 Hive DWS 字符串 char 定长字符串,会用空格填充来达到最大长度。 CHAR CHAR nchar 包含unicode格式数据的定长字符串。 CHAR CHAR varchar2 是VARCHAR的同义词。这是一个变长字符串,与CHAR类型不同,它不会用空格将字段或变量填充至最大长度。 VARCHAR VARCHAR nvarchar2 包含unicode格式数据的变长字符串。 VARCHAR VARCHAR 数值 number 能存储精度最多高达38位的数字 DECIMAL NUMERIC binaryfloat 2位单精度浮点数 FLOAT FLOAT8 binarydouble 64位双精度浮点数 DOUBLE FLOAT8 long 能存储最多2GB的字符数据 不支持 不支持 日期时间 date 7字节的定宽日期/时间数据类型,其中包含7个属性:世纪、世纪中的哪一年、月份、月中的哪一天、小时、分钟、秒。 DATE TIMESTAMP timestamp 7字节或11字节的定宽日期/时间数据类型,它包含小数秒 TIMESTAMP TIMESTAMP timestamp with time zone 3字节的timestamp,提供了时区支持。 TIMESTAMP TIME WITH TIME ZONE timestamp with local time zone 7字节或11字节的定宽日期/时间数据类型,在数据的插入和读取时会发生时区转换 TIMESTAMP 不支持(TEXT) interval year to month 5字节的定宽数据类型,用于存储一个时段。 不支持 不支持(TEXT) interval day to second 11字节的定宽数据类型,用于存储一个时段。将时段存储为天/小时/分钟/秒数,还可以有9位小数秒。 不支持 不支持(TEXT) 多媒体(二进制) raw 一种变长二进制数据类型,采用这种数据类型存储的数据不会发生字符集转换。 不支持 不支持 long raw 能存储多达2GB的二进制信息 不支持 不支持 blob 能够存储最多4GB的数据 不支持 不支持 clob 在Oracle 10g及以后的版本中允许存储最多(4GB)×(数据库块大小)字节的数据。CLOB包含要进行字符集转换的信息。这种数据类型很适合存储纯文本信息。 不支持 不支持 nclob 这种类型能够存储最多4GB的数据。当字符集发生转换时,这种类型会受到影响。 不支持 不支持 bfile 可以在数据库列中存储一个oracle目录对象和一个文件名,我们可以通过它来读取这个文件。 不支持 不支持 其他类型 rowid 实际上是数据库表中行的地址,它有10字节长。 不支持 不支持 urowid 是一个通用的rowid,没有固定的rowid的表。 不支持 不支持
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        支持的数据源
      • 修改云硬盘类型
        本文将为您介绍如何修改云硬盘的类型,以及修改云硬盘类型的约束与限制。 操作场景 天翼云提供多种云硬盘类型,满足不同场景的存储性能和价格需求,用户可以根据业务需求变更云硬盘的类型。例如,创建云硬盘时选择了通用型SSD,但后期需要更高的IOPS,则可以将该盘变配为超高IO型云硬盘。 说明 当前云硬盘变配后,新建快照的类型与最新的磁盘类型一致,而云硬盘的存量快照类型则不会变化。 约束与限制 当前支持的变配路径如下: HDD云硬盘变配 源云硬盘类型 支持修改的目标云硬盘类型 普通IO 高IO SSD云硬盘变配 源云硬盘类型 支持修改的目标云硬盘类型 通用型SSD 超高IO XSSD云硬盘变配 源云硬盘类型 支持修改的目标云硬盘类型 备注 XSSD0 按需计费XSSD0 按需计费XSSD1 XSSD0变配为XSSD1时,云硬盘容量不可小于20GB,若不满足请在变配前扩容云硬盘。 XSSD0 按需计费XSSD0 按需计费XSSD2 XSSD0变配为XSSD2时,云硬盘容量不可小于512GB,若不满足请在变配前扩容云硬盘。 XSSD0 按需计费XSSD0 按需计费XSSD3 XSSD0变配为XSSD3时,云硬盘容量不可小于1024GB,若不满足请在变配前扩容云硬盘。 XSSD0 包年包月XSSD0 包年包月XSSD1 XSSD0变配为XSSD1时,云硬盘容量不可小于20GB,若不满足请在变配前扩容云硬盘。 XSSD0 包年包月XSSD0 包年包月XSSD2 XSSD0变配为XSSD2时,云硬盘容量不可小于512GB,若不满足请在变配前扩容云硬盘。 XSSD0 包年包月XSSD0 包年包月XSSD3 XSSD0变配为XSSD3时,云硬盘容量不可小于1024GB,若不满足请在变配前扩容云硬盘。 XSSD1 按需计费XSSD1 按需计费XSSD0 XSSD1变配为XSSD0时,云硬盘的基础IOPS+预配置IOPS之和,不可超过XSSD0的最大IOPS,若不满足请在变配前调整预配置IOPS。XSSD0的最大IOPS计算方法参见[X系列云硬盘性能计算方法](
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘变配
        修改云硬盘类型
      • 注册配置中心配置问题
        本章节介绍注册配置中心常见配置问题 注册配置中心监控支持Prometheus动态读取Nacos的服务列表而获取metrics吗? 支持,但在MSE里面不支持展示。 部署了Spring Cloud应用,但是使用的是Consul注册中心,如何实现注册中心的托管呢? MSE目前已上线了Consul引擎,诚邀您开通试用。 如何退订服务?退订后资源会立刻释放吗? 1. 在实例列表页面选择目标实例退订。 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池。 2. 在左侧导航栏,选择注册配置中心> 实例列表。 3. 在实例列表页面,选择目标实例所在行,点击操作列“更多”下面的“退订”按钮,跳转至确认页面。 4. 在退订确认页面请确认需要退订的实例信息,无误后点击确认即可退订。 5. 退订后实例无法再提供服务。 2. 退订后实例会被停止,无法访问,但资源不会立即释放,一般情况下数据会保留15天,准确保留时间以系统为准。 可以续订服务吗?服务能自动续期吗? 包周期的实例可随时进行续订,续订后,到期时间将后延您所续订的时间。服务在购买时可以设置自动续期,您只需要选中“自动续费”按钮即可。 购买的实例性能无法满足实际需求怎么办? 1. 购买实例前建议您先评估实际需求,然后参考产品规格章节 ,预留30%左右的容量,然后订购对应能力规格的产品。 2. 如果购买的实例无法随着业务发展无法满足实际需求可以使用扩容操作,对订购的实例进行扩容,扩容操作包括三种类型节点扩容(最高支持扩至9节点)、规格扩容(增加实例节点内存容量和CPU数量)、磁盘扩容(增加实例节点数据盘容量)。具体的操作可以参考如下步骤: 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池。 2. 在左侧导航栏,选择注册配置中心> 实例列表。 3. 在实例列表页面,选择目标实例所在行,点击操作列扩容按钮,跳转至扩容页面。 4. 在扩容页面选择扩容的类型以及目标规格,点击确认后提交订单,支付完毕后可在控制台实例列表页面查看扩容状态。 说明 1. 节点扩容限制只能3>5>7>9逐步扩容,不能一次增加超过半数的节点。 2. 规格扩容只能选择相同架构和类型下的2C4G、4C8G、8C16G等既定规格扩容,不能自定义规格。 3. 磁盘扩容必须是步长(50G)的整数倍,不能随意指定数字。
        来自:
        帮助文档
        微服务引擎
        常见问题
        注册配置中心
        注册配置中心配置问题
      • 设置跨区域备份策略
        本节介绍了设置跨区域备份策略的操作场景、约束与限制、开启或修改步骤等相关内容。 操作场景 关系型数据库支持将备份文件存放到另一个区域存储,某一区域的实例故障后,可以在异地区域使用备份文件在异地恢复到新的RDS实例,用来恢复业务。 实例开启跨区域备份策略后,会自动将该实例的备份文件备份到目标区域。您可以在RDS“备份管理”页面,对跨区域的备份文件进行管理。未开启跨区域备份策略,默认是在本区域存放备份。 实例关闭跨区域备份策略后,目标区域的备份文件会被清理。 每个租户默认最多支持150个实例设置跨区域备份策略。 约束和限制 目前仅广州、苏州、华北、贵州支持此能力,如果您的实例在这些资源池内,请您提交工单申请对应权限。 开启或修改跨区域备份策略 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏,单击“备份恢复”,单击“跨区域备份策略”。 开启跨区域全备:将本实例的自动全量备份文件备份到异地。 开启跨区域日志备份:将本实例的Binlog备份(增量备份)文件备份到异地。 跨区域备份文件的保留天数范围为1~1825天。 开启跨区域备份策略仅对新产生的备份生效,即为开启跨区域备份策略后产生的备份生效,之前的备份文件不会存储到异地。 开启跨区域日志备份后需要待下一次自动全量备份复制完成后才可进行将数据库实例恢复到指定时间点操作,并且只允许恢复到自动全量备份完成后的时间点。 同一个租户下各数据库实例,备份选择的目标区域需要相同。 跨区域备份会在实例本区域备份完成后异步复制到异地。 步骤 6 单击“确定”,确认修改。 步骤 7 您可以返回实例列表,在左侧导航栏选择“备份管理”,在“数据库跨区域备份”页签,管理跨区域备份文件。 默认展示所有的跨区域备份实例信息。 − 单击“设置区域备份”,可以修改跨区域备份策略。 − 单击“查看跨区域备份”,可以查看到生成的备份文件,当原区域实例发生故障,可以通过该备份文件将数据恢复到新实例。 结束
        来自:
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • 创建云硬盘备份
        操作步骤(云硬盘页面) 步骤 1 登陆天翼云官网,完成账号注册。登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域资源池。 说明 此处请选择与您的云硬盘相同的区域。 步骤 3 在管理控制台左上角单击,选择“存储 > 云硬盘”,进入云硬盘控制台页面。 步骤 4 在云硬盘所在行的“操作”列表下选择“更多>创建备份”。 步骤 5 在云硬盘备份创建页面,默认对应云硬盘在已勾选磁盘列表区域展示。可以单击已选磁盘操作列的删除按钮,对不需要备份的磁盘进行删除。 步骤 6 确认需备份磁盘信息无误后,在下方“备份配置”模块中为已选择的云硬盘配置对应的备份方式:“自动备份“”立即备份” 自动备份: 需要在“备份策略”的下拉菜单中,选择一个已有的备份策略,或者单击右侧的“创建策略”创建一个新的备份策略。 在备份创建完成后,所选云硬盘会绑定到该备份策略中,按照备份策略进行周期性备份。 说明 如果选择的云硬盘已经绑定到其他备份策略,在选择新的备份策略后,云硬盘会自动从原备份策略解绑,并绑定到新的备份策略。 立即备份: 在备份创建完成后,会对所有云硬盘立即执行一次性备份。 需要输入备份的“名称”和“描述”,参数说明如下: 参数 说明 举例 名称 只能由中文、英文字母、数字、下划线、中划线组成,不能含有特殊字符,不能以auto开头。如果在云硬盘列表中只选择了一个磁盘进行备份,名称长度范围为164字符。如果选择多个磁盘,名称长度范围为159字符。 Backupedd9 描述 长度范围为064个字符,并且不能包含字符“ ”。 fortest 可同时选择两种备份方式,即立即执行一次备份,后续按照备份策略进行周期性备份。 步骤 7 点击“立即申请” 步骤 8 在云硬盘备份详情页面,确认配置无误后,点击我已阅读并同意相关协议《云硬盘备份服务协议》,点击提交申请;若配置信息有误,点击上一步进行修改。 步骤 9 根据页面提示,返回云硬盘备份控制台页面。您可以在大约10秒后手动刷新云硬盘备份页面,查看备份创建状态。当云硬盘备份的“状态”变为“可用”时,表示备份创建成功。
        来自:
        帮助文档
        云硬盘备份 VBS
        快速入门
        创建云硬盘备份
      • 以SkyWalking方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过SkyWalking SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 SkyWalking是一款广受欢迎的国产APM(Application Performance Monitoring,应用性能监控)产品,主要针对微服务、Cloud Native和容器化(Docker、Kubernetes、Mesos)架构的应用。SkyWalking的核心是一个分布式追踪系统。 接入步骤 1、安装Agent plaintext dotnet add package SkyAPM.Agent.AspNetCore 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供v3版本接入点(Skywalking 8.)的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、设置环境变量 plaintext ASPNETCOREHOSTINGSTARTUPASSEMBLIESSkyAPM.Agent.AspNetCore SKYWALKINGSERVICENAME 4、配置Agent属性 plaintext 安装SkyAPM.DotNet.CLI工具 plaintext dotnet tool install g SkyAPM.DotNet.CLI plaintext 生成配置文件skyapm.json plaintext dotnet skyapm config sampleapp 192.168.0.1:11800 plaintext skyapm.json文件内容如下 plaintext {   "SkyWalking": {     "ServiceName":  ,     "Namespace": "",     "HeaderVersions": [       "sw8"     ],     "Sampling": {       "SamplePer3Secs": 1,       "Percentage": 1.0     },     "Logging": {       "Level": "Information",       "FilePath": "logsskyapm{Date}.log"     },     "Transport": {       "Interval": 3000,       "ProtocolVersion": "v8",       "QueueSize": 30000,       "BatchSize": 3000,       "gRPC": {         "Servers":  ,         "Timeout": 10000,         "ConnectTimeout": 10000,         "ReportTimeout": 600000,         "Authentication": "Bearer  "       }     }   } } 属性说明: :服务名称 :获取的接入点 :获取的接入点鉴权令牌 Logging:日志记录与调试。Level表示日志级别,FilePath表示日志文件保存的位置以及文件名称 运行程序时,Agent的日志会记录在Logging设置的文件中,可以参考log文件进行调试和修改。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以SkyWalking方式接入
      • 基本概念
        本文带您了解弹性负载均衡产品的基本概念。 名词 说明 :: 负载均衡服务 天翼云提供的一种网络负载均衡服务,提供四层和七层负载均衡服务。 负载均衡实例 负载均衡实例是一个运行的负载均衡服务。要使用负载均衡服务,必须先创建一个负载均衡实例。 监听器 监听器负责监听负载均衡器上的请求,规定了如何将请求转发给后端云主机处理。 后端服务器组 一组处理负载均衡分发的前端请求的云主机实例。 后端服务器 处理前端请求的云主机实例。 弹性公网带宽 弹性公网带宽是指对外提供服务,可以访问网络,网络其他计算机可以访问主机的流量。 负载均衡器协议/端口 指协议支持四层的TCP和七层的HTTP。端口可根据业务需求在165535 范围内任意设定。如需要使用80、8080、443、8443备案端口,请提前进行备案。4个备案端口默认是关闭状态,备案完成后将开通。 云主机协议/端口 用于指定与负载均衡绑定的云主机的协议及端口,协议支持四层的TCP和七层的HTTP。端口可根据业务需求在165535范围内任意设定。云主机端口不受备案限制。 会话保持 用户可以选择打开或关闭会话保持功能。如果打开会话保持,针对7层(HTTP)服务,提供基于Cookie的会话保持;针对4层(TCP)服务,提供基于IP地址的会话保持。 健康检查 健康检查用于检查后端主机的状态。用户可自定义健康检查方式和频率,负载均衡根据预设的健康检查规则定时检查后端云主机是否正常运行,一旦检测到云主机为非健康状态,则不会将访问流量分派到这些非健康云主机实例。 负载方式 负载方式即负载均衡算法,支持轮询、最小连接数和源地址三种算法。 轮询算法 轮询算法是依据后端主机的权重,将请求轮流发送给后端云主机,常用于短连接服务,例如HTTP等服务。 最小连接数算法 最小连接数算法是优先将请求发给拥有最小连接数的后端云主机,常用于长连接服务,例如数据库连接等服务。 源算法 源算法是将请求的源地址进行hash运算,并结合后端的云主机的权重派发请求至某匹配的云主机,这可以使得同一个客户端IP的请求始终被派发至某特定的云主机。该方式适合负载均衡无Cookie功能的TCP协议。 默认配额 默认配额是指每个用户在每个区域节点资源的数量,如默认配额无法满足用户需求,可通过控制台申请调整配额。
        来自:
        帮助文档
        弹性负载均衡 ELB
        产品简介
        基本概念
      • 提交导入任务
        本页介绍天翼云TeleDB数据库提交导入任务相关操作。 1、在左侧导航栏,单击开发空间 > 数据导入,进入数据导入管理页面。 2、单击数据导入按钮,弹出数据导入工单填写弹窗,工单需要选择或输入的内容说明见下表。 3、填写完数据导入工单后,单击提交按钮,即完成工单的提交,进入数据导入后台执行阶段。 4、数据导入任务的工单状态,可在导入列表页面查看,如果导入失败,可单击详情查看原因。更多详细操作请查看导入工单列表章节。 输入内容 说明 目标数据库(必填) 数据库/模式选择列表,数据来源于 数据资产元数据管理 中添加的数据库实例,支持MySQL、PostgreSQL和TeleDB,其中MySQL可选择到库级别,PostgreSQL、TeleDB可选择到模式级别。当前仅支持单选一个目标库/模式。注意:如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 文件类型(必填) 选择导入数据的上传文件类型:· SQL:目前支持INSERT,UPDATE,REPLACE语句。选择该文件类型则无法指定“目标表”和“写入方式”。· CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。· TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 目标表(必填) 在选择目标数据库下,筛选导入的目标表。仅支持CSV和TXT格式导入。 写入方式(必填) 选择导入文件的写入方式:· INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。· INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。· REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。注意:· 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。· 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL、TeleDB数据库类型支持INSERT INTO的导入方式。 附件上传(必填) 单击上传文件,上传选中文件类型对应的文件。注意:· 目前支持SQL,CSV,TXT三种文件格式,上传前请检查文件名后缀是否符合要求。· 目前仅支持上传单个文件。· 上传文件大小最大限制为1GB,请控制好文件数据大小。 工单说明(选填) 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据管理服务操作指南
        数据导入
        提交导入任务
      • 全量SQL洞察
        本节主要介绍全量SQL洞察。 在实例开启DAS收集全量SQL的前提下,该模块基于全量SQL数据进行分析,并提供多维度的分析、搜索、过滤的能力,帮助用户全面洞察SQL,TOP SQL快速定位异常原因,保障数据库稳定运行。 全量SQL洞察功能在对实例性能影响极小(5%以内)的情况下,记录了全量SQL,提供了访问最频繁、更新最频繁的表,锁等待时间最长的SQL等多维度的分析、搜索、过滤能力。 使用须知 关闭DAS收集全量SQL后,DAS将不再采集您新产生的SQL,已经收集的SQL也会被删除,请您谨慎操作。 免费实例的全量SQL日志仅保留1个小时,付费实例默认保留7天,最长可保存30天,到期后自动删除。 全量SQL功能不能保证记录全部数据,针对RDS for PostgreSQL会有如下使用限制: 当前全量SQL受内存缓冲区限制,业务量大的场景下,全量SQL有较小概率因缓冲区满,存在丢弃部分记录(一般来说,qps大于1000或者CPU、内存等资源达到瓶颈会出现丢失部分记录)。 当前全量SQL单条记录超过4096字节时,会默认丢弃超过4096字节的SQL。 全量SQL洞察仅支持以下内核版本的RDS for PostgreSQL实例: 如大版本为14,小版本需 > 14.4 如大版本为13,小版本需 > 13.6 (13.6>小版本>13.2,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为12,小版本需 > 12.10(12.10>小版本>12.6,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为11,小版本需 > 11.15(11.15>小版本>11.11,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为10,小版本需 > 10.20(10.20>小版本>10.16,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为9.6,小版本需 > 9.6.24(9.6.24>小版本>9.6.21,通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集) 如大版本为9.5,小版本需 > 9.6.25(部分9.5.25版本实例通过psql执行的sql能被采集到,但通过其他驱动如JDBC执行的sql可能不会被采集)
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        PostgreSQL
        全量SQL洞察
      • 功能总览
        本文介绍DRDS的功能总览。 DRDS支持功能如下所示: 功能分类 功能名称 功能描述 实例管理 实例管理 包括一键检测、退订、续订、规格变更等功能。具体使用方法,请参考实例管理。 实例管理 绑定/解绑弹性IP 通过绑定弹性IP,实现通过公共网络访问数据库实例。具体方法,请参考绑定/解绑弹性IP。 实例管理 修改安全组 通过修改安全组,对DRDS实例的出入流量进行访问控制。具体方法,请参考修改安全组。 实例管理 分组管理 包括属性设置、关联MySQL管理、DML审计、IP黑白名单等功能。具体使用方法,请参考分组管理。 实例管理 节点管理 包括启动、停止节点、属性设置、命令行等功能。具体使用方法,请参考节点管理。 实例管理 schema管理 包括创建、导出、删除schema等功能。具体使用方法,请参考schema管理。 实例管理 用户管理 支持用户创建、删除、设置权限等功能。具体使用方法,请参考用户管理。 实例管理 角色管理 支持角色创建、删除、设置权限等功能。具体使用方法,请参考角色管理。 实例管理 关联MySQL管理 进行关联、删除MySQL,支持直接添加天翼云购买的MySQL实例,请参考关联MySQL管理。 实例管理 DDL审计 介绍了支持的DDL审计规则及默认值。具体使用方法,请参考DDL审计。 实例监控 实例监控 介绍了实例监控页面的监控指标。具体使用方法,请参考实例监控。 统计分析 统计分析 包括SQL执行分析、慢SQL分析、事务统计等功能。具体使用方法,请参考统计分析。 运维工具 运维工具 包括数据库连接查询、数据库锁表查询等功能。具体使用方法,请参考运维工具。 全局索引 全局索引 包括全局索引的核心特性,以及设置实例属性、管理关联DBProxy、管理节点日志和状态等功能。具体使用方法,请参考全局索引。 操作日志 操作日志 支持查看目标实例的操作日志,具体使用方法,请参考操作日志。 登录数据库 通过DMS登录DRDS实例 支持使用数据管理服务DMS登录DRDS实例,具体使用方法,请参考通过DMS登录DRDS实例。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        功能总览
      • 【调价】2024年5月20日起,关系数据库MySQL版对Ⅱ类型资源池主机资源进行价格及包年折扣调整
        本页主要对关系数据库MySQL版的价格调整及包年优惠政策进行说明。 为提供更具竞争力和经济实惠的数据存储与处理解决方案,助力业务蓬勃发展。天翼云关系数据库MySQL版将于2024年05月20日推出针对按需和包周期等全系列全规格产品的降价优惠。无论您是新用户还是现有客户,在下单时都将享受到降价后的优惠价格。对于现有客户,续费存量实例时也将适用新的价格标准。 调价详情 关系数据库MySQL版对按需、包周期全系列全规格产品进行降价优惠,对长年限包周期实例购买下调价格显著,买的时间越久价格越便宜,降幅显著,长年限降幅最高达74%,具体降价幅度如下表所示。 注:下表仅挑选常用规格做降幅说明,其他降价规格资费详情请见产品资费。 销售品名称 月费用 1年费用 2年费用 3年费用 4年费用 5年费用 销售品名称 降价前(元/月) 降价后(元/月) 降幅 降价前(元/年) 降价后(元/年) 降幅 降价前(元/2年) 降价后(元/2年) 降幅 降价前(元/3年) 降价后(元/3年) 降幅 降价前(元/4年) 降价后(元/4年) 降幅 降价前(元/5年) 降价后(元/5年) 降幅 单机版2C4G通用型 231 150 35% 2356.2 1170 50% 3880.8 1980 49% 4158 2430 42% 5544 2520 55% 6930 2700 61% 单机版2C8G通用型 422 185 56% 4304.4 1443 66% 7089.6 2442 66% 7596 2997 61% 10128 3108 69% 12660 3330 74% 单机版4C8G通用型 455 360 21% 4641 2808 40% 7644 4752 38% 8190 5832 29% 10920 6048 45% 13650 6480 53% 单机版4C16G通用型 620 480 23% 6324 3744 41% 10416 6336 39% 11160 7776 30% 14880 8064 46% 18600 8640 54% 单机版8C32G通用型 1229 960 22% 12535.8 7488 40% 20647.2 12672 39% 22122 15552 30% 29496 16128 45% 36870 17280 53% 主备版2C8G通用型 672 520 23% 6854.4 4056 41% 11289.6 6864 39% 12096 8424 30% 16128 8736 46% 20160 9360 54% 主备版16C32G通用型 3640 2897 20% 37128 22596.6 39% 61152 38240.4 37% 65520 46931.4 28% 87360 48669.6 44% 109200 52146 52% 主备版16C64G通用型 4872 3768 23% 49694.4 29390.4 41% 81849.6 49737.6 39% 87696 61041.6 30% 116928 63302.4 46% 146160 67824 54% 主备版32C64G通用型 7278 5684 22% 74235.6 44335.2 40% 122270.4 75028.8 39% 131004 92080.8 30% 174672 95491.2 45% 218340 102312 53%
        来自:
      • 1
      • ...
      • 241
      • 242
      • 243
      • 244
      • 245
      • ...
      • 268
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      一站式智算服务平台

      智算一体机

      推荐文档

      分析指标历史数据并导出监控报告

      导出数据

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号