活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼备份_相关内容
      • 基于消息队列RocketMQ实现全链路灰度
        本章节介绍如何基于消息队列RocketMQ实现全链路灰度 概述 本文介绍在使用消息队列(RocketMQ)这种异步场景下,可以在不修改业务代码的情况下,实现异步场景的灰度,从而实现全链路灰度。本文介绍基于消息队列RocketMQ实现全链路灰度。 背景介绍 在大多数业务场景中对于消息的灰度并没有RPC调用那么严格,但是当全链路灰度调用中涉及到消息消费时,如果消息消费没有按照全链路流量规则路由,则会导致通过消息产生的流量逃逸,从而破坏全链路规则,导致出现一些不符合预期的情况。 如下图所示,本文分别部署网关、appa、appagray、appb、appbgray、appc、appcgray以及RocketMQ,模拟一个真实的全链路灰度场景。 通过网关调用appa应用的接口,当满足路由规则后,灰度流量会被路由到appagray,appagray又会调用appbgray,随后由appbgray发送灰度消息,appcgray将会收到灰度消息,而appc不会收到灰度消息。 前提条件 1. 用户已开通微服务治理中心企业版。 2. 用户已开通云容器引擎。 3. 用户已部署RocketMQ,且RocketMQ版本在4.5.0以上,broker.conf中已配置enablePropertyFiltertrue。 部署Demo应用 准备自建入口网关msgczuul,准备应用msgcappa,msgcappb和msgcappc。调用过程是msgcappa –> msgcappb > msgcappc。 步骤1:在云容器引擎中安装微服务治理插件: 1. 登录“云容器引擎”控制台。 2. 在左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“插件”“插件市场”,选择“cubems”插件安装。 步骤2:为应用开启微服务治理能力: 1. 登录“云容器引擎”控制台。 2. 左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“工作负载”“无状态”,选择目标命名空间。 4. 在Deployment列表页选择指定Deployment,并点击“全量替换”,进入Deployment编辑页。 5. 在Deployment编辑页点击“显示高级设置”,新增“Pod标签”: mseCubeMsAutoEnable:on。 6. 在发布应用时,配置指定环境变量,可指定注入微服务治理中心的应用名、命名空间和标签等信息。 环境变量配置如下: 环境变量名 环境变量值 MSEAPPNAME 接入到微服务治理中心的应用名。 MSESERVICETAG 应用标签信息,如灰度应用可配置gray。 MSENAMESPACE(选填) 接入到微服务治理中心的命名空间,默认为:default。 7. 完成编辑后点击“提交”,重新发布容器即可接入。 appa应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appb应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appc应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" zuul应用的配置: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "zuul" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "zuul" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "zuul" spec: containers: env: name: "MSEAPPNAME" value: "zuul" image: "镜像仓库域名/xxx/zuul:latest" imagePullPolicy: "Always" name: "zuul" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi"
        来自:
        帮助文档
        微服务引擎
        最佳实践
        基于消息队列RocketMQ实现全链路灰度
      • 创建DataArts Studio基础包
        本章节主要介绍创建DataArts Studio基础包。 背景信息 只有拥有DAYU Administrator 或Tenant Administrator权限的用户才可以创建DataArts Studio实例或DataArts Studio增量包。如需创建,您需要给用户授予所需的权限。 说明 Tenant Administrator策略具有所有云服务的管理员权限(除IAM管理权限之外),为安全起见,一般不建议给IAM用户授予该权限,请谨慎操作。 只有拥有Security Administrator权限的用户才创建云服务委托。云服务委托可将相关云服务的操作权限委托给DataArts Studio,让DataArts Studio以您的身份使用这些云服务,代替您进行一些任务调度、资源运维等工作。 前提条件 已申请VPC、子网和安全组,您也可以在创建DataArts Studio实例过程中申请VPC、子网和安全组。 登录DataArts Studio控制台 1. 登录云控制台。 2. 在控制台左上方,单击“服务列表”按钮,选择“数据治理中心”,进入DataArts Studio控制台。 创建DataArts Studio基础包 步骤 1 在DataArts Studio控制台页面,单击“创建实例”,进入创建DataArts Studio实例界面。 步骤 2 配置DataArts Studio实例参数,各参数说明如表1 所示。 表1 DataArts Studio实例参数 参数名称 样例 说明 区域 选择实例的区域,不同区域的资源之间内网不互通。 企业项目 default DataArts Studio实例默认工作空间关联的企业项目。 如果已经创建了企业项目,这里才可以选择。当DataArts Studio实例需连接云上服务(如DWS、MRS、RDS等),还必须确保DataArts Studio工作空间的企业项目与该云服务实例的企业项目相同。 l 一个企业项目下只能创建一个DataArts Studio实例。 l 需要与其他云服务互通时,需要确保与其他云服务的企业项目一致。 版本 企业版 选择需要购买的DataArts Studio版本。 计费方式 包年包月 当前DataArts Studio基础包仅支持包年包月计费方式。 实例名称 DataArts Studiotest 自定义DataArts Studio实例名称。实例名称不支持修改,请提前合理规划。 可用区 可用区1 选择DataArts Studio实例可用区,即数据集成CDM集群所在可用区。DataArts Studio实例通过数据集成CDM集群与其他服务实现网络互通。 第一次购买DataArts Studio实例或增量包时,可用区无要求。再次购买DataArts Studio实例或增量包时,是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 l 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 l 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 虚拟私有云 vpc1 DataArts Studio实例中的数据集成CDM集群所属的VPC、子网、安全组。DataArts Studio实例通过数据集成CDM集群与其他服务实现网络互通。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS等),则您需要确保CDM集群与该云服务网络互通。同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 子网 subnet1 DataArts Studio实例中的数据集成CDM集群所属的VPC、子网、安全组。DataArts Studio实例通过数据集成CDM集群与其他服务实现网络互通。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS等),则您需要确保CDM集群与该云服务网络互通。同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 安全组 sg1 DataArts Studio实例中的数据集成CDM集群所属的VPC、子网、安全组。DataArts Studio实例通过数据集成CDM集群与其他服务实现网络互通。 如果DataArts Studio实例或CDM集群需连接云上服务(如DWS、MRS、RDS等),则您需要确保CDM集群与该云服务网络互通。同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通,如果同虚拟私有云而子网或安全组不同,还需配置路由规则及安全组规则。 VPC、子网、安全组的详细操作,请参见《虚拟私有云用户指南》。 购买时长 1年 按您的需求选择购买的时长。 自动续费 勾选自动续费前的复选框,可实现自动按月或者按年续费。 购买时长为按月购买时,自动续费周期为1个月;购买时长为按年购买时,自动续费周期为1年。 步骤 3 查看当前配置,确认无误后单击“立即创建”。 步骤 4 返回DataArts Studio控制台首页时,系统会自动弹出“云资源访问授权”的对话框,提示您对所列出的服务进行委托授权。DataArts Studio与这些云服务之间存在业务交互关系,需要与这些云服务协同工作,因此需要您创建云服务委托,将操作权限委托给DataArts Studio,让DataArts Studio以您的身份使用这些云服务,代替您进行一些任务调度、资源运维等工作。 说明 只有拥有Security Administrator权限的用户才创建云服务委托。云服务委托可将相关云服务的操作权限委托给DataArts Studio,让DataArts Studio以您的身份使用这些云服务,代替您进行一些任务调度、资源运维等工作。 云服务委托包含DWS、MRS、RDS、OBS、SMN、KMS等服务的相关权限,作用范围可以访问IAM的委托界面查看。 另外子账号以主账号的委托为准,不需要额外申请委托。 勾选所有服务并单击“同意授权”,系统会在IAM服务自动创建dlgagency默认委托。 完成了委托授权后,下次再进入DataArts Studio控制台首页时,系统不会再弹出访问授权的对话框。 如果您只勾选了其中的某几个服务进行委托授权,下次进入DataArts Studio控制台首页时,系统仍会弹出访问授权的对话框,提示您对未授权的云服务进行访问授权。 步骤 5 在已创建的实例中单击“进入控制台”,进入DataArts Studio控制台。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        准备工作
        创建DataArts Studio实例
        创建DataArts Studio基础包
      • SQL规范配置
        本文介绍SQL规范功能,DMS会对用户在查询窗口、SQL变更等模块中提交的SQL语句进行规范审核,符合规范要求的才可执行,这样可以提前识别一些错误或者不规范的SQL,降低异常SQL对数据库造成的风险。 前提条件 时间字段分区表须确定生命周期制定规则和数据清理表 新建索引需要加参 数initrans 时间字段分区表须确定生命周期制定规则和数据清理表 时间字段分区表须确定生命周期制定规则和数据清理表 规则类型 适用的数据库 适用的SQL语句 规则名称 在线/离线规则 库 MySQL、PostgreSQL CREATE DATABASE 限制创建库的字符集 离线 库 Oracle CREATE DBLINK 禁止所有用户拥有创建dblink权限 离线 表 MySQL、PostgreSQL、Oracle CREATE TABLE 表要有主键 离线 表 MySQL、PostgreSQL CREATE TABLE 表要有备注 离线 表 MySQL、PostgreSQL CREATE TABLE 限制表名大小写 离线 表 MySQL CREATE TABLE 限制表存储引擎 离线 表 MySQL、PostgreSQL CREATE TABLE 禁止使用分区表 离线 表 MySQL、PostgreSQL、Oracle CREATE TABLE 表要包含哪些列 离线 表 MySQL CREATE TABLE 限制表字符集 离线 表 MySQL、PostgreSQL、Oracle CREATE TABLE 表名不能是关键字 离线 表 MySQL、PostgreSQL、Oracle CREATE TABLE 限制表字段数量 离线 表 Oracle CREATE TABLE 新建表表名不能带有日期格式 离线 表 Oracle CREATE TABLE 建表时指定表空间名字前缀不能为关键字 离线 表 Oracle CREATE TABLE 时间字段分区表须确定生命周期制定规则和数据清理表 离线 表 Oracle CREATE TABLE 表名中带关键字的表必须进行分区 离线 表 Oracle CREATE TABLE 新建表需要加参数initrans 离线 列 MySQL、PostgreSQL、Oracle CREATE TABLE 字段名不能是关键字 离线 列 MySQL、PostgreSQL CREATE TABLE 限制字段名大小写 离线 列 MySQL CREATE TABLE 不能设置列的字符集 离线 列 MySQL、PostgreSQL、Oracle CREATE TABLE 限制列不能使用部分数据类型 离线 列 MySQL、PostgreSQL CREATE TABLE 列要有注释并限制长度 离线 列 MySQL、PostgreSQL、Oracle CREATE TABLE 限制char类型字段长度 离线 列 MySQL、PostgreSQL、Oracle CREATE TABLE 限制varchar类型字段长度 离线 索引 PostgreSQL CREATE INDEX 建议以create index concurrently方式创建索引 离线 索引 MySQL、PostgreSQL CREATE TABLE 限制单表中索引数量 离线 索引 Oracle CREATE INDEX 索引命名必须以关键字命名 离线 索引 Oracle CREATE INDEX 索引创建必须显式指定表空间,且指定的表空间为数据表空间 在线 索引 Oracle CREATE INDEX 索引创建不能nologging 离线 索引 Oracle CREATE INDEX 分区表创建的索引必须为LOCAL类型 在线 索引 Oracle CREATE INDEX 索引的表空间名称必须以关键字开头 离线 索引 Oracle CREATE INDEX 新建索引需要加参数initrans 离线 更新 MySQL、DRDS UPDATE/DELETE update/delete语句限制多表关联的数量 离线 更新 MySQL、DRDS、PostgreSQL UPDATE/DELETE update/delete语句建议指定where条件 离线 更新 MySQL、DRDS、PostgreSQL UPDATE/DELETE update/delete语句检测where条件是否包含子查询 离线 更新 MySQL、DRDS UPDATE/DELETE update/delete语句不能有order by子句 离线 更新 MySQL、DRDS、PostgreSQL UPDATE/DELETE update/delete语句检测涉及表/字段是否存在 在线(检测该规则需连接数据库实例) 更新 MySQL、DRDS、PostgreSQL UPDATE/DELETE 限制某些表UPDATE/DELETE单个语句的总影响行数 在线(检测该规则需连接数据库实例) 更新 MySQL、DRDS、PostgreSQL UPDATE/DELETE update语句检测是否更新了主键 在线(检测该规则需连接数据库实例) 更新 PostgreSQL UPDATE/DELETE update语句检测是否更新了唯一键 离线 更新 DRDS UPDATE/DELETE 禁止使用truncate table语句 离线 更新 DRDS UPDATE/DELETE update/delete语句不能带limit条件 离线 写入 MySQL、DRDS、PostgreSQL INSERT 插入语句建议指定insert字段列表 离线 写入 MySQL、DRDS、PostgreSQL INSERT 插入语句中insert字段名不能重复 离线 写入 MySQL、DRDS、PostgreSQL INSERT 插入语句中insert字段列表要和值列表匹配 离线 写入 MySQL、DRDS、PostgreSQL INSERT 插入语句限制一条insert values的总行数 离线 写入 MySQL、DRDS、PostgreSQL INSERT 插入语句检测insert的表/字段是否存在 在线(检测该规则需连接数据库实例) 写入 PostgreSQL INSERT 插入语句不能为not null列插入null值 在线(检测该规则需连接数据库实例) 查询 MySQL、DRDS、PostgreSQL SELECT select语句不建议group by或order by表达式或函数 离线 查询 MySQL、DRDS、PostgreSQL SELECT select语句不建议order by多个字段使用不同方向排序 离线 查询 MySQL、DRDS、PostgreSQL SELECT select语句不建议使用having子句 离线 查询 MySQL、DRDS、PostgreSQL SELECT select语句不建议使用order by rand() 离线 查询 MySQL、DRDS、PostgreSQL、Oracle SELECT select语句不建议使用select 离线 查询 MySQL、DRDS、PostgreSQL SELECT select语句不建议使用union 离线 查询 MySQL、DRDS、PostgreSQL SELECT select语句不建议对不同的表group by或order by 离线 查询 MySQL、DRDS、PostgreSQL SELECT select语句建议指定where条件 离线 查询 MySQL、DRDS、PostgreSQL SELECT select语句限制limit的offset大小 离线 查询 MySQL、DRDS、PostgreSQL SELECT select语句限制多表关联的数量 离线 查询 MySQL、DRDS SELECT 多表关联的select语句建议指定where条件 离线 查询 PostgreSQL SELECT 多表关联的select语句建议指定关联条件 离线 对象 PostgreSQL CREATE 对象名称禁止包含中文 离线 对象 PostgreSQL CREATE 对象名称禁止以pg、pgxc、sys、或者数字开头 离线 对象 PostgreSQL CREATE 对象名称禁止使用双引号 离线 对象 PostgreSQL CREATE 限制对象名长度 离线 对象 PostgreSQL CREATE 禁止使用触发器 离线 对象 PostgreSQL CREATE 禁止使用函数 在线(检测该规则需连接数据库实例) 对象 PostgreSQL CREATE 禁止使用存储过程 离线 对象 Oracle CREATE 新建序列需要设置cache 离线 系统 PostgreSQL ALTER 禁止关闭autovacuum 离线 语句 PostgreSQL 包含WHERE条件子句的SELECT、UPDATE、DELETE语句等 禁止在where条件中使用前缀是%的like语法 离线 语句 PostgreSQL 包含WHERE条件子句的SELECT、UPDATE、DELETE语句等 使用IS NULL判断是否为NULL值 离线 语句 PostgreSQL 包含WHERE条件子句的SELECT、UPDATE、DELETE语句等 禁止在where条件中使用<>或者!操作符 离线 语句 PostgreSQL 包含WHERE条件子句的SELECT、UPDATE、DELETE语句等 不建议使用cascade 离线 语句 MySQL、DRDS、PostgreSQL 包含WHERE条件子句的SELECT、UPDATE、DELETE语句等 where条件中不建议使用反向查询(not in/not like) 离线 语句 MySQL、DRDS、PostgreSQL 包含WHERE条件子句的SELECT、UPDATE、DELETE语句等 where条件中检测是否通过“or”操作符连接过滤条件 离线 用户需要具有进入SQL规范 界面的菜单权限。菜单权限请参考权限说明。 SQL规范为企业版功能,目前支持MySQL、PostgreSQL、DRDS、Oracle三种数据库类型。
        来自:
        帮助文档
        数据管理服务
        用户指南
        SQL治理
        规范与风险管理
        SQL规范配置
      • mysqldump使用方法
        本文介绍MySQL数据库mysqldump常用方法。 MySQL数据库mysqldump常用方法 导出整个数据库(包括数据库中的数据)。 mysqldump u username p dbname > dbname.sql 导出数据库结构(不含数据)。 mysqldump u username p d dbname > dbname.sql 导出数据库中的某张数据表(包含数据)。 mysqldump u username p dbname tablename > tablename.sql 导出数据库中的某张数据表的表结构(不含数据)。 mysqldump u username p d dbname tablename > tablename.sql 导出全部用户的sql(不包含mysql.user表结构,导入前需确保目标实例不存在重名用户)。 mysqldump h $rdsip P $rdsport u username p setgtidpurgedOFF nocreateinfo mysql user > /tmp/user.sql mysqldump常用参数说明 –alldatabases , A 导出全部数据库mysqldump uroot p –alldatabases。 –alltablespaces , Y导出全部表空间。mysqldump uroot p –alldatabases –alltablespaces–notablespaces , y不导出任何表空间信息。mysqldump uroot p –alldatabases –notablespaces。 –adddropdatabase每个数据库创建之前添加drop数据库语句。mysqldump uroot p –alldatabases –adddropdatabase。 –adddroptable每个数据表创建之前添加drop数据表语句。(默认为打开状态,使用–skipadddroptable取消选项)mysqldump uroot p –alldatabases (默认添加drop语句)mysqldump uroot p –alldatabases –skipadddroptable(取消drop语句)。 –addlocks在每个表导出之前增加LOCK TABLES并且之后UNLOCK TABLE。(默认为打开状态,使用–skipaddlocks取消选项)mysqldump uroot p –alldatabases(默认添加LOCK语句)mysqldump uroot p –alldatabases –skipaddlocks(取消LOCK语句)。 –comments附加注释信息。默认为打开,可以用–skipcomments取消mysqldump uroot p –alldatabases(默认记录注释)mysqldump uroot p –alldatabases –skipcomments(取消注释)。 –completeinsert, c使用完整的insert语句(包含列名称)。这么做能提高插入效率,但是可能会受到maxallowedpacket参数的影响而导致插入失败。mysqldump uroot p –alldatabases –completeinsert。 –compact导出更少的输出信息(用于调试)。去掉注释和头尾等结构。可以使用选项:–skipadddroptable –skipaddlocks –skipcomments –skipdisablekeysmysqldump uroot p –alldatabases –compact。 –compress, C在客户端和服务器之间启用压缩传递所有信息mysqldump uroot p –alldatabases –compress。 –databases, 导出几个数据库。参数后面所有名字参量都被看作数据库名。mysqldump uroot p –databases test mysql。 –debug输出debug信息,用于调试。默认值为:d:t:o,/tmp/mysqldump.tracemysqldump uroot p –alldatabases –debugmysqldump uroot p –alldatabases –debug” d:t:o,/tmp/debug.trace”。 –debuginfo输出调试信息并退出mysqldump uroot p –alldatabases –debuginfo。 –defaultcharacterset设置默认字符集,默认值为utf8mysqldump uroot p –alldatabases –defaultcharactersetlatin1。 –delayedinsert采用延时插入方式(INSERT DELAYED)导出数据mysqldump uroot p –alldatabases –delayedinsert。 –events, E导出事件。mysqldump uroot p –alldatabases –events。 –flushlogs开始导出之前刷新日志。请注意:假如一次导出多个数据库(使用选项–databases或者–alldatabases),将会逐个数据库刷新日志。除使用–lockalltables或者–masterdata外。在这种情况下,日志将会被刷新一次,相应的所有表同时被锁定。因此,如果打算同时导出和刷新日志应该使用–lockalltables 或者–masterdata 和–flushlogs。mysqldump uroot p –alldatabases –flushlogs。 –flushprivileges在导出mysql数据库之后,发出一条FLUSH PRIVILEGES 语句。为了正确恢复,该选项应该用于导出mysql数据库和依赖mysql数据库数据的任何时候。mysqldump uroot p –alldatabases –flushprivileges。 –force在导出过程中忽略出现的SQL错误。mysqldump uroot p –alldatabases –force。 –host, h需要导出的主机信息mysqldump uroot p –hostlocalhost –alldatabases。 –ignoretable不导出指定表。指定忽略多个表时,需要重复多次,每次一个表。每个表必须同时指定数据库和表名。例如:–ignoretabledatabase.table1 –ignoretabledatabase.table2 ……mysqldump uroot p –hostlocalhost –alldatabases –ignoretablemysql.user。 –lockalltables, x提交请求锁定所有数据库中的所有表,以保证数据的一致性。这是一个全局读锁,并且自动关闭–singletransaction 和–locktables 选项。mysqldump uroot p –hostlocalhost –alldatabases –lockalltables。 –locktables, l开始导出前,锁定所有表。用READ LOCAL锁定表以允许MyISAM表并行插入。对于支持事务的表例如InnoDB和BDB,–singletransaction是一个更好的选择,因为它根本不需要锁定表。请注意当导出多个数据库时,–locktables分别为每个数据库锁定表。因此,该选项不能保证导出文件中的表在数据库之间的逻辑一致性。不同数据库表的导出状态可以完全不同。mysqldump uroot p –hostlocalhost –alldatabases –locktables。 –nocreatedb, n只导出数据,而不添加CREATE DATABASE 语句。mysqldump uroot p –hostlocalhost –alldatabases –nocreatedb。 –nocreateinfo, t只导出数据,而不添加CREATE TABLE 语句。mysqldump uroot p –hostlocalhost –alldatabases –nocreateinfo。 –nodata, d不导出任何数据,只导出数据库表结构。mysqldump uroot p –hostlocalhost –alldatabases –nodata。 –password, p连接数据库密码。 –port, P连接数据库端口号。 –user, u指定连接的用户名。
        来自:
        帮助文档
        关系数据库MySQL版
        故障排查
        备份恢复
        mysqldump使用方法
      • 脱密审批流程设置
        本节介绍管理员可以自定义设置脱密申请的审批流程。 云电脑内的加密文件如需外发,需要经过审批,管理员可以自定义设置脱密申请的审批流程。 部门领导审批 1.打开“组织管理”—“审批流程”; 2.点击“分管设置”,设置租户内各个部门的分管人员。部门内用户提交的脱密申请将由分管人员审批。 部门的分管人员若设置了多个,则部门内人员提交的脱密申请,按该部门分管人员列表从上到下的顺序进行审批。 若配置分管人员时发现部门人员与当前组织架构不符,可点击列表右上方的“同步组织机构”进行更新。 除此之外,脱密审批流程支持更加灵活的自定义配置。在“流程配置”中找到企业加密流程,点击“编辑”进行修改。 审批流程设置 当管理员开启了脱密审批功能,系统将自动配置一个默认审批流程规则:默认配置只有一个流程审批节点,审批人为提交人的上级主管(如存在多个主管时默认第一个主管审批,如未配置主管流程会自动通过)。 如果业务需要自定义流程审批规则,管理员可以根据实际情况自行修改审批流程设置。常用的审批节点有6种:流程开始节点、流程结束节点、审批节点、抄送节点、经办节点、汇合点。其中流程开始节点和流程结束节点为系统默认放置的两个节点,不可删除。 下面我们以最常用的审批节点为例进行配置说明。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼加密
        管理员指南
        加密AI云电脑
        脱密审批流程设置
      • 中国电信天翼云对象存储服务协议
        对象存储服务协议生效,详情请参见这里。
        来自:
        帮助文档
        对象存储(经典版)I型
        相关协议
        中国电信天翼云对象存储服务协议
      • 中国电信天翼云对象存储服务等级协议
        对象存储服务等级协议生效,详情请参见这里。 中国电信天翼对象存储系统服务等级协议 历史版本(2012年11月10日)。
        来自:
        帮助文档
        对象存储(经典版)I型
        相关协议
        中国电信天翼云对象存储服务等级协议
      • 项目和企业项目
        本章节介绍了项目和企业项目的基本概念。 项目 项目用于将OpenStack的资源(计算资源、存储资源和网络资源)进行分组和隔离。项目可以是一个部门或者一个项目组。一个帐户中可以创建多个项目。 企业项目 企业项目是对多个资源实例进行归类管理的单位,不同云服务区域的资源和项目可以归到一个企业项目中。企业可以根据不同的部门或项目组,将相关的资源放置在相同的企业项目内进行管理,支持资源在企业项目之间迁移。
        来自:
        帮助文档
        云硬盘备份 VBS
        产品简介
        云硬盘备份的相关概念
        项目和企业项目
      • 区域和可用区
        本章节介绍了区域和可用区的基本概念。 什么是区域、可用区? 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region)指物理的数据中心。每个区域完全独立,这样可以实现最大程度的容错能力和稳定性。资源创建成功后不能更换区域。 可用区(AZ,Availability Zone)是同一区域内,电力和网络互相隔离的物理区域,一个可用区不受其他可用区故障的影响。一个区域内可以有多个可用区,不同可用区之间物理隔离,但内网互通,既保障了可用区的独立性,又提供了低价、低时延的网络连接。 下图阐明了区域和可用区之间的关系。 如何选择区域? 建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 区域和终端节点 当您通过API使用资源时,您必须指定其区域终端节点。请向企业管理员获取区域和终端节点信息。
        来自:
        帮助文档
        云硬盘备份 VBS
        产品简介
        云硬盘备份的相关概念
        区域和可用区
      • 产品地域和可用区
        可用区 可用区(AZ,Availability Zone)是指在同一地域内,电力和网络互相独立的物理区域。一个AZ是一个或多个物理数据中心的集合,具备独立的风火水电,可用区之间距离100KM以内,一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 相关特性 划分可用区的目标是能够保证可用区间故障相互隔离(大型灾害或者大型电力故障除外),不出现故障扩散,使得用户的业务持续在线服务。通过启动独立可用区内的实例,用户可以保护应用程序不受单一位置故障的影响。 处于相同地域不同可用区,但在同一个虚拟私有云下的云产品之间均通过内网互通,可以直接使用内网 IP 访问。 如何选择可用区 在同一地域内,可用区与可用区之间内网互通。各可用区之间可以实现故障隔离,即如果一个可用区出现故障,则不会影响其他可用区的正常运行。是否将实例放在同一可用区内,主要取决于您的应用对容灾能力和网络延时的要求。 如果您的应用需要较高的容灾能力,建议您将实例部署在同一地域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,建议您将实例创建在同一可用区内。 地域和可用区的关系 每个地域完全独立,不同地域的可用区完全隔离,但同一个地域内的可用区之间使用低时延链路相连。 地域和可用区之间的关系如图所示: 目前,天翼云已在全球多个地域开放云服务,您可以根据需求选择适合自己的区域和可用区。
        来自:
        帮助文档
        云硬盘备份 VBS
        产品简介
        产品地域和可用区
      • 变更配置
        本章节介绍如何变更计费模式。 包年包月是预付费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景,价格比按需计费模式更优惠。 按需计费是后付费模式,根据实际使用量进行计费,可以随时购买或删除。费用直接从账户余额中扣除。 暂不支持包年包月和按需计费互转。
        来自:
        帮助文档
        云主机备份 CSBS
        计费说明
        变更配置
      • 区域和可用区
        本章节介绍了区域和可用区的基本概念。 什么是区域、可用区? 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region)指物理的数据中心。每个区域完全独立,这样可以实现最大程度的容错能力和稳定性。资源创建成功后不能更换区域。 可用区(AZ,Availability Zone)是同一区域内,电力和网络互相隔离的物理区域,一个可用区不受其他可用区故障的影响。一个区域内可以有多个可用区,不同可用区之间物理隔离,但内网互通,既保障了可用区的独立性,又提供了低价、低时延的网络连接。 下图阐明了区域和可用区之间的关系。 如何选择区域? 建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 区域和终端节点 当您通过API使用资源时,您必须指定其区域终端节点。请向企业管理员获取区域和终端节点信息。
        来自:
        帮助文档
        云主机备份 CSBS
        产品简介
        云主机备份的相关概念
        区域和可用区
      • 通过镜像回源迁移数据到媒体存储
        本章节介绍通过镜像回源迁移数据到媒体存储。 正常情况下,当客户端访问媒体存储中的资源时,若资源不存在,则服务端会返回404错误。媒体存储提供回源功能,配置回源规则后,当请求者访问的对象在存储桶中不存在时,可以根据回源规则从指定的源站获取对象。 在回源配置中,可开启3xx跟随,媒体存储会同时将数据保存到存储桶中,整个过程不中断业务,实现客户源站数据热迁移的需求。 镜像回源流程如下图所示: 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。如需使用,可联系客户经理或提交工单申请。 配置方法 本实践将通过控制台操作介绍具体配置方法。 1. 登录媒体存储控制台,进入【对象存储Bucket列表】菜单。 2. 选择需要配置镜像回源的存储桶,并点击【基础配置】页签。 3. 在【回源设置】模块,打开回源设置。 4. 在弹窗填写相关信息,点击【保存】完成操作。
        来自:
        帮助文档
        媒体存储
        最佳实践
        对象存储
        数据迁移与备份
        通过镜像回源迁移数据到媒体存储
      • 退订
        请在“费用中心订单管理退订管理” 页面进行退订,具体请参考退订流程。
        来自:
        帮助文档
        云服务备份
        计费说明
        退订
      • 恢复shardsvr1副本集
        本节主要介绍恢复shardsvr1副本集 准备目录 rm rf /compile/clusterrestore/shd1 mkdir p /compile/clusterrestore/shd11/data/db mkdir p /compile/clusterrestore/shd11/log mkdir p /compile/clusterrestore/shd12/data/db mkdir p /compile/clusterrestore/shd12/log mkdir p /compile/clusterrestore/shd13/data/db mkdir p /compile/clusterrestore/shd13/log 操作步骤 步骤 1 准备单节点配置文件和目录,以单节点方式启动进程。 配置文件如下(restoreconfig/single40306.yaml)。 net: bindIp: 127.0.0.1 port: 40306 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd11/mongod.pid} storage: dbPath: /compile/clusterrestore/shd11/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd11/log/mongod.log} 准备数据,将解压后的shardsvr1文件拷贝到单节点dbPath目录下。 cp aR /compile/download/backups/cac1efc8e65e42ecad8953352321bfeein026cfa6167d4114d7c8cec5b47f9a78dc5no02/ /compile/clusterrestore/shd11/data/db/ 启动进程。 ./mongod f restoreconfig/single40306.yaml 步骤 2 连接单节点,执行配置命令。 连接命令:./mongo host 127.0.0.1 port 40306 执行如下命令,修改副本集配置信息。 var cfdb.getSiblingDB('local').system.replset.findOne(); cf['members'][0]['host']'127.0.0.1:40306'; cf['members'][1]['host']'127.0.0.1:40307'; cf['members'][2]['host']'127.0.0.1:40308'; cf['members'][0]['hidden']false; cf['members'][1]['hidden']false; cf['members'][2]['hidden']false; cf['members'][0]['priority']1; cf['members'][1]['priority']1; cf['members'][2]['priority']1; db.getSiblingDB('local').system.replset.remove({}); db.getSiblingDB('local').system.replset.insert(cf) 执行如下命令,清理内置账号。 db.getSiblingDB('admin').dropAllUsers(); db.getSiblingDB('admin').dropAllRoles(); 执行如下命令,更新configsvr信息。 连接命令:./mongo host 127.0.0.1 port 40306 var vs db.getSiblingDB('admin').system.version.find(); while (vs.hasNext()) { var curr vs.next(); if (curr.hasOwnProperty('configsvrConnectionString')) { db.getSiblingDB('admin').system.version.update({'id' : curr.id}, {$set: {'configsvrConnectionString': 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'}}); } } 执行如下命令,关闭单节点进程。 db.getSiblingDB('admin').shutdownServer(); 步骤 3 搭建shardsvr1副本集。 准备副本集配置文件和目录,将shardsvr1节点的dbPath文件拷贝到其他两个节点目录下。 cp aR /compile/clusterrestore/shd11/data/db/ /compile/clusterrestore/shd12/data/db/ cp aR /compile/clusterrestore/shd11/data/db/ /compile/clusterrestore/shd13/data/db/ 修改shardsvr11节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40306.yaml)。 replication.replSetName 的值,参考[该章节](
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复shardsvr1副本集
      • 检查集群状态
        本节主要介绍检查集群状态 通过mongos连接集群,检查数据状态。 ./mongo host 127.0.0.1 port 40301 ./mongo host 127.0.0.1 port 40302
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        检查集群状态
      • 购买物理机
        本文主要介绍如何购买物理机。 1. 登录管理控制台。 2. 选择“计算 > 物理机服务”。 进入物理机服务页面。 3. 单击“申请物理机”,开始申请物理机。 4. 配置物理机的规格参数。 规格:选择物理机规格。 磁盘:设置系统盘参数,并新增一块数据盘。 5. 设置完成后,单击“立即购买”创建物理机。 等待5分钟左右,物理机即可创建完成,状态变为“运行中”。 6. 远程登录或使用密钥对登录物理机,完成数据盘初始化,并开始部署您的应用软件。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        物理机备份
        购买物理机
      • 项目和企业项目
        本章节介绍了项目和企业项目的基本概念。 项目 项目用于将OpenStack的资源(计算资源、存储资源和网络资源)进行分组和隔离。项目可以是一个部门或者一个项目组。一个帐户中可以创建多个项目。 企业项目 企业项目是对多个资源实例进行归类管理的单位,不同云服务区域的资源和项目可以归到一个企业项目中。企业可以根据不同的部门或项目组,将相关的资源放置在相同的企业项目内进行管理,支持资源在企业项目之间迁移。
        来自:
        帮助文档
        云主机备份 CSBS
        产品简介
        云主机备份的相关概念
        项目和企业项目
      • 管理存储库企业项目
        本文主要介绍如何管理存储库企业项目。 如果需要修改存储库的企业项目,可以前往企业管理界面将存储库从原企业项目中迁出至新的企业项目。 操作步骤 1. 单击控制台页面右上方的“企业管理”。进入企业管理的“总览”页面。 2. 在企业管理页面,选择“企业项目管理”。 3. 选择待迁出存储库的企业项目。单击操作列“ 查看资源 ”。系统进入企业项目详情页面,在“资源”页签下可查看该企业项目内资源信息。 4. 勾选需要迁出的资源后单击“迁出”,在弹出的对话中选择“迁出方式”,选择“单资源迁出”。 5. 选择迁入企业项目,单击“确定”。 存储库迁出完成,在迁入企业项目的资源列表中即可查看已迁出的资源。
        来自:
        帮助文档
        云服务备份
        操作指导
        存储库管理
        管理存储库企业项目
      • 存储库扩容失败
        本文主要介绍存储库扩容失败。 问题描述 手动扩容存储库时,扩容失败。 排查思路 以下排查思路根据原因的出现概率进行排序,建议您从高频率原因往低频率原因排查,从而帮助您快速找到问题的原因。 如果解决完某个可能原因仍未解决问题,请继续排查其他可能原因。 可能原因 处理措施 按需计费的存储库扩容时账户余额不足。 请根据所需费用进行充值 包年/包月的存储库续费订单未支付完成。 请前往“我的订单”中查看是否存在未支付的存储库续费订单, 如存在,请及时完成支付。 包年/包月的存储库有未生效的续费周期。 如您的包年/包月存储库还存在未生效的续费周期,会导致扩容失败。 请等待续费周期生效后再进行扩容,或者取消续费订单后再进行扩容。 例如:当前的包年/包月周期是1个月,从8月1日到8月31日。 在8月15日时进行续费1个月,生效时间从9月1日到9月30日。 如您在8月20日对该存储库扩容,就会扩容失败。
        来自:
        帮助文档
        云服务备份
        故障案例
        存储库扩容失败
      • 恢复configsvr副本集
        本节主要介绍恢复configsvr副本集 准备目录 rm rf /compile/clusterrestore/cfg mkdir p /compile/clusterrestore/cfg1/data/db mkdir p /compile/clusterrestore/cfg1/log mkdir p /compile/clusterrestore/cfg2/data/db mkdir p /compile/clusterrestore/cfg2/log mkdir p /compile/clusterrestore/cfg3/data/db mkdir p /compile/clusterrestore/cfg3/log 操作步骤 步骤 1 准备单节点配置文件和数据目录,以单节点方式启动进程。 配置文件如下(restoreconfig/single40303.yaml)。 net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg1/configsvr.pid} storage: dbPath: /compile/clusterrestore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg1/log/configsingle.log} 准备数据,将解压后的configsvr文件拷贝到单节点dbPath目录下。 cp aR /compile/download/backups/cac1efc8e65e42ecad8953352321bfeein0241c8a32fb10245899708dea453a8c5c9no02/ /compile/clusterrestore/cfg1/data/db/ 启动进程。 ./mongod f restoreconfig/single40303.yaml 步骤 2 连接单节点,执行配置命令。 连接命令:./mongo host 127.0.0.1 port 40303 执行如下命令,修改副本集配置信息。 var cfdb.getSiblingDB('local').system.replset.findOne(); cf['members'][0]['host']'127.0.0.1:40303'; cf['members'][1]['host']'127.0.0.1:40304'; cf['members'][2]['host']'127.0.0.1:40305'; cf['members'][0]['hidden']false; cf['members'][1]['hidden']false; cf['members'][2]['hidden']false; cf['members'][0]['priority']1; cf['members'][1]['priority']1; cf['members'][2]['priority']1; db.getSiblingDB('local').system.replset.remove({}); db.getSiblingDB('local').system.replset.insert(cf) 执行如下命令,清理内置账号。 db.getSiblingDB('admin').dropAllUsers(); db.getSiblingDB('admin').dropAllRoles(); 执行如下命令,更新mongos和shard信息。 db.getSiblingDB('config').mongos.remove({}); 先查询config.shards表中的多个shard的id信息,用于下面语句的id的查询条件。逐个更新每条记录。 db.getSiblingDB('config').shards.update({'id' : 'shard1'},{$set: {'host': 'shard1/127.0.0.1:40306,127.0.0.1:40307,127.0.0.1:40308'}}) db.getSiblingDB('config').shards.update({'id' : 'shard2'},{$set: {'host': 'shard2/127.0.0.1:40309,127.0.0.1:40310,127.0.0.1:40311'}}) db.getSiblingDB('config').mongos.find({}); db.getSiblingDB('config').shards.find({}); 执行如下命令,关闭单节点进程。 db.getSiblingDB('admin').shutdownServer(); 步骤 3 搭建configsvr副本集。 准备副本集配置文件和目录,将configsvr1节点的dbPath文件拷贝到其他两个节点目录下。 cp aR /compile/clusterrestore/cfg1/data/db/ /compile/clusterrestore/cfg2/data/db/ cp aR /compile/clusterrestore/cfg1/data/db/ /compile/clusterrestore/cfg3/data/db/ 修改configsvr1节点配置文件,增加副本集配置属性(restoreconfig/configsvr40303.yaml)。 net: bindIp: 127.0.0.1 port: 40303 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg1/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg1/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg1/log/configsvr.log} 启动进程。 ./mongod f restoreconfig/configsvr40303.yaml 修改configsvr2节点配置文件,增加副本集配置属性(restoreconfig/configsvr40304.yaml)。 net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg2/log/configsvr.log} 启动进程 ./mongod f restoreconfig/configsvr40304.yaml 修改configsvr3节点配置文件,增加副本集配置属性(restoreconfig/configsvr40305.yaml)。 net: bindIp: 127.0.0.1 port: 40304 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/cfg2/configsvr.pid} replication: {replSetName: config} sharding: {archiveMovedChunks: false, clusterRole: configsvr} storage: dbPath: /compile/clusterrestore/cfg2/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/cfg2/log/configsvr.log} 启动进程。 ./mongod f restoreconfig/configsvr40305.yaml 步骤 4 等待选主成功。 ./mongo host 127.0.0.1 port 40303 执行命令rs.status(),查看是否已存在主节点Primary。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复configsvr副本集
      • 恢复mongos节点
        本文主要介绍恢复mongos节点 步骤 1 准备mongos节点的配置文件和目录。 rm rf /compile/clusterrestore/mgs mkdir p /compile/clusterrestore/mgs1/log mkdir p /compile/clusterrestore/mgs2/log 步骤 2 配置文件(restoreconfig/mongos40301.yaml)。 net: bindIp: 127.0.0.1 port: 40301 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/mgs1/mongos.pid} sharding: {configDB: 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/mgs1/log/mongos.log} 步骤 3 配置文件(restoreconfig/mongos40302.yaml)。 net: bindIp: 127.0.0.1 port: 40302 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/mgs2/mongos.pid} sharding: {configDB: 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/mgs2/log/mongos.log} 步骤 4 启动mongo节点。 ./mongos f restoreconfig/mongos40301.yaml ./mongos f restoreconfig/mongos40302.yaml
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复mongos节点
      • 恢复shardsvr2副本集
        本节主要介绍恢复shardsvr2副本集 准备目录 rm rf /compile/clusterrestore/shd2 mkdir p /compile/clusterrestore/shd21/data/db mkdir p /compile/clusterrestore/shd21/log mkdir p /compile/clusterrestore/shd22/data/db mkdir p /compile/clusterrestore/shd22/log mkdir p /compile/clusterrestore/shd23/data/db mkdir p /compile/clusterrestore/shd23/log 操作步骤 步骤 1 准备单节点配置文件和目录,以单节点方式启动进程。 配置文件如下(restoreconfig/single40309.yaml)。 net: bindIp: 127.0.0.1 port: 40309 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd21/mongod.pid} storage: dbPath: /compile/clusterrestore/shd21/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd21/log/mongod.log} 准备数据,将解压后的shardsvr2文件拷贝到单节点dbPath目录下。 cp aR /compile/download/backups/cac1efc8e65e42ecad8953352321bfeein0292b196d2401041a7af869a2a3cab7079no02/ /compile/clusterrestore/shd21/data/db/ 启动进程。 ./mongod f restoreconfig/single40309.yaml 步骤 2 连接单节点,执行配置命令。 连接命令:./mongo host 127.0.0.1 port 40309 执行如下命令,修改副本集配置信息。 var cfdb.getSiblingDB('local').system.replset.findOne(); cf['members'][0]['host']'127.0.0.1:40309'; cf['members'][1]['host']'127.0.0.1:40310'; cf['members'][2]['host']'127.0.0.1:40311'; cf['members'][0]['hidden']false; cf['members'][1]['hidden']false; cf['members'][2]['hidden']false; cf['members'][0]['priority']1; cf['members'][1]['priority']1; cf['members'][2]['priority']1; db.getSiblingDB('local').system.replset.remove({}); db.getSiblingDB('local').system.replset.insert(cf) 执行如下命令,清理内置账号。 db.getSiblingDB('admin').dropAllUsers(); db.getSiblingDB('admin').dropAllRoles(); 执行如下命令,更新configsvr信息。 var vs db.getSiblingDB('admin').system.version.find(); while (vs.hasNext()) { var curr vs.next(); if (curr.hasOwnProperty('configsvrConnectionString')) { db.getSiblingDB('admin').system.version.update({'id' : curr.id}, {$set: {'configsvrConnectionString': 'config/127.0.0.1:40303,127.0.0.1:40304,127.0.0.1:40305'}}); } } 执行如下命令,关闭单节点进程。 db.getSiblingDB('admin').shutdownServer(); 步骤 3 搭建shardsvr2副本集。 准备副本集配置文件和目录,将shardsvr2节点的dbPath文件拷贝到其他两个节点目录下。 cp aR /compile/clusterrestore/shd21/data/db/ /compile/clusterrestore/shd22/data/db/ cp aR /compile/clusterrestore/shd21/data/db/ /compile/clusterrestore/shd23/data/db/ 修改shardsvr21节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40309.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40309 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd21/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd21/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd21/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40309.yaml 修改shardsvr22节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40310.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40310 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd22/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd22/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd22/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40310.yaml 修改shardsvr23节点配置文件,增加副本集配置属性(restoreconfig/shardsvr40311.yaml)。 replication.replSetName 的值,参考该章节中的shard的id信息。 net: bindIp: 127.0.0.1 port: 40311 unixDomainSocket: {enabled: false} processManagement: {fork: true, pidFilePath: /compile/clusterrestore/shd23/mongod.pid} replication: {replSetName: shard2} sharding: {archiveMovedChunks: false, clusterRole: shardsvr} storage: dbPath: /compile/clusterrestore/shd23/data/db/ directoryPerDB: true engine: wiredTiger wiredTiger: collectionConfig: {blockCompressor: snappy} engineConfig: {directoryForIndexes: true, journalCompressor: snappy} indexConfig: {prefixCompression: true} systemLog: {destination: file, logAppend: true, logRotate: reopen, path: /compile/clusterrestore/shd23/log/mongod.log} 启动进程。 ./mongod f restoreconfig/shardsvr40311.yaml 步骤 4 等待选主成功。 ./mongo host 127.0.0.1 port 40309 执行命令rs.status(),查看是否已存在主节点Primary。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        恢复shardsvr2副本集
      • 中国电信天翼云对象存储服务协议
        本节主要介绍OBS服务协议。 自2021年11月11日起,新版对象存储服务协议生效,详情请参见这里。 中国电信天翼对象存储系统服务协议 历史版本(2012年11月10日)
        来自:
        帮助文档
        对象存储 OBS
        相关协议
        中国电信天翼云对象存储服务协议
      • 创建集群
        响应示例 请求成功示例: { "statusCode": 200, "message": "success", "returnObj": { "orderNo": "20221018153152727265" } } 验签失败示例: { "statusCode": 500, "error": "EMR401000", "message": "OpenAPI认证失败", "returnObj": {} } 实名认证失败示例: { "statusCode": 500, "error": "EMR401009", "message": "账号未进行实名认证", "returnObj": {} } 非法操作示例: { "statusCode": 500, "error": "EMR401004", "message": "非法操作", "returnObj": {} } 请求参数类型错误示例: { "statusCode": 500, "error": "EMR401001", "message": "请求参数类型错误", "returnObj": "{"clusterName": "应为字符串"}" } 请求参数值无效示例1: { "statusCode": 500, "error": "EMR401002", "message": "请求参数值无效", "returnObj": "{"clusterName": "不能为空"}" } 请求参数值无效示例2: { "statusCode": 500, "error": "EMR401002", "message": "请求参数值无效", "returnObj": "{"clustertype": "集群类型不存在:xxx"}" } 规格不足示例: { "statusCode": 500, "error": "EMR401012", "message": "规格已售罄", "returnObj": {} } IP不足示例: { "statusCode": 500, "error": "EMR401013", "message": "子网下IP余量不足", "returnObj": {} } 状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        创建集群
      • 元数据概览
        参数 是否必填 参数类型 说明 示例 下级对象 clusterId 是 String 集群id da595eb1d81503b323fdc01d9bf786b7 timestamp 是 Long 要查询的时间点,以 Unix 时间戳表示(单位:秒) 1700000000
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        元数据概览
      • Kafka性能调优
        本章节主要介绍Kafka的最佳实践。 1. 体系结构概述 Kafka主题用于对记录进行组织。记录由生产者生成,由消费者使用。生产者将记录发送到 Kafka 代理,后者存储数据。 主题跨代理对记录进行分区。在使用记录时,每个分区最多可使用一个消费者来实现数据并行处理。 复制用于在节点之间复制分区。这可以防止节点(代理)发生服务中断。将副本组之间的单个分区指定为分区领导者。生产者流量将根据由ZooKeeper管理的状态路由到每个节点的领导者。 2. 调优方案选择 Kafka性能体现在两个主要方面:吞吐量和延迟。吞吐量是指数据的最大处理速率,通常吞吐量越高越好。延迟是指存储或检索数据所花费的时间。通常,延迟越低越好。在吞吐量、延迟和应用基础结构的开销方面找到适当的平衡可能会有难度。 根据追求的是高吞吐量、低延迟还是此两者,性能要求可能符合以下三种常见情况中的一种: 高吞吐量,低延迟。此方案要求同时满足高吞吐量和低延迟(大约100毫秒)。服务可用性监视就是这种应用场景的一个例子。 高吞吐量,高延迟。此方案要求满足高吞吐量(大约1.5 GBps),但可以容许较高的延迟(< 250 毫秒)。这种应用场景的一个例子是引入遥测数据进行近实时的处理,例如安全与入侵检测应用程序。 低吞吐量,低延迟。此方案要求提供低延迟(< 10毫秒)以完成实时处理,但可以容许较低的吞吐量。在线拼写和语法检查就是这种应用场景的一个例子。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        Kafka性能调优
      • 扩容集群
        状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        扩容集群
      • 退订集群
        参数 是否必填 参数类型 说明 示例 下级对象 clusterId 是 String 集群id 00c3a04292996955752f073c995a1cc6
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        退订集群
      • 元数据信息查询
        状态码 请参考 状态码 错误码 请参考 错误码
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        元数据信息查询
      • 使用Trino客户端
        本章节主要介绍使用Trino的操作指导。 操作场景 该任务指导用户使用Trino客户端。 前提条件 已安装客户端。 例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Trino客户端 1. 执行如下命令启动客户端。 plaintext ./trinocliexecutable.jar server catalog hive user presto 2. 执行成功后的客户端界面。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        各组件客户端使用实践
        使用Trino客户端
      • 查询集群节点组详情V2
        参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码,成功:200,失败:500 200 message String 用来简述当前接口调用状态以及必要提示信息 请求成功 error String 错误码,请求成功时,不返回该字段 EMR400000 returnObj Object 返回结果
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        查询集群节点组详情V2
      • 1
      • ...
      • 205
      • 206
      • 207
      • 208
      • 209
      • ...
      • 281
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      计费类

      启动会议

      删除备份数据

      iOS客户端需求

      代码示例

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号