云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      等保咨询_相关内容
      • 设置自动备份策略
        本节介绍了如何设置云数据库GaussDB 的自动备份策略。 操作场景 创建云数据库GaussDB 实例时,系统默认开启自动备份策略。实例创建成功后,您可根据业务需要设置自动备份策略。云数据库GaussDB 按照用户设置的自动备份策略对数据库进行备份。 云数据库GaussDB 默认开启的自动备份策略设置如下: 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段 ,例如01:00~02:00,12:00~13:00等。备份时间段以UTC时区保存。如果碰到夏令时/冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认为一周内的每一天。 差量备份策略:默认每30分钟保存一次。 说明: 为了满足时间点恢复的需求,超出备份保留天数最近的一次全量备份不会被立即删除。示例:设置自动备份策略为每天备份1次,保留天数为1天,即11.1号生成备份1,11.2号生成备份2并保留备份1;11.3号生成备份3,并保留备份2及删除备份1。 修改自动备份策略 步骤 1 登录管理控制台。 步骤 2 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 3 在左侧导航栏,选择“备份恢复”,然后单击“修改备份策略”。 步骤 4 按照界面提示修改备份策略。 全量备份策略 保留天数是指自动备份可保留的时间,增加保留天数可提升数据可靠性,请根据需要设置。 备份周期请根据需要进行选择。并且最少需要选择一天。 说明: 减少保留天数的情况下,该备份策略对已有备份文件同时生效,即超出备份保留天数的已有备份文件会被删除。 保留天数范围为1~732天。 备份时间段为间隔1小时,建议根据业务情况,选择业务低峰时段,备份周期默认全选,可修改,且至少选择一周中的1天。 实例创建完成后,会立即触发一次全量备份,之后会按照策略中的备份时间段和备份周期进行全量备份和差量备份策略。备份时间段请选择为业务峰值较低的时间段。全量备份会在此时间段进行。 差量备份策略 需要选择差量备份的周期,即每隔多长时间进行一次差量备份。默认30分钟一次。 步骤 5 单击“确定”,确认修改。
        来自:
        帮助文档
        云数据库GaussDB
        用户指南
        数据备份
        设置自动备份策略
      • CoreDNS介绍
        本节介绍网络的用户指南: CoreDNS介绍。 CoreDNS是Kubernetes集群中负责DNS解析的组件,能够支持解析集群内部自定义服务域名和集群外部域名。CoreDNS具备丰富的插件集,在集群层面支持自建DNS、自定义hosts、CNAME、rewrite等需求。与Kubernetes一样,CoreDNS项目由 CNCF托管。 云容器引擎订购的集群使用CoreDNS负责集群的服务发现,可根据不同使用场景配置CoreDNS及使用CoreDNS提升集群DNS QPS性能。 默认配置 在命名空间kubesystem下,有一个名为coreDNS的配置项。CoreDNS会基于该配置项启用和配置插件。不同CoreDNS版本的配置项有略微差异,修改配置前请仔细阅读CoreDNS官方文档。 以下是一个1.6.2版本CoreDNS默认采用的配置文件: Corefile: .:53 { errors log health { lameduck 15s } ready kubernetes {{.ClusterDomain}} inaddr.arpa ip6.arpa { pods verified fallthrough inaddr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf { preferudp } cache 30 loop reload loadbalance } 配置文件中ClusterDomain代指集群创建过程中填写的集群本地域名,默认值为cluster.local。配置项说明如下: 参数 描述 errors 错误信息到标准输出。 health CoreDNS自身健康状态报告,默认监听端口8080,一般用来做健康检查,可以通过 获取健康状态。 ready CoreDNS插件状态报告,默认监听端口8181,一般用来做可读性检查,可以通过 获取可读状态。当所有插件都运行后,ready状态为200。 kubernetes CoreDNS Kubernetes插件,提供集群内服务解析能力。 prometheus CoreDNS自身metrics数据接口,可以通过 获取prometheus格式的监控数据。 forward(或proxy) 将域名查询请求转到预定义的DNS服务器。默认配置中,当域名不在Kubernetes域时,将请求转发到预定义的解析器(/etc/resolv.conf)中。默认使用宿主机的/etc/resolv.conf配置。 cache DNS缓存。 loop 环路检测,如果检测到环路,则停止CoreDNS。 reload 允许自动重新加载已更改的Corefile。编辑ConfigMap配置后,请等待两分钟以使更改生效。 loadbalance 循环DNS负载均衡器,可以在答案中随机A、AAAA、MX记录的顺序。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        服务发现DNS
        CoreDNS介绍
      • 挂载NFS文件系统到弹性云主机 (Linux)
        参数 说明 vers 文件系统版本,可选3或4。建议值:3。 proto 客户端向服务器发起传输请求使用的协议,可以为udp或者tcp,建议取值:IPv4访问时prototcp,IPv6访问时prototcp6。 async sync为同步写入,表示将写入文件的数据立即写入服务端;async为异步写入,表示将数据先写入缓存,再写入服务端。同步写入要求NFS服务器必须将每个数据都刷入服务端后,才可以返回成功,时延较高。建议取值:async。 nolock 选择是否使用NLM协议在服务端锁文件。当选择nolock选项时,不使用NLM锁,锁请求仅在本机进行,仅对本机有效,其他客户端不受锁的影响。如果不存在多客户端同时修改同一文件的场景,建议取值nolock以获取更好的性能。如不加此参数,则默认为lock。 noatime 如果不需要记录文件的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 noresvport 网络故障时自动切换端口,保障网络连接。 注意 请务必在挂载时使用noresvport参数,防止文件系统卡住。 nodiratime 如果不需要记录目录的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 wsize 每次向服务器写入文件的最大字节数,实际数据小于或等于此值。wsize必须是1024倍数的正整数,小于1024时自动设为4096,大于1048576时自动设为1048576。默认时服务器和客户端进行协商后设置。建议取值:最大值1048576。 rsize 每次向服务器读取文件的最大字节数,实际数据小于或等于此值。rsize必须是1024倍数的正整数,小于1024时自动设为4096,大于1048576时自动设为1048576。默认时服务器和客户端进行协商后设置。建议取值:最大值1048576。 timeo NFS客户端重传请求前的等待时间(单位为0.1秒)。影响网络中断、后端服务宕机等场景下的业务中断时间,默认取值600。可根据实际情况,设置适合的重传等待时间。 挂载地址 挂载地址在文件系统详情页获取,在文件系统详情页选择挂载地址点击复制即可。 本地挂载路径 本地挂载路径为云主机上用于挂载文件系统的本地路径,例如上一步创建的“/mnt/sfs”。
        来自:
        帮助文档
        海量文件服务 OceanFS
        快速入门
        挂载文件系统
        挂载NFS文件系统到弹性云主机 (Linux)
      • 什么是开发者平台-边缘函数
        产品优势 在边缘节点就近响应用户请求,大大减少了回源带来的网络时延。 采用WebAssembly技术,将函数冷启动优化到5微秒,把对网络时延的影响降到最低。 相对于传统的容器技术,无需预留实例资源。 按照用户实际的使用量计费,并且精确到请求调用次数。对比传统的云虚拟机,提供了更大的资源利用率和更低的成本。 当业务流量突增时,边缘函数全网快速调度,弹性伸缩,支持全网上百万QPS的超高并发。 企业研发人员使用边缘函数部署业务时,无需关注部署地区,无需进行资源规划,彻底免去底层机器的运维和管理,释放人力成本。 核心功能 我们提供了易上手的开发者工具,丰富的编程语言生态,符合W3C标准的Service Worker API、Streams API、Web Crypto,以及可读可写、全球同步的边缘存储。 从而帮助企业网站在边缘节点上完成自定义鉴权、访问控制、内容改写、内容生成以及AB测试。 对比传统CDN处理流程,开发者平台在边缘节点直接处理客户的动态请求,大大减少了CDN回源的次数,分担了中心源站的计算和存储压力。 工作原理 开发者平台边缘函数为边缘节点提供了Serverless模式的JavaScript代码执行环境。您只需编写业务函数代码并设置触发规则,无需配置和管理服务器等基础设施。这样,您的代码可以弹性、安全地在靠近用户的边缘节点上运行。 使用边缘函数前的请求处理过程: 1. 网关收到客户端请求时,执行控制台标准化配置对请求进行处理。 2. 如果符合缓存规则,网关将处理后的请求转发给缓存组件,由缓存组件命中后响应,或者请求回源。 3. 如果不符合缓存规则,则由网关处理后,请求回源。 4. 源站返回响应内容,网关响应给客户端。 使用边缘函数后的请求处理过程: 1. 网关收到客户端请求时,执行边缘函数,对用户的请求进行业务处理。 2. 网关处理完边缘函数的业务逻辑后,根据函数中的逻辑选择继续处理CDN标准化配置从而完成响应,或者直接在边缘响应出客户的个性化内容。
        来自:
        帮助文档
        边缘安全加速平台
        开发者平台
        什么是开发者平台-边缘函数
      • 通过添加防护规则拦截/放行流量
        开启防护后,云防火墙默认放行所有流量,您可以配置防护规则,实现流量的拦截/放行。 防护规则支持防护以下几种场景: 防护互联网边界中公网资产的流量,请参见“互联网边界防护规则”。 防护互联网边界中私网资产的场景,请参见“NAT流量防护规则”。 防护VPC与VPC之间、VPC与线下IDC之间的访问流量,请参见“VPC边界防护规则”。 注意 如果IP为Web应用防火墙(WAF)的回源IP,建议配置放行的防护规则或白名单,请谨慎配置阻断的防护规则,否则可能会影响您的业务。 回源IP的相关信息请参见《Web应用防火墙用户指南》中《放行WAF回源IP》。 配置白名单请参见“通过添加黑白名单拦截/放行流量”。 规格限制 仅“专业版”支持VPC边界防护和NAT流量(私网IP)防护。 约束条件 CFW不支持应用层网关(Application Level Gateway,ALG)。ALG能够对应用层数据载荷中的字段进行分析,并针对在载荷中会包含端口和IP地址的多通道协议(例如FTP、SIP等)动态调整策略。但CFW的防护策略仅支持对端口设置静态策略。如果需要允许多通道协议通信,建议配置一条放通所有端口的规则。 CFW长连接业务场景限制,配置策略的时候需要同时开启双向放通的安全策略,如果只开启单向策略,部分场景(开启和关闭防护)需要客户端重新发起连接。 配额限制: 最多添加20000条防护规则。 单条防护规则最大限制如下: 最多添加20条IP地址(源和目的各20条)。 最多关联2条“IP地址组”(源和目的各2条)。 最多关联5条服务组。 域名防护限制: 域名防护时不支持添加中文域名格式。 网络型域名组最多只能保存1000个地址解析结果,超出时,可能导致无法正常访问对应的域名;对于解析结果较多或变化频繁的域名,如果防护流量是HTTP、HTTPS协议,建议优先使用应用型域名组添加策略。 域名防护依赖于用户配置的域名服务器。默认域名服务器可能存在域名解析对应的IP地址不全,建议有访问自身业务相关域名场景时配置“DNS服务器配置”。 仅入方向规则(“方向”配置为“外内”)的“源”地址支持配置“预定义地址组”。
        来自:
        帮助文档
        云防火墙
        用户指南
        配置访问控制策略
        通过配置防护规则拦截/放行流量
        通过添加防护规则拦截/放行流量
      • HTTP2.0配置
        本文简述HTTP2.0的定义和配置方法。 功能介绍 HTTP 2.0相对于HTTP 1.1新增了二进制格式传输、HTTP头部压缩、多路复用、服务端推送等特性,优化了请求传输性能,兼容了HTTP 1.1的语法。 HTTP2.0的优势: 采用二进制格式传输数据,而非 HTTP1.1 的文本格式,二进制格式在协议的解析和优化扩展上带来更多的优势。 对消息头采用 HPACK 进行压缩传输,能够节省消息头占用的网络的流量,而 HTTP1.1 每次请求,都会携带大量冗余头信息,浪费了很多带宽资源,头压缩能够很好的解决该问题。 多路复用,就是多个请求都是通过一个 TCP 连接并发完成,HTTP1.1 虽然通过pipeline也能并发请求,但是多个请求之间的响应会被阻塞,所以 pipeline 至今也没有被普及应用,而 HTTP2.0做到了真正的并发请求,同时,流还支持优先级和流量控制。 服务端推送,服务端能够更快的把资源推送给客户端,例如服务端可以主动把 JS 和 CSS 文件推送给客户端,而不需要客户端解析 HTML 再发送这些请求,当客户端需要的时候,它已经在客户端了。 注意事项 开启HTTP2.0前,需勾选请求协议中的HTTPS,并关联有效证书。 配置说明 1. 登录边缘安全加速平台控制台。 2. 在域名基础配置页面,点击目标域名。 3. 进入HTTPS配置页面,单击“编辑配置”。 4. 单击右侧【请求协议】,勾选【请求协议】中的【HTTPS】。 5. 单击右侧【HTTPS配置】,选择域名对应的【证书】。如果已经在【证书管理】上传证书,可直接选择对应域名证书。如果还未上传证书,可单击【点击上传】,添加证书。添加完毕后,再选择对应证书,如未找到目标证书,可点击右侧的刷新按钮刷新后再重新选择。 6. 开启【HTTP2.0】功能,配置完毕单击【保存】。 参数 说明 HTTP2.0 默认关闭,即不开启HTTP2.0功能。开启HTTP2.0功能之前,需要先完成HTTPS证书配置。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        HTTPS相关配置
        HTTP2.0配置
      • 使用Query Profiling分析SQL性能
        DRDS支持Session级别的Query Profiling功能,可以实时监控和分析当前会话中执行的SQL语句的性能特征。 注意 该功能仅用于排查性能问题,不得将该功能和/!hint({"source":{"traceid":"traceidvalue"}})/应用在生产SQL中。 前提条件 DRDS版本为2.8.8P5后的版本(含新版本号5.1.20.0.0及以后的版本),才提供Session级别的Query Profiling功能。您可以通过udal show version();命令查看DRDS版本号。 快速入门 1. 执行如下命令,开启诊断模式 plaintext udal set trace1; 2. 执行如下命令,标记关键业务查询。 plaintext / SELECT FROM orders WHERE createtime > '20230601'; 3. 执行如下命令,获取诊断报告。 plaintext udal show trace where traceid"paymentanalysis"; 主要参数说明 开启或关闭Profile功能。 plaintext udal set trace {01}; 参数说明如下: 1:开启 0:关闭 设置保留历史Proflie记录最大条数。 plaintext udal set trace maxsize N 参数说明如下: N:历史记录最大值。默认保留100条历史语句的记录,取值范围为110000,超过最大值后,将覆盖最早的历史记录。 注意 相关诊断报告保存在内存中,重启节点等操作将会导致清空历史数据。 查看Profile功能状态。 plaintext udal show trace status; 输出字段说明如下: Enabled:功能是否开启。 MaxSize:保存历史记录最大值。 查看支持的历史语句记录。 plaintext udal show traces; 查看执行语句Profile记录。 plaintext udal show trace [where {idtraceid} ?]; 参数说明如下: 不带where,查看上一条语句的Profile记录。 带where: id ?:历史记录序号,可通过udal show traces获取。 traceid ?:历史记录traceid标识,可通过udal show traces获取。 设置执行语句的traceid。 plaintext /select from t1; 参数说明如下: source:系统标记关键字,不可修改。 traceid:系统标记关键字,不可修改。 traceidvalue :traceidvalue 为traceid实际值,由用户自行定义设置。 注意 traceidvalue 没有格式和长度要求,如果用户多条语句使用了同样的traceidvalue ,使用该traceidvalue查看Profile信息时,将显示为最近执行的语句记录。
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        SQL调优指南
        使用Query Profiling分析SQL性能
      • 使用MirrorMaker跨集群数据同步
        实施步骤 (1)购买一台弹性云主机,确保弹性云主机与源集群、目标集群网络互通。 (2)登录弹性云主机,安装Java JDK,并配置JAVAHOME与PATH环境变量。其中“/usr/local/java/jdk1.8.0161”为JDK的安装路径,请根据实际情况修改。 exportJAVAHOME/usr/local/java/jdk1.8.0161 exportPATH$JAVAHOME/bin:$PATH (3)下载安装kafka 下载页面: (4)进入kafka安装目录,修改“config/connectmirrormaker.properties”配置文件,在配置文件中指定源集群和目标集群的IP地址和端口以及其他配置。 (5)在kafka安装目录下,启动MirrorMaker,进行数据同步。 ./bin/connectmirrormaker.sh config/connectmirrormaker.properties 验证数据是否同步 要验证MirrorMaker是否成功同步数据,可以采取以下几种方法: 1. 检查目标集群的主题和分区: 在目标集群上使用Kafka命令行工具或管理工具,查看MirrorMaker复制的主题和分区是否存在。确保目标集群上有与源集群相同的主题和分区。 2. 检查消息偏移量: 使用Kafka消费者API或命令行工具,从目标集群中消费复制的消息。验证消息的偏移量是否与源集群中的消息偏移量一致。如果偏移量相同,表示数据同步成功。 3. 检查消息内容: 从目标集群中消费复制的消息,并与源集群中的消息进行比较。验证消息内容是否一致。可以使用Kafka消费者API或命令行工具来消费消息,并进行比较。 4. 监控MirrorMaker的指标: 在MirrorMaker节点上启用监控,收集关于复制进度、延迟和吞吐量等指标的数据。通过监控指标,可以了解MirrorMaker的工作状态和性能表现,进一步验证数据同步的情况。 5. 进行端到端测试: 在源集群中发送一些测试消息,并在目标集群中验证这些消息是否被成功复制。可以使用Kafka生产者API或命令行工具发送测试消息,并使用Kafka消费者API或命令行工具从目标集群中消费并验证消息。 通过以上方法,可以验证MirrorMaker是否成功同步数据,并确保数据在源集群和目标集群之间的一致性。根据实际需求,可以选择适合的验证方法或组合多种方法来进行验证。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        使用MirrorMaker跨集群数据同步
      • 创建实例
        本节主要介绍分布式消息服务Kafka的订购流程。 背景信息 Kafka实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占Kafka实例,可根据业务需要可定制相应规格的Kafka实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 前提条件 具备已通过实名认证的天翼云账号 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在管理控制台右上角单击“地域名称”,选择区域。此处请选择与您的应用服务相同的区域。 4. 点击“购买实例”跳转到购买页面,根据页面订购说明进行产品开通。 5. 下载安装工具Eclipse3.6.0以上上版本 或者IntelliJ ,JDK 1.8.111以上版本。 说明 以下订购说明适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3资源池 计费模式:包周期和按需计费 引擎类型:云原生引擎和Kafka引擎。两者差别如下: 云原生引擎:大规模分区性能稳定性更高,扩容无需迁移数据。 Kafka引擎:完全兼容开源Kafka生态,占用更少IO带宽,可应对更高的性能峰值突刺。 部署方式:单可用区和多可用区部署。单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区 自动续期:支持自动续期,支持做选择自动续期时长 节点数:3、5、7、9 主机类型:通用型和计算增强型,不同类型主机规格价格不一样,具体区别见文档弹性云主机实例规格 实例规格:主机节点规格,通用型和计算增强型规格不一致,具体以页面为准。 说明 以下订购说明适用于芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 资源池 计费模式:包周期和按需计费 区域:开通实例所在资源池 类型:选择产品规格,包括高级版8核32G与基础版4核16G 节点数:固定3个节点 主机类型:支持通用型主机s2、s3和s6,具体区别见文档弹性云主机实例规格通用型
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建实例
      • 附录
        本节介绍应用辅助工具的用途和使用方法。 应用辅助工具使用方法 应用辅助工具,可帮助管理员快速获取应用创建所需的displayName和displayVersion,以及是否支持静默安装等信息,用于应用管理与应用管控模块。 工具获取 目前此工具可在应用市场客户端搜索并下载。 注:最新的应用辅助工具版本为V2.1,请使用最新的版本进行操作。 使用方法 (1)运行工具 打开天翼AI云电脑应用辅助工具。 注:如提示需安装.Net Framework 4.8,请先安装后再打开工具。 (2)选择安装文件 点击“选择安装文件”按钮,选择待安装的应用安装包(支持分批添加)。在待安装列表中,点击右键可选择清空列表或删除指定应用,如下图所示。 注:1、如果选择了虚机中已安装的应用在辅助工具中重复安装会提示安装失败,建议在执行安装前,先卸载原应用。 2、如需查看在虚机中已安装的文件信息,可以在工具下方的“控制面板卸载程序页”中,选择应用右键获取信息。 3、建议单次安装应用数不超过10个,以免部分应用安装失败导致导出结果丢失。 执行安装 点击“执行安装”,即开始安装已选应用。安装进度栏会显示总数与已安装数;已安装的应用则显示在已安装栏中。 如果有安装失败的应用,会保留在待安装文件框中。 注:1、如有文件安装失败,再次点击“执行安装”可重试,此时不可添加新的安装文件;需要清空待安装列表中的失败文件后,可再此添加新的安装文件; 2、文件多次安装均失败时,建议在“控制面板卸载程序页”中检查是否在虚机中已安装; 3、由于腾讯会议自身原因存在安装问题,建议另行安装后,再从天翼AI云电脑应用工具的“控制面板卸载程序页”页面上右键复制应用的信息。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        应用市场
        管理员指南
        附录
      • 用户上网行为控制
        本节帮助您了解如何实现用户上网行为控制。 操作场景 随着网络化办公的普及,员工办公变得更加快捷方便,但是员工非上网现象也越来越突出,企业普遍存在着电脑和互联网滥用的严重问题,网上购物、在线聊天、玩游戏等与工作无关的上网行为占用了有限的宽带,严重影响了正常的工作效率。您可能需要优化管理您所在组织的网络资源,提高整体工作效率,避免机密、商业信息、科研成果泄漏。 解决方案 您可以通过内网DNS实现用户上网行为控制。例如您希望在名为"vpcnewDNS"的VPC中屏蔽用户对百度的访问,可以在内网DNS上进行相应配置。 首先,将内网DNS关联到"vpcnewDNS"的VPC,并确保DNS解析服务能够生效于该VPC的资源。然后,针对百度的域名(例如baidu.com),在内网DNS服务器上添加A记录,并将IP地址设置为0.0.0.0。这样配置后,当VPC内的用户访问百度时,内网DNS将会返回0.0.0.0的IP地址,从而阻止了对百度的访问。 操作步骤 1. 登录到内网DNS控制中心页面。 2. 单击控制中心顶部的,选择“地域”,此处我们选择华东1。 3. 单击“创建内网域名”。 4. 在“创建内网域名”弹窗,按下图示例对“域名”及“VPC”进行配置,无误后单击“确定”进行创建。 5. 找到创建好的内网域名,单击“管理记录集”进入解析记录界面。 6. 单击右上角的“添加记录集”,参照下图示例进行记录集配置后单击“确定”。 7. 记录集添加后,即为完成“vpcnewDNS”内用户对百度的访问屏蔽。 8. 设置云主机的DNS服务地址为内网DNS地址。具体步骤可参见更改主机DNS使内网DNS配置生效。
        来自:
        帮助文档
        内网DNS
        最佳实践
        用户上网行为控制
      • NGINX Ingress控制器
        本文主要介绍NGINX Ingress控制器。 插件简介 Kubernetes通过kubeproxy服务实现了Service的对外发布及负载均衡,它的各种方式都是基于传输层实现的。在实际的互联网应用场景中,不仅要实现单纯的转发,还有更加细致的策略需求,如果使用真正的负载均衡器更会增加操作的灵活性和转发性能。 基于以上需求,Kubernetes引入了资源对象Ingress,Ingress为Service提供了可直接被集群外部访问的虚拟主机、负载均衡、SSL代理、HTTP路由等应用层转发功能。 Kubernetes官方发布了基于Nginx的Ingress控制器,NGINX Ingress控制器是一款使用configmap来存储nginx配置的插件,nginx ingress controller会将ingress生成一段nginx的配置,将这个配置通过Kubernetes API写到Nginx的Pod中,然后reload完成nginx的配置修改和更新。 NGINX Ingress控制器插件直接使用社区模板与镜像,CCE不提供额外维护,不建议用于商用场景。 开源社区地址: 说明 安装该插件时,您可以通过“定义nginx配置”添加配置,此处的设置将会全局生效,该参数直接通过配置nginx.conf生成,将影响管理的全部Ingress,相关参数可通过 安装该插件后,您在CCE控制台创建Ingress时可以开启“对接Nginx”按钮,并通过“Nginx配置”下的“自定义配置”将Kubernetes annotations添加到特定的Ingress对象,以自定义其行为,Kubernetes annotations字段详情请参见 请勿手动修改和删除CCE自动创建的ELB和监听器,否则将出现工作负载异常;若您已经误修改或删除,请卸载Nginx Ingress插件后重装。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        NGINX Ingress控制器
      • 新域名服务相关术语解释
        CNNIC: 指的是(中国互联网信息中心) ICANN : 指的是(国际域名注册组织) 域名注册: 指的是Internet中用于解决地址对应问题的一种方法。域名可分为不同级别,包括顶级域名、二级域名、三级域名、国家代码域名等。根据中国互联网络域名管理办法,域名注册服务机构及域名注册管理机构需对申请人提出的域名是否违反了第三方的权利和申请人的真实身份进行核验。每一个相同顶级域名中的二级域名注册都是独一无二的,不可重复的,但不同顶级域名中的二级域名可以是相同的,每个域名都起到同样的作用。因此,在网络上域名是一种相对有限的资源,它的价值随着注册企业和个人用户的增多而逐步为人们所重视。 域名转移: 指的是域名从一个域名注册服务商转移到另外一个域名注册服务商。 域名解析: 就是域名到IP地址的转换过程,它是把域名指向网站空间IP,让人们通过注册的域名可以方便地访问到网站的一种服务。域名解析工作由DNS服务器完成。互联网中的地址是数字的IP地址,域名解析的作用主要就是为了便于记忆。 域名续费: 每一个域名都有注册时间和到期时间,正常情况下,这个时间是年为单位。如果域名持有者想延长域名的到期时间,则需要每年缴纳一定的费用,以年为单位延长时间,称为域名续费。 域名赎回期: ICANN在2003年一季度提出了域名赎回期的概念,域名到期并且在服务商提供的保留期(续费期)内没有为域名续费,服务商就会向注册局提出将域名删除的请求,注册局接受服务商的请求并将域名转为赎回期状态。在域名赎回期用户缴纳一定费用即可赎回域名。根据域名后缀不同,赎回期时长不同: 1. 国际域名续费期30天,未在续费期内续费即进入赎回期,赎回期时长30天; 2. 国内域名(.cn类/.中国) 续费期35天,未在续费期内续费即进入赎回期,赎回期时长15天; 3. 其他国别域名(ccTLD)则以各国家或地区域名管理机构制定的规则为准。
        来自:
        帮助文档
        新域名服务
        产品介绍
        新域名服务相关术语解释
      • 自定义分布式消息服务RabbitMQ事件源
        本文介绍如何在事件总线EventBridge管理控制台添加分布式消息服务RabbitMQ类型的自定义事件源。 前提条件 事件总线EventBridge 开通事件总线EventBridge并委托授权。 创建自定义总线。 分布式消息服务RabbitMQ 开通分布式消息服务RabbitMQ。 创建实例、并创建vhost和queue。 操作步骤 1. 登录事件总线管理控制台。 2. 在左侧导航栏,单击事件总线。 3. 在事件总线页面,单击目标总线名称。 4. 在左侧导航栏,单击事件源。 5. 在事件源 页面,单击添加事件源。 6. 在添加自定义事件源 面板,输入名称 和描述 ,事件提供方 选择分布式消息RabbitMQ,选择vhost和queue等配置然后单击确认,详见图1。 图1 创建事件源时事件提供方选择分布式消息服务RabbitMQ 参数说明 参数 说明 示例 RabbitMQ 实例名称 分布式消息服务RabbitMQ实例名称。 instancexxx RabbitMQ vhost 分布式消息服务RabbitMQ vhost。 / RabbitMQ queue 分布式消息服务RabbitMQ queue。 queuexxx 事件示例 plaintext { "id": "f6676cdd7696492db4f111e8d93881fe", "specversion": "1.0", "source": "source5", "type": "amqp:Queue:SendMessage", "subject": "ctyun:rabbitmq:bb9fdb42056fxxxxxx10242ac110002:dab4124xxxxxxb2774f45c6a6db69:queue:test", "datacontenttype": "application/json", "time": "20251030T06:58:38.544695974Z", "data": { "body": "test1", "envelope": { "deliveryTag": 1, "routingKey": "test" }, "props": {} }, "ctyunaccountid": "dab4124510ddxxxxx774f45c6a6db69", "ctyunregion": "bb9fdb42056fxxxxx10242ac110002" } data字段包含的参数解释如下表所示。 参数 类型 示例值 描述 props Object 详见props字段参数解释 消息属性,详见props字段参数解释。 envelope Object 详见envelope字段参数解释 消息的envelope信息,详见envelope字段参数解释。 body Object {"key":"value"} 消息体,默认以JSON格式编码。 data 字段下envelope属性包含的参数解释如下表所示。 参数 类型 示例值 描述 deliveryTag Int 98 消息的Tag。 exchange String 无 消息的Exchange。 redeliver Boolean false 是否支持重发消息。取值说明如下: true:支持。 false:不支持。 routingKey String housekeeping 消息的路由规则。 data 字段下props属性包含的参数解释如下表所示。 参数 类型 示例值 描述 contentEncoding String utf8 消息内容编码。 messageId String f7622d51e19841dea07277c1ead7 消息ID。 contentType String application/json 消息contentType。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义分布式消息服务RabbitMQ事件源
      • 目录定制
        本节将介绍如何查看已有目录,以及如何更换布局。 态势感知(专业版)支持自定义目录,您可以根据需要对目录进行定制。 约束与限制 系统内置的目录不支持编辑、删除操作。 查看已有目录 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“安全编排 > 目录定制”,进入目录定制页面。 5. 在目录定制列表中,查看目录的详细信息。 参数名称 参数说明 面包屑导航显示开关 按钮默认开启。该开关用于控制是否允许用户返回外层导航目录。 开关打开:用户可返回外层空间管理导航目录。 开关关闭:用户无法返回外层空间管理导航目录。 工作空间导航设置 新增:用户自定义新增目录。 批量编辑:支持批量编辑,设置“落地页”,设置“是否显示”按钮。落地页即单击工作空间名称后进入空间详情的默认页面。 批量删除:支持批量删除目录,仅用户自定义的目录支持删除,系统内置目录不支持删除。 导航名称 导航目录所属的一级目录名称。单击一级目录名称前方的按钮可展开该一级目录下的二级目录名称。 目录状态 目录所属的类型。 发布者 目录的发布者。 布局 目录关联的布局。 目录地址 目录所在地址。系统自动生成的访问目录页面的地址。 中文别名 目录的中文名称。 英文别名 目录的英文名称。 落地页 设置单击工作空间名称后进入空间详情的默认页面。 一个工作空间必须有一个落地页。 只能设置允许显示的目录中的一个作为落地页。 一级目录不支持设置为落地页。 是否显示 控制该目录是否在导航栏显示。 操作 可对目录进行编辑、更换布局等操作。 编辑:支持编辑目录的“中文别名”、“英文别名”、“落地页”、“是否显示”。 更换布局:用户自定义的目录,或系统内置的关联了布局的目录支持更换布局。仅支持更换相同布局类型的其他布局。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        安全编排
        目录定制
      • 基于DNS的服务发现
        本文为您介绍基于DNS的服务发现。 本文主要介绍Kubernetes集群中DNS域名解析原理和在Serverless集群中安装DNS服务器CoreDNS。 背景信息 DNS为Kubernetes集群内的工作负载提供域名解析服务。CoreDNS是Kubernetes集群中负责DNS解析的组件,能够支持解析集群内部自定义服务域名和集群外部域名。CoreDNS具备丰富的插件集,在集群层面支持自建DNS、自定义hosts、CNAME、rewrite等需求。与Kubernetes一样,CoreDNS项目由 CNCF托管,关于CoreDNS的更多信息,可浏览CoreDNS的官网。Serverless集群使用CoreDNS负责集群的服务发现,您可以根据不同使用场景配置CoreDNS及使用CoreDNS提升集群DNS QPS性能。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 确保kubectl工具已经连接目标集群。 操作步骤 步骤一:安装CoreDNS插件 1. 登录容器服务控制台,在左侧菜单栏选择“集群”。 2. 在集群列表页面,选择目标集群名称,然后在左侧菜单栏选择“插件”下的“插件市场”,安装CoreDNS插件。 3. 提交“安装插件”,稍后会在集群中创建2个coredns pod,集群会根据Pod内的配置,将域名请求发往集群DNS服务器获取结果。 4. 查看coredns是否正常运行。 步骤二:创建Nginx工作负载,以及service 1. 创建无状态工作负载,参考如下: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "nginxdeploy" namespace: "default" spec: replicas: 2 selector: matchLabels: name: "nginxdeploy" template: metadata: labels: name: "nginxdeploy" source:"CCSE" spec: containers: image: "registryvpccrshuadong1.ctyun.cn/opensource/nginx:1.25alpineamd64" imagePullPolicy: "IfNotPresent" name: "nginx" 2. 查看nginx pod是否正常运行,从eci控制台进入pod容器内部。 kubectl get po ndefault grep nginx 查看Pod内的DNS域名解析配置文件为/etc/resolv.conf,文件内容如下: nameserver 10.96.0.10 search kubesystem.svc.cluster.local svc.cluster.local cluster.local options ndots:5 3. 创建service,参考如下: apiVersion: v1 kind: Service metadata: name: nginxdeploy namespace: default spec: ports: name: tcp80 port: 30002 protocol: TCP targetPort: 80 selector: name: nginxdeploy type: ClusterIP
        来自:
        帮助文档
        云容器引擎 Serverless版
        最佳实践
        基于DNS的服务发现
      • 用户管理
        此章节为您介绍数据库审计用户管理相关的功能。 用户管理主要是指对用户权限及用户认证等进行管理。包括用户管理、远程认证配置、角色管理、用户安全配置以及授权数据库。 角色管理 角色可以看作是具有相同权限的用户的集合。系统将权限分配给角色,然后为用户指定角色。配置用户时通过设定用户所属角色,限制用户的操作权限范围。 用户的操作权限包括菜单显示和功能权限。只有赋予操作权限,用户才能进行相应的操作。 创建角色操作步骤 1.在菜单栏选择“系统管理 > 用户管理”,选择“角色管理”页签,进入“角色管理”页面。 2.单击“添加”进入“新增角色”页面,编辑名称(必须为中文字符、字母、数字、下划线“”、点“.”或短横“”,长度不超过64字符),选择权限后,单击“保存”。 用户管理 添加角色后即可增加该角色的用户。 系统内置了以下四个默认用户: 说明 admin初始密码请联系天翼云技术支持获取。 admin:超级管理员,具备系统所有权限。系统只有一个超级管理员。 security:具备安全管理员权限,可配置数据库与规则、查看各类告警报告、管理安全员。 system:具备系统管理员权限,进行系统权限的配置和维护。 audit:具备审计管理员权限,查看其他用户的操作日志、管理审计员。 添加用户操作步骤 1.在左侧菜单栏选择“系统管理 > 用户管理”进入“用户管理”页面,单击“添加用户”。 2.进入添加用户页面,编辑相关信息,完成后单击“保存”。 配置项 说明 用户名 必须为中文字符、字母、数字、下划线“”、点“.”或短横“”,最大长度64字符。 启用 单击“启用”后的开关,设置添加用户后是否立即启用用户。 角色 指定用户角色,包括内置角色和用户自定义角色,必填。 密码/确认密码 创建并确认新建用户的登录密码。密码长度6~64位,当启用强密码功能后需符合密码强度要求。修改密码时新旧密码不能相同。 手机号 设置用户的手机号。 邮箱 设置用户的邮件地址。 认证方式 用户登录系统时的认证方式。 登录IP/MAC限制 对用户登录系统时使用的IP/MAC进行限制。包括不限制、黑名单和白名单三种模式。 登录时间限制 限制用户登录系统的时间。
        来自:
        帮助文档
        数据库审计
        用户指南
        其他操作
        用户管理
      • 自定义报表
        此章节为您介绍数据库审计如何自定义报表。 自定义报表,即用户可以自定义报表内容(包括文档架构以及报表数据)。 自定义报表您需要先设置“报表数据”,然后再自定义报表。 报表数据管理 报表数据是自定义报表中展示的实际内容,是对审计日志、告警日志、会话日志从不同维度(例如客户端IP、主机名等)进行统计分析。 添加报表数据操作步骤 1.在左侧菜单栏选择“报表中心 > 自定义报表”进入自定义报表页面,选择“报表数据管理”页签,再单击“添加”。 2.进入“添加数据报表”页面,编辑相关信息。 3.编辑名称(必须为中文字符、字母、数字、下划线“”、点“.”或短横“”,长度不超过64字符)。 4.选择统计维度和统计指标。 5.设置筛选条件,单击“添加”。 6.在弹出的“添加筛选条件”对话框中设置名称(必须为中文字符、字母、数字、下划线“”、点“.”或短横“”,长度不超过64字符)和条件,单击“保存”。 7.在筛选条件文本框中点击图标,选择筛选条件。 8.配置完成后,单击保存。 添加自定义报表 1.在左侧菜单栏选择“报表中心 > 自定义报表”进入自定义报表页面,单击“添加”。 2.进入添加“自定义报表”页面,编辑名称和描述。 配置项 说明 名称 用来标识自定义报表,必须为中文字符、字母、数字、下划线“”或短横“”,长度不超过48字符。 描述 自定义报表的描述信息,任意字符类型,长度不超过64字符。 3.单击“一级标题”,在页面右侧编辑一级标题(必须为中文字符、字母、数字、下划线“”或短横“”,长度不超过48字符)。 4.单击“二级标题”,在页面右侧编辑二级标题(必须为中文字符、字母、数字、下划线“”或短横“”,长度不超过48字符)。 5.单击“正文”,在页面右侧输入正文内容(任意字符类型,长度不超过1000字符,系统提供了格式编辑工具,可使用格式编辑工具丰富正文格式)。 6.单击“分析对象与范围”,在页面右侧选择显示内容,当前可选:全部、仅显示对象或仅显示范围。 7.单击“图标”,在页面右侧选择“报表数据”、“图表类型”和“图标标题”,并且设置“显示指标”或“显示维度”。 8.单击“保存”完成自定义报表的设置。
        来自:
        帮助文档
        数据库审计
        用户指南
        报表中心
        自定义报表
      • 步骤四:检查代码
        本章主要介绍步骤四:检查代码 代码检查服务提供基于云端实现代码质量管理服务,支持代码静态检查(包括代码质量、代码风格等)和安全检查,并提供缺陷的改进建议和趋势分析。 随着凤凰商城越来越庞大,线上出现的缺陷以及安全问题也越来越多,修复成本太大;且开发人员写代码也比较随性,没有统一标准。因此项目经理建议制定一些基本的标准,并对代码进行持续的静态代码扫描,一旦发现问题立即在迭代内修复。 通过本章节,您将了解开发人员Chris如何完成针对不同技术栈的代码静态扫描、问题收集与修复。 预置任务简介 样例项目中预置了如下表所示的4个任务。 预置任务 预置任务 任务说明 phoenixcodecheckworker 检查Worker功能对应代码的任务。 phoenixcodecheckresult 检查Result功能对应代码的任务。 phoenixcodecheckvote 检查Vote功能对应代码的任务。 phoenixcodecheckjavas 检查整个代码仓库对应的JavaScript代码的任务。 说明 关于Vote、Result、Worker的说明,请参见 section989mcpsimp 本章节以任务“phoenixcodecheckworker”为例进行讲解。 配置并执行任务 开发人员可以对样例项目中预置的任务做一些简单的配置,增加Python语言检查规则集,使检查更全面。 步骤 1 编辑任务。 1. 进入“凤凰商城”项目,单击导航“代码 > 代码检查”,页面中显示样例项目内置的4个任务。 2. 在列表中找到任务“phoenixcodecheckworker”。 3. 单击任务名称进入详情页,选择“设置”页签。 4. 单击导航“规则集”,规则集中默认包含的语言是“Java”。 5. 增加Python语言检查规则集。 1. 单击“已包含语言”之后的图标,重新获取代码仓库语言,刷新后的列表新增了多种语言。 2. 将Python语言对应的开关打开。 3. 在弹框中单击“确定”。 步骤 2 执行任务。 1. 单击“开始检查”,启动任务。 2. 当页面显示,表示任务执行成功。 若任务执行失败,请根据页面弹出报错提示排查修改。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤四:检查代码
      • 配置CNAME
        本文通过介绍配置CNAME的实例,帮助客户直观地了解配置CNAME的过程和注意事项。 要启用CDN加速服务,需要您将加速域名的DNS解析指向我们提供的CNAME,这样访问加速域名的请求才能转发到CDN节点上,达到加速效果。 1. 在CDN控制台的【域名管理】【域名列表】页面,复制目标加速域名对应的CNAME值。 2. 前往您的域名解析(DNS)服务商(如万网、阿里云解析、DNSPod、新网、腾讯云解析、route 53、godaddy等),添加该CNAME记录。 3. 验证CDN加速服务是否生效。配置CNAME后,不同的服务商CNAME生效的时间也不同,一般新增的CNAME记录会立即生效,修改的CNAME记录需要较长时间生效。您可以ping或dig您所添加的加速域名,如果被指向.ctdns.cn,即表示CNAME配置已经生效,CDN加速服务也已生效。 注意 1. CNAME配置生效时间:新增CNAME记录会实时生效,而修改CNAME记录取决于客户设置的TTL时间。 2. 添加时如遇添加冲突,可考虑换一个加速域名,或参考“解析记录互斥规则”调整记录。 解析记录互斥规则: 在提示冲突的时候,说明已经有对应的记录,不允许重复添加或者说不能添加对应的记录,说明如下: 在RR值(Resource Records,资源记录)相同的情况下,同一条线路下,在几种不同类型的解析中不能共存(X为不允许): X:在相同的RR值情况下,同一条线路下,不同类型的解析记录不允许共存。如:已经设置了ctyun.cn的A记录,则不允许再设置ctyun.cn的CNAME记录。 无限制: 在相同的RR值情况下,同一条线路下,不同类型的解析记录可以共存。如:已经设置了ctyun.cn的A记录,则还可以再设置ctyun.cn的MX记录。 可重复: 指在同一类型下,同一条线路下,可设置相同的多条RR值。如:已经设置了ctyun.cn的A记录,还可以再设置ctyun.cn的A记录。
        来自:
        帮助文档
        CDN加速
        快速入门
        配置CNAME
      • 流量控制
        本章节主要介绍流量控制。 操作场景 DataArts Studio数据服务的API流量控制基于指定规则对API的访问流量进行调节控制的限流策略,能够提供多种维度的后端服务保护功能。当前API流控支持通过用户、应用和时间段等不同维度限制API的调用次数。 为了提供持续稳定的服务,您需要通过创建并选择流控策略,针对部分API进行流量控制。流控策略和API本身是相互独立的,只有将流控策略绑定API后,流控策略才对绑定的API生效。 说明 同一个环境中一个API只能被一个流控策略绑定,一个流控策略可以绑定多个API。 前提条件 需要绑定的API已发布。 创建流控策略 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据服务”模块,进入数据服务页面。 详见下图: 选择数据服务 2.在左侧导航栏选择服务版本(例如:专享版),进入总览页。 3.单击“运营管理 > 流控策略”,进入到流量控制信息页面。 4.单击“创建流控策略”,弹出“创建流控策略”对话框。输入如下表所示信息。 流控策略信息 信息项 描述 策略名称 API流控策略名称。 时长 流量限制的时长。 与“API流量限制”配合使用,表示单位时间内的单个API请求次数上限。 与“用户流量限制”配合使用,表示单位时间内的单个用户请求次数上限。 与“应用流量限制”配合使用,表示单位时间内的单个APP请求次数上限。 API流量限制 单个API被调用次数上限。 与“时长”配合使用,表示单位时间内的单个API请求次数上限。 用户流量限制 单个用户调用API次数上限。 不超过“API流量限制”。 与“时长”配合使用,表示单位时间内的单个用户请求次数上限。 应用流量限制 单个应用调用API次数上限。 不超过“用户流量限制”。 与“时长”配合使用,表示单位时间内的单个应用请求次数上限。 描述 关于控制策略的描述。 5.单击“确定”,完成流量控制策略的创建。 创建成功后,策略信息页面增加显示新创建的策略,您可以将相关API绑定到该策略,以实现流量控制。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        流量控制
      • 提交版本并解锁
        前提条件 已完成作业开发任务。 提交版本并解锁 “提交”会将当前开发态的最新作业保存并提交为版本,并覆盖之前的作业版本。为了便于后续其他开发者对此作业进行修改,建议您在“提交”后通过“解锁”解除该作业锁定。 1.登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2.在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3.在作业目录中,双击已开发完成的作业名称,进入作业开发页面。 4.在作业画布上方单击“提交”,提交版本。描述内容长度最多为128个字符,并勾选是否在下个调度周期使用新版本,不勾选则无法点击确认。 详见下图:提交 5.“提交”后在作业画布上方单击“解锁”,解除锁定,便于后续其他开发者对此作业进行修改更新。 详见下图:解锁 版本回滚 用户可以在版本列表中看到已经提交过的版本信息(当前最多保存最近10条版本信息)。点击“回滚”,可以回退到任意一个已提交的版本。 回滚内容包括: 作业定义(算子属性、连线等); 作业基本信息、作业调度配置、作业参数、血缘关系中的所有内容; 操作如下: 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业目录中,双击作业名称,进入作业开发页面。 4. 在页面右侧单击“版本”,查看版本提交记录,找到需要回滚的版本单击“回滚”即可。 详见下图:版本回滚操作界面
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        提交版本并解锁
      • 数据库使用
        如何查看外部表信息? 如果需要查询OBS、GDS等外表信息(如OBS路径),可以执行以下语句查询。 select from pggettabledef('外表名称') 例如,表名为trafficdata.GCJLOBS,查询如下: select from pggettabledef('trafficdata.GCJLOBS'); 如果建表时没有指定分布列,数据会怎么存储? 说明 8.1.2及以上集群版本,可通过GUC参数defaultdistributionmode来查询和设置表的默认分布方式。 如果建表时没有指定分布列,数据会以下几种场景来存储: 场景一 若建表时包含主键/唯一约束,则选取HASH分布,分布列为主键/唯一约束对应的列。 CREATE TABLE warehouse1 ( WWAREHOUSESK INTEGER PRIMARY KEY, WWAREHOUSEID CHAR(16) NOT NULL, WWAREHOUSENAME VARCHAR(20) ); NOTICE: CREATE TABLE / PRIMARY KEY will create implicit index "warehouse1pkey" for table "warehouse1" CREATE TABLE SELECT getdistributekey('warehouse1'); getdistributekey wwarehousesk (1 row) 场景二 若建表时不包含主键/唯一约束,但存在数据类型支持作分布列的列,则选取HASH分布,分布列为第一个数据类型支持作分布列的列。 CREATE TABLE warehouse2 ( WWAREHOUSESK INTEGER , WWAREHOUSEID CHAR(16) NOT NULL, WWAREHOUSENAME VARCHAR(20) ); NOTICE: The 'DISTRIBUTE BY' clause is not specified. Using 'wwarehousesk' as the distribution column by default. HINT: Please use 'DISTRIBUTE BY' clause to specify suitable data distribution column. CREATE TABLE SELECT getdistributekey('warehouse2'); getdistributekey wwarehousesk (1 row) 场景三 若建表时不包含主键/唯一约束,也不存在数据类型支持作分布列的列,选取ROUNDROBIN分布。 CREATE TABLE warehouse3 ( WWAREHOUSEID CHAR(16) NOT NULL, WWAREHOUSENAME VARCHAR(20) ); NOTICE: The 'DISTRIBUTE BY' clause is not specified. Using 'wwarehouseid' as the distribution column by default. HINT: Please use 'DISTRIBUTE BY' clause to specify suitable data distribution column. CREATE TABLE SELECT getdistributekey('warehouse3'); getdistributekey wwarehouseid (1 row)
        来自:
        帮助文档
        数据仓库服务
        常见问题
        操作类
        数据库使用
      • 向量检索的集群规划
        本章节主要介绍向量检索的集群规划。 向量检索的索引构建与查询均使用堆外内存,所以集群容量与索引类型、总堆外内存大小等因素相关。通过预估全量索引所需的堆外内存大小,可以选择合适的集群规格。 不同类型的索引所需堆外内存大小的预估方式不同,计算公式如下: GRAPH索引 说明 若有实时更新索引的需求,还需要考虑向量索引构建和自动merge所需的堆外内存开销,保守估计需要1.5~2倍memneeds。 PQ类索引 FALT 、IVF索引 参数说明 参数 说明 dim 向量维度。 neighbors 图节点邻居数,默认值为64。 dimsize 每一维度值所需的字节数,默认为float类型,需要4字节。 num 向量总条数。 delta 元数据大小,该项通常可以忽略。 fragnum 量化编码时的向量分段数,创建索引时若未配置该值,则由向量维度“dim”决定。 if dim < 256: fragnum dim / 4 elif dim < 512: fragnum dim / 8 else : fragnum 64 fragsize 量化编码时中心点编码的size,默认为1,当“fragnum”大于256时,该值等于2。 基于上述计算方法,可预估出完整向量索引所需堆外内存的大小。选择集群规格时,还需考虑每个节点的堆内存开销。 节点的堆内存分配策略:每个节点的堆内存大小为节点物理内存的一半,且最大不超过31GB。 例如,基于SIFT10M数据集创建GRAPH索引,其“dim”为“128”,“dimsize”为“4”,“neighbors”采用默认值“64”,“num”为“1000万”,将各值代入上述公式得到GRAPH索引所需堆外内存大小约为: 同时考虑到堆内存的开销,单台“8U 16G”规格的机器可以满足该场景的需求。如果实际场景还有实时写入或更新的需求,则需要考虑申请更大的内存规格。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        向量检索
        向量检索的集群规划
      • 创建证书
        本文为您介绍如何通过密钥管理控制台创建证书并导入控制台实现托管。 支持数字证书和Ukey证书,关于两种证书的区别,请参见证书管理概述。 创建数字证书 1. 登录密钥管理服务控制台。 2. 在页面最上方的导航栏的资源池下拉列表,选择服务所在的区域。 3. 在左侧导航栏,点击证书管理, 进入数字证书管理页,点击创建证书。 4. 在弹出的创建证书对话框,根据页面提示进行配置信息填写。 配置项说明: 配置项 说明 主体名称(CN) 证书使用的主体名称。 国家/地区(C) 使用ISO 31661的二位国家代码,例如:CN代表中国。 省/市(ST) 省、直辖市、自治区或特别行政区名称。 城市(L) 城市名称。 公司名称(O) 企业、单位、组织或机构的法定名称。 部门名称(OU) 部门名称。 单击右侧加号,可以添加多个部门名称,最多可添加5个。 邮箱(E) 证书持有者或管理者邮箱。 主体别名 当证书为DV证书时,可使用主体别名生成多域名证书请求。最多可添加10个。 密钥类型 取值:RSA2048、SM2(企业版支持) 私钥可否导出 证书私钥是否需要导出使用。取值: 是:证书私钥需要导出使用。 否:证书私钥不需要导出使用。 建议选择否,以便使用更高安全级别的密钥保护。 企业项目 选择证书归属的企业项目,默认为default。 5. 证书信息填写完成后,点击 创建证书 ,系统会返回证书ID及证书请求,点击 下载证书请求 ,下载完成点击 确定 。 6. 下载csr格式的证书请求文件后,将其提交给CA机构,获取正式的证书和证书链。 7. 将证书和证书链导入证书管理服务,在证书列表页面,找到目标证书,点击 更多导入证书。 8. 在导入证书对话框,输入或上传CA机构颁发的证书和证书链,点击 确定 。 9. 导入证书成功后,证书状态为 启用中 ,您可以使用证书进行签名验签等操作。
        来自:
        帮助文档
        密钥管理
        用户指南
        证书管理
        创建证书
      • Kafka Connect接入Kafka
        本节主要介绍Kafka Connect接入Kafka。 最佳实践概述 场景描述 Kafka Connect可以将完整的数据库注入到Kafka的Topic中,或者将服务器的系统监控指标注入到Kafka,然后像正常的Kafka流处理机制一样进行数据流处理。而导出工作则是将数据从Kafka Topic中导出到其它数据存储系统、查询系统或者离线分析系统等。 如果您想要在流数据平台场景下,使用Kafka Connect快速实现数据从Kafka和其它系统之间进行导入导出,可以参考本实践方案。 技术架构图 暂无。 方案优势 用户可按业务需要,参考Kafka Connect数据导入导出,实现流数据的消息消费。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 资源规划 本实践方案内容仅涉及Kafka专享版实例和Flink的安装配置。 分布式消息服务 Figure 1 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 Kafka Connect流数据平台 Figure 2 Kafka Connect流数据平台 资源类型 配置项 配置明细 说明 :::: 应用软件 Flink框架 Flink 1.14 使用开源Apache Flink 方案正文 Kafka Connect 目前支持两种执行模式:standalone 和 distributed。 standalone模式 通过以下命令以 standalone 模式启动 connect: 接入Kafka专享版与接入开源 Apache Kafka 没有区别,仅需要修改 bootstrap.servers 为申请实例时分配的 IP。 distributed模式 通过以下命令以 distributed 模式启动 connect: 该模式下,Kafka Connect 会将 offsets、configs 和 task status 信息存储在 Kafka Topic 中,存储的Topic 在 connectdistributed 中的以下字段配置: 这三个 Topic 需要手动创建,才能保证创建的属性符合 connect 的要求。 config.storage.topic 需要保证只有一个 partition,多副本且为 compact 模式。 offset.storage.topic 需要有多个 partition,多副本且为 compact 模式。 status.storage.topic 需要有多个 partition,多副本且为 compact 模式。 配置 bootstrap.servers 为申请实例是分配的 IP。 配置 group.id,用于标识 connect 集群,需要与消费者分组区分开来。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka Connect接入Kafka
      • 恢复NameNode数据
        本章主要介绍翼MapReduce的恢复NameNode数据功能。 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员对NameNode进行重大操作(如升级、重大数据调整等)后,系统数据出现异常或未达到预期结果,模块全部故障无法使用,或者迁移数据到新集群的场景中,需要对NameNode进行恢复数据操作。 系统管理员可以通过FusionInsight Manager创建恢复NameNode任务并恢复数据。只支持创建任务手动恢复数据。 须知 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的NameNode数据。 建议一个恢复任务只恢复一个组件的元数据,避免因停止某个服务或实例影响其他组件的数据恢复。同时恢复多个组件数据,可能导致数据恢复失败。 HBase元数据不能与NameNode元数据同时恢复,会导致数据恢复失败。 对系统的影响 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 恢复数据后需要重启NameNode,重启完成前NameNode不可访问。 恢复数据后可能导致元数据与业务数据无法匹配,HDFS进入安全模式且HDFS服务启动失败。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群。如果主集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置跨Manager集群互信。如果主集群部署为普通模式,则不需要配置互信。 主备集群必须已配置跨集群拷贝,请参见启用集群间拷贝功能。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 登录FusionInsight Manager,请参见登录管理系统。 在FusionInsight Manager停止所有待恢复数据的NameNode角色实例,其他的HDFS角色实例必须保持正常运行,恢复数据后重启NameNode。NameNode角色实例重启前无法访问。 检查NameNode备份文件保存路径是否保存在主管理节点“ 数据存放路径 /LocalBackup/”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        备份恢复管理
        恢复数据
        恢复NameNode数据
      • 查看已归档事件
        本文主要介绍查看已归档事件 操作场景 云审计服务会定时将跟踪到的事件以事件文件的形式按周期保存至OBS桶。事件文件是按照服务、转储周期两个维度生成的事件集,系统会根据当前负载情况调整每个事件文件包含的事件数。 本节介绍如何在OBS中通过下载事件文件查看已保存至OBS桶的历史操作记录。 前提条件 已在云审计服务中成功配置追踪器。配置方法请参见《云审计服务用户指南》的“配置追踪器”章节。 操作步骤 1.登录管理控制台。 2.选择“服务列表 > 管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 3.单击左侧导航树的“追踪器”,进入追踪器信息页面。 4.单击“转储OBS桶”下的指定的OBS桶名称,页面跳转到OBS管理控制台中对应OBS桶的对象管理界面。 5.在OBS桶中选择需要查看的历史事件,按照事件文件存储路径选择“OBS桶名 > CloudTraces > 地区标示 > 时间标示:年 > 时间标示:月 > 时间标示:日 > 服务类型目录” ,文件将下载到浏览器默认下载路径,如需要将事件文件保存到自定义路径下,请单击右侧的“下载为”按键。 事件文件存储路径: OBS 桶名 >CloudTraces> 地区标示 > 时间标示:年 > 时间标示:月 > 时间标示:日 > 服务类型目录 例如:User Define>CloudTraces>region>2016>5>19>ECS 事件文件命名格式: 操作事件文件前缀 CloudTrace 区域标示 日志文件上传至 OBS 的时间标示:年 月 日 T 时 分 秒 Z 系统随机生成字符 .json.gz 例如: File Prefix CloudTraceregion20160530T162056Z21d36ced8c8af71e.json.gz 说明 OBS桶名和事件前缀为用户设置,其余参数均为系统自动生成。 关于云审计服务事件结构的关键字段详解,请参见“事件结构”和“事件样例”。 6.文件下载到本地后,通过解压可以得到与压缩包同名的json文件,下载解压后的json文件如图21所示,通过记事本等txt文档编辑软件即可查看到保存的追踪日志信息。 图下载解压后的json文件
        来自:
        帮助文档
        云审计
        快速入门
        查看已归档事件
      • 设置自动备份策略
        本章节介绍如何设置自动备份策略。 操作场景 创建关系型数据库实例时,系统默认开启自动备份策略,用户也可以关闭备份,但是对于生产环境,强烈推荐开启备份,因为恢复功能依赖备份的打开。实例创建成功后,您可根据业务需要设置自动备份策略。关系型数据库服务按照用户设置的自动备份策略对数据库进行备份。 关系型数据库服务的备份操作是实例级的,而不是数据库级的。当数据库故障或数据损坏时,可以通过备份恢复数据库,从而保证数据可靠性。备份以压缩包的形式存储在对象存储服务上,以保证用户数据的机密性和持久性。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 关系型数据库默认开启的自动备份策略设置如下: 保留天数:默认为7天。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段 ,例如01:00~02:00,12:00~13:00等。备份时间段以UTC时区保存。如果碰到夏令时/冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认为一周内的每一天。 开启或修改自动备份策略 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏,单击“备份恢复”,单击“修改备份策略”,如需开启自动备份策略,单击。保留天数是指自动备份可保留的时间,增加保留天数可提升数据可靠性,请根据需要设置。 减少保留天数的情况下,该备份策略对已有备份文件同时生效,即超出备份保留天数的已有备份文件会被删除。 保留天数为全量自动备份和Binlog备份的保留时长,范围为1~732天,备份时间段为间隔1小时,建议根据业务情况,选择业务低峰时段,备份周期默认全选,可修改,且至少选择一周中的1天。 步骤 6 单击“确定”,确认修改。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        备份与恢复
        设置自动备份策略
      • 统一到期日
        本文主要介绍了统一到期日的规则和操作流程。 统一到期日是指针对多个包周期产品或资源,支持设置资源到期日统一至每个月的同一天,方便统一管理。 前提条件 待设置统一到期日的包周期产品或资源需处于“未到期”状态。 注意事项 当前仅支持统一到期日设置为每个月的1日28日,不支持统一到期日设置为具体日期。 设置完成后,最终生效的统一到期日与当前计费周期的到期日之间的间隔不能少于1个月。实际续订时长续订周期+续订至统一到期日需要补齐的时长,具体费用请以页面展示为准。 示例: 包周期产品A当前到期时间为20240908 15:45:00,续订1个月,同时设置统一到期日为“10日”后的到期时间为20241010 15:45:00。 包周期产品B当前到期时间为20240912 13:54:47,续订1个月,同时设置统一到期日为“10日”后的到期时间为20241110 13:54:47(由于20241010 13:54:47 与 20240912 13:54:47的间隔少于1个月,所以续费到期日自动延长至下个月的10日)。 操作步骤 1. 进入费用中心订单管理续订管理页面,通过资源到期时间、产品名称等筛选或搜索,在“手动续订”或“自动续订”页签,找到并勾选需要设置统一到期日的产品或资源,并点击列表上方的“统一到期日”。 2. 进入“设置统一到期日”页面,默认展示统一到期日为“1日”,用户可通过点击设置统一到期日右侧的下拉列表进行修改。确认每个产品或资源的续订周期及批量续订的总金额后,点击“确定提交”,弹窗提示“设置统一到期日成功,相关信息将在资源确认后再更新,在此期间资源将被锁定。” 3. 点击弹窗“确认”,跳转支付页面,支付成功后,订单将续订至统一到期日。
        来自:
        帮助文档
        费用中心
        订单管理
        续订管理
        统一到期日
      • MySQL->RDS for MySQL
        本节主要介绍MySQL>RDS for MySQL 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 全量迁移 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。如果迁移不可避免业务高峰期,推荐使用迁移限速功能,即“流速模式”选择“限速”。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 由于MySQL固有特点限制,CPU资源紧张时,存储引擎为Tokudb的表,读取速度可能下降至10%。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 针对一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考 类型名称 操作限制 (需要人为配合) 注意事项 环境要求均不允许在迁移过程中修改,直至迁移结束。 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用表、视图引用视图、存储过程/函数/触发器引用视图/表、主外键关联表等。 不支持外键级联操作。 由于MySQL本身限制,若源库的一次性事件(EVENT)设定的触发时间在迁移开始前,该事件(EVENT)不会迁移到目标库。 多对一场景下,创建迁移任务时,目标库读写设置需要跟已有任务设置为一致。 增量迁移会过滤创建用户、删除用户及修改用户权限的DDL操作。 由于无主键表缺乏行的唯一性标志,网络不稳定时涉及少量重试,表数据存在少量不一致的可能性。 不支持目标数据库恢复到全量迁移时间段范围内的PITR操作。 若专属计算集群不支持4vCPU/8G或以上规格实例,则无法创建迁移任务。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 操作须知 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、索引、视图等,这样可能会引起任务迁移失败。 在结束迁移任务时,将进行所选事件(EVENT)和触发器(TRIGGER)的迁移。请确保任务结束前,不要断开源和目标数据库的网络连通性,并在结束任务时关注迁移日志上报的状态,达到数据库完整迁移效果。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移任务目标数据库可以设置“只读”和“读写”。 只读:目标数据库实例将转化为只读、不可写入的状态,迁移任务结束后恢复可读写状态,此选项可有效的确保数据迁移的完整性和成功率,推荐此选项。 读写:目标数据库可以读写,但需要避免操作或接入应用后会更改迁移中的数据(注意:无业务的程序常常也有微量的数据操作),进而形成数据冲突、任务故障、且无法修复续传,充分了解要点后可选择此选项。 增量迁移场景下,不支持源数据库进行恢复到某个备份点的操作(PITR)。 增量迁移过程中,若源库存在分布式事务,可能会导致迁移失败。 为了保持数据一致性,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 增量迁移阶段,支持断点续传功能,在主机系统崩溃的情况下,对于非事务性的无主键的表可能会出现重复插入数据的情况。 迁移过程中,不允许源库写入binlog格式为statement的数据。 迁移过程中,不允许源库执行清除binlog的操作。 选择表级对象迁移时,增量迁移过程中不支持对表进行重命名操作。 源库不支持阿里云RDS的只读副本。 如果源数据库为自建库,并且安装了Percona Server for MySQL 5.6.x或Percona Server for MySQL 5.7.x时,内存管理器必须使用Jemalloc库,以避免因系统表频繁查询带来的内存回收不及时,并最终导致数据库Out of Memory问题。 迁移过程中,不允许在源库创建库名为iblogfile的数据库。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        入云迁移使用须知
        MySQL->RDS for MySQL
      • 步骤一(2):创建出云迁移任务
        本节主要介绍步骤一(2):创建出云迁移任务 数据库复制服务提供出云的功能,可以将本云上的数据库迁移至用户端数据库,方便进行数据回流处理。 本章节将以RDS for MySQL到ECS自建MySQL的迁移为示例,介绍在同一VPC网络场景下,通过数据库复制服务管理控制台配置数据迁移任务的流程,其他存储引擎的配置流程类似。 VPC网络适合本云内数据库之间的迁移。在数据库复制服务中,数据库迁移是通过任务的形式完成的,通过创建任务向导,可以完成任务信息配置、任务创建。迁移任务创建成功后,您也可以通过数据库复制服务管理控制台,对任务进行管理。 目前数据库复制服务支持每个用户最多可创建5个实时迁移任务。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时迁移支持的数据库类型。 满足出云迁移的限制条件。 操作步骤 1、在“实时迁移管理”页面,单击“创建迁移任务”,进入创建迁移任务页面。 2、在“迁移实例”页面,填任务名称、任务异常通知设置、时延阈值、描述、迁移实例信息。 图 迁移任务信息 表 任务和描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当迁移任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量迁移阶段,源数据库和目标数据库之间的实时同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量迁移阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 迁移实例信息 表 迁移实例信息 参数 描述 数据流动方向 选择出云。 出云指源端数据库为本云数据库的场景。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 目前支持公网网络、VPC网络和VPN、专线网络类型,您可以根据具体的业务场景进行设置,此处场景以VPC网络为示例。 VPC网络:适合云上数据库之间的迁移。 VPN、专线网络:适合通过VPN、专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 公网网络:适合将其他云下或其他平台的数据库迁移到目标数据库。 源数据库实例 用户需要迁移的数据库实例。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 3、在“源库及目标库”页面,迁移实例创建成功后,填选源库信息和目标库信息,并单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 源数据库对应的数据库用户名。 数据库密码 源数据库对应的数据库密码。任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 源数据库的用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 VPC 目标数据库所在的虚拟专用网络,可以对不同业务进行网络隔离。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量迁移、增量迁移、增量迁移失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 所有Definer迁移到该用户下 是 迁移后,所有源数据库对象的Definer都会迁移至该用户下,其他用户需要授权后才具有数据库对象权限。 否 迁移后,将保持源数据库对象Definer定义不变,选择此选项,需要配合下一步用户权限迁移功能,将源数据库的用户全部迁移,这样才能保持源数据库的权限体系完全不变。 说明: 目标数据库的IP地址、端口、用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 4、在“迁移设置”页面,设置迁移用户和迁移对象等信息,单击“下一步”。 图 迁移模式 表 迁移模式 参数 描述 快照模式 如果您选择的是全量迁移模式的任务,数据库复制服务支持设置快照模式。 非快照式 适用于停止业务数据写入的导出,如果全量迁移中仍然有业务数据的修改,则导出数据为时间点非水平一致。稳定性和性能要优于快照式全量迁移。 快照式 可以在业务运行时产生一份时间水平一致的快照数据,具有业务数据分析价值,过程中的数据变化不会体现在导出数据中。 说明 快照读会使用MySQL备份锁进行全局锁表,在开启一致性读后自动解锁(加锁时间在3s以内),备份锁会对此期间的DML或者DDL操作造成阻塞,建议用户选择源库空闲的时间段使用快照备份功能。 目前仅MySQL全量模式的迁移任务支持快照模式设置。 是否过滤DROP DATABASE 增量迁移过程中,源数据库端执行的DDL操作在一定程度上会影响数据的迁移能力,为了降低迁移数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示数据迁移过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示数据迁移过程中将相关操作同步到目标库。 说明 目前仅支持RDS for MySQL实例>MySQL数据库数据库的全量+增量的迁移场景。 迁移用户 数据库的迁移过程中,迁移用户需要进行单独处理。 常见的迁移用户一般分为三类:可完整迁移的用户、需要降权的用户和不可迁移的用户。您可以根据业务需求选择“迁移”或者“不迁移”,选择“迁移”后,可根据需要选择迁移用户。 迁移 当您选择迁移用户时,请参见《数据库复制服务用户指南》中“迁移用户”章节进行数据库用户、权限及密码的处理。 不迁移 迁移过程中,将不进行用户、权限和密码的迁移。 迁移对象 您可以根据业务需求,选择全部对象迁移、表级迁移或者库级迁移。 全部迁移:将源数据库中的所有对象全部迁移至目标数据库,对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 表级迁移:将选择的表级对象迁移至目标数据库。 库级迁移:将选择的库级对象迁移至目标数据库。 如果有切换源数据库的操作或源库迁移对象变化的情况,请务必在选择迁移对象前单击右上角的按钮,以确保待选择的对象为最新源数据库对象。 说明 若选择部分数据库进行迁移时,由于存储过程、视图等对象可能与其他数据库的表存在依赖关系,若所依赖的表未迁移,则会导致迁移失败。建议您在迁移之前进行确认,或选择全部数据库进行迁移。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 5、在“预检查”页面,进行迁移任务预校验,校验是否可进行迁移。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行迁移任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 图 预检查 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均通过时,若存在待确认项,需要阅读并确认详情后才可以继续执行下一步操作 6、在“任务确认”页面,选择迁移任务的启动时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 说明 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,强烈建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 7、迁移任务提交后,您可在“实时迁移管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(2):创建出云迁移任务
      • 1
      • ...
      • 268
      • 269
      • 270
      • 271
      • 272
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      模型推理服务

      科研助手

      一站式智算服务平台

      推荐文档

      域名DNS配置

      密码找回

      Microsoft SQL Server

      加入会议

      启动即时会议

      扩容磁盘

      组长权限

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号