活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      全局事务服务 GTS_相关内容
      • 模型精调功能介绍
        3. 精调参数 在SFT中,不同的超参数选择会影响模型的精度以及性能,下面逐一对部分重要参数进行解释并给出一般性推荐。 epoch:模型训练轮数,通常选择2~5,可以根据eval集的loss曲线来判断:如果train集的loss曲线下降,eval集loss曲线上升,则说明模型已经过拟合,此刻考虑到基础模型的通用能力,应该停止训练;如果train集和eval集loss曲线均在缓慢下降,则说明模型还未收敛,可以继续进行训练。按经验来说,一般性的任务,全参微调训练3个epoch以内,LoRA微调应该取35个epoch。而生成类任务的epoch数可以略微设置大一点,如5~10范围内。 learning rate:学习率,设置较大时会加速模型迭代,但是模型可能无法收敛到最优点;设置过小时会使得模型迭代较慢,可能陷入局部最优。按照经验来讲, LORA微调选择 learning rate 在 1e4 ~ 3e4,全参微调选择learning rate在1e6~5e6即可。 global batch size:全局批处理大小,在大模型加速框架Megatron下,该值的增大不会导致显存溢出的问题,但由于梯度累积的存在,其值越大,模型训练性能会降低。一般来说,小模型使用的gbs值可以小一点,大模型的gbs值一般设置成64及以上,gbs的设置一般是2的次幂,比如2,4,8,16,32等。 seq lens:序列长度,其取值应该大于等于训练数据里面最长的那个,以防止数据被截断。一般来说,由于大模型普遍应用旋转位置编码,其已经具备了一定的外推性,8k的序列长度已经可以满足一些简单的、常规的问答任务。如果有特殊需求,比如长文本续写或者特长思维链推理,才会考虑放大序列长度到32k。而且增大序列长度所需的资源数会成倍增长,通常会开启序列并行或者激活值重计算的方式来支持模型的长序列微调能力,会严重影响训练性能。 另外,针对这些参数,有一些额外建议供用户参考: 微调时,learning rate是随着global batch size的增加而单调递增但有上界的。当优化器是Adam或者RMSProp时,learning rate是和global batch size的平方根成正比。但是增大global batch size到一定阈值后,learning rate反而应该减小。 当增大global batch size并相应增大learning rate时,为保证模型训练一定的步数,有时epoch也需要稍微增大一些。 LoRA微调时,最优的learning rate相比于全参微调时最优的learning rate,一般大1~2个数量级。
        来自:
      • 约束与限制
        限制项 说明 访问规则 OBS基于DNS解析性能和可靠性的考虑,要求凡是携带桶名的请求,在构造URL的时候都必须将桶名放在domain前面,形成三级域名形式,又称为虚拟主机访问域名。例如,如果您有一个位于gz1区域的名为testbucket的桶,期望访问桶中一个名为testobject对象的acl,正确的访问URL为 桶 在OBS中,桶名必须是全局唯一的且不能修改,即用户创建的桶不能与自己已创建的其他桶名称相同,也不能与其他用户创建的桶名称相同。 桶创建成功后,桶名、所属区域和数据冗余存储策略均不允许修改。 一个帐号及帐号下的所有IAM用户可创建的桶+并行文件系统的上限为100个。建议结合OBS细粒度权限控制能力,合理进行桶规划和使用。例如,建议在桶内根据对象前缀划分不同的目录,通过细粒度权限控制实现不同目录在不同业务部门之间的权限隔离。 默认情况下,OBS系统和单个桶都没有总数据容量和对象数量的限制。 删除桶之前必须确保桶内所有对象已彻底删除。 用户删除桶后,需要等待30分钟才能创建同名桶和并行文件系统。 上传对象 OBS管理控制台支持批量上传文件,单次最多支持100个文件同时上传,总大小不超过5GB。如果只上传1个文件,则这个文件最大为5GB。 OBS Browser+、obsutil、API和SDK上传的单个对象最大是48.8TB。 支持批量上传功能需要满足以下条件: OBS桶的版本号为“3.0”。 在未开启多版本控制功能的情况下,如果新上传的文件和桶内文件重名,则新上传的文件会自动覆盖老文件,且不会保留老文件的ACL等信息;如果新上传的文件夹和桶内文件夹重名,则上传后会将新老文件夹合并,合并过程如遇重名文件,会使用新上传的文件夹中的文件进行覆盖。 在开启了多版本控制功能的情况下,如果新上传的文件和桶内文件重名,则会在老文件上新增一个版本。 对象键(对象名)虽然可以使用任何UTF8字符,但是建议按照对象键命名指导原则进行命名,有助于最大程度符合DNS、Web安全字符、XML分析器和其他API的要求。 删除对象 桶没有开启多版本控制功能时,对象删除后不可恢复,请谨慎操作。
        来自:
        帮助文档
        对象存储 OBS
        产品简介
        约束与限制
      • 日志管理
        本页介绍天翼云TeleDB数据库的日志管理规则。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树单击日志管理 ,进入日志管理 页面。 2. 查询错误日志 说明 错误日志记录了实例中各节点在运行过程中产生的错误信息。 在当前实例下拉框选择您需查询的实例,选择错误日志 页签,设置查询开始时间和结束时间,选择查询条件,单击查询。 查询条件可选择节点名称、IP地址、数据库名称、用户和错误信息。 3. 慢SQL查询 说明 超过指定时间的SQL 语句查询称为慢查询 ,对应语句称为慢查询语句。可以在控制台的操作日志页面查看实例的慢日志明细。 在当前实例下拉框选择您所需要查询的实例,选择慢SQL查询 页签,设置开始时间和结束时间,在下拉款中选择查询条件 ,单击查询 按钮。 查询条件可选择节点名称、IP地址、SQL语句和数据库名称。 4. 查询高频SQL日志 在当前实例下拉框选择您所需要查询的实例,选择高频SQL 页签,可选择重复次数,设置开始时间和结束时间,在下拉款中选择查询条件 ,单击查询按钮。 查询条件可选择用户名、SQL语句和数据库名称。 5. 审计日志 1. 设置审计规则 1. 在当前实例下拉框选择您所需要查询的实例,选择审计日志页签,单击审计设置,出现审计设置对话框。 2. 在审计设置对话框中,选择是否开启审计、审计粒度,单击确定完成审计设置。 当审计粒度为全局级,您可对需要进行审计和告警的动作进行选择。 当审计粒度为对象级,您需设置对象审计规则同时使用。 2. 审计规则管理 1. 在当前实例下拉框选择您所需要查询的实例,选择审计日志页签,单击审计规则管理,进入审计规则管理页面。 2. 新增审计规则 1. 在审计规则管理页面,单击新增审计规则,出现新增审计规则对话框。 2. 在新增审计规则 对话框中,输入规则名称 、选择审计对象名称 、勾选审计操作类型 、输入审计对象和选择是否开启 ,是否触发告警 ,单击确定完成新增审计规则。 3. 编辑审计规则 单击已创建审计规则所在行的编辑,可修改审计规则。 4. 删除审计规则 单击已创建审计规则所在行的删除,可删除审计规则。 3. 查看审计日志 选择审计日志 页签,在当前实例下拉框选择您需要查询的实例,设置查询开始时间和结束时间,在下拉框选择查询条件 ,单击查询 。 查询条件可选择节点名称 、审计类型 、SQL语句 、数据库名称 和用户名。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        日志管理
      • 结构化数据
        打标结果纠错 在结果纠错操作中,您需要对系统发现的疑似存在潜在错误的字段分类分级结果做最终确认,。 初始结果列是字段的原打标结果,“规则”“框架”“模型”“恒脑”“聚类”等标签对应该结果的识别方式。纠错结果列,系统默认提供一个推荐纠错结果。纠错方式如下: 1.若初始结果正确、默认纠错结果错误:选中初始结果,单击“操作”列的“确认”; 2.若初始结果错误、默认纠错结果正确:选中纠错结果,单击“操作”列的“确认”; 3.若初始结果和当前纠错结果均错误:单击纠错结果旁的修改图标,在侧边弹窗中修改字段的分类、分级结果,并单击“确认”,退出后系统自动选中纠错结果,单击“操作”列的“确认”; 4.批量纠错:为字段A选中初始结果或纠错结果后,系统会自动将字段A加入待确认名单,用户可以单击左上方“批量确认”按钮,批量确认选择结果;初始结果和纠错结果列的表头提供复选框,可用于使未确认结果的字段,快速全选初始结果或纠错结果。 已确认的字段,其确认按钮显示“已确认”并置灰。已确认字段(如确认选择默认纠错结果)支持修改确认结果(如改为选择初始结果或编辑了新的纠错结果)并重新确认;修改后,若不确认,则以上一次确认的结果为准。 完成打标结果后,单击页面下方的“进入下一轮”重复上文中的操作直至出现“结束任务”按钮完成打标任务。 分类分级结果提交 在确认完分类分级结果后,选择需要提交的分类分级任务,单击“操作”列的“更多”,选择提交任务,或勾选分类分级任务并单击“批量提交”,即可将提交的任务结果自动同步到结果审核列表页面。 说明 批量提交选择的任务只能是“已梳理+审核进度未提交”或“已梳理+审核进度已发布,否则全局提示“选择的任务状态不能为未梳理或审核发布中”。在系统管理中未开启结果审核功能时,成功提交后直接进入待发布状态,后续通过结果发布实现进一步操作。 结果审核 基于数据打标提交的分类分级任务结果,管理员可以对分类分级任务结果进行审核。 1.使用安全管理员账号登录数据分类分级实例。 2.在左侧导航栏选择“分类分级任务 > 结构化数据”即可进入“结构化数据”页面。 3.在页面上方选择“结果审核”页签,进入结果审核页。 4.单击“操作”列的“结果审核”按钮,开始数据打标结果审核。 5.在“分类分级结果审核页”,您可以查看搜索区、字段列表、新增错误类型区、编辑区、任务信息概览五部分。 6.确认审核信息后,根据审核结果选择“审核不通过”或“审核通过”。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据分类分级操作指导
        分类分级任务
        结构化数据
      • 创建API分组
        本章主要介绍创建API分组。 创建API前,需要先创建API分组。API分组相当于API的集合,API提供者以API分组为单位,管理分组内的所有API。 目前支持以下创建分组方式: 直接创建 创建一个简单的分组,不包含API,用户可自行创建API。 导入API设计文件 从本地导入已有的API文件,同步创建分组。 说明 对外开放API时,您需要为API分组绑定自己的独立域名。 一个API只能属于某一个API分组。 API分组创建后,系统为分组自动分配一个内部测试用的调试域名,此调试域名每天最多可以访问1000次。 实例创建后,有一个DEFAULT分组,可直接通过虚拟私有云地址调用默认分组中的API。 前提条件 已创建API网关实例。 直接创建 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API分组”。 步骤 4 单击“创建API分组 > 直接创建”,在弹框中填写分组信息。 参数 说明 :: 分组名称 API分组名称,用于将API接口进行分组管理。 描述 对分组的介绍。 步骤 5 单击“确定”,创建完成。 导入API设计文件 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API分组”。 步骤 4 单击“创建API分组 > 导入API设计文件”。 步骤 5 在弹窗中选择本地路径下的API文件,然后单击“打开”导入文件。 步骤 6 填写导入信息。 参数名称 说明 :: 导入方式 导入方式包含以下2种: 生成新的分组:将API定义导入到一个新的分组,导入过程中系统会自动创建一个新的API分组,并将导入的API归属到该分组。 选择已有分组:将API定义导入到一个已有的分组,导入过程中不会删除分组中已有的API,只是将新增的API导入分组。 API分组 仅在选择“选择已有分组”时,需要选择API分组。 是否覆盖 勾选后,当导入的API名称与已有的API名称相同时,导入的API会覆盖已有的API。 仅在选择“选择已有分组”时,需要选择是否覆盖。 扩展覆盖 勾选后,当导入API扩展定义项名称(ACL,流控等)与已有的策略(ACL,流控等)名称相同时,会覆盖已有的策略(ACL,流控等)。 步骤 7 (可选)单击“全局配置(可选)”。 1. 选择安全配置。 2. 选择后端请求配置。 3. 单击“下一步”,支持通过“表单”、“JSON”、“YAML”样式查看配置详情。 4. 确认无误后,单击“提交”,完成配置。 步骤 8 单击“立即导入”,在弹窗中选择是否现在发布API到环境。 步骤 9 单击“确定”,跳转到“API运行”页面,可查看分组下的API。
        来自:
        帮助文档
        API网关
        用户指南
        API管理
        创建API分组
      • 将MySQL同步到MySQL
        本节主要介绍将MySQL同步到MySQL 支持的源和目标数据库 表 支持的数据库 源数据库 目标数据库 :: RDS for MySQL 本地自建MySQL数据库 ECS自建MySQL数据库 其他云上MySQL数据库 RDS for MySQL 前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见实时同步。 使用建议 注意 DRS任务启动和全量数据同步阶段,请不要在源数据库执行DDL操作,否则可能导致任务异常。 为保证同步前后数据一致性,确保同步期间目标数据库无业务写入。 数据库同步与环境多样性和人为操作均有密切关系,为了确保同步的平顺,建议您在进行正式的数据库同步之前进行一次演练,可以帮助您提前发现问题并解决问题。 基于以下原因,建议您在启动任务时选择“稍后启动”功能,将启动时间设置在业务低峰期,相对静止的数据可以有效提升一次性同步成功率,避免同步对业务造成性能影响。如果同步不可避免业务高峰期,推荐使用同步限速功能,即“流速模式”选择“限速”。 在网络无瓶颈的情况下,全量同步会对源数据库增加约50MB/s的查询压力,以及占用2~4个CPU。 同步无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在同步的数据被其他事务长时间锁死,可能导致读数据超时。 由于MySQL固有特点限制,CPU资源紧张时,存储引擎为Tokudb的表,读取速度可能下降至10%。 DRS并发读取数据库,会占用大约610个session连接数,需要考虑该连接数对业务的影响。 全量阶段读取表数据时,特别是大表的读取,可能会阻塞业务上对大表的独占锁操作。 数据对比 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 如果涉及表级汇集的多对一同步任务,则不支持DDL,否则会导致同步全部失败。 使用须知 在创建同步任务前,请务必阅读以下使用须知。 表 使用须知 类型名称 使用和操作限制 :: 数据库权限设置 源数据库账号需要具备如下权限: SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 提供的目标数据库账号必须拥有如下权限: SELECT、CREATE、INDEX、DROP、DELETE、INSERT、UPDATE、ALTER、CREATE VIEW、CREATE ROUTINE、REFERENCES。当目标库为8.0.148.0.18版本时,还需要有SESSIONVARIABLESADMIN权限。 同步对象约束 支持表、主键索引、唯一索引、普通索引、存储过程、视图、函数的同步,不支持事件、触发器的同步。 库映射时源库中不允许存在存储过程、视图、函数对象。 映射的库中不允许存在除表外的对象且在同步过程中不允许创建这些对象,否则会导致同步任务失败。 不支持非MyISAM和非InnoDB表的同步。 已选择的表与未选择的表之间互相rename的DDL操作,在任务同步中会被过滤掉,可能会导致任务失败或数据不一致。 − 对于一个DDL中存在一个rename的情况(例如:rename A TO B),只支持rename前后库表都在已选择库表中的rename操作(A和B都在已选择库表中),其他情况的rename DDL会被过滤; − 对于一个DDL中存在多个rename的情况(例如:rename A TO B, B TO C),只支持rename前后库表都在已选择库表中的部分rename操作 ,其他情况的rename DDL会被过滤(A和B在已选择库表中,C不在,仅执行rename A TO B)。 − 不建议在多对一同步场景下的进行rename操作,可能会导致任务失败或数据不一致。 源数据库要求 源数据库中的库名不能包含:' /"以及非ASCII字符。 源数据库中的表名、视图名不能包含:'<>/"以及非ASCII字符。 源数据库中的库名和库映射的名称不允许为iblogfile。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 目标数据库要求 不支持从高版本同步到低版本。 目标数据库必须有足够的磁盘空间。 目标数据库的字符集必须与源数据库一致。 目标数据库的时区设置必须与源数据库一致。 除了MySQL系统数据库之外,当目标库和源库同名时,目标数据库中若存在与源库同名的表,则表结构必须与源库保持一致。 DRS同步时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置为大于100MB。 同步的对象中包含引擎为MyISAM的表,则目标数据库sqlmode不能包含noenginesubstitution参数,否则可能会导致同步失败。 映射到目标库中的库名不能包含:“.”、 “ ”、“”、和“'”。 操作须知 相互关联的数据对象要确保同时同步,避免因关联对象缺失,导致同步失败。常见的关联关系:视图引用表、视图引用视图、存储过程/函数/触发器引用视图/表、主外键关联表等。 当前仅MySQL>MySQL的同步支持多对一任务同步,进行表级多对一同步时,源库不允许存在无主键表。 源库和目标库是相同的RDS实例时,不支持没有库映射的实时同步。 源库不允许存在与目标库同名的无主键表。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 如果目标库MySQL不支持TLS1.2协议,或者为版本较低的自建库(低于5.6.46或在5.75.7.28之间),需提交运维申请才能使用SSL测试连接。 支持断点续传功能,但是对于无主键的表可能会出现重复插入数据的情况。 支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 不支持源数据库恢复到之前时间点的操作(PITR)。 不支持目标数据库恢复到全量同步时间段范围内的PITR操作。 不支持外键级联操作。 不支持强制清理binlog,否则会导致同步任务失败。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。 创建同步任务时,不允许将目标库设为只读。 实时同步过程中,如果修改了源库或者目标库的用户名、密码,会导致同步任务失败,需要在数据复制服务控制台将上述信息重新修改正确,然后重试任务可继续进行实时同步。一般情况下不建议在同步过程中修改上述信息。 实时同步过程中,如果修改了源库或者目标库端口,会导致同步任务失败。针对该情况,数据复制服务提供不同的处理机制。 − 对于源库端口,需要在数据复制服务控制台修改为正确的端口,然后重试任务可继续进行实时同步。 − 对于目标库端口,系统自动更新为正确的端口,需要重试任务即可进行同步。 一般情况下不建议在同步过程中修改端口。 为了保持数据一致性,不允许对正在同步中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 当在全量同步过程中,对MyISAM表执行修改操作时,可能造成数据不一致。 增量同步支持表的重命名,源表和目标表必须都在对象选择里。 增量同步支持任务再编辑追加同步对象。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        出云
        将MySQL同步到MySQL
      • 网站防护配置概述
        本文将为您简要介绍边缘安全加速平台安全与加速服务目前支持的安全防护能力。 接入防护前提条件 已经订购边缘安全加速平台安全与加速服务,若未订购,请参见服务开通。 在控制台新增域名,请参见添加服务域名。 防护能力概览 下表将为您描述目前边缘安全加速平台安全与加速服务具备的防护能力以及应用场景 模块 防护能力 说明 应用场景 DDoS防护 DDoS防护 DDoS防护可有效防御畸形报文攻击、SYN Flood、ACK Flood、UDP Flood、ICMP Flood等网络层攻击以及SSL、DNS等应用层攻击 自动防御大流量网络层攻击 Web防护 []( 目前已维护6套防护规则集,基于正则的规则防护引擎进行 Web 漏洞和未知威胁防护,能够抵御SQL 注入、XSS 攻击、恶意扫描、命令注入攻击、Web 应用漏洞、WebShell 上传、不合规协议、木马后门等17类通用的 Web 攻击 建议基于自身业务防护需求选择对应的防护规则集 Web防护 []( 位于高级防护模块下,能够保护网站核心静态页面,避免因为源站页面被恶意篡改带来的负面影响 希望网站防止被恶意篡改页面内容时配置 Web防护 []( 位于高级防护模块下,支持对网站返回的内容进行脱敏展示,过滤内容包括敏感信息(如身份证、手机号、银行卡、邮箱等) 希望网站避免泄露身份证、手机号等敏感信息时配置 Web防护 []( 支持检查HTTP协议头部,对HTTP请求信息中的方法以及参数长度等信息进行检测,对不符合的请求项进行拦截或告警 针对不在HTTP请求合规、上传内容合规、配置符合网站处理规范内的请求进行相应处理 Web防护 []( 采用Cookie加密、Cookie签名等方式对Cookie字段的字进行加密或签名,防护一些使用Cookie中的弱key进行权限绕过的漏洞利用,也能在一定程度上限制基于Cookie修改的爬虫 可以防护Cookie盗用、Cookie篡改、Cookie信息泄露等攻击事件。需要客户端支持携带Cookie,通常小程序、APP、API可能不支持 Web防护 []( 支持自动阻断短时间内发起多次Web攻击的IP,快速应对恶意扫描及代理、Web 攻击威胁等行为,可提升攻防对抗效率 攻防演练、恶意扫描及代理、Web攻击行为等 Web防护 []( 支持防护跨站请求伪造(英语:Crosssite request forgery,简称CSRF)攻击 针对发起CSRF攻击进行防护 Web防护 []( 支持解析源站响应页面代码,在body中插入广告检测js代码,实现广告防护和监测功能 针对网站出现的恶意广告(网站中出现未被网站所有者允许的广告内容)进行防护 Web防护 设置账户安全防护 从撞库、暴力破解两个攻击角度进行防护,保障用户的账户安全 针对账户安全的场景进行防护 Bot防护 设置高频爬虫限制 防止攻击者盗用合法Cookie进行大量请求,限制不同粒度的访问速率 当出现搜索引擎爬取粒度过大导致服务宕机时,可以通过此功能限制爬虫频率 Bot防护 设置爬虫陷阱 在页面里面嵌入不可见链接,当爬虫触碰链接时进行防护 防护网页爬虫 Bot防护 设置人机识别策略 通过cookie挑战、跳转挑战、人机挑战等防爬策略,精准命中爬虫流量,拦截各类恶意爬虫 针对支持携带cookie的客户端请求,小程序、APP、API可能不支持; 对于无法正常执行跳转的请求,可以设置跳转挑战 Bot防护 []( 支持针对搜索引擎IP放行、针对恶意Bot请求IP封禁,目前爬虫情报库已维护接近10万条数据 对已知搜索引擎IP放行处理,不经过Bot防护策略,提升网站SEO权重; 对已知恶意Bot请求IP拦截处理 Bot防护 []( 支持针对已维护的IP信誉库,从威胁类型维度(IDC服务器、傀儡机、漏洞利用等十几类)进行IP封禁,目前IP信誉库已维护接近120万条数据 对已知IDC IP进行封禁处理;拦截傀儡机、漏洞利用等已知恶意IP 访问控制/限流 []( 支持根据请求的URL,频率、行为等访问特征,迅速识别CC攻击并进行拦截 防护大规模CC攻击,避免源站资源耗尽,保证企业网站的正常访问 访问控制/限流 []( 支持针对指定IP以及指定地域IP进行封禁处理 封禁来自国外访问的IP 访问控制/限流 []( 支持识别常见的扫描器类型,也支持自定义扫描器识别规则,做到精准拦截 拦截常见的扫描器类型,避免网站受到外部扫描 访问控制/限流 设置频率控制 支持控制请求的访问频率 设置客户端IP访问域名首页的次数限制 防护白名单 []( 支持在访问控制中,针对特定请求设置为白名单,则不经过全局防护策略的检测 对于可信任流量可以设置为白名单,将不经过任务防护策略 防护白名单 []( 支持针对防护规则集中的具体规则设置白名单,则指定请求不经过该规则的检测 某条域名规则出现误拦截时,可以将误拦截的请求设置为白名单 防护白名单 设置Bot策略白名单 支持针对Bot防护策略设置白名单,则指定请求将不经过Bot防护策略的检测 明确不需要经过Bot防护策略的请求,可以在Bot功能模块中设置为白名单 API安全 API自发现 API自发现功能能够帮助用户从访问日志中自动发现API接口的请求,并生成API资产,无需用户手动新增 梳理站点API资产 API安全 业务监测 API业务监测功能帮助用户实时查看API的业务运行数据包括QPS趋势图、源站状态码响应趋势图、天翼云节点状态码响应趋势图、响应时长趋势图、QPS峰值排行、响应时长排行,同时帮助用户发现和分析业务异常。 协助用户识别API业务是否运行正常 网站风险监测 漏洞扫描 支持远程扫描Web漏洞和按照国际权威安全机构WASC分类的25种Web应用漏洞,全面覆盖OWASP Top 10 Web应用风险 协助用户识别站点漏洞情况
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        安全
        网站防护配置概述
      • 基本使用类
        自增字段值跳变的原因 本节介绍了自增字段相关问题与处理方法。 数据表中的自增字段取值不是连续的,自增值跳变。 出现表中的自增字段取值不连续的情况,可能原因有以下几种: 初值与步长问题,步长不为1会导致自增字段取值不连续。 进入原库 use ta; 列出原库的所有表名 Show tables; 查看原库的创建语句 Show create database ta; 使用原库的创建语句创建新库(只改库名,其他参数照抄,这样能尽量保证新库与原库的各类参数相同) create database tb; 将原库所有表移动至新库 rename table da.ta to db.ta; rename table da.tb to db.tb; rename table da.tc to db.tc; … 删除原库 Drop database ta; 直接修改表的AUTOINCREMENT,会导致自增字段取值跳变。 进入原库 use ta; 列出原库的所有表名 Show tables; 查看原库的创建语句 Show create database ta; 使用原库的创建语句创建新库(只改库名,其他参数照抄,这样能尽量保证新库与原库的各类参数相同) create database tb; 将原库所有表移动至新库 rename table da.ta to db.ta; rename table da.tb to db.tb; rename table da.tc to db.tc; … 删除原库 Drop database ta; 插入数据时直接指定自增字段的取值,会导致自增字段取值跳变。 mysql> select from animals; ++ id name ++ 1 dog 2 cat 3 penguin ++ mysql> INSERT INTO animals (id,name) VALUES(100,'rabbit'); Query OK, 1 row affected (0.00 sec) mysql> select from animals; ++ id name ++ 1 dog 2 cat 3 penguin 100 rabbit ++ 9 rows in set (0.00 sec) 未提交的事务或回滚的事务,会导致AUTOINCREMENT增长,但回滚后不会下降。后续如果再次插入数据就会导致数据中的自增字段发生跳变。 mysql> show create table autotest1; ++ Table Create Table ++ autotest1 CREATE TABLE autotest1 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT4 DEFAULT CHARSETutf8 ++ 1 row in set (0.00 sec) mysql> select from autotest1; + id + 1 2 3 + mysql> begin; Query OK, 0 rows affected (0.02 sec) mysql> insert into autotest1 values (0),(0),(0); Query OK, 3 rows affected (0.00 sec) Records: 3 Duplicates: 0 Warnings: 0 mysql> select from autotest1; + id + 1 2 3 4 5 6 + 6 rows in set (0.00 sec) mysql> show create table autotest1; ++ Table Create Table ++ autotest1 CREATE TABLE autotest1 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT7 DEFAULT CHARSETutf8 ++ 1 row in set (0.00 sec) mysql> rollback; Query OK, 0 rows affected (0.05 sec) mysql> select from autotest1; + id + 1 2 3 + 3 rows in set (0.00 sec) mysql> show create table autotest1; ++ Table Create Table ++ autotest1 CREATE TABLE autotest1 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT7 DEFAULT CHARSETutf8 ++ mysql> insert into autotest1 values (0),(0),(0); Query OK, 3 rows affected (0.01 sec) Records: 3 Duplicates: 0 Warnings: 0 mysql> select from autotest1; + id + 1 2 3 7 8 9 + 6 rows in set (0.00 sec) mysql> show create table autotest1; ++ Table Create Table ++ autotest1 CREATE TABLE autotest1 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT10 DEFAULT CHARSETutf8 ++ 数据插入后,AUTOINCREMENT变化,然后删除对应的数据行,AUTOINCREMENT不会下降,后续如果再次插入数据就会导致数据中的自增字段发生跳变。 mysql> show create table autotest1; ++ Table Create Table ++ autotest1 CREATE TABLE autotest1 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT4 DEFAULT CHARSETutf8 ++ 1 row in set (0.00 sec) mysql> select from autotest1; + id + 1 2 3 + mysql> insert into autotest1 values (0),(0),(0); Query OK, 3 rows affected (0.00 sec) Records: 3 Duplicates: 0 Warnings: 0 mysql> select from autotest1; + id + 1 2 3 4 5 6 + 6 rows in set (0.00 sec) mysql> show create table autotest1; ++ Table Create Table ++ autotest1 CREATE TABLE autotest1 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT7 DEFAULT CHARSETutf8 ++ 1 row in set (0.00 sec) mysql> delete from autotest1 where id>3; mysql> select from autotest1; + id + 1 2 3 + 3 rows in set (0.00 sec) mysql> show create table autotest1; ++ Table Create Table ++ autotest1 CREATE TABLE autotest1 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT7 DEFAULT CHARSETutf8 ++ mysql> insert into autotest1 values (0),(0),(0); Query OK, 3 rows affected (0.01 sec) Records: 3 Duplicates: 0 Warnings: 0 mysql> select from autotest1; + id + 1 2 3 7 8 9 + 6 rows in set (0.00 sec) mysql> show create table autotest1; ++ Table Create Table ++ autotest1 CREATE TABLE autotest1 ( id int NOT NULL AUTOINCREMENT, PRIMARY KEY (id) ) ENGINEInnoDB AUTOINCREMENT10 DEFAULT CHARSETutf8 ++ 因为一些原因(比如唯一键冲突),使得插入数据最终未成功的,有可能导致AUTOINCREMENT跳变。 mysql> create table autotest7(id int NOT NULL AUTOINCREMENT, credid int UNIQUE, PRIMARY KEY (id)); Query OK, 0 rows affected (0.64 sec) mysql> insert into autotest7 values(null, 1); Query OK, 1 row affected (0.03 sec) mysql> show create table autotest7; ++ Table Create Table ++ autotest7 CREATE TABLE autotest7 ( id int NOT NULL AUTOINCREMENT, credid int DEFAULT NULL, PRIMARY KEY (id), UNIQUE KEY credid (credid)) ENGINEInnoDB AUTOINCREMENT2 DEFAULT CHARSETutf8 ++ 1 row in set (0.00 sec) mysql> insert into autotest7 values(null, 1); ERROR 1062 (23000): Duplicate entry '1' for key 'autotest7.credid' mysql> show create table autotest7; ++ Table Create Table ++ autotest7 CREATE TABLE autotest7 ( id int NOT NULL AUTOINCREMENT, credid int DEFAULT NULL, PRIMARY KEY (id), UNIQUE KEY credid (credid)) ENGINEInnoDB AUTOINCREMENT3 DEFAULT CHARSETutf8 ++ 批量插入数据时(如insert...select、load file等),自增键的申请是分批申请的,每批申请2的n次方个序号,用完继续申请,没用完也不会退回,所以可能会导致AUTOINCREMENT跳变。 mysql> create table autotest7(id int NOT NULL AUTOINCREMENT, credid int UNIQUE, PRIMARY KEY (id)); Query OK, 0 rows affected (0.64 sec) mysql> insert into autotest7 values(null, 1); Query OK, 1 row affected (0.03 sec) mysql> show create table autotest7; ++ Table Create Table ++ autotest7 CREATE TABLE autotest7 ( id int NOT NULL AUTOINCREMENT, credid int DEFAULT NULL, PRIMARY KEY (id), UNIQUE KEY credid (credid)) ENGINEInnoDB AUTOINCREMENT2 DEFAULT CHARSETutf8 ++ 1 row in set (0.00 sec) mysql> insert into autotest7 values(null, 1); ERROR 1062 (23000): Duplicate entry '1' for key 'autotest7.credid' mysql> show create table autotest7; ++ Table Create Table ++ autotest7 CREATE TABLE autotest7 ( id int NOT NULL AUTOINCREMENT, credid int DEFAULT NULL, PRIMARY KEY (id), UNIQUE KEY credid (credid)) ENGINEInnoDB AUTOINCREMENT3 DEFAULT CHARSETutf8 ++
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        基本使用类
      • 管控模式
        本文介绍了管控模式,在DMS中提供两种实例级别的管控模式,针对不同的DMS版本,管控模式分为弱管控模式和强管控模式,分别对应DMS基础版和DMS企业版,由管理员对DMS切换版本来指定相应的实例管控模式。 管控模式介绍 管控模式 模式说明 DMS版本 登录方式 弱管控模式 弱管控模式的实例,不支持账密托管,需要使用数据库账密登录后才可进行数据库操作。 基础版 用户使用数据库账号和密码登录数据库,长时间未操作数据库登录会过期。 弱管控模式 弱管控模式不支持实例、库、表级的数据权限控制。 基础版 用户使用数据库账号和密码登录数据库,长时间未操作数据库登录会过期。 弱管控模式 弱管控模式不支持风险管控。 基础版 用户使用数据库账号和密码登录数据库,长时间未操作数据库登录会过期。 弱管控模式 弱管控模式不支持SQL变更工单。 基础版 用户使用数据库账号和密码登录数据库,长时间未操作数据库登录会过期。 弱管控模式 弱管控模式不支持操作审批。 基础版 用户使用数据库账号和密码登录数据库,长时间未操作数据库登录会过期。 强管控模式 强管控模式的实例,支持账密托管,管理员需先对实例录入托管账密,且需要选择管控的规则集。 说明 为了方便数据库的全局权限管控,建议托管较高权限的数据库账号 企业版 免登录 ,用户不接触数据库账密,统一使用管理员录入的数据库账密访问数据库。 注意 在使用账密托管前,管理员需先为数据库录入托管账密。 强管控模式 强管控实例支持数据库权限控制,需要拥有实例/库/表的权限才可以访问数据库,不需要登录数据库。 企业版 免登录 ,用户不接触数据库账密,统一使用管理员录入的数据库账密访问数据库。 注意 在使用账密托管前,管理员需先为数据库录入托管账密。 强管控模式 强管控模式支持风险管控。 企业版 免登录 ,用户不接触数据库账密,统一使用管理员录入的数据库账密访问数据库。 注意 在使用账密托管前,管理员需先为数据库录入托管账密。 强管控模式 强管控模式支持SQL变更工单,用户除了在查询窗口执行SQL语句外,也可提交SQL变更工单,审批后定时执行。 企业版 免登录 ,用户不接触数据库账密,统一使用管理员录入的数据库账密访问数据库。 注意 在使用账密托管前,管理员需先为数据库录入托管账密。 强管控模式 强管控模式支持SQL变更、导入导出等功能的审批功能。 企业版 免登录 ,用户不接触数据库账密,统一使用管理员录入的数据库账密访问数据库。 注意 在使用账密托管前,管理员需先为数据库录入托管账密。
        来自:
        帮助文档
        数据管理服务
        产品介绍
        管控模式
      • 主要概念
        日志采集 日志采集是指用户主动采集HBlock日志数据,生成日志文件后下载到本地查看日志详细内容,以便排查故障。可以通过指定时间段、日志类型和服务器,缩小日志采集范围加快采集进度。 告警 告警指系统检测到HBlock业务或系统异常时产生的信息。 告警分为三个级别: 警告(Warning):指一般性的,系统检测到潜在的或即将发生的影响业务的故障,当前还没有影响业务的告警。维护人员需及时查找告警原因,消除故障隐患。 重要(Major):指局部范围内的、对系统性能造成影响的告警。需要尽快处理,否则会影响重要功能运行。 严重(Critical):指带有全局性的、已经造成业务中断,或者会导致瘫痪的告警。需立即处理,否则系统有崩溃危险。 告警列表详见告警列表。
        来自:
        帮助文档
        存储资源盘活系统
        产品简介
        主要概念
      • 创建实例
        本文为您介绍分布式消息服务MQTT的快速入门创建实例。 实例介绍 MQTT实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占MQTT实例,可根据业务需要可定制相应规格的MQTT实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1、在产品详情页点击立即开通按钮,或者进入消息管理控制台创建实例,进入订购分布式消息MQTT页面。 2、 创建实例,注意选择产品规格。 (1)填写实例名称,长度4~40个字符,大小写字母开头,只能包含大小写字母、数字及分隔符()。 (2)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 (3)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 (4)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 (5)设置节点数,可选择3/5/7/9。MQTT 的节点数是指MQTT 集群中的节点数量。在MQTT 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的MQTT 服务器实例。 (6)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 (7)选择实例规格,分布式消息服务MQTT提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 (8)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/普通IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 (9)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (10)选择已有子网,若无子网,点击创建跳转到子网页面新增,了解更多内容参见虚拟私有云子网管理 创建子网。 (11)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增,了解更多内容参见虚拟私有云安全组 创建安全组。 3、 填写完上述信息后,单击“下一步”,进入费用确认页面。 4、 确认实例信息无误后,提交请求。 5、 在实例列表页面,查看MQTT实例是否创建成功。创建实例大约需要3到15分钟,此时实例状态为“创建中”。
        来自:
        帮助文档
        分布式消息服务MQTT
        快速入门
        创建实例
      • 通过界面安装和卸载插件
        本节介绍了通过界面安装和卸载插件的相关内容。 操作场景 RDS支持用户在界面自主安装与卸载插件。 RDS for PostgreSQL插件是数据库级生效,并不是全局生效。因此创建插件时需要在对应的业务库上进行手动创建。 前提条件 安装和卸载插件前,请确保实例下已有数据库。 注意事项 plpgsql为内置插件,不允许卸载。 decoderbufs(仅在PostgreSQL 11至PostgreSQL 14版本支持),wal2json(PostgreSQL 11及以上版本支持)等逻辑复制插件可以直接使用,不需要安装。 部分插件依赖“sharedpreloadlibraries”参数,只有在加载相关库之后,才能安装成功。 pgcron插件当前仅支持PostgreSQL 12(12.11.0及其以上版本)、PostgreSQL 13及以上版本。使用时需要先修改参数“cron.databasename”为需要使用的数据库(仅支持单个数据库),同时修改“cron.usebackgroundworkers”为“on”。 pltcl插件在PostgreSQL 13.2版本实例暂不支持使用,如需使用该插件,请先升级到最新小版本。 部分插件安装或卸载时,会同步安装或卸载其依赖插件,以及相关依赖表。例如:创建插件postgissfcgal时,需要先创建postgis插件,这时会同步创建postgissfcgal插件;同时,卸载postgis插件时,会同步卸载postgissfcgal插件。 部分插件在小版本升级后不支持直接升级,如需升级请卸载后重新安装。 修改sharedpreloadlibraries参数 部分插件在安装前,须先加载对应的参数值,否则无法安装。 支持通过修改sharedpreloadlibraries参数来批量加载参数值,或在安装插件前单独加载对应参数值。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在实例列表,单击实例名称,进入实例的基本信息页面。 步骤 5 在左侧导航栏,选择“插件管理”。 步骤 6 在“插件管理”页面,单击“已加载sharedpreloadlibraries参数值”后的 ,查看已加载参数。 步骤 7 单击“管理参数值”。 步骤 8 在下拉框中选择要加载的参数,单击“确认”。 步骤 9 在弹出框中,单击“确定”,修改sharedpreloadlibraries参数值。 说明 sharedpreloadlibraries参数值修改后,需要重启实例才能生效。如果包含只读实例,修改主实例参数后,会同步修改只读实例的参数,需要同时重启只读实例。 为了保证PostgreSQL的安全及运维功能的完善,sharedpreloadlibraries参数中,如下参数默认加载,不允许删除: passwordcheck.so pgstatstatements pgsqlhistory pgaudit 步骤 10 您也可以在安装插件前单独加载对应参数值。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        管理插件
        通过界面安装和卸载插件
      • 下载Binlog备份文件
        本节介绍了下载Binlog备份文件的操作场景、操作步骤等相关内容。 操作场景 RDS for MySQL支持用户下载Binlog备份,用于本地存储备份。您可以下载Binlog备份文件,也可以合并下载Binlog备份文件。 说明 Binlog备份文件列表显示的完成时间为最后一个事务提交时间。 管理控制台Binlog备份文件的命名格式为:Binlog名称+时间戳;备份文件格式为row。 处于冻结状态的实例不允许下载Binlog备份文件。 下载Binlog备份文件 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击目标实例名称,进入“基本信息”页面。 步骤 5 在左侧导航栏,单击“备份恢复”,在“Binlog备份”页签下,单击操作列中的“下载”。 您也可以勾选需要下载的Binlog备份,单击左上角“下载”。 步骤 6 下载任务执行完成后,您可在本地查看到Binlog备份文件。 结束 合并下载Binlog备份文件 注意 所选时间段内Binlog总量大于500MB不支持合并。 单机实例进行合并binlog操作时,合并期间主机CPU占用会上升,使用时请考虑对实例性能影响。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,单击目标实例名称,进入基本信息”页面。 步骤 5 在左侧导航栏,单击“备份恢复”,在“Binlog合并下载”页签下,选择要合并的Binlog的时间段,单击“合并”,合并任务下发成功。 说明 单次合并下载的时间段最长为24小时。 可选的时间范围和自动备份策略的“保留天数”一致,有关自动备份策略保留天数,请参见设置同区域备份策略。 步骤 6 在“Binlog合并下载”页面,可查看该合并文件状态为“合并中”,当状态显示为“合并成功”,单击操作列中的“下载”。 步骤 7 在弹出框中选择下载方式。 说明 为避免产生额外存储空间费用,下载完成后,请手动删除合并文件。您可以在“合并下载”页面,单击操作列中的“删除”,删除合并文件。 如果没有手动删除合并文件,系统会保留30天后自动删除合并文件。 在弹出框中,单击“OBS Browser+下载”,单击“确定”,通过OBS Browser+客户端下载RDS合并文件。 a. 单击下载指导页面步骤1的“OBS Browser+”,下载客户端工具OBS Browser+。 b. 解压并安装OBS Browser+。 c. 使用下载指导页面步骤2的用户名,登录客户端工具OBS Browser+。 d. 使用下载指导页面步骤2的桶名,挂载外部桶。 在OBS Browser+“外部桶”页面,输入下载指导页面步骤2的桶名称,单击“挂载”,挂载该桶。 e. 下载合并文件。 在OBS Browser+界面,单击添加成功的外部桶桶名,进入对象列表页面,在右侧搜索栏,输入“备份文件名称”并检索,单击“下载”。 在弹出框中,选择“直接下载”,单击“确定”,通过浏览器直接下载数据库实例的合并文件。 在弹出框中,选择“按地址下载”,单击 复制地址,通过下载地址下载合并文件。 对于RDS for MySQL,显示当前合并文件在链接有效期内的下载地址。 − 您可以使用其他下载工具下载合并文件。 − 您还可以使用wget命令下载合并文件: wget O FILENAME nocheckcertificate "DOWNLOADURL" 命令中的参数解释如下: FILENAME:下载成功后的合并文件名称,由于原始文件名称较长,可能会超出客户端文件系统的限制,建议下载合并文件时使用“O”进行重命名。 DOWNLOADURL:需下载的合并文件所在路径,如果包含特殊字符则需要转义。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据备份
        管理备份
        下载Binlog备份文件
      • 产品应用场景
        本页介绍天翼云TeleDB数据库的典型应用场景。 企业信息化自主可靠解决方案 随着信息技术融合创新的发展,更多企事业希望替换为更高性价比的国产数据库,TeleDB 兼容国内、外主流 CPU 和主流操作系统,提供多种部署形态,易于集成,对接超过 150 家国内主流应用开发厂商,满足多数企业信息化需求场景,无需改造平滑迁移至 TeleDB。 核心交易系统OLTP 解决方案 轻松解决传统单体数据库遇到的性能、容量瓶颈,业务无需选择手工分库、扩容,无需花费大量资源购买高端硬件即可支撑企事业的核心交易系统。TeleDB 在中国电信计费、账务和 CRM 等 10 亿级别用户规模下深度打磨,具备高性能的分布式事务处理,完全满足运营商级高并发的数据写入和实时数据访问需求,它还提供两地三中心容灾部署方案,RPO0,RTO < 30 秒,可满足最高级(6 级)的信息系统容灾要求。 政务系统复杂数据处理解决方案 政务系统不仅仅需要处理来自于互联网、办事大厅等场景数据录入,还需要进行频繁的业务分析运算,TeleDB 提供混合负载运算特性(HTAP),支持 OLAP 和 OLTP 一套业务系统数据库中同时进行,产品还提供可视化数据管理服务(DMS),提供数据加密、脱敏等安全特性,全面满足政务系统混合运算的要求。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品应用场景
      • 测试工具
        本章介绍本次性能测试所采用的工具。 HammerDB是一款开源的图形化据库负载测试和基准测试工具,可以测试任意操作系统上运行的多种数据库系统,目前有Windows和Linux版本。HammerDB支持自动化、多线程和可扩展的动态脚本。您可以使用HammerDB创建一个测试schema,加载数据,并针对OLTP(online transaction processing ,联机事务处理)和OLAP(online analytical processing,在线分析处理)场景模拟多个虚拟用户对数据库的工作负载。 本文使用的HammerDB版本为2.19。 安装后的界面如下。
        来自:
        帮助文档
        关系数据库SQL Server版
        性能白皮书(SQL Server)
        测试工具
      • 将Oracle迁移到TeleDB
        DTS CONTAINERALL; GRANT EXECUTE ON DBMSLOGMNRD TO C DTS CONTAINERALL; oracle 12c关闭CDB模式 如果仅作测试用可直接赋予最高权限,用SYS用户登录Oracle,如下创建DTS迁移用户: CREATE USER DTS IDENTIFIED BY " " DEFAULT TABLESPACE USERS QUOTA UNLIMITED ON USERS; GRANT DBA TO DTS; GRANT SELECT ON SYS.OBJ$ TO DTS; GRANT SELECT ON SYS.COL$ TO DTS; 如果需要授予数据迁移用户的精准权限,用SYS用户登录Oracle,如下创建DTS迁移用户: 要求该用户必须是CDB下的用户,且授权的权限必须在所有容器内都具备 CREATE USER DTS IDENTIFIED BY " " DEFAULT TABLESPACE USERS QUOTA UNLIMITED ON USERS; GRANT CREATE SESSION TO DTS; GRANT SET CONTAINER TO DTS; GRANT FLASHBACK ANY TABLE TO DTS; GRANT SELECT ANY TABLE TO DTS; GRANT INSET ANY TABLE TO DTS; GRANT UPDATE ANY TABLE TO DTS; GRANT DELETE ANY TABLE TO DTS; GRANT CREATE ANY TABLE TO DTS; GRANT DROP ANY TABLE TO DTS; GRANT COMMENT ANY TABLE TO DTS; GRANT LOCK ANY TABLE TO DTS; GRANT CREATE SEQUENCE TO DTS; GRANT SELECT ANY SEQUENCE TO DTS; GRANT SELECT ANY TRANSACTION TO DTS; GRANT SELECT ANY DICTIONARY TO DTS; GRANT SELECT ON SYS.OBJ$ TO DTS; GRANT SELECT ON SYS.COL$ TO DTS; GRANT SELECTCATALOGROLE TO DTS; GRANT EXECUTECATALOGROLE TO DTS; GRANT LOGMINING TO DTS; GRANT EXECUTE ON DBMSLOGMNR TO DTS; GRANT EXECUTE ON DBMSLOGMNRD TO DTS; 2. 创建目标库DTS用户 如果仅作测试,可直接使用TeleDB最高权限的用户root。 如果需要使用精准权限的用户,用root用户登录TeleDB,如下创建DTS迁移用户: CREATE USER dts WITH ENCRYPTED PASSWORD ' '; GRANT CREATE, TEMPORARY, CONNECT ON DATABASE TO dts; 如果要做增量迁移且迁移的表包含外键,那么除了上述权限外,还要保证该用户具有在会话级别执行SET sessionreplicationrole 'replica'的权限。可登录TeleDB控制台,将该参数设置并重启。 3. 如果有增量迁移,需按照如下方法开启Oracle的归档日志 非RAC模式: SELECT name,logmode from V$DATABASE; 如果没有开启,使用sqlplus且用SYS用户以sysdba方式登录后,依次执行以下命令: SHUTDOWN IMMEDIATE; STARTUP MOUNT; ALTER DATABASE ARCHIVELOG; ALTER DATABASE OPEN; RAC模式: 在RAC ORACLE 的某一个节点的 shell 中,关闭、启动、挂载某一个数据库: srvctl stop database d srvctl start database d o mount 使用DBA 权限账号登陆该数据库,并开启归档日志: alter database archivelog; 在RAC ORACLE 的某一个节点的 shell 中, 重启数据库: srvctl stop database d srvctl start database d 4. 如果有增量迁移,需开启Oracle的详细补充日志 使用以下命令,确认supplemental logging 是否开启: SELECT supplementallogdatamin, supplementallogdatapk, supplementallogdataall FROM V$DATABASE; 如果三列存在NO,那么先开启补充最小日志supplementallogdatamin: ALTER DATABASE ADD SUPPLEMENTAL LOG DATA; 开启全补充日志,增加ALL、主键、Unique Index: ALTER DATABASE ADD SUPPLEMENTAL LOG DATA(ALL, PRIMARY KEY, UNIQUE) COLUMNS; 5. 确保所有容器处于打开状态 如果有增量迁移,且CDB模式开启,且有多个容器数据库,则要保证这写可插拔的容器数据库处于打开状态,不然无法启动增量迁移。 注意必须用SYS用户执行 SELECT conid, name, openmode, restricted FROM v$pdbs; 以上查询结果中,除了SEED容器外,OPENMODE字段的值必须为READ WRITE。 6. 确认迁移对象中是否存在无主键表 如果勾选增量迁移,迁移对象中不能包含无主键表: 替换 YOURSCHEMANAME 为你的模式名 SELECT t.tablename FROM alltables t LEFT JOIN allconstraints c ON t.owner c.owner AND t.tablename c.tablename AND c.constrainttype 'P'WHERE t.owner ' 使用以上查询语句可以筛选出某个schema下的所有无主键表,将这些表排除于增量迁移之外。 7. 确认归档日志保留时间 如果勾选增量迁移,为了避免增量迁移过程中由于一些故障导致同步中断的情况,需要至少保留37天的归档日志来确保处理这些情况的窗口期。否则,可能导致无法将同步从故障中恢复。 RMAN> SHOW RETENTION POLICY; 8. 确认待迁移对象中是否包含触发器 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 9. 数据及业务信息统计 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例如4C8G + 500G + SSD 目标库磁盘信息,例如4C8G + 500G + SSD 网络情况,例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量,例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例如:一天的归档日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类: 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 订购DTS数据迁移实例。 2. 进入实例配置页面。DTS实例创建成功后,进入【数据迁移】实例列表页面,上一步骤购买成功的实例在实例列表中显示状态为“待配置”,进入实例配置页面进行配置: 3. 配置源库及目标库信息。 1. 进入实例配置第一个步骤的【配置源库及目标库信息】页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的测试连接按钮进行数据库连接测试,检查数据库能否正常连接。 3. 注意 ORACLE如果要进行增量同步,不能使用SYS/SYSTEM系统用户。 4. 配置迁移对象及高级配置。 源库和目标库连通性测试成功后,点下一步按钮,进入实例配置第二个步骤的【配置迁移对象及高级配置】页面,在“源库对象”中选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查和启动迁移。 完成迁移对象和高级配置后,单击“下一步预检查”,进入实例配置第三个步骤的【预检查】页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 检查内容 检查点 检查源库连通性 源库网络能够连通 检查目标库连通性 目标库网络能够连通 检查源库用户权限 若不包含增量,检查提供的源库账号是否具有以下权限: CREATE SESSION;CATALOGROLE、ANY DICTIONARY、待迁移表的select权限若包含增量,还需要检查以下权限:SET CONTAINER,FLASHBACK ANY TABLE,SELECT ANY TABLE,SELECTCATALOGROLE,EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,CREATE TABLE,LOCK ANY TABLE,CREATE SEQUENCE,EXECUTE ON DBMSLOGMNR,EXECUTE ON DBMSLOGMNRD,SELECT ANY DICTIONARY,SELECT ON SYS.OBJ,SELECT ON SYS.COL,CREATE ANY TABLE,COMMENT ANY TABLE,DROP ANY TABLE 检查目标库用户权限 检查提供的目标库账号是否具有登录信息database下创建schema的权限。 检查目标库PostgreSql版本 目标库的PostgreSql版本是否不低于9.2 检查待迁移表是否存在主键 检查待迁移表是否都存在主键,只有全量迁移时,如果发现存在没有主键的表,将提出警告(无主键的表可能会导致数据不一致);勾选了增量迁移,如果发现存在没有主键的表,预检查将不通过(增量迁移功能依赖主键) 检查待迁移表约束完整性 检查待迁移表依赖的表对象是否包含在待迁移对象中,若存在依赖的对象未被选择,检查不通过 检查源库最大连接数 检查源库最大连接数是否不小于300,若最大连接数小于300,给出告警 检查目标库最大连接数 检查目标库最大连接数是否不小于300,若最大连接数小于300,给出告警 检查同名对象存在性 检查目标库中是否存在和待迁移库同名的库(映射后),若存在,检查该库下面是否存在同名的表(映射后)。如果有,将提出警告。 检查源数据库Oracle的表字段的数据类型能否都迁移到目标库 待迁移表中不能存在Oracle的独有的字段类型,ROWID、UROWID、XMLTYPE、BFILE、SDOGEOMETRY等类型 检查源库对象是否仅大小写不同 迁移对象中是否包含仅大小写不同的对象时,预检查不通过 检查待迁移库名合法性 若待迁移库名中包含非法字符,检查不通过 检查待迁移表名合法性 若待迁移表名中包含非法字符,检查不通过 检查源库字符集是否为支持的字符集 源库字符集支持以下字符集:ZHS16GBK,AL32UTF8,UTF8,US7ASCII,WE8MSWIN1252若源库字符集不属于以上字符集,预检查将不通过 检查当前登录账号是否个人账号 勾选增量时,检查源库的迁移用户是否为个人账号,若账号为系统用户,检查不通过 检查源库是否开启归档日志 勾选增量时,检查源库是否开启归档日志,若未开启,检查不通过 检查源库是否开启补充日志 勾选增量时,检查源库是否开启补充日志,若未开启,检查不通过 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。或者直接单击”数据迁移“列表,返回数据迁移主界面,任务将显示为”未启动“状态。 勾选任务,单击 开始任务 ,任务将变为 运行中 ,直到全量迁移完成,或者进入增量迁移状态。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将Oracle迁移到TeleDB
      • 测试方法
        本章节介绍如何测试PostgreSQL的性能。 PostgreSQL是一个开源对象关系型数据库管理系统,并侧重于可扩展性和标准的符合性,被业界誉为“最先进的开源数据库”。PostgreSQL面向企业复杂SQL处理的OLTP在线事务处理场景,支持NoSQL数据类型(JSON/XML/hstore),支持GIS地理信息处理,在可靠性、数据完整性方面有良好声誉,适用于互联网网站、位置应用系统、复杂数据对象处理等应用场景。 支持postgis插件,空间应用卓越,达到国际标准。更接近Oracle数据库,去 “O” 成本低。 适用场景丰富,费用低,随时可以根据业务情况弹性伸缩所需的资源,按需开支,量身订做。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        性能白皮书
        测试方法
      • 安全违规信息类型说明
        总则 根据《互联网信息服务管理办法》第十五条,互联网信息服务提供者不得制作、复制、发布、传播含有下列内容的信息: 1. 反对宪法所确定的基本原则的。 2. 危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一的。 3. 损害国家荣誉和利益的。 4. 煽动民族仇恨、民族歧视,破坏民族团结的。 5. 破坏国家宗教政策,宣扬邪教和封建迷信的。 6. 散布谣言,扰乱社会秩序,破坏社会稳定的。 7. 散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪的。 8. 侮辱或者诽谤他人,侵害他人合法权益的。 9. 含有法律、行政法规禁止的其他内容的。 危害国家安全、破坏政治与社会稳定类 包括但不限于以下违规内容的信息: 含有分裂国家,破坏国家统一,危害国家安全或利益,破坏政治稳定,煽动颠覆国家政权,推翻社会主义制度,泄露国家秘密的信息; 含有歪曲、丑化、亵渎、否定英雄烈士事迹和精神,以侮辱、诽谤或者其他方式侵害英雄烈士的姓名、肖像、名誉、荣誉的信息; 含有美化他国侵略史实或宣扬军国主义思想,鼓吹美西价值观的信息; 含有宣扬恐怖主义、极端主义或者煽动实施恐怖活动、极端主义活动,煽动民族仇恨、民族歧视,破坏民族团结,散布暴力、凶杀、恐怖或者教唆犯罪的信息; 含有散布谣言,扰乱经济秩序和社会秩序,侮辱或者诽谤他人,侵害他人名誉、隐私和其他合法权益的信息; 含有法律法规禁止出版发行的书籍、音像制品、视频、文件资料的信息; 含有破坏国家宗教政策,非法传教,宣扬邪教、封建迷信的信息。 相关法律法规参考:《中华人民共和国刑法》、《中华人民共和国网络安全法》、《中华人民共和国反分裂国家法》、《中华人民共和国保守国家秘密法》、《互联网信息服务管理办法》、《互联网宗教信息服务管理办法》、《互联网文化管理暂行规定》、《中华人民共和国英雄烈士保护法》、《中华人民共和国反恐怖主义法》、《宗教事务条例》。
        来自:
        帮助文档
        法律声明
        安全管控规则
        安全管控规则
        云平台安全规则细则
        安全违规信息类型说明
      • 产品规格
        一级功能 二级功能 功能描述 标准版 高级版 仪表盘 从全局视角统计重要资产、防护情况、告警趋势、及安全情况,便于用户更好的进行安全响应处置,提升运营效率。 ✓ ✓ 资产中心 查看集群资产、镜像资产、主机节点资产、应用服务资产、K8S配置详细信息。 ✓ ✓ 告警响应 运行态检测 查看所有容器、主机、K8S入侵告警事件,并对其进行响应处置。 ✓ ✓ 告警响应 镜像告警 查看所有触发安全策略的镜像告警事件,并对其进行响应处置。 ✓ ✓ 告警响应 IaC告警 查看存在未通过高危检查的文件。 × ✓ 告警响应 响应中心 查看告警处置记录,包括隔离Pod列表、暂停容器列表、重启Pod列表、镜像阻断列表,并进行白名单管理、一键封堵。 ✓ ✓ 安全合规 基线管理 对各版本的Linux系统按照等保、CIS的基线要求检测,覆盖主流操作系统的检测。 对各版本的kubernetes按照CIS基线要求检测。 对各个版本容器运行环境按照CIS基线要求检测。 ✓ ✓ 安全合规 基线配置 自定义配置基线扫描周期、安全合规达标率等。 ✓ ✓ 镜像安全 镜像管理 对业务环境主机中和镜像仓库中的镜像资产统一管理、安全扫描,并提供可写入dockerfile的修复建议。 ✓ ✓ 镜像安全 镜像策略 通过漏洞规则、文件规则、软件包规则、及其他规则设置来对风险制品镜像进行告警或阻断管控。 ✓ ✓ 镜像安全 镜像设置 配置节点镜像和仓库镜像扫描周期。 ✓ ✓ 容器安全 实时检测 从命名空间或节点的视角实时检测容器安全状态,对容器进行基线检查、容器审计等。 ✓ ✓ 容器安全 容器策略 创建并管理容器入侵检测策略及入侵检测规则。 ✓ ✓ 容器安全 文件防篡改 创建并管理容器防篡改策略。 × ✓ 容器安全 进程访问控制 创建并管理容器进程访问策略,支持进程阻断/放行。 × ✓ 容器安全 弱口令 弱口令字典管理及弱口令检测。 × ✓ 容器安全 容器设置 设置容器保留时长、容器审计信息保留时长,及容器扫描周期。 ✓ ✓ 节点安全 节点安全 查看节点信息、集群组件信息、防御容器健康状态,对节点实时入侵监测,扫描节点漏洞,开启节点debug日志。 ✓ ✓ 节点安全 节点设置 自定扫描新增节点,设置节点更新周期。 ✓ ✓ IaC安全 IaC检查 对于部署资源所编写的编排文件,支持扫描编写内容是否存在风险以及是否符合编写规范。 × ✓ IaC安全 规则管理 统一管理K8S manifests/helmchart文件规则、Dockerfile文件规则、ConfigMap文件规则等。 × ✓ IaC安全 IaC设置 配置自动扫描、周期扫描策略。 × ✓ 集群安全 组件漏洞 扫描Kubernetes 内的kubelet、calico、etcd等组件漏洞信息。 × ✓ 集群安全 安全检查 对集群进行安全检查,发现未通过检查项及影响范围,提供解决方案及参考链接。 × ✓ 集群安全 插件管理 可通过提供插件的形式,帮助用户验证1day漏洞信息。 × ✓ 集群安全 集群审计 记录了对APIServer的访问事件,通过查看、分析日志,可以了解集群的运行状况、排查异常,发现集群潜在的安全、性能等风险对异常事件支持报警。 × ✓ 集群安全 集群策略 配置集群审计策略,管理集群审计规则,管理集群告警规则。 × ✓ 集群安全 集群设置 配置自动扫描新增集群及集群扫描周期。 × ✓ 网络安全 网络策略 通过对单个业务之间,业务组之间,以及租户之间的网络访问策略配置,实现业务之间隔离,来减小被入侵之后的影响范围。 × ✓ 网络雷达 对容器环境中网络流量进行绘图,打破网络黑洞,支持对命名空间、Pod、主机、集群、外网级别的网络监测。通过对单个业务之间、业务组之间以及多租户之间的网络访问策略配置,通过对业务之间的隔离,来减小被入侵之后的影响范围。通过网络拓扑图从网络层判断入侵的影响范围。 × ✓ 平台管理 日志审计 对系统操作日志进行统计及报表输出。 ✓ ✓ 安装配置 支持天翼云原生集群或非原生集群部署方式。 ✓ ✓ 订单中心 查看用户订单情况,可以进行退订、扩容、续订等操作。 ✓ ✓ 任务中心 查看任务执行情况,可以进行终止、删除、查看详情等操作。 ✓ ✓ 消息中心 查收系统内部消息。 ✓ ✓
        来自:
        帮助文档
        容器安全卫士
        产品介绍
        产品规格
      • 日志管理
        本页介绍天翼云TeleDB数据库日志管理相关操作。 操作步骤 1. 切换至TeleDB控制台,在左侧导航树单击日志管理 ,进入日志管理页面。 2. 查询错误日志 说明 错误日志记录了实例中各节点在运行过程中产生的错误信息。 1. 在当前实例下拉框选择您需查询的实例,选择错误日志 页签,设置查询开始时间和结束时间,选择查询条件,单击查询 。 查询条件可选择 节点名称 、 IP地址 、 数据库名称 、用户 和 错误信息 。 3. 慢SQL查询 说明 超过指定时间的 SQL 语句查询称为慢查询,对应语句称为慢查询语句。可以在控制台的操作日志页面查看实例的慢日志明细。 1. 在当前实例下拉框选择您所需要查询的实例,选择慢SQL查询 页签,设置开始时间和结束时间,在下拉框中选择 查询用户 、 查询条件 ,然后单击查询按钮。 查询条件可选择节点名称、IP地址、SQL语句和数据库名称。 2. 在目标日志的操作 列,单击优化建议 ,查看当前慢查询的索引优化建议。 注意 您需要在定时任务中配置了queryindexadvice(用于对慢sql查询生成相应的索引优化建议),才能查看当前慢查询的索引优化建议。 4. 查询高频SQL日志 1. 在当前实例下拉框选择您所需要查询的实例,选择高频SQL 页签,可选择重复次数,设置开始时间和结束时间,在下拉款中选择查询条件 ,单击查询按钮。 查询条件可选择用户名、SQL语句、用户和数据库名称。 5. 审计日志 1. 设置设计规则 1. 在当前实例下拉框选择您所需要查询的实例,选择审计日志页签,单击审计设置,出现审计设置对话框。 2. 在审计设置对话框中,选择是否开启审计、审计粒度,单击确定完成审计设置。 当审计粒度为全局级,您可对需要进行审计和告警的动作进行选择。 当审计粒度为对象级,您需设置对象审计规则同时使用。 2. 审计规则管理 1. 在当前实例下拉框选择您所需要查询的实例,选择审计日志页签,单击审计规则管理,进入审计规则管理页面。 2. 新增审计规则 1. 在审计规则管理 页面,单击 新增审计规则 ,出现新增审计规则对话框。 2. 在新增审计规则 对话框中,输入规则名称 、选择 审计对象名称 、勾选 审计操作类型 、输入审计对象和选择 是否开启 , 是否触发告警 ,单击确定完成新增审计规则。 3. 编辑审计规则 单击已创建审计规则所在行的编辑 ,可修改审计规则。 4. 删除审计规则 单击已创建审计规则所在行的删除 ,可删除审计规则。 3. 查看审计日志 1. 选择审计日志 页签,在当前实例下拉框选择您需要查询的实例,设置查询开始时间和结束时间,在下拉框选择查询条件 ,单击 查询 。 查询条件可选择审计类型 、 SQL详情 、数据库名称、账号 和 审计操作 。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        日志管理
      • 创建表(CREATE TABLE)
        参数说明 tablename:待创建的数据表名称。 columnname:指定数据列名称。 columndefinition:指定数据列定义,可包括类型、能否为空、默认值等属性。 indexname:指定索引名称。 indextype:指定索引类型。 keypart:指定组成索引的数据列。 enginename:指定要使用的存储引擎,常用的引擎有innodb等。 charsetname:指定数据库的字符集。支持设置为utf8和utf8mb4字符集。 collationname:指定数据库的排序规则。支持设置为utf8generalci和utf8mb4bin排序规则。 其中: partitionoption以SQL风格写法来指定分库分表信息,shardinghint以HINT风格来指定分库分表信息,两者虽然写法不同,但作用相同。在简单使用场景可以使用SQL风格分片写法或HINT风格分片写法任意一种,而由于HINT风格分片写法支持更多的分库分表算法,功能更强大一些,如在复杂使用场景只能用HINT风格分片写法。 partitionoption和shardinghint支持的分库分表算法存在差异,详情如下: 说明 更多算法信息,请参见分片算法。 分库分表算法 partitionoption shardinghint (整数)取模(PartitionByMod) 支持(关键字HASH) 支持 字符串hashCode取模(PartitionByStringMod) 支持(关键字HASHSTRING) 支持 枚举(PartitionByFileMap) 不支持 支持 时间范围(PartitionByDateRange) 不支持 支持 枚举分组取模分片(PartitionByEnumAndMod) 不支持 支持 枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod) 不支持 支持 数值范围(PartitionByIntRange) 支持(关键字RANGE) 支持 partitionoption语法: 参数说明 GLOBAL:用于创建全局表。 SINGLE:用于创建单片表,且只能为单个逻辑库创建单个物理表。 DN: 用于指定待使用的RDS ,对于单片表只能使用一个RDS。仅当逻辑数据库只包含一个RDS时可省略此参数,将会使用已绑定的唯一RDS。 UDALPARTITION BY:用于创建分片(分库)表。仅支持整数取模(PartitionByMod)、字符串hashCode取模(PartitionByStringMod)和数值范围(PartitionByIntRange)三种算法。 HASH(columnname):用于指定分片算法为整数取模(PartitionByMod),columnname指定用于计算分片的数据列,此处只允许单个列。 HASHSTRING(columnname): 用于指定分片算法为字符串hashCode取模(PartitionByStringMod),columnname指定用于计算分片的数据列,这里只允许单个列。 RANGE(columnname):用于指定分片算法为数值范围(PartitionByIntRange),columnname指定用于计算分片的数据列,这里只允许单个列。 RANGEVALUES:用于指定数值范围分片算法的各个范围值,只允许int值。且数量必须与DN数量保持一致。 DN:用于指定要使用的RDS,默认值为当前逻辑数据库包含的所有RDS。 PARTITIONS:用于指定分表的数量,默认值为1。当省略时,将使用默认值。 BUCKETS:用于指定分桶的数量,无默认值,必须显式指定。 建表语句说明 分片表从类型上来说主要分成3类,分别为库内分表、库内分桶、既不分表也不分桶。本文将按照分片表类型来简单为您介绍建表语句。 库内分表 既分库(分片)也分表,通过在UDALPARTITION BY指定两次分片算法来依次指定分库算法和分表算法,主要语法格式为: plaintext UDALPARTITION BY 算法1(column1), 算法2(column2) 此处的算法是指上文介绍的HASH或HASHSTRING。另外可搭配PARTITIONS参数来指定分表数量,搭配DN参数指定待使用的RDS列表。 库内分桶 既分库(分片)也分桶,由于分桶是通过虚拟分片来实现,因此只需要指定一次分片算法即可,主要语法格式为: plaintext UDALPARTITION BY 算法(column) 此处的算法是指上文介绍的HASH或HASHSTRING。注意,必须添加BUCKETS参数来指定分桶数量,也可搭配DN参数指定待使用的RDS列表。 既不分表也不分桶 对应只分库的情况,只需指定一次分片算法,主要语法格式为: plaintext UDALPARTITION BY 算法(column) 由于不需要分表或分桶,因此无需使用PARTITIONS或BUCKETS参数,但可搭配DN参数指定待使用的RDS列表。 shardinghint语法: @@table name’{tablename}’:指定数据表名称。 type:指定表的类型。 支持的类型及对应的关键字如下: 全局表:global 单片表:single 分库分表:inner 库内分桶或既不分表也不分库:sharding dn:指定要使用的RDS列表。对于单片表只能使用一个RDS。当忽略此项时默认使用当前逻辑数据库包含的所有RDS。 shardingalgo:指定分片算法。 注意 该参数必须与shardingid搭配使用。 shardingid:指定用于计算分片的数据列。 注意 该参数必须与shardingalgo搭配一起使用。 buckets:指定分桶数量,合法取值范围为[1, 128]。 注意 当创建库内分桶(分库分桶)类型的数据表时必须指定此项。 shardingarea: 用于枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)算法,指定分组列。使用这两种算法时必须指定此项。 rangevalues:用于指定数值范围(PartitionByIntRange)分片算法的各个范围值。 mapfile: 用于分片的枚举算法中指定各个枚举值对应的分片序号,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 defaultnode:用于分片的枚举算法中指定默认节点,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 startdate:用于分片的时间范围(PartitionByDateRange)算法中指定开始日期。 timeunittype:用于分片的时间范围(PartitionByDateRange)算法中指定时间单元类型,支持设置为day、 week,、month和year。 timeunitlen:用于分片的时间范围(PartitionByDateRange)算法中指定时间单元值。 innershardingalgo:指定分表算法。 注意 该参数必须与innershardingid搭配一起使用。 innershardingid:指定用于计算分表的数据列。 注意 该参数必须与innershardingalgo搭配一起使用。 innertotal:指定分表数量。 注意 当创建分库分表类型的数据表时必须指定此项。 innermapfile:用于分表的枚举算法中指定各个枚举值对应的分片序号,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 innerdefaultnode:用于分表的枚举算法中指定默认节点,枚举算法包括枚举(PartitionByFileMap)、枚举分组取模分片(PartitionByEnumAndMod)和枚举分组字符串hashCode取模分片(PartitionByEnumAndStringMod)。 innerstartdate:用于分表的时间范围(PartitionByDateRange)算法中指定开始日期。 innertimeunittype:用于分表的时间范围(PartitionByDateRange)算法中指定时间单元类型,支持设置为day、 week,、month和year。 innertimeunitlen:用于分表的时间范围(PartitionByDateRange)算法中指定时间单元值。
        来自:
        帮助文档
        分布式关系型数据库
        开发指南
        DDL语法
        管理数据表的DDL语句
        创建表(CREATE TABLE)
      • 通用操作类问题
        本章节主要介绍通用操作类问题 DRS界面信息重叠是什么原因 DRS界面出现信息重叠通常是页面缩放率过小导致的,建议将页面缩放率调整为100%即可显示正常。 目标库读写设置是实例级还是库级 配置迁移任务时,目标数据库实例可以选择设置为“只读”或者“读写”状态。 只读:目标数据库整个实例 将转化为只读、不可写入的状态,迁移任务结束后恢复可读写状态,此选项可有效的确保数据迁移的完整性和成功率,推荐此选项。 读写:目标数据库可以读写,但需要避免操作或接入应用后会更改迁移中的数据(注意:无业务的程序常常也有微量的数据操作),进而形成数据冲突、任务故障、且无法修复续传,充分了解要点后可选择此选项。 只读保护优点是避免用户对正在迁移的数据库或表进行DDL或DML误操作,造成数据不一致,可提高迁移完整性和数据一致性。 任务启动后,DRS不支持修改目标数据库状态。 待所有设置该目标库为“只读”状态的迁移任务结束后,可恢复读写。 MySQL源库设置了global binlogformat ROW没有立即生效 使用DRS进行MySQL的迁移时,必须确保源库的binlogformat是ROW格式的,否则就会导致任务失败甚至数据丢失。在源库设置了global级别的binlogformatROW之后,还需要中断之前所有的业务连接,因为设置之前的连接使用的还是非ROW格式的binlog写入。 安全设置global级binlogformatROW的步骤 步骤 1 通过MySQL官方客户端或者其它工具登录源数据库。 步骤 2 在源数据库上执行全局参数设置命令。 set global binlogformat ROW; 步骤 3 在源数据库上执行如下命令确认上面操作已执行成功。 select @@global.binlogformat; 步骤 4 您可以通过如下两种方式确保修改后的源库binlogformat格式立即生效。 方法一: 1. 选择一个非业务的时间段,中断当前数据库上的所有业务连接。 a. 通过如下命令查询当前数据库上的所有业务连接(所有的binlog Dump连接及当前连接除外)。 show processlist; b. 中断上面查出的所有业务连接。 2. 为了避免源库binlogformat格式因为数据库重启失效,请在源库的启动配置文件(my.ini或my.cnf等)中添加或修改配置参数binlogformat并保存。 binlogformatROW 方法二: 1.为了避免源库binlogformat格式因为数据库重启失效,请在源库的启动配置文件(my.ini或my.cnf等)中添加或修改配置参数binlogformat并保存。 binlogformatROW 2.确保上述配置参数binlogformat添加或修改成功后,选择一个非业务时间段,重启源数据库即可。 binlogrowimage参数设置为FULL没有立即生效 使用DRS进行MySQL迁移时,必须确保源库的binlogrowimage参数设置为FULL,否则就会导致任务失败。在源库设置了binlogrowimageFULL之后,只对新的session生效,为了关闭旧的session,需选择一个非业务时间段,重启源数据库并重置任务即可。
        来自:
        帮助文档
        数据库复制
        常见问题
        通用操作类问题
      • 数据架构使用流程
        本章节主要介绍数据架构使用流程。 DataArts Studio数据架构的流程如下: 1.准备工作 : −添加审核人 :在数据架构中,业务流程中的步骤都需要经过审批,因此,需要先添加审核人。只有工作空间管理员角色的用户才具有添加审核人的权限。 −管理配置中心 :数据架构中提供了丰富的自定义选项,统一通过配置中心提供,您需要根据自己的业务需要进行自定义配置。 2.数据调研 :基于现有业务数据、行业现状进行数据调查、需求梳理、业务调研,输出企业业务流程以及数据主题划分。 −主题设计 :通过分层架构表达对数据的分类和定义,帮助厘清数据资产,明确业务领域和业务对象的关联关系。 主题域分组 :基于业务场景对主题域进行分组。 主题域 :互不重叠数据的高层面的数据分类,用于管理其下一级的业务对象。 业务对象 :指企业运作和管理中不可缺少的重要人、事、物信息。 −流程设计 :针对流程的一个结构化的整体框架,描述了企业流程的分类、层级以及边界、范围、输入/输出关系等,反映了企业的商业模式及业务特点。 3.标准设计 :新建码表&数据标准。 −新建码表 :通常只包括一系列允许的值和附加文本描述,与数据标准关联用于生成值域校验质量监控。 −新建数据标准 :用于描述公司层面需共同遵守的属性层数据含义和业务规则。其描述了公司层面对某个数据的共同理解,这些理解一旦确定下来,就应作为企业层面的标准在企业内被共同遵守。 4.模型设计: 应用关系建模和维度建模的方法,进行分层建模。 −关系建模 :基于关系建模,新建SDI层和DWI层两个模型。 SDI :Source Data Integration,又称贴源数据层。SDI是源系统数据的简单落地。 DWI :Data Warehouse Integration,又称数据整合层。DWI整合多个源系统数据,对源系统进来的数据进行整合、清洗,并基于三范式进行关系建模。 −维度建模 :基于维度建模,新建DWR层模型并发布维度和事实表。 DWR :Data Warehouse Report,又称数据报告层。DWR基于多维模型,和DWI层数据粒度保持一致。 维度 :维度是用于观察和分析业务数据的视角,支撑对数据进行汇聚、钻取、切片分析,用于SQL中的GROUP BY条件。 事实表 :归属于某个业务过程的事实逻辑表,可以丰富具体业务过程所对应事务的详细信息。 5.指标设计 :新建业务指标和技术指标,技术指标又分为原子指标、衍生指标和复合指标。 −指标 :指标一般由指标名称和指标数值两部分组成,指标名称及其涵义体现了指标质的规定性和量的规定性两个方面的特点,指标数值反映了指标在具体时间、地点、条件下的数量表现。 业务指标用于指导技术指标,而技术指标是对业务指标的具体实现。 −原子指标 :原子指标中的度量和属性来源于多维模型中的维度表和事实表,与多维模型所属的业务对象保持一致,与多维模型中的最细数据粒度保持一致。 原子指标中仅含有唯一度量,所含其它所有与该度量、该业务对象相关的属性,旨在用于支撑指标的敏捷自助消费。 −衍生指标 :是原子指标通过添加限定、维度卷积而成,限定、维度均来源于原子指标关联表的属性。 −复合指标 :由一个或多个衍生指标叠加计算而成,其中的维度、限定均继承于衍生指标。 注意,不能脱离衍生指标、维度和限定的范围,去产生新的维度和限定。 6.数据集市建设 :新建DM层并发布汇总表。 −DM (Data Mart) :又称数据集市。DM面向展现层,数据有多级汇总。 −汇总表 :汇总表是由一个特定的分析对象(如会员)及其相关的统计指标组成的。组成一个汇总逻辑表的统计指标都具有相同的统计粒度(如会员),汇总逻辑表面向用户提供了以统计粒度(如会员)为主题的所有统计数据(如会员主题集市)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        数据架构使用流程
      • 创建子账号
        本文将为您介绍创建子账号的操作流程。 为满足企业集中化财务管理需求,系统支持企业主账号在组织架构下创建子账号,创建完成后新账号与企业主账号自动建立主子账号关联关系。企业主账号可通过企业中心实现对子账号账务、发票等财务信息的集中查看与管理,助力提升企业财务管理的统筹效率。 约束与限制 1. 仅企业主账号可进入企业中心做账号创建。 2. 主账号已完成企业实名认证,认证信息是普通企业,不能是个体工商户。 3. 主账号状态正常,不能处于冻结、欠费等异常状态。 4. 被创建的账号未被其它企业主账号关联成为企业子账号。 5. 天翼云云公司、云省分线下渠道客户,默认不能自行创建子账号,需联系客户经理申请变更后再创建;天翼云云公司、云省分线上渠道客户,不受此限制,可自行创建。 6. 电信省公司线上、线下渠道客户,不支持使用企业中心创建子账号。 7. 代理商客户不能创建子账号。 8. 创建的企业子账号将继承企业主账号实名认证信息,法人信息,以及部分基础信息(如账号类型、客户类型等)。 9. 主账号创建子账号受一证五号的限制,若超出限制,线上渠道客户可联系客服人员或电销经理申请解除限制,线下渠道客户可联系客户经理申请解除限制。 创建财务独立子账号 什么是财务独立:指独立子账号具备自主处理自身财务事务的核心权限,同时主账号可按需进行辅助管理,具体包含以下要点: 1. 子账号核心权限:独立子账号可自行对本账号产生的费用完成独立结算,也可自主开具发票; 2. 主账号管理权限:主账号可根据管理需求,执行查看独立子账号账单、代其开具发票、为其拨款等操作。 操作步骤: 1. 进入“组织管理”页面。 2. 选中需要创建子账号的组织,点击“创建账号”。 3. 填写账号信息: 1. 设置基础信息:账号显示名、邮箱地址等。 说明 1. 子账号密码设置的规则为:826个字符;包含大小写字母、数字及符号3种;不能包含与账号名相关的信息;不能使用连续3个及以上键位排序字符,如123, Qwe;不能使用常用的具有特殊含义的字符串。 2. 账号显示名为账号在企业中心的显示名称,创建时的账号显示名默认为账号的登录名,子账号登录后可自行修改登录名,修改后不影响账号显示名。 2. 设置财务模式:选择“财务独立”,为财务独立设置权限,权限说明: 权限点 权限说明 允许主账号查看子账号的财务信息(余额/消费/成本/订单/账单等) 主账号可在企业中心财务管理模块查看子账号的消费信息、订单信息、账单信息等。 为子账号开具发票的主体主账号 主账号可替子账号开票,子账号不允许自己开票(仅针对天翼云云公司、云省分线上渠道客户,天翼云云公司、云省分线下渠道客户联系客户经理开具发票) 为子账号开具发票的主体子账号 主账号不可替子账号开票,子账号自己开票(仅针对天翼云云公司、云省分线上渠道客户,天翼云云公司、云省分线下渠道客户联系客户经理开具发票) 为子账号开具发票的主体主账号&子账号 主账号和子账号都可开子账号的发票(仅针对天翼云云公司、云省分线上渠道客户,天翼云云公司、云省分线下渠道客户联系客户经理开具发票) 允许子账号继承主账号的商务折扣(账号折扣) 主账号账号折扣可被子账号使用(仅针对天翼云云公司、云省分线下渠道客户,且子账号无账号折扣的情况) 允许主账号管理子账号的云资源 主账号可在企业中心资源管理查看子账号的云资源清单、在企业中心云SSO管理及账号的云资源 4. 点击“确认”完成创建: 1. 天翼云云公司、云省分线上渠道客户,创建完成后,子账号可基于账密信息进行登录使用。 2. 天翼云云公司、云省分线下渠道客户,创建完成后,需等天翼云客户经理完成合同绑定后,子账号可基于账密信息登录使用。
        来自:
        帮助文档
        财务管理
        用户指南
        创建子账号
      • 创建实例
        安全组 安全组可重复使用,您也可以根据实际情况使用不同的安全组,请根据实际需要进行配置。 创建安全组的操作指导,请参考虚拟私有云创建安全组 若需要为安全组添加规则,请参考虚拟私有云安全组添加安全组规则 弹性公网IP(可选) 若需要通过公网访问RabbitMQ实例,则需要申请弹性公网IP,否则不需要申请弹性公网IP。申请弹性公网IP的操作指导请参考购买弹性IP。 实例规格选择说明 节点可选择3节点、5节点、7节点、9节点,实例规格可选择4C8G、8C16G、16C32G。 存储类型可选择普通IO(SATA)、高IO(SAS)、超高IO(SSD)。 (1)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 (2)选择引擎类型,默认选择云原生引擎,海量消息堆积能力,支持更多连接和队列数,稳定性高。也可选择rabbitmq引擎,完全支持开源RabbitMQ生态,功能完备。 (3)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 (4)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 (5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 (6)设置节点数,可选择3/5/7/9。RabbitMQ 的节点数是指 RabbitMQ 集群中的节点数量。在 RabbitMQ 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的 RabbitMQ 服务器实例。 (7)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 (8)选择实例规格,分布式消息服务RabbitMQ提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 (9)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 (10)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (11)选择已有子网,若无子网,点击创建跳转到子网页面新增。 (12)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        创建实例
      • 创建守护进程集(DaemonSet)
        操作场景 云容器引擎(CCE)提供多种类型的容器部署和管理能力,支持对容器工作负载的部署、配置、监控、扩容、升级、卸载、服务发现及负载均衡等特性。 其中守护进程集(DaemonSet)可以确保全部(或者某些)节点上仅运行一个Pod实例,当有节点加入集群时,也会为他们新增一个 Pod。当有节点从集群移除时,这些Pod也会被回收。删除 DaemonSet 将会删除它创建的所有Pod。 使用DaemonSet的一些典型用法: 运行集群存储daemon,例如在每个节点上运行glusterd、ceph。 在每个节点上运行日志收集daemon,例如fluentd、logstash。 在每个节点上运行监控daemon,例如Prometheus Node Exporter、collectd、Datadog代理、New Relic代理,或Ganglia gmond。 一种简单的用法是为每种类型的守护进程在所有的节点上都启动一个DaemonSet。一个稍微复杂的用法是为同一种守护进程部署多个DaemonSet;每个具有不同的标志, 并且对不同硬件类型具有不同的内存、CPU要求。 前提条件 在创建守护进程集前,您需要存在一个可用集群。若没有可用集群 ,请参照购买混合集群中内容创建。 操作步骤 步骤 1 登录CCE管理控制台。 步骤 2 在左侧导航栏中选择“工作负载 > 守护进程集 DaemonSet”,单击页面右上角的“创建守护进程集”。参照下表设置基本信息,其中带“”标志的参数为必填参数。 工作负载基本信息 参数 参数说明 工作负载名称 新建工作负载的名称,命名必须唯一。 请输入4到63个字符的字符串,可以包含小写英文字母、数字和中划线(),并以小写英文字母开头,小写英文字母或数字结尾。 集群名称 新建工作负载所在的集群。 命名空间 在单集群中,不同命名空间中的数据彼此隔离。使应用可以共享同个集群的服务,也能够互不干扰。若您不设置命名空间,系统会默认使用default命名空间。 时区同步 单击开启后,容器将和节点使用相同时区。 须知 时区同步功能开启后,在“数据存储 > 本地磁盘”中,将会自动添加HostPath类型的磁盘,请勿修改删除该磁盘。 工作负载描述 工作负载描述信息。 步骤 3 单击“下一步:容器设置”,添加容器。 1. 单击“添加容器”,选择需要部署的镜像。 − 我的镜像:展示了您创建的所有镜像仓库。 − 第三方镜像:CCE支持拉取第三方镜像仓库(即镜像仓库之外的镜像仓库)的镜像创建工作负载。使用第三方镜像时,请确保工作负载运行的节点可访问公网。第三方镜像的具体使用方法请参见如何使用第三方镜像。 若您的镜像仓库不需要认证,密钥认证请选择“否”,并输入“镜像名称”,单击“确定”。 若您的镜像仓库都必须经过认证(帐号密码)才能访问,您需要先创建密钥再使用第三方镜像,具体操作请参见如何使用第三方镜像。 − 共享镜像:其它租户通过“容器镜像服务”共享给您的镜像将在此处展示,您可以基于共享镜像创建工作负载。 2. 配置镜像基本信息。 工作负载是Kubernetes对一组Pod的抽象模型,用于描述业务的运行载体,一个Pod可以封装1个或多个容器,您可以单击右上方的“添加容器”,添加多个容器镜像并分别进行设置。 镜像参数说明 参数 说明 镜像名称 导入的镜像,您可单击“更换镜像”进行更换。 镜像版本 选择需要部署的镜像版本。 容器名称 容器的名称,可修改。 特权容器 特权容器是指容器里面的程序具有一定的特权。 若选中,容器将获得超级权限,例如可以操作宿主机上面的网络设备、修改内核参数等。 容器规格 CPU 配额: 申请:容器需要使用的最小CPU值,默认0.25Core。 限制:允许容器使用的CPU最大值。建议设容器配额的最高限额,避免容器资源超额导致系统故障。 内存配额: 申请:容器需要使用的内存最小值,默认512MiB。 限制:允许容器使用的内存最大值。如果超过,容器会被终止。 申请和限制的具体请参见设置容器规格。 GPU 配额:当集群中包含GPU节点时,才能设置GPU,无GPU节点不显示此选项。 容器需要使用的GPU百分比。勾选“使用”并设置百分比,例如设置为10%,表示该容器需使用GPU资源的10%。若不勾选“使用”,或设置为0,则无法使用GPU资源。 GPU 显卡:工作负载实例将被调度到GPU显卡类型为指定显卡的节点上。 若勾选“不限制”,容器将会随机使用节点中的任一显卡。您也可以勾选某个显卡,容器将使用特定显卡。 3. 生命周期: 用于设置容器启动和运行时需要执行的命令。 − 启动命令:设置容器启动时执行的命令,具体请参见设置容器启动命令。 − 启动后处理:设置容器成功运行后执行的命令,详细配置方法请参见设置容器生命周期。 − 停止前处理:设置容器结束前执行的命令,通常用于删除日志/临时文件等,详细配置方法请参见设置容器生命周期。 4. 健康检查:CCE提供了存活与业务两种探针,用于判断容器和用户业务是否正常运行。详细配置方法请参见设置容器健康检查。 − 工作负载存活探针:检查容器是否正常,不正常则重启实例。 − 工作负载业务探针:检查用户业务是否就绪,不就绪则不转发流量到当前实例。 5. 环境变量:在容器中添加环境变量,一般用于通过环境变量设置参数。 在“环境变量”页签,单击“添加环境变量”,当前支持三种类型: − 手动添加:输入变量名称、变量/变量引用。 − 密钥导入:输入变量名称,选择导入的密钥名称和数据。您需要提前创建密钥,具体请参见创建密钥。 − 配置项导入:输入变量名称,选择导入的配置项名称和数据。您需要提前创建配置项,具体请参见创建配置项。 说明: 对于已设置的环境变量,单击环境变量后的“编辑”,可对该环境变量进行编辑。单击环境变量后的“删除”,可删除该环境变量。 6. 数据存储:给容器挂载数据存储,支持本地磁盘和云存储,适用于需持久化存储、高磁盘IO等场景。具体请参见存储管理。 7. 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。 请输入用户ID,容器将以当前用户权限运行。 8. 容器日志:设置容器日志采集策略、配置日志目录。用于收集容器日志便于统一管理和分析。详细配置请参见采集容器标准输出日志、采集容器内路径日志。 步骤 4 单击“下一步:工作负载访问设置”,单击“添加服务”,设置工作负载访问方式。 若工作负载需要和其它服务互访,或需要被公网访问,您需要添加服务,设置工作负载访问方式。 工作负载访问的方式决定了这个工作负载的网络属性,不同访问方式的工作负载可以提供不同网络能力,具体请参见网络概述。 步骤 5 单击“下一步:高级设置”,配置更多高级策略。 升级策略: − 升级方式:支持“滚动升级”。滚动升级将逐步用新版本的实例替换旧版本的实例,升级的过程中,业务流量会同时负载均衡分布到新老的实例上,因此业务不会中断。 − 最大无效实例数:每次滚动升级允许的最大无效实例数,如果等于实例数有断服风险(最小存活实例数 实例数 最大无效实例数)。 缩容策略: 缩容时间窗:请输入时间。为工作负载删除提供一个时间窗,预留给生命周期中PreStop阶段执行命令。若超过此时间窗,进程仍未停止,该工作负载将被强制删除。 调度策略:您可以根据需要自由组合静态的全局调度策略或动态的运行时调度策略来实现自己的需求。具体请参见调度策略概述。 Pod 高级设置 − Pod标签:内置app标签在工作负载创建时指定,主要用于设置亲和性与反亲和性调度,暂不支持修改。您可以单击下方的“添加标签”增加标签。 客户端DNS 配置:CCE集群内置DNS插件CoreDNS,为集群内的工作负载提供域名解析服务。详细使用方法请参见Kubernetes集群内置DNS配置说明。 − DNS策略: 追加域名解析配置:选择该配置后,将保留默认配置,以下“IP地址”和“搜索域”配置可能不生效。 替换域名解析配置:选择该配置后,将仅使用以下“IP地址”和“搜索域”配置进行域名解析。 继承Pod所在节点域名解析配置:将继承Pod所在节点的域名解析配置。 − IP地址:您可对自定义的域名配置域名服务器,值为一个或一组DNS IP地址,如“1.2.3.4”。 − 搜索域:定义域名的搜索域列表,当访问的域名不能被DNS解析时,会把该域名与搜索域列表中的域依次进行组合,并重新向DNS发起请求,直到域名被正确解析或者尝试完搜索域列表为止。 − 超时时间(s):查询超时时间,请自定义。 − ndots:表示域名中必须出现的“.”的个数,如果域名中的“.”的个数不小于ndots,则该域名为一个FQDN,操作系统会直接查询;如果域名中的“.”的个数小于ndots,操作系统会在搜索域中进行查询。 自定义指标监控:是指监控系统提供的一种指标收集机制,该机制允许工作负载在部署时自定义需要上报的指标名称以及获取这些指标数据的接入点信息,在应用运行时由监控系统按固定的频率访问接入点进行指标的收集。 性能管理配置:性能管理服务可协助您快速进行工作负载的问题定位与性能瓶颈分析。 步骤 6 配置完成后,单击“创建”,在创建成功页面单击“返回工作负载列表”,查看工作负载状态。 在工作负载列表中,当工作负载状态为“运行中”时,表示工作负载创建成功。工作负载状态不会实时更新,请单击右上角的图标或按F5刷新页面查看。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        创建守护进程集(DaemonSet)
      • 集群监控大盘
        监控大盘可以让您以全局的视角查看集群与工作空间的资源使用情况,通过此功能,您可从多个角度了解资源的利用情况以便更加合理地分配。 前置条件 资源限制:您已开通专属集群(专属集群需联系客户经理开通),该功能仅统计专属集群相应用量。 用户权限:账号为主账号,或者角色为IAM管理员。 功能介绍 集群监控大盘展现了专属集群下的集群资源概览、存储资源使用情况、集群整体与集群下节点的基础指标监控。进入“运维观测”>“监控大盘”菜单,上方点击“集群”Tab,在顶部栏切换需要查看的专属集群,即可查看该集群的监控,该功能仅对主账号以及IAM管理员用户开放。 集群资源概览 1. 统计说明及名词解释: 1. 该模块数据仅统计专属集群相关数据及展示专属集群监控。 2. 分配:是指分配到工作空间,即相关资源创建配额,该配额绑定工作空间的状态。被分配意味着该资源可以被任务使用:在本平台,建立专属集群后,您需要先创建配额,并在相应的工作空间里绑定配额,才可以在任务中选择配额运行任务,分配是专属集群资源可用的必要步骤。 3. 占用:占用是指被任务中的pod占用,这意味着分配的资源真正被任务使用; 4. 节点:即物理机实例,节点是集群的组成单元,每个节点对应一台物理机。 2. 各指标含义说明: 1. 分配率指标: 指标项 解释 节点健康度 健康节点数:指您所选的专属集群中,状态为Ready‌的节点数。在K8S集群中,Ready表示该节点健康且可接收Pod调度; 节点总数:您所选专属集群下的节点总数; 节点健康度:即健康节点数与总数的比值,反映了集群下可用节点数占比。 CPU分配率 已分配:您所选集群下,已被分配的CPU量; 总核数:您所选集群下的CPU总核数,是所有节点的CPU核数总和; CPU分配率:即已分配数与总核数的比值。 内存分配率 已分配:您所选集群下,已被分配的内存量; 总和数:您所选集群下的内存总量,是所有节点的内存量总和; CPU分配率:即已分配量与总量的比值。 显卡分配率 显卡分配数:您所选集群下,已被分配的显卡数; 显卡总数:您所选集群下的显卡总数,是所有节点的显卡数总和; 显卡分配率:即显卡分配数与显卡总数的比值。 显存分配率 显存分配量:您所选集群下,已被分配的显存量; 显存总量:您所选集群下的显存总量,是所有节点的显存量总和; 显存分配率:即显存分配量与显存总量的比值。 2. 显卡分配明细表: 字段 解释 集群名称 专属集群的名称; 显卡型号 专属集群下相应的显卡型号,比如NVIDIA L40S; 总卡数 指定专属集群下指定显卡型号的总卡数; 分配卡数 在总卡数下,被分配的显卡数; 实际占用卡数 在分配卡数下,实际被任务占用的卡数; 总显存量 指定专属集群下指定显卡型号的总显存量; 分配显存量 在总显存量下,被分配的显存量; 实际占用显存量 在分配显存量下,实际被任务占用的显存量。
        来自:
        帮助文档
        训推服务
        用户指南
        运维观测
        监控大盘
        集群监控大盘
      • 作业配置管理
        CDM作业定时备份/恢复 该功能依赖于OBS服务。 前提条件 已创建配置OBS连接。 定时备份 在CDM作业管理界面,单击“配置管理”页签,配置定时备份的参数。 表 定时备份参数 参数 说明 配置样例 定时备份 自动备份功能的开关,该功能只备份作业,不会备份连接。 开 备份策略 所有作业:不管作业处于什么状态,CDM会备份所有表/文件迁移作业、整库迁移的作业。不备份历史作业。 分组作业:选择备份某一个或多个分组下的作业。 所有作业 备份周期 选择备份周期: 日:每天零点执行一次。 周:每周一零点执行一次。 月:每月1号零点执行一次。 日 备份写入OBS连接 CDM通过该连接,将作业备份到OBS,需要用户提前在“连接管理”界面创建好OBS连接。 obslink OBS桶 存储备份文件的OBS桶。 cdm 备份数据目录 存储备份文件的目录。 /cdmbk/ 恢复作业 如果之前执行过自动备份,“配置管理”页签下会显示备份列表:显示备份文件所在的OBS桶、路径、备份时间。 您可以单击备份列表操作列的“恢复备份”来恢复CDM作业。 CDM作业参数的环境变量 CDM在创建迁移作业时,可以手动输入的参数(例如OBS桶名、文件路径等)、参数中的某个字段、或者字段中的某个字符,都支持配置为一个全局变量,方便您批量更改作业中的参数值,以及作业导出/导入后进行批量替换。 这里以批量替换作业中OBS桶名为例进行介绍。 1.在CDM作业管理界面,单击“配置管理”页签,配置环境变量。 bucket1A bucket2B 这里以变量“bucket1”表示桶A,变量“bucket2”表示桶B。 2.在创建CDM迁移作业的界面,迁移桶A的数据到桶B。 源端桶名配置为 {bucket1} ,目的端桶名配置为 {bucket2} 。 图 桶名配置为环境变量 3.如果下次要迁移桶C数据到桶D,则无需更改作业参数,只需要在“配置管理”界面将环境变量改为如下即可: bucket1C bucket2D
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        作业配置管理
      • 工作负载伸缩原理
        CCE支持HPA策略和CustomedHPA策略两种工作负载伸缩方式。两种策略的对比如下: HPA和CustomedHPA策略对比 伸缩策略 HPA策略 CustomedHPA策略 实现方式 Kubernetes中实现POD水平自动伸缩的功能,即Horizontal Pod Autoscaling 弹性伸缩增强能力 策略规则 基于指标(CPU利用率、内存利用率),对无状态工作负载进行弹性扩缩容。 基于指标(CPU利用率、内存利用率)或周期(每天、每周、每月或每年的具体时间点),对无状态工作负载进行弹性扩缩容。 主要功能 在kubernetes社区HPA功能的基础上,增加了应用级别的冷却时间窗和扩缩容阈值等功能。 指标触发 支持按照当前实例数的百分比进行扩缩容。 支持设置一次扩缩容的最小步长。 支持按照实际指标值执行不同的扩缩容动作。 周期触发 支持选择天、周、月或年的具体时间点或周期作为触发时间 说明: 伸缩策略优先级:手动伸缩和自动伸缩同时配置的情况下,在不执行手动伸缩时,资源调度以自动伸缩为准,伸缩按照监控信息自动触发,如果使用手动伸缩,自动伸缩会暂时失效。 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。 想要做到自动弹性伸缩,先决条件就是能感知到各种运行数据,例如集群节点、Pod、容器的CPU、内存使用率等等。而这些数据的监控能力Kubernetes也没有自己实现,而是通过其他项目来扩展Kubernetes的能力,CCE提供如下两个插件来实现该能力: []( " ")Prometheus是一套开源的系统监控报警框架,能够采集丰富的Metrics(度量数据),目前已经基本是Kubernetes的标准监控方案。 []( " ")Metrics Server是Kubernetes集群范围资源使用数据的聚合器。Metrics Server从kubelet公开的Summary API中采集度量数据,能够收集包括了Pod、Node、容器、Service等主要Kubernetes核心资源的度量数据,且对外提供一套标准的API。 使用HPA(Horizontal Pod Autoscaler)配合Metrics Server可以实现基于CPU和内存的自动弹性伸缩,再配合Prometheus还可以实现自定义监控指标的自动弹性伸缩。 HPA主要流程如下图所示。 HPA 的核心有如下2 个部分: 监控数据来源 最早社区只提供基于CPU和Mem的HPA,随着应用越来越多搬迁到k8s上以及Prometheus的发展,开发者已经不满足于CPU和Memory,开发者需要应用自身的业务指标,或者是一些接入层的监控信息,例如:Load Balancer的QPS、网站的实时在线人数等。社区经过思考之后,定义了一套标准的Metrics API,通过聚合API对外提供服务。 − metrics.k8s.io: 主要提供Pod和Node的CPU和Memory相关的监控指标。 − custom.metrics.k8s.io: 主要提供Kubernetes Object相关的自定义监控指标。 − external.metrics.k8s.io:指标来源外部,与任何的Kubernetes资源的指标无关。 扩缩容决策算法 HPA controller跟据当前指标和期望指标来计算缩放比例,计算公式如下: desiredReplicas ceil[currentReplicas ( currentMetricValue / desiredMetricValue )] 例如当前的指标值是200m,目标值是100m,那么按照公式计算期望的实例数就会翻倍。那么在实际过程中,可能会遇到实例数值反复伸缩,导致集群震荡。为了保证稳定性,HPA controller从以下几个方面进行优化: − 冷却时间:在1.11版本以及之前的版本,社区引入了horizontalpodautoscalerdownscalestabilizationwindow和horizontalpodautoScalerupscalestabilizationwindow这两个启动参数代表扩容冷却时间和缩容冷却时间,这样保证在冷却时间内,跳过扩缩容。1.14版本之后引入延迟队列,保存一段时间内每一次检测的决策建议,然后根据当前所有有效的决策建议来进行决策,从而保证期望的副本数尽量小的发生变更,保证稳定性。 − 忍受度:可以看成一个缓冲区,当实例变化范围在忍受范围之内的话,保持原有的实例数不变。 首先定义ratio currentMetricValue / desiredMetricValue 当ratio – 1.0 tolerance时, 就会根据之前的公式计算期望值。 当前社区版本中默认值为0.1 由于当前冷却时间窗,忍受度都是全局的参数,对于用户来说,可能应用所需的忍受度和冷却时间窗都不一致,所以当前CCE在社区的基础上,提供应用级别的忍受度和冷却时间窗。 HPA是基于指标阈值进行伸缩的,常见的指标主要是 CPU、内存,当然也可以通过自定义指标,例如QPS、连接数等进行伸缩。但是存在一个问题:基于指标的伸缩存在一定的时延,这个时延主要包含:采集时延(分钟级) + 判断时延(分钟级) + 伸缩时延(分钟级)。这个分钟级的时延,可能会导致应用CPU飚高,相应时间变慢。为了解决这个问题,CCE提供了定时策略,对于一些有周期性变化的应用,提前扩容资源,而业务低谷时,定时回收资源。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        弹性伸缩
        工作负载弹性伸缩
        工作负载伸缩原理
      • 步骤一(1):创建入云迁移任务
        sectionb5f190b39b311304”章节处理。 迁移实例创建未完成时,“测试链接”按钮灰化。 目标库信息配置 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 目标数据库的登录密码。支持在任务创建后修改密码。 任务为启动中、启动失败、全量中、全量失败、增量中、增量失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 所有Definer迁移到该用户下 是 迁移后,所有源数据库对象的Definer都会迁移至该用户下,其他用户需要授权后才具有数据库对象权限,如何授权请参考MySQL迁移中Definer强制转化后如何维持原业务用户权限体系。 说明 对于MySQL到GaussDB(for MySQL)实例的迁移,目前仅支持选择“是”,即迁移后,所有源数据库对象的Definer都会迁移至该用户下。 否 迁移后,将保持源数据库对象Definer定义不变,选择此选项,需要配合下一步用户权限迁移功能,将源数据库的用户全部迁移,这样才能保持源数据库的权限体系完全不变。 说明 目标数据库的用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 4、在“迁移设置”页面,设置迁移用户和迁移对象,单击“下一步” 图 迁移模式 表 迁移模式和迁移对象 参数 描述 快照模式 如果您选择的是全量迁移模式的任务,数据库复制服务支持设置快照模式。 非快照式 适用于停止业务数据写入的导出,如果全量迁移中仍然有业务数据的修改,则导出数据为时间点非水平一致。稳定性和性能要优于快照式全量迁移。 快照式 可以在业务运行时产生一份时间水平一致的快照数据,具有业务数据分析价值,过程中的数据变化不会体现在导出数据中。 说明 快照读会使用MySQL备份锁进行全局锁表,在开启一致性读后自动解锁(加锁时间在3s以内),备份锁会对此期间的DML或者DDL操作造成阻塞,建议用户选择源库空闲的时间段使用快照备份功能。 目前仅MySQL全量模式的迁移任务支持快照模式设置。 在快照迁移时不允许执行DDL操作,否则会导致全量迁移失败。 迁移用户 数据库的迁移过程中,迁移用户需要进行单独处理。 常见的迁移用户一般分为三类:可完整迁移的用户、需要降权的用户和不可迁移的用户。您可以根据业务需求选择“迁移”或者“不迁移”,选择“迁移”后,可根据需要选择迁移用户。 迁移 当您选择迁移用户时,请参见《数据库复制服务用户指南》中“迁移用户”章节进行数据库用户、权限及密码的处理。 不迁移 迁移过程中,将不进行数据库用户、权限和密码的迁移。 迁移对象 您可以根据业务需求,选择全部对象迁移、表级迁移或者库级迁移。 全部迁移:将源数据库中的所有对象全部迁移至目标数据库,对象迁移到目标数据库实例后,对象名将会保持与源数据库实例对象名一致且无法修改。 表级迁移:将选择的表级对象迁移至目标数据库。 库级迁移:将选择的库级对象迁移至目标数据库。 如果有切换源数据库的操作或源库迁移对象变化的情况,请务必在选择迁移对象前单击右上角的按钮以确保待选择的对象为最新源数据库对象。 说明 若选择部分数据库进行迁移时,由于存储过程、视图等对象可能与其他数据库的表存在依赖关系,若所依赖的表未迁移,则会导致迁移失败。建议您在迁移之前进行确认,或选择全部数据库进行迁移。 选择对象的时候,对象名称的前后空格不显示,中间如有多个空格只显示一个空格。 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 5、在“预检查”页面,进行迁移任务预校验,校验是否可进行迁移。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行迁移任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 图 预检查 预检查完成后,且预检查通过率为100%时,单击“下一步”。 说明 所有检查项结果均通过时,若存在待确认项,需要阅读并确认详情后才可以继续执行下一步操作。 6、进入“参数对比”页面,进行参数对比 参数对比功能从常规参数和性能参数两个维度,展示了源数据库和目标数据库的参数值是否一致。您可以根据业务需求,决定是否选用该功能。该操作不影响数据的迁移,主要目的是为了确保迁移成功后业务应用的使用不受影响。 • 若您选择不进行参数对比,可跳过该步骤,单击页面右下角“下一步”按钮,继续执行后续操作。 • 若您选择进行参数对比,请参照如下的步骤操作。 一般情况下,对于常规参数,如果源库和目标库存在不一致的情况,建议将目标数据库的参数值通过“一键修改”按钮修改为和源库对应参数相同的值。 图 修改常规参数 1)对于性能参数,您可以根据业务场景,自定义源数据库和目标库的参数值,二者结果可以一致也可以不一致。 • 若您需要将对比结果一致的性能参数修改为不一致,需要在“目标库值调整为”一列手动输入结果,单击左上角“一键修改”按钮,即可将源数据库和目标数据库对应的性能参数值改为不一致。 • 若您想将对比结果不一致的参数改为一致结果,请参考如下流程进行修改: a. 对齐源库和目标库的参数值。 当源库和目标库对应的参数值出现不一致时,选择需要修改的参数,单击“一键对齐”按钮,系统将帮您自动填充目标数据库的参数值,使其和源库对应的参数值保持一致。 图 一键对齐参数 说明 对齐参数值的操作,您也可以通过手动输入结果。 2)修改参数值 源库和目标库的不一致参数值对齐后,单击“一键修改”按钮,系统将按照您当前设置的目标库参数值进行修改。修改完成后,目标库的参数值和对比结果会自动进行更新 图 修改性能参数 部分参数修改后无法在目标数据库立即生效,需要重启才能生效,此时的对比结果显示为“待重启,不一致”。建议您在迁移任务启动之前重启目标数据库,或者迁移结束后选择一个计划时间重启。如果您选择迁移结束后重启目标数据库,请合理设置重启计划时间,避免参数生效太晚影响业务的正常使用。 在进行参数对比功能时,您可以参见《数据库复制服务用户指南》中“参数对比列表”进行参数设置。 3)参数对比操作完成后,单击“下一步”。 7、在“任务确认”页面,设置迁移任务的启动时间,并确认迁移任务信息无误后,单击“启动任务”,提交迁移任务。 迁移任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”,优选“稍后启动”。 预计迁移任务启动后,会对源数据库和目标数据库的性能产生影响,强烈建议您将任务启动时间设定在业务低峰期,同时预留23天校对数据。 8、迁移任务提交后,您可在“实时迁移管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(1):创建入云迁移任务
      • 设置应用调度策略
        本文介绍如何设置应用调度策略。 系统支持丰富的调度策略,包括静态的全局调度策略,以及动态的运行时调度策略,用户可以根据需要自由组合使用这些策略来实现自己的需求。目前云容器引擎支持根据节点名称、节点标签进行调度,同时支持根据亲和性与反亲和性调度。 节点名称调度:应用将调度到指定名称的节点上。 节点标签调度: 应用将调度到指定标签的节点上。 亲和 反亲和调度: 用户可根据业务需求进行应用的就近部署,容器间通信就近路由,减少网络消耗。如下图,APP1、APP2、APP3 和 APP4 部署在相同节点上; 同个应用的多个实例反亲和部署,减少宕机影响;互相干扰的应用反亲和部署,避免干扰。如 APP1、APP2、APP3 和APP4 分别部署在不同节点上,这四个应用为反亲和性部署。 云容器平台支持以下几种亲和性设置: 设置应用间亲和 :应用部署在相同“节点”中。 设置应用间反亲和:“ 不同应用”或“相同应用的多个实例”部署在不同主机中。 应用与节点间的亲和性: 应用与节点亲和,决定应用部署在某些特定的主机中。 应用与节点间的反亲和: 决定应用不能部署在某些特定的主机中。 操作须知 在设置“应用间的亲和性”和“应用与节点间的亲和性”时,需确保不要出现互斥情况,否则应用会部署失败。例如如下互斥情况,应用将会部署失败: APP1、APP2设置了应用间的反亲和,例如APP1部署在Node1,APP2部署在 Node2。 APP3部署上线时,既希望与 APP2 亲和,又希望可以部署在不同节点如Node3 上,这就造成了应用亲和和节点亲和间的互斥,导致最终应用部署失败。 操作步骤 进入应用创建流程中的【高级配置】步骤,可根据需求进行不同的节点调度设置。以下列举了六种调度策略设置的方式: 1.选择【节点名称调度】:在【调度】>【节点名称调度】下,单击【添加名称调度】,根据节点名称勾选节点,单击【确定】。该应用将部署在该名称下的节点中。 2.选择【节点标签调度】:在【调度】>【节点标签调度】下,单击【添加标签调度】,勾选节点标签,单击【确定】。该应用将部署在满足该标签的节点中; 3.选择【与节点的亲和性】:在【调度】>【与节点的亲和性】下,单击【添加节点亲和】,勾选需要亲和的节点,单击【确定】。该应用将部署在选择的节点中; 4.选择【与节点的反亲和性】:在【调度】>【与节点的反亲和性】下,单击【添加节点反亲和】,勾选需要反亲和的节点,单击【确定】。该应用将不会部署在选择的节点中; 5. 选择【与应用的亲和】:在【调度】>【与应用的亲和性】下,单击【添加应用亲和】,勾选需要亲和的应用,单击【确定】。亲和的应用将部署在相同节点中; 6.选择【与应用反亲和】:在【调度】>【与应用的反亲和性】下,单击【添加应用反亲和】,勾选需要反亲和的应用,单击【确定】。反亲和的应用将部署在不同节点中;
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        应用资源
        应用创建配置
        设置应用调度策略
      • 新建云原生网关
        本章节介绍如何新建云原生网关 概述 MSE云原生网关同时具备传统的流量网关和业务网关功能,提供全局性和独立业务域级别的流量管理策略,支持Nacos和K8s等多种服务发现方式,本文介绍如何新建云原生网关。 操作步骤 1. 进入微服务引擎MSE控制台 2. 在顶部菜单栏选择资源池 3. 单击左侧导航栏云原生网关 > 网关列表 4. 单击网关列表页面左上角创建网关按钮 5. 在云原生网关订购页选择您要订购的配置,并单击右下角下一步按钮 云原生网关订购配置说明 参数 描述 计费模式 支持包年包月和按需计费方式,费用说明请参照购买指南>计费说明。 购买时长 可以根据实际需求进行选择,支持1个月、2个月、3个月、4个月、5个月、6个月、1年。 自动续期 您可以选择开启自动续期,避免云原生网关到期后无法使用。 自动续期购买时长 当开启自动续期,可以选择续期时长,支持1个月、2个月、3个月、4个月、5个月、6个月、1年。 系列 支持基础版和集群版。 基础版:只支持单可用区部署,且节点数量为1。 集群版:自动将控制节点以及工作节点平均分配部署至各可用区,且节点数量不少于2。 实例规格 架构支持X86(通用、海光)、ARM(通用、鲲鹏、飞腾),具体以当前资源池提供的选项为准。 实例规格支持2C4G 、4C8G 、8C16G 、16C32G规格,规格支撑能力说明请参照产品规格。 数据盘 支持超高IO ,最低大小50G,可根据实际需求自定义填写,填写值必须为50的倍数。 节点数量 基础版固定1个节点,无需填写;集群版您可以根据实际需求填写节点数量,节点数量不少于2。 部署方式 用户无需修改,基础版固定选中单可用区部署。 集群版时,如果当前资源池支持多可用区且节点数量大于2时,则默认为多可用区部署,单可用区部署置灰,否则为单可用区部署。 可用区 基础版需要选择任意一个可用区进行部署。 集群版会自动将控制节点以及工作节点平均分配部署至各可用区。 虚拟私有云 选择虚拟私有云,若您还没有虚拟私有云,请参照创建虚拟私有云。 所在子网 选择所在子网,若您还没有所在子网,请参照创建所在子网。 安全组 选择安全组,若您还没有可用安全组,请参照创建安全组。 实例名称 自定义实例名称,最长40字符,只能包含小写字母、数字及分隔符(),且必须以小写字母开头,数字或小写字母结尾。 企业项目 网关实例关联的企业项目,可以到IAM控制台创建企业项目。 启用监控指标 启用后,可在控制台观测分析中查看系统和API的流量、成功率、延迟等监控指标,若您还没有开通应用性能监控产品,可先点击提示链接前往开通。 启用链路追踪 可选择采集百分比启用,启用后,可在控制台观测分析中查看API请求的链路追踪信息,若您还没有开通应用性能监控产品,可先点击提示链接前往开通。 启用访问日志采集 启用后,可在控制台观测分析中查看访问日志,若您还没有开通云日志服务,可先点击提示链接前往开通。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        网关管理
        新建云原生网关
      • 1
      • ...
      • 37
      • 38
      • 39
      • 40
      • 41
      • ...
      • 483
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      模型推理服务

      科研助手

      人脸检测

      人脸属性识别

      推荐文档

      充值不成功怎么办

      计费类

      产品功能

      NAT网关删除

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号