云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      安全专区_相关内容
      • 备份原理
        本节介绍了什么是数据库备份、备份类型、备份机制等内容。 什么是数据库备份 RDS for MySQL会在数据库实例的备份时段中创建数据库实例的自动备份。系统根据您指定的备份保留期(1~732天)保存数据库实例的自动备份。 每次备份完成后都会生成一个备份文件,当数据库故障或数据损坏时,可以通过备份文件恢复数据库,从而保证数据可靠性。 备份类型 RDS for MySQL包含多种备份类型,不同备份类型的概念介绍以及功能差异,请参见备份类型。 全量备份:对所有目标数据进行备份。全量备份总是备份所有选择的目标,即使从上次备份后数据没有变化。 全量备份触发方式分为:自动备份、手动备份。 增量备份:即Binlog备份,RDS系统自动每5分钟或一定数据量时对上一次全量备份或增量备份后更新的数据进行备份。 备份触发过程 单机实例 采用单个数据库节点部署架构。与主流的主备实例相比,它只包含一个节点,但具有高性价比。备份触发后,从主库备份数据并以压缩包的形式存储在对象存储服务上,不会占用实例的磁盘空间。 主备实例 采用一主一备的经典高可用架构,主备实例的每个节点的规格保持一致。备份触发后,从备库备份数据并以压缩包的形式存储在对象存储服务上(当主备复制延迟较高时会切换到主机备份),不会占用实例的磁盘空间。 当数据库或表被恶意或误删除,虽然RDS支持主备高可用,但备机数据库会被同步删除且无法还原。因此,数据被删除后只能依赖于实例的备份保障数据安全。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据备份
        备份原理
      • 使用DAS的导出和导入功能迁移RDS for PostgreSQL数据
        导入数据 步骤 1 在顶部菜单栏选择“导入·导出”>“导入”。 步骤 2 DAS支持从本地选取文件导入,同时也支持从OBS桶中直接选择文件进行导入操作。 从本地导入文件 在导入页面单击左上角的“新建任务”,在弹出框选择导入类型,选择文件来源为“上传文件”、附件存放位置等信息并上传文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 为了保障数据安全,DAS中文件保存在OBS桶中。 说明 出于数据隐私性保护目的,DAS需要您提供一个您自己的OBS存储,用来接收您上传的附件信息,然后DAS会自动连接到该OBS文件,进行内存式读取,整个过程您的数据内容不会落盘在DAS的任何存储介质上。 导入完成后若勾选删除上传的文件选项,则该文件导入目标数据库成功后,将从OBS桶中自动删除。 从OBS桶中导入文件 在导入页面单击左上角的“新建任务”,在弹出框设置导入类型,选择文件来源为“从OBS中选择”,在OBS文件浏览器弹窗中选择待导入文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 说明 从OBS桶中直接选择文件导入,导入目标数据库成功后,OBS桶不会删除该文件。 步骤 3 导入信息设置完成后,单击“创建导入任务”即可。由于导入任务可能会覆盖您原有的数据,需再次确认无误后单击“确定”继续。 步骤 4 您可在导入任务列表中查看导入进度等信息,在操作栏单击“查看详情”,您可在任务详情弹出框中,了解本次导入任务成功、失败等执行情况及耗时。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据库迁移
        使用DAS的导出和导入功能迁移RDS for PostgreSQL数据
      • 备份原理
        本节介绍了什么是数据库备份、备份类型、备份机制等内容。 什么是数据库备份 RDS for PostgreSQL会在数据库实例的备份时段中创建数据库实例的自动备份。系统根据您指定的备份保留期(1~732天)保存数据库实例的自动备份。 每次备份完成后都会生成一个备份文件,当数据库故障或数据损坏时,可以通过备份文件恢复数据库,从而保证数据可靠性。 备份类型 RDS for MySQL包含多种备份类型,不同备份类型的概念介绍以及功能差异,请参见备份类型。 全量备份:对所有目标数据进行备份。全量备份总是备份所有选择的目标,即使从上次备份后数据没有变化。 全量备份触发方式分为:自动备份、手动备份。 增量备份:即Binlog备份,RDS系统自动每5分钟或一定数据量时对上一次全量备份或增量备份后更新的数据进行备份。 备份触发过程 单机实例 采用单个数据库节点部署架构。与主流的主备实例相比,它只包含一个节点,但具有高性价比。备份触发后,从主库备份数据并以压缩包的形式存储在对象存储服务上,不会占用实例的磁盘空间。 主备实例 采用一主一备的经典高可用架构,主备实例的每个节点的规格保持一致。备份触发后,从备库备份数据并以压缩包的形式存储在对象存储服务上(当主备复制延迟较高时会切换到主机备份),不会占用实例的磁盘空间。 当数据库或表被恶意或误删除,虽然RDS支持主备高可用,但备机数据库会被同步删除且无法还原。因此,数据被删除后只能依赖于实例的备份保障数据安全。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据备份
        备份原理
      • 系统兼容与迁移限制
        主机迁移服务重要声明有哪些? 源端服务器数据收集声明 。 源端服务器上安装和配置完迁移Agent后,迁移Agent会把源端服务器信息发送给主机迁移服务校验,收集的源端服务器的详细信息请参见主机迁移服务会收集源端的哪些信息?。这些数据只用于迁移可行性判断,不做其他用途。若您使用主机迁移服务,表示您同意主机迁移服务对这些信息的收集。 License失效声明 。 源端服务器的系统、应用、文件等数据迁移到目的端服务器后,服务器的SID、网卡MAC地址等信息发生改变,导致OS、应用等License失效。此类问题,主机迁移服务概不负责。对于Windows License可以使用天翼云License服务器获取新License,应用License用户自行解决。 迁移过程中禁止对目的端服务器的系统、磁盘进行操作,包括但不限于切换操作系统、重装系统等。在迁移过程中对目的端服务器进行操作所产生的费用以及数据损坏等问题,主机迁移服务概不负责。 目的端服务器磁盘格式化说明 。 迁移过程中,目的端服务器的磁盘会被格式化并重新进行分区,导致目的端服务器上所有数据丢失。请迁移前做好数据备份以及确认目的端服务器磁盘可被格式化。否则造成数据丢失,主机迁移服务概不负责。 源端磁盘数据安全性声明 迁移过程中,主机迁移服务无法感知磁盘内容,需要您自行保障源端磁盘数据的安全性。如果因为源端磁盘数据中存在木马或病毒等软件,导致迁移后目的端VPC内的主机受到影响,主机迁移服务概不负责。 源端服务器导致的迁移问题免责申明 。 因源端服务器的硬件(如磁盘、网卡)、软件(如OS、应用)、数据(文件)等损坏/配置不当/不兼容/业务量大/网络慢等因素引发的迁移问题,非主机迁移服务的问题,包括但不限于下面列举的问题。您可自行解决,若自行解决无果,您可以向天翼云提出咨询或请求天翼云协助解决,但天翼云不承诺解决问题。 源端服务器系统本身有问题,如:Windows的启动文件损坏或缺失。 源端服务器系统配置错乱,如:Linux的grub配置错乱缺失,fstab配置错乱。 网络问题,如:访问不了公网,网速慢,ssh问题,防火墙等。 IO读写慢,增量数据多,Windows有效簇分散,Linux小文件多导致的迁移慢,同步慢,同步时间比较久的问题。 源端平台服务或软件与天翼云不兼容。 源端平台服务或软件把Agent关闭,或杀毒软件把IO监控关闭。 迁移到天翼云后,若目的端服务器不能正常启动,天翼云可以提供相应的技术支持,但是不承诺解决问题。 其中目的端服务器不能正常启动的原因可能包括以下几种: 源端服务器本身无法重启 源端服务器上有非OS标准的配置 源端服务器上安装了与天翼云不兼容的驱动或软件等 为了适配天翼云,主机迁移服务对目的端服务器的系统配置做了修改,详细的修改项请参见迁移后目的端与源端相比有哪些变化?。主机迁移服务可以保证迁移前后数据一致性,但无法保证业务能正常运行,需要您自己修改业务相关配置。 业务割接后,源端服务器、目的端服务器均有新增数据时,使用主机迁移服务,无法将源端新增数据与目的端新增数据进行合并,只能使用源端数据覆盖目的端数据。因此,建议您在业务割接前,不要在目的端服务器新增数据;业务割接后,不要在源端服务器新增数据。对于业务割接后,源端服务器、目的端服务器均有新增数据且需要合并的情况,需要您自行设计解决方案。 GPU服务器驱动问题声明 迁移到GPU服务器出现的驱动相关问题(如:不具备计算加速/图形加速能力),需要您自行安装相关驱动解决。若自行解决无果,天翼云可以提供相应的技术支持,但是不承诺解决问题。 关于业务隔离、业务冲突声明 主机迁移服务在迁移过程中,不会识别和感知用户业务,需要用户自行识别源端和目的端业务之间的冲突并保持隔离性,如果因为目的端启动后对源端造成业务冲突异常,主机迁移服务概不负责。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        系统兼容与迁移限制
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • 开源对比
        介绍分布式消息服务RocketMQ与开源自建的对比情况。 分布式消息服务RocketMQ基于开源产品RocketMQ进行问题修复与优化,并自主研发,实现低成本、高可靠、高性能和具备监控运维能力的中间件产品。 使用开源RocketMQ遇到的问题 功能不完善:功能比较单一,针对不同应用场景无法有效支持,如消息查询,数据自动删除策略等。 可维护性差:缺乏配套监控运维能力,难以迅速发现解决如消息堆积、队列堵塞等问题。 可靠性较低:消息服务不提供主备切换能力,存在单点故障,无法保证服务高可用。 分布式消息服务RocketMQ改进点 高可用、高可靠改进: 实现自动主备切换、自动拉起功能,保证服务高可用。 实现消息删除策略,按不同的场景优先保证服务可用性或者数据安全性。 可维护性改进: 实现按生产者、消费者、数据节点、队列4种维度的运行状态监控,方便快速发现问题。 实现可视化的监控、配置、管理界面实现自动化测试,以快速迭代。 新增功能: 新增消息查询,做到可查可追踪。 重新封装SDK,简化应用使用,并提供按hash算法实现消息局部有序生产消费。 开源自建对比项 对比项 开源自建 分布式消息服务RocketMQ 自动化部署 不支持自动化部署,需要专业人员自行部署、运维 全托管PaaS,免机器资源一键自动化部署。开箱即用,按需使用,支持弹性扩容 运维监控 缺乏配套的监控运维能力 提供多维度的数据可视化监控,快速定位、处理问题 增强能力 功能单一,无法支持多种场景需求 功能丰富,支持消息重试、消息查询、消息轨迹查询、数据自动清理等定制化功能 延迟消息/定时消息 仅支持18个固定延迟时长,最长延迟2小时 支持秒级的任意延迟时长,最长延迟40天 ACL访问控制 访问控制配置复杂 灵活配置,一键生效
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        开源对比
      • 入门指引和场景说明
        本章节将为您介绍云主机备份入门的基本流程,主要包括场景说明,控制台快速创建云主机备份的操作,帮助您快速上手云主机备份。 入门指引 您还可以通过API方式创建云主机备份,查看和恢复等。 场景说明 云主机备份提供两种配置方式,一次性备份和周期性备份。一次性备份是指用户手动创建的一次性备份任务。周期性备份是指用户通过创建备份策略并绑定云主机的方式创建的周期性备份任务。 云主机备份的两种配置方式对比如下表,可根据实际情况选择适合的配置方式。 对比项 一次性备份 周期性备份 备份策略 不需要 需要 备份次数 手动执行一次性备份 根据备份策略进行周期性备份 单次可备份的云主机数目 1个 ≤64个 备份名称 支持自定义 系统自动生成 备份方式 首次全量备份,非首次增量备份 云主机备份支持从任意一个备份恢复云服务器的全量数据,无论这个备份是全量还是增量。 首次全量备份,非首次增量备份 云主机备份支持从任意一个备份恢复云服务器的全量数据,无论这个备份是全量还是增量。 建议使用场景 云主机进行操作系统补丁安装、升级,应用升级等操作之前,以便安装或者升级失败之后,能够快速恢复到变更之前的状态。 云主机的日常备份保护,以便发生不可预见的故障而造成数据丢失时,能够使用邻近的备份进行恢复。 另外,用户也可以根据业务情况将两种方式混合使用。例如,根据云主机中存放数据的重要程度不同,可以将所有的云主机加入到一个备份策略中进行日常备份保护。其中个别保存有非常重要的数据的云主机,根据需要不定期的执行一次性备份,保证数据的安全性。
        来自:
        帮助文档
        云主机备份 CSBS
        快速入门
        入门指引和场景说明
      • 通过云主机创建Windows系统盘镜像
        前提条件 创建私有镜像前,请您务必执行以下操作: 请将云主机中的敏感数据删除后再创建私有镜像,避免数据安全隐患。 确保云主机处于运行中或关机状态。 检查云主机的网络配置,确保网卡属性为DHCP方式,按需开启远程桌面连接功能。详情请参见设置网卡属性为DHCP(Windows)和开启远程桌面连接功能。 有些云主机正常运行或者高级功能依赖某些驱动,例如:GPU加速型云主机依赖Tesla驱动和GRID/vGPU驱动。因此,需要提前安装特殊驱动。详情请参见安装Windows特殊驱动。 检查云主机中是否已安装一键式重置密码插件,保证镜像创建的新云主机可以使用控制台的“重置密码”功能进行密码重置。详情请参见安装一键式重置密码插件(Windows)。 检查云主机中是否已安装CloudbaseInit工具,保证镜像创建的新云主机可以使用控制台的“用户数据注入”功能注入初始化自定义信息(例如为云主机设置登录密码)。详情请参见安装并配置CloudbaseInit工具。 检查并安装PV driver和UVP VMTools驱动,确保镜像创建的新云主机同时支持KVM虚拟化和XEN虚拟化,并且可以提升云主机网络性能。 详细操作请参见优化过程(Windows)中的步骤2~步骤5。 执行Sysprep操作,确保镜像创建的新云主机加入域后SID唯一。对于集群部署场景,SID需要保持唯一。详情请参见执行Sysprep。 说明 如果待创建私有镜像的云主机使用的是公共镜像,那么默认已安装一键式重置密码插件和CloudbaseInit工具,指导中均提供了验证是否安装的方法,您可以参考相应内容确认。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        通过云主机创建Windows系统盘镜像
      • 管理备份云硬盘
        本节介绍了管理备份云硬盘的相关内容。 操作场景 备份云硬盘通过云备份服务提供的功能实现。 本章节指导用户为云硬盘设置备份策略。通过备份策略,就可以实现周期性备份云硬盘中的数据,从而提升数据的安全性。 购买云硬盘备份存储库并设置备份策略 步骤 1 登录云备份管理控制台。 步骤 2 选择“存储 > 云备份 > 云硬盘备份”。 步骤 3 在界面右上角单击“购买云硬盘备份存储库”。 步骤 4 (可选)在磁盘列表中勾选需要备份的磁盘,勾选后将在已选磁盘列表区域展示。 说明 ● 所选磁盘的状态必须为“可用”或“正在使用”。 ● 若不勾选磁盘,如需备份可在创建存储库后绑定磁盘即可。 步骤 5 输入存储库容量。此容量为绑定磁盘所需的总容量。存储库的空间不能小于备份磁盘的空间。取值范围为[磁盘总容量,10485760]GB。 步骤 6 选择是否配置自动备份。 ● 立即配置:配置后会将存储库绑定到备份策略中,整个存储库绑定的磁盘都将按照备份策略进行自动备份。可以选择已存在的备份策略,也可以创建新的备份策略。 ● 暂不配置:存储库将不会进行自动备份。 步骤 7 如开通了企业项目,需要为存储库添加已有的企业项目。 企业项目是一种云资源管理方式,企业项目管理提供统一的云资源按项目管理,以及项目内的资源管理、成员管理,默认项目为default。 步骤 8 输入待创建的存储库的名称。 只能由中文字符、英文字母、数字、下划线、中划线组成,且长度小于等于64个字符。例如:vault612c。 说明 也可以采用默认的名称,默认的命名规则为“vaultxxxx”。 步骤 9 单击“立即购买”。 步骤 10 根据页面提示,完成创建。 步骤 11 返回云硬盘备份页面。可以在存储库列表看到成功创建的存储库。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理备份云硬盘
      • 应用场景
        本文主要介绍云日志服务的应用场景。 运维管理 在集群的运维工作中,企业应用的运维日志分散在不同的节点上,通过云日志服务提供的采集器将分散在集群各个节点的重要日志数据采集到日志服务平台进行集中化统一管理,享受全托管式服务。 全托管式:日志集中统一管理,提供日志采集、存储、检索与分析能力。 海量日志管理:支持每天百TB级日志的接入,十亿级日志秒级搜索。 提升运维效率:通过关键词检索可快速搜索出异常事件的日志,定位问题节点,结合上下文查询能力将异常事件的调用链完整还原,全面提升运维效率。 日志数据统计分析 云日志服务支持对日志内容进行结构化处理,按照指定的分词规则将日志原文格式化解析为键值对,即可更方便地日志数据进行统计分析,包括网站或应用程序的访问分析、业务数据分析、安全事件分析等,帮助企业更全面、更便捷地了解系统、业务和用户等方面的情况,优化运营和决策,从而提高企业的业务价值和竞争力。 多种结构化解析:针对日志记录格式不规范、不统一的问题,云日志服务提供JSON、分隔符、正则等格式结构化解析能力,使日志具备可读性与可分析性。 灵活构造分析条件:支持SQL语句或可视化方式构造不同的分析条件,提供丰富的查询分析语句,学习成本低,可灵活构造各类数据分析场景。 可视化分析结果展示:提供柱状图、饼图、时序图、流图等多种图表对日志数据进行直观化分析展示,有助于迅速发现趋势、异常和潜在问题,更好地了解业务运行状况,及时做出相应的决策。
        来自:
        帮助文档
        云日志服务
        产品介绍
        应用场景
      • 开启AOne会议服务
        本文主要介绍如何开启使用AOne会议服务。 前提条件 已开通AOne会议服务。如何开通,请参见:开通AOne会议服务。 操作步骤 按照以下步骤完成初始配置,即可开始使用AOne会议: 步骤 操作内容 操作指引 1 登录会议控制台 进入客户控制台 2 设置企业标识。首次订购使用AOne会议或订单已销毁后重新订购,需要先设置企业标识。企业标识为登录客户端的重要标识,建议使用企业名称等方便企业办公终端用户记忆的信息作为企业认证标识,暂不允许控制台修改,若有需要可提交工单进行配置。 设置企业标识 3 添加用户和组织。为确保企业登录AOne会议客户端人员身份合法性,以及提升企业办公安全性,企业员工在登录AOne会议客户端时需要进行身份认证。因此需要先创建用户与组织信息,在该列表的用户才可登录使用AOne会议。 用户管理 4 提交工单完成会议配置。完成用户组织添加后,请提交工单联系我们的技术团队,以完成会议配置的下发。 —— 5 设置高级账号和云录制空间配额。步骤3中新增的用户默认为免费账号,仅可加入会议,不支持发起会议。若用户需要发起会议,请在资源管理模块为其分配高级账号与云录制空间配额。若高级账号用户的云空间配额为0,则其发起的会议将无法使用云录制功能。 资源管理 6 登录使用AOne会议。在导入列表中的用户,属于企业用户,可直接下载AOne会议客户端并登录使用。没有在导入列表中的用户如果需要加入会议,则需要自行注册个人用户账号后再登录。 下载登录AOne会议 免费注册个人用户账号
        来自:
        帮助文档
        AOne会议
        快速入门
        开启AOne会议服务
      • 新增DML审计规则
        为确保DRDS高效、稳定运行,需对应用可能运行的SQL语句进行审计,找出不符合规范的语句,拒绝语句执行或者对用户提示警告,即通过DML审计规则可以实现SQL黑名单的功能。除默认常用的DML审计规则外,您还可以根据实际情况新增DML审计规则。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 在左侧目录单击数据库安全 ,然后单击数据库审计 页签,进入DML审计页面。 您可以在审计日志列表中查看目标分组和分片的审计日志,包括时间、数据库、语句、用户、客户端、审计方式和审计信息。 5. 选中目标分组,单击查看或修改审计 规则,进入DML审计规则面板。 6. 在审计规则列表上方,单击新增DML审计配置。 7. 在对话框中,配置审计规则参数,然后单击确定。 参数 说明 DML审计规则 审计规则的名称。 审计类型 审计匹配规则,取值范围: 参数化sql匹配 原始sql匹配 正则式匹配 SQL 当审计类型 设置为参数化sql匹配 或原始sql匹配时,需要输入审计的SQL语句。 正则表达式 当审计类型 设置为正则式匹配时,需要输入审计的正则表达式。 审计方式 支持配置为拒绝 或警告。 注意 对于审计方式 为拒绝 的审计规则,DRDS实例直接向前端提示报错信息,拒绝语句执行。 对于审计方式 为警告的审计规则,DRDS实例会将语句的相关信息记录到审计日志中,该日志可提供给开发人员对SQL语句进行参考优化,您可以在审计日志中查看相关信息。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        数据库安全
        DML审计
        新增DML审计规则
      • 管理应用用户生产消费权限
        场景描述 Kafka管理应用用户生产消费权限的场景描述如下: 应用开发和测试:在应用开发和测试阶段,需要为开发人员和测试人员提供适当的生产和消费权限,以便他们能够读取和写入Kafka主题。这样可以确保他们能够有效地测试和验证应用程序的功能。 应用部署和运维:在将应用程序部署到生产环境中时,需要为运维团队提供适当的生产和消费权限。运维团队可以使用这些权限来监控和管理Kafka集群,并处理任何可能的故障或问题。 数据分析和报告:对于数据分析师和报告人员,他们可能需要从Kafka主题中读取数据进行分析和生成报告。为他们提供适当的消费权限可以帮助他们获取所需的数据,并进行相关的数据分析和报告工作。 数据集成和同步:在数据集成和同步的场景中,可能需要为特定的应用或系统提供生产和消费权限。这样可以确保数据的可靠传输和同步,以满足不同系统之间的数据需求。 多租户环境:在多租户环境中,需要管理不同租户之间的生产和消费权限。为每个租户分配独立的权限可以确保数据的隔离和安全性,同时满足不同租户的需求。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页的操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入用户管理界面,该页面展示用户列表。 (5)选择相应的用户,点击其右侧的”用户权限“按钮进行权限管理。 (6)生产权限。先点击”添加生产权限“按钮,在弹窗的左侧选择需要添加生产权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。 (7)消费权限。左上角切换消费权限,点击”添加消费权限“按钮,在弹窗的左侧选择需要添加消费权限的Topic,然后点击中间按钮,最后点击”确定“完成添加。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        管理应用用户生产消费权限
      • 操作跟踪API请求结构
        本节主要介绍操作跟踪API请求结构。 接入地址 对象存储网络:ooscncloudtrail.ctyunapi.cn,对象存储网络2:ooscn2cloudtrail.ctyunapi.cn,香港精品网和香港普通网:ooscnhkcloudtrail.ctyunapi.cn。 通信协议 为了保证通信的安全性,操作跟踪仅支持HTTPS。 HTTP请求方法 操作跟踪支持HTTP POST请求方法发送请求。 请求参数 每个请求都需要指定如下信息: 每个操作接口都需要包含的公共请求参数。 操作接口所特有的请求参数。 本节主要描述公共请求参数和请求结果。 说明 在后续提到具体操作跟踪API时,举例中都会有公共请求头 、 公共响应头 ,但是不对其进行描述和解释。 公共请求头 在每个请求中,都需要携带公共参数和对应的接口参数。公共请求参数如表所示: 名称 描述 是否必须 ::: Host 操作跟踪访问域名。 对象存储网络:ooscncloudtrail.ctyunapi.cn。 对象存储网络2:ooscn2cloudtrail.ctyunapi.cn。 香港精品网和香港普通网:ooscnhkcloudtrail.ctyunapi.cn。 是 Authorization V4请求头签名。 类型:字符串 是 XAmzDate 日期和时间格式必须遵循ISO 8601标准,并且必须使用“yyyyMMddT HHmmssZ”格式进行格式化。例如,如果日期和时间是“08/01/2018 15:32:41.982700”,则必须首先将其转换为UTC(协调世界时),然后提交为“20180801T083241Z”。 是 XAmzTarget 操作跟踪请求目标,格式为cn.ctyunapi.ooscncloudtrail.v20131101.CloudTrail20131101.Target。 例如创建操作跟踪的请求为: XAmzTarget:cn.ctyunapi.ooscncloudtrail.v20131101.CloudTrail20131101.CreateTrail 是 ContentType 请求内容类型。 类型:字符串 取值:application/json。 是 Connection 客户端与OOS服务器之间的连接状态。 取值: keepalive:长连接,请求结束后继续保持连接。 close:短连接,请求结束后关闭连接。 默认值为:keepalive。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        操作跟踪
        操作跟踪API请求结构
      • (停止维护)CCE发布Kubernetes 1.21版本说明
        本文主要介绍 CCE发布Kubernetes 1.21版本说明。 云容器引擎(CCE)严格遵循社区一致性认证。本文介绍CCE发布Kubernetes 1.21版本所做的变更说明。 版本升级说明 CCE针对Kubernetes 1.21版本提供了全链路的组件优化和升级。 表 核心组件及说明 集群类型 核心组件 版本号 升级注意事项 :::: CCE集群 Kubernetes 1.21 无 CCE集群 Docker CentOS:18.9.0 Ubuntu:18.09.9 无 CCE集群 操作系统 CentOS Linux release 7.6 1.21版本开始CCE集群 Centos7.6节点docker存储模式使用overlayfs CCE集群 操作系统 Ubuntu 18.04 server 64bit 无 资源变更与弃用 社区1.21 ReleaseNotes CronJob现在已毕业到稳定状态,版本号变为batch/v1。 不可变的Secret和ConfigMap现在已升级到稳定状态。向这些对象添加了一个新的不可变字段,以拒绝更改。此拒绝可保护集群免受可能无意中中断应用程序的更新。因为这些资源是不可变的,kubelet不会监视或轮询更改。这减少了kubeapiserver的负载,提高了可扩展性和性能。更多信息,请参见Immutable ConfigMaps。 优雅节点关闭现在已升级到测试状态。通过此更新,kubelet可以感知节点关闭,并可以优雅地终止该节点的Pod。在此更新之前,当节点关闭时,其Pod没有遵循预期的终止生命周期,这导致了工作负载问题。现在kubelet可以通过systemd检测即将关闭的系统,并通知正在运行的Pod,使它们优雅地终止。 具有多个容器的Pod现在可以使用kubectl.kubernetes.io/默认容器注释为kubectl命令预选容器。 PodSecurityPolicy废弃,详情请参见 BoundServiceAccountTokenVolume特性进入Beta,该特性能够提升服务账号(ServiceAccount)Token的安全性,改变了Pod挂载Token的方式,Kubernetes 1.21及以上版本的集群中会默认开启。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.21版本说明
      • POST请求签名(V2版本)
        此文档介绍通过POST请求上传对象所需的V2版本签名方法。 POST V2签名说明 POST签名是指使用POST方式上传文件时,要求每个请求都必须附带一个签名(Signature)。POST V2签名是通过访问密钥(Secret Access Key)对一系列请求参数(上传策略policy等)进行加密计算得到的。当请求发送时,会验证签名的合法性,只有签名验证成功的请求才会被接受,否则请求将被拒绝。 POST V2签名表单独有参数 POST V2签名除了POST上传对象中说明的公共表单元素外,会有一些独有的表单元素: 参数 参数类型 说明 AWSAccessKeyId String Bucket拥有者的Access Key ID,当Bucket为非publicreadwrite或者提供了Policy(或Signature)表单域时,必须提供AWSAccessKeyId表单域 Signature String 根据AccessKey Secret和Policy计算的签名信息,验证该签名信息从而验证该Post请求的合法性。注意: 当Bucket为非publicreadwrite或者提供了AWSAccessKeyId(或Policy)表单域时,必须提供Signature表单域,同时表单域的值对大小写敏感,但是表单域对大小写不敏感 Policy说明 Policy表单域是一种安全策略,若请求不包含Policy,则只能访问publicreadwrite的Bucket, 当Bucket为非publicreadwrite或者提供了AccessKeyId(或Signature)表单域时,必须提供Policy表单域 。 Policy由JSON格式来定义,可以通过多项参数来限制上传的相关操作,比如允许上传的Bucket、Key前缀等。 其中,policy中有两个字段是必须的: expiration:指定policy的过期时间(ISO8601 GMT格式)。例如指定为20241216T13:00:00.000Z,表示必须在2024年12月16日13点之前发起POST请求。 conditions:指定POST请求表单域的合法值。
        来自:
        帮助文档
        媒体存储
        API参考
        API(原生接口)
        关于对象的操作
        基础操作
        POST上传
        POST请求签名(V2版本)
      • 示例场景
        本节主要介绍示例场景 前提条件 请确保您已拥有天翼云帐号,若您还没有帐号,请先进行注册并实名认证。 请确保您已开通企业项目管理服务EPS,如服务未开通,请首先在天翼云网门户提交申请开通工单。 创建企业项目的用户必须是管理员,或在IAM侧已被授予EPS FullAccess权限的IAM用户。 操作场景 企业项目管理支持通过配置IAM用户对云资源进行分类管理。 若您拥有多种云资源,为了方便云资源的管理和使用的安全性,可以通过创建不同的企业项目和IAM用户并授予不同云服务的管理权限,从而实现IAM用户对云资源的分类管理。 本节以一个案例让您了解如何通过企业项目管理实现IAM用户拥有独立、隔离的云资源管理权限。 操作规划 操作项目 描述 创建用户组 在IAM控制台分别创建用户组TestECSA和TestECSB。 创建IAM用户并添加至用户组 在IAM控制台分别创建用户TestUserA和TestUserB。 将用户TestUserA添加至用户组TestECSA; 将用户TestUserB添加至用户组TestECSB。 创建企业项目并将用户组添加至项目 在企业项目管理页面分别创建企业项目projectA和projectB。 将用户组TestECSA添加至企业项目projectA; 将用户组TestECSB添加至企业项目projectB。 企业项目迁入资源 在企业项目管理页面分别给企业项目projectA和projectB迁入对应的云资源。 操作流程
        来自:
        帮助文档
        企业项目管理
        快速入门
        示例场景
      • 性能指标
        类型 指标 描述 主要评价指标 整体性能 平均响应时间,该值越小,则响应时间越短。 主要评价指标 服务可用性 访问成功率,该值越高,则可靠性越强。 网络指标 DNS解析时间 通过域名解析服务(DNS),将指定的域名解析成IP地址的消耗时间。 网络指标 TCP建连时间 浏览器或客户端和WEB服务器建立TCP/IP连接的消耗时间。 网络指标 SSL握手时间(按需) 浏览器或客户端和WEB服务器建立安全套接层(SSL)连接的消耗时间。 网络指标 首包时间 浏览器或客户端发送HTTP请求结束开始,到收到WEB服务器返回的第一个数据包的消耗时间。 网络指标 内容下载时间 监测一个页面时,从页面角度看,浏览器或客户端接收WEB服务器返回第一个数据包,到所有内容传输完成的时间。 CDN平台指标 回源率 回源率分为回源请求数比例及回源流量比例两种。 1. 回源请求数比例:指CDN节点上没有缓存、缓存过期和不可缓存的请求占全部请求记录的比例。 注意 对于开启分片回源功能的域名,因为CDN回源做了分片,而用户访问CDN没有分片,可能会出现CDN节点回源请求数远大于用户访问CDN的请求数的情况。这种情况下回源请求率的数据将没有参考意义。 2. 回源流量比例:回源流量是CDN节点回源请求内容时产生的流量。回源流量比回源流量/用户请求访问的流量,比值越低,性能越好。 CDN平台指标 缓存命中率 缓存命中率包括流量命中率和请求命中率。CDN缓存命中率低,会导致源站压力大,静态内容访问效率低。 统计方式: 流量命中率 1 回源流量/流量(5分钟粒度)。 请求命中率 1 回源请求数/请求数(5分钟粒度)。
        来自:
        帮助文档
        CDN加速
        产品简介
        性能指标
      • 术语解释
        分布式表(Distributed Table) 分布式表是云数据库ClickHouse中本地表的集合,将多个本地表抽象为一张统一的表,对外提供写入和查询功能。当写入分布式表时,数据会被自动分发到集合中的各个本地表中;当查询分布式表时,集合中的各个本地表都会被分别查询,最终结果会被汇总后返回。分布式表具备良好的横向扩展能力,可以利用多台服务器的存储和计算资源来处理大规模数据。 表引擎 表引擎即表类型,决定数据的存储方式和位置、支持的查询以及访问、索引、主备复制等特性。云数据库ClickHouse提供了多种表引擎,主要为以下4个系列。MergeTree系列:核心存储引擎,最通用和功能最强大的表引擎,支持数据Replicated和Distributed。Log系列:功能相对简单,主要用于快速写入小表(1百万行左右的表),然后全部读出的场景。Integration系列:主要用于将外部数据如Kafka、HDFS、Mysql导入到云数据库ClickHouse中,或者在云数据库ClickHouse中直接操作外部数据源。Special系列:为特定场景而定制,如数据内存存储、为目标表配置buffer、数据存本地文件等。 单机表 单机表的数据只会存储在当前机器上,不会被复制到其他机器。单机表适用于对数据的冗余存储要求较低的场景,适合小规模数据集的处理和分析。 复制表 复制表的数据会被自动复制到多台机器上,形成多个副本。复制表通过数据冗余和备份提高数据的可靠性和容错能力。当其中一个副本节点出现故障时,系统可以切换到其他副本节点,确保数据的持久性和可用性。复制表适用于对数据可靠性和冗余要求较高的场景,确保数据的安全性和高可用性。
        来自:
        帮助文档
        云数据库ClickHouse
        产品简介
        术语解释
      • 云审计服务支持的关键操作
        此小节介绍云审计服务支持的关键操作。 如何查看云审计日志 开启了云审计服务后,系统开始记录DBSS资源的操作。云审计服务管理控制台保存最近7天的操作记录。 查看DBSS的云审计日志 1. 登录管理控制台。 2. 在左侧导航树中,单击,选择“管理与监管 > 云审计服务”,进入云审计服务信息页面。 3. 单击左侧导航树的“事件列表”,进入事件列表信息页面。 4. 单击事件列表上方的“Region”,设置对应的操作事件条件。当前事件列表支持四个维度的组合查询. “操作用户”:在下拉框中选择某一具体的操作用户,此操作用户指用户级别,而非租户级别。 “事件级别”:可选项为“所有事件级别”、“normal”、“warning”、“incident”,只可选择其中一项。 可在页面右上角选择查询最近1小时、最近1天、最近1周及自定义时间段的操作事件。 5. 单击“查询”,查看对应的操作事件。 6. 在需要查看的记录左侧,单击展开该记录的详细信息,展开记录如图所示。 7. 在需要查看的记录右侧,单击“查看事件”,弹出一个窗口,如图所示,显示了该操作事件结构的详细信息。 云审计服务支持的DBSS操作列表 数据库安全服务通过云审计服务(Cloud Trace Service,CTS)为用户提供云服务资源的操作记录,记录内容包括用户从管理控制台或者开放API发起的云服务资源操作请求以及每次请求的结果,供用户查询、审计和回溯使用。 云审计服务支持的DBSS操作列表如表所示。 操作名称 资源类型 事件名称 创建实例 dbss createInstance 删除实例 dbss deleteInstance 开启实例 dbss startInstance 关闭实例 dbss stopInstance 重启实例 dbss rebootInstance 实例状态变化 dbss cloudServiceInstanceStatus 创建包周期实例 dbss cloudServiceInstanceCreate 实例元数据变化 dbss updateMetaData
        来自:
        帮助文档
        数据库安全
        用户指南
        云审计服务支持的关键操作
      • 新建检查
        本小节介绍服务器安全卫士新建检查以及查看检查结果方法。 新建检查 1.单击“新建检查”按钮,进入新建检查页面。 添加主机规则 新建检查功能说明 功能 说明 检查名称 输入基线的检查名称 执行范围 全部主机:主账号可选全部主机,子账号不可选全部主机。(子账号不显示“全部主机”选项) 选择业务组:可选择该账号管辖范围内的业务组。 选择主机:选择该账号管辖范围内的主机 IP,也可手动输入主机IP。 【说明】需要先选择检查范围后,才能选择基线规则。选择了检查范围后,将根据所选主机匹配出适用的应用基线,有多少主机缺少账号授权,并提供设置入口。 【提示】例如:您选择的主机中包含20台主机缺少账号授权,点击设置。 基线规则 系统将根据所选主机匹配出适用的基线规则。分为系统基线和应用基线两大类,每类下又细分为CIS 和等保基线,基线可多选。 【说明】基线选择后,若为数据库类型应用基线,则提示该规则中是否有需要添加账号授权的基线,若有,则提示,例如:该规则中的60个检查项需要账号授权 目前支持的系统基线有:centos6/7 rhel6/7 ubuntu12/14/16 支持的应用基线有:Apache Apache2 MySQL MongoDB Nginx 定时检查 打开定时检查开关,则可以输入定时表达式,且定时表达式为必填。定时表达式为 crontab 格式,点击“创建并执行”时,需要校验该格式是否正确,校验规则请参考“任务系统》新建作业中 crontab 格式”。 鼠标移动到定时表达式后的 i,则显示定时表达式的输入说明。 关闭定时检查开关,则不可以输入定时表达式。 描述 输入对该基线的描述。
        来自:
        帮助文档
        服务器安全卫士
        合规基线
        新建检查
      • 功能清单
        功能名称 功能描述 发布区域 当前云硬盘提供了三类API,分别为云硬盘API、云硬盘快照API、云硬盘自动快照API。 详细的提供了API的描述、语法、参数说明及示例等内容。 云硬盘API:全部 云硬盘快照API:华东1/华北2 云硬盘自动快照API:华东1/华北2 云硬盘支持多种配置规格,可挂载至云主机用作数据盘和系统盘,根据性能将其分为XSSD3、XSSD2、XSSD1、XSSD0、极速型SSD、超高IO、通用型SSD、高IO、普通IO几种规格。 您可以在实际使用中可以选择符合业务需求与成本预算的规格进行购买。 不同地域支持的磁盘类型不同,您可以通过 云硬盘的磁盘模式分为三种,分别是: VBD(Virtual Block Device):虚拟块存储设备。 SCSI (Small Computer System Interface):小型计算机系统接口。 FCSAN(Fibre Channel SAN):光纤通道协议的SAN网络。 VBD:全部 SCSI: HDD类型:拉萨3/北京9/西宁2/庆阳2/呼和浩特3 SSD类型:华北2/郑州5/上海36/西南1/西宁2/庆阳2/呼和浩特3/沈阳8/华东1 FCSAN:上海7 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 全部 创建云硬盘后,需要将云硬盘挂载给云主机或物理机,供云主机或物理机作为数据盘使用。 挂载云硬盘通常分为两种,一种是挂载非共享云硬盘,另一种为挂载共享云硬盘。 全部 当卸载数据盘时,支持离线卸载或在线卸载,即可在挂载该数据盘的云主机处于“运行中”或“关机”状态时进行卸载。 只有数据盘支持卸载操作,系统盘不支持卸载。 全部 一块新创建的数据盘在挂载至云主机后,还不能直接存储数据,您需要为这块数据盘创建分区、格式化等初始化操作后才可以正常使用。 全部 当云硬盘空间不足时,您可以扩大云硬盘的容量,也就是云硬盘扩容。云硬盘扩容可以有如下两种处理方式: 申请一块新的云硬盘,并挂载给云主机。 扩容原有云硬盘空间。系统盘和数据盘均支持扩容。 全部 当您不再使用包年/包月的云硬盘时,可以退订云硬盘以释放存储空间资源。退订云硬盘后,将停止对云硬盘收取费用。 当云硬盘被退订后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 当您不再使用按量付费的云硬盘时,可以删除云硬盘以释放存储空间资源。 删除云硬盘后,将停止对云硬盘收取费用。当云硬盘被删除后,云硬盘的数据将无法被访问。同时,该云硬盘对应的物理存储空间会被回收,对应的数据会被覆盖。在数据被覆盖之前,该存储空间不会被再次分配。 全部 云硬盘快照是云硬盘数据在特定时间点的完整副本或镜像。作为一种主要的灾难恢复方法,您可以使用快照将数据完全恢复到创建快照时的时间点。 您可以通过管理控制台或者API接口创建云硬盘快照。 华东1/华北2 天翼云云硬盘支持自动快照功能,您可以通过自动快照策略周期性地为云硬盘创建快照,可同时适用于系统盘和数据盘。 自动快照服务便于您灵活设置快照创建任务,提高数据安全和操作容错率。 华东1/华北2 天翼云云硬盘回收站支持将删除的云硬盘资源保存至回收站中,是一种数据保护的方式。在一定时间内,您可以在回收站内恢复云硬盘数据,以防止误删除导致的云硬盘数据丢失。 回收站功能默认为关闭状态,如需使用,需要您手动开启,保留时间最多为7天。 华东1/南宁23/上海36/青岛20/武汉41/华北2/长沙42/西南1/南昌5/西安7/太原4/郑州5/西南2贵州/华南2/杭州7/庆阳2/呼和浩特3/佛山7 云硬盘备份是指将云硬盘中的数据备份到其他存储介质或位置的操作。 云硬盘备份是一种数据保护措施,旨在应对数据损坏、误删除、恶意操作或主存储系统故障等风险,以确保数据的可靠性和可恢复性。 芜湖4/合肥2/芜湖2/北京5/重庆2/厦门3/福州3/福州4/福州25/兰州2/庆阳2/佛山3/广州6/南宁23/南宁2/贵州3/海口2/石家庄20/郑州5/华北2/华东1/华南2/武汉3/武汉4/武汉41/郴州2/长沙3/长沙42/南京2/南京4/南京3/南京5/九江/南昌5/沈阳8/辽阳1/呼和浩特3/内蒙6/中卫5/中卫2/西宁2/西安7/西安4/西安5/西安3/青岛20/上海15/上海7/上海36/太原4/晋中/成都4/西南1/西南2贵州/乌鲁木齐7/乌鲁木齐27/拉萨3/昆明2/杭州7/杭州2 当您的业务因为等保合规或安全要求等原因,需要对存储在云硬盘上的数据进行加密保护时,您可以在创建云硬盘时勾选加密选项,即可对新创建的云硬盘进行加密。 南宁23/华东1/南昌5/华南2/西安7/太原4/华北2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/芜湖4/西南1/上海36/上海15/北京9/上海17/佛山7/长春3/宁波2 共享云硬盘允许多个云主机并发访问同一个云硬盘,实现多个实例之间的数据共享和协作。对云硬盘的共享访问通常应用于数据集群应用系统、分布式文件系统和高可用性架构等场景。 一块共享云硬盘支持同时挂载到最多16台云主机,其中云主机包括弹性云主机和物理机两种,目前共享云硬盘只支持共享数据盘,不支持共享系统盘。 重庆2/南宁2/成都4/芜湖2/九江/西宁2/拉萨3/海口2/佛山3/贵州3/福州3/上海7/杭州2/北京5/南京3/南京4/西安4/内蒙6/晋中/郴州2/武汉4/福州4/昆明2/西安5/南京5/华东1/南宁23/上海36/石家庄20/辽阳1/青岛20/武汉41/福州25/乌鲁木齐27/华北2/西南1/长沙42/中卫5/南昌5/华南2/西安7/太原4/郑州5/西南2贵州/杭州7/西安3/庆阳2/乌鲁木齐7/中卫2/厦门3/乌鲁木齐4/上海15/芜湖4/北京9/上海17/呼和浩特3/沈阳8/上海20/佛山7/广州9/长春3/宁波2 当您开通云硬盘服务后,即可通过云监控来查看云硬盘的性能指标。 云硬盘支持的监控指标包括:磁盘读速率、磁盘写速率、磁盘读请求速率、磁盘写请求速率、平均写操作大小、平均读操作大小、平均写操作耗时、平均读操作耗时 。 全部 包年包月采用包周期预付费的计费模式,按订单的购买周期计费,适用于可预估资源使用周期的场景。 如果您需要更灵活的计费方式,按照云硬盘的实际使用时长计费,您可以将云硬盘的计费方式转为按需付费。 全部 天翼云提供多种云硬盘类型,满足不同场景的存储性能和价格需求,您可以根据业务需求变更云硬盘的类型。 例如,创建云硬盘时选择了通用型SSD,但后期需要更高的IOPS,则可以将该盘变配为超高IO型云硬盘。 普通IO、高IO、通用型SSD、超高IO:南宁23/上海36/青岛20/武汉41/华北2/西南1/南昌5/西安7/太原4/华南2/郑州5/西南2贵州/杭州7/庆阳2/呼和浩特3/长沙42/乌鲁木齐7/华东1/上海15/佛山7 X系列:已上线的地域, 除华北2均支持修改磁盘类型,已上线区域请参见 针对按需计费云硬盘,您可以手动释放云硬盘,也可以设置随实例释放云硬盘(如果云硬盘开启了随实例释放,则在释放云主机实例时云硬盘会自动一起释放)。 云硬盘的快照默认不随云硬盘自动释放,如果您不再需要某些云硬盘快照,可以将其手动释放。您还可以通过设置云硬盘释放策略,选择在释放云硬盘的同时释放该盘的全部快照。 随实例释放按需计费云硬盘:华东1/华北2 随云硬盘释放快照:华东1/华北2
        来自:
        帮助文档
        云硬盘 EVS
        产品介绍
        功能清单
      • 使用限制
        本文简要介绍组播的使用限制及使用前提。 使用限制 在VPC中创建的弹性网卡,如果未绑定到云服务器,不支持加入组播网络。 弹性网卡被指定为组播成员后,如果您在VPC中删除该弹性网卡,则该弹性网卡关联的组播对象关系自动解除,当前弹性网卡(辅助网卡)仅支持动态加入。 在云间组播场景时,若组播成员同时选择IGMPv2和IGMPv3加入组播组,则只会接受IGMPv2的(,G)的report。 同地域的多个组播域之间互不相通。 一个VPC下仅支持创建一个组播域。 一个组播域下支持创建多个组播组,各个组播组的IP地址不能相同。 仅支持弹性网卡的主私网IP地址作为组播网络通信对象,弹性网卡其余IP地址不支持组播通信。 当前不支持IPv6类型组播,仅支持IPv4类型。 对于知名组播地址(224.0.0.0~224.0.0.255,239.0.0.0~239.255.255.255)会做下发限制,暂不允许添加,如您的页面不支持添加知名组播地址的特殊入口,联系工单开放白名单功能。 组播资源的配额限制如下表所示。 资源 默认配额 提升配额 单个租户可以创建的组播域数量 50 不可申请 单个组播域可以创建的组播组数量 30 不可申请 使用前提 1、您已创建虚拟私有云、云服务器等实例。如有云上云下建立组播的需求,需提前准备好云专线。 2、您已配置好客户侧路由及云内专线与VPC的关系(专线的配置仅当云上云下建立组播的时候需要)。 3、确保安全组已放通组播源和组播成员对应的端口号。
        来自:
        帮助文档
        虚拟私有云 VPC
        组播
        使用限制
      • 镜像和备份有什么区别?
        对比维度 云服务备份 镜像服务 概念 备份是将云主机或者云硬盘某一时间节点的状态、配置和数据信息保存下来,以供故障时进行恢复,其目的是为了保证数据安全,提升高可用性。 镜像相当于云主机的“装机盘”,它提供了启动云主机所需的所有信息,其目的是为了创建云主机,批量部署软件环境。系统盘镜像包含运行业务所需的操作系统、应用软件,数据盘包含业务数据。整机镜像是系统盘镜像和数据盘镜像的总和。 使用方式 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建备份的云硬盘删除,对应的备份不会被同时删除。 操作对象:保存云主机/磁盘指定时刻的数据,可以设置自动备份和过期自动删除。 用途:备份可以恢复数据至原主机/磁盘中,也可以直接创建新的磁盘或整机镜像。 是否可以导出至本地:否。 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建镜像的主机/磁盘删除,对应的镜像不会被同时删除。 操作对象:可以将主机的系统盘和数据盘制作为私有镜像,也可以通过外部镜像文件制作私有镜像。 用途:系统盘镜像或整机镜像可以创建新的主机,数据盘镜像可以创建新的磁盘,实现业务迁移。 是否可以导出至本地:部分可以,整机镜像不支持导出至本地,详见 应用场景 适用场景: 数据备份与恢复 业务快速部署和迁移 适用场景: 服务器上云或云上迁移 部署特定软件环境 批量部署软件环境 服务器运行环境备份 优势 支持自动备份,可以定时定量保留服务器/磁盘某一时间节点的数据。 可以备份系统盘。可以将本地或者其他云平台的服务器数据盘镜像文件导入至镜像服务中。导入后,可使用该镜像创建新的云硬盘。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        镜像和备份有什么区别?
      • 执行角色
        执行角色 概述 使用云工作流构建应用时,您需要创建执行委托角色并授予相应权限,若不配置委托角色,云工作流默认使用 服务内联委托 角色 。云工作流在执行流程时将以该角色身份代表您访问云服务,例如执行函数、发送消息或调用其他流程。 云工作流基于统一身份认证IAM的委托权限管理机制。授权原理如下:策略定义了访问某项服务的能力,将策略绑定到委托后,该委托便具备访问该服务的权限。第三方只需扮演具备所需权限的角色即可访问服务,无需长期密钥,从而提升系统安全性。 操作步骤 创建委托角色 1. 使用 IAM管理员 登录IAM控制台。 2. 在左侧导航栏,选择 委托。 3. 在委托列表页面,单击 创建委托。 4. 在 创建委托 页面,选择 可信实体类型 为 服务委托, 点击下一步。 5. 在配置委托页面, 输入 委托名称 ,选择委托服务选 一类节点函数计算cf。 6. 输入完成后点击 完成,即可创建完成。 配置委托权限 1. 使用IAM管理员登录IAM控制台。 2. 在左侧导航栏,选择 委托。 3. 在委托列表页,选择需要授权的委托,点击旁边的 授权 按钮。 4. 在 选择策略 页面, 搜索/选择你需要的云服务策略, 本例子授权 对象存储 的 只读 权限 。 如果需要更精细的权限控制,可以先创建自定义策略,详情请查阅创建自定义策略 5. 授权范围将默认勾选全局范围,您可以直接点击“确定”完成授权。 6. 创建完成委托角色后, 即可在 工作流设置 中下拉选择设置。工作流设置详见工作流执行器关于 工作流配置 说明。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        执行角色
      • 概念与功能问题
        是否支持对本地代码进行检查、构建及部署? 部分支持。 代码检查、编译构建服务支持代码托管、通用Git等源码源,可选择在本地搭建的网络通用标准的Git,且需本地网络能访问互联网。 部署服务所使用的软件包,需要从制品仓库服务“软件发布库”中取得,因此需要先将待部署的软件包上传到软件发布库中。 能否将本地或其它平台代码及工作项迁移到软件开发生产线上? 能。 工作项迁移:需求管理服务提供批量上传功能。在需求管理服务中下载模板,按照模板内容填写工作项信息后上传即可。相关操作可参考“《需求管理用户指南》>Scrum项目>管理工作项”。 代码迁移:代码托管服务支持本地、线上Git仓库的迁移。相关操作可参考“《代码托管用户指南》>迁移到代码托管仓库”。 项目结束后如何回收/归档项目资料到本地 ? 软件开发生产线中提供云端项目归档功能,归档后的项目对所有成员只读,不能进行工作项的增删改等操作。 软件开发生产线具有完备的数据安全管理机制,保证云端的数据不丢失,且随时可见。 此外,各服务提供以下项目资料下载操作,满足本地资料归档诉求。 批量导出工作项:详细操作请参考“《需求管理用户指南》>Scrum项目>管理工作项” 下载文件:详细操作请参考“《需求管理用户指南》>Dolphin知识库>文件操作” 克隆代码到本地:详细操作请参考“《代码托管用户指南》>迁移到代码托管仓库” 下载软件包:详细操作请参考“《制品仓库用户指南》>软件发布库>软件发布库基础操作” 导出测试用例:详细操作请参考“《测试计划用户指南》>测试用例>手工测试用例>迁移手工测试用例”
        来自:
        帮助文档
        软件开发生产线CodeArts
        常见问题
        概念与功能问题
      • 超出备份空间免费额度怎么办?
        本文介绍如何处理超出备份空间免费额度的问题。 备份空间免费额度为订购新实例时所选择的存储空间大小,比如,订购SQL Server实例时,存储空间选择了100GB,则赠送100G的备份空间用于存储备份数据。当备份文件大小超出备份空间免费额度时,可以增加备份存储空间或减少备份空间的使用量。 增加备份存储空间(推荐) 通过扩容备份空间,来增加备份存储空间。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例管理】,选择需要扩容的实例,点击【更多】菜单,点击【备份空间扩容】,进入扩容页面。 2. 在备份空间扩容页面,选择扩容空间大小,点击确认并支付。 3. 等待一段时间后,通过实例基本信息页面确认备份空间是否已扩容至已订购的大小。 减少备份空间的使用量 减少备份保留天数,系统会自动删除保留天数之前的备份集以减少空间占用。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例列表】,选择实例,点击实例ID进入实例基本信息页面,点击【备份恢复】,进入备份恢复子页面。 2. 点击备【份策略】,修改备份保留天数。 减少备份周期,可以设置一周2~3次备份,为了您的数据安全,数据备份不可关闭且一周至少需要2次备份。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击实例列表,选择实例,点击实例ID进入实例详情页面,点击备份恢复,进入备份恢复子页面。 2. 点击备份策略,修改备份周期。 删除手动备份,可以删除保留天数之前的手动备份。操作步骤如下: 1. 进入天翼云SQL Server控制台页面,点击【实例列表】,选择实例,点击实例ID进入实例详情页面,点击备份恢复,进入备份恢复子页面。 2. 点击数据备份,选择需要删除的手动备份,点击删除。注意,并非所有保留天数之前的手动备份都可以删除,必须保证该手动备份不被后续的备份所依赖。
        来自:
        帮助文档
        关系数据库SQL Server版
        常见问题
        备份/恢复
        超出备份空间免费额度怎么办?
      • 管理自动备份
        本节介绍了GeminiDB Redis的自动、修改、关闭、删除自动备份等操作说明。 GeminiDB Redis支持创建数据库实例的自动备份,以保证数据可靠性。当数据库或表被恶意或误删除,可依赖实例的备份保障数据安全。 自动备份策略 系统按照自动备份策略,对数据库进行自动备份,备份将以压缩包的形式存储在对象存储服务中,以保证用户数据的机密性和持久性。建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 创建数据库实例时,系统默认开启自动备份策略,默认开启的自动备份策略设置如下: 保留天数:自动备份可保留天数默认为7天。可设置保留天数范围为1~35天。 说明 保留天数小于7天,系统每天都会进行自动备份。 系统会自动检测已有的自动备份文件,若备份文件超过用户自定义的数据保留天数,则将其删除。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段,例如01:00~02:00,12:00~13:00等。备份时间段以GMT时区保存。如果碰到夏令时或冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认为全选。 全选:选择一周内的每一天。系统每天都会进行自动备份。 选择周期:选择一周内的一天或几天。系统会在所选时间进行自动备份。 说明 备份周期对应的备份开始时间1小时内,系统会自动触发全量备份。备份所需时间由备份数据量决定,备份数据量越大,备份所需时间越长。 实例创建成功后,您可根据业务需要设置自动备份策略。系统将按照您设置的自动备份策略对数据库进行备份。 关闭自动备份策略后,自动备份将会立即停止。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        备份与恢复
        管理自动备份
      • Spring Cloud和Dubbo框架应用无缝迁移上MSAP
        本章节介绍如何将Spring Cloud和Dubbo框架应用无缝迁移上微服务云应用平台MSAP 概述 对于Spring Cloud和Dubbo框架的微服务应用,无需修改任何一行代码即可迁移至微服务云应用平台。该应用将拥有全生命周期管理的运维能力,监管控一体化、调用链查询和限流降级等微服务治理能力,以及金丝雀发布、离群实例摘除、无损下线和服务鉴权等微服务治理的差异化能力。 迁移方案架构 迁移优势 使用开源框架自建的微服务应用迁移至MSAP后将支持以下能力: 1. 在云原生K8s之上,以应用视角一站式完成开源微服务治理和K8s集群中应用的轻量化运维: 应用为中心视角,管理K8s的原生工作负载如Deployment、Pod等,提供多AZ实例打散的高可用部署。 提供分批发布、按流量比例、请求参数的金丝雀灰度发布,借助MSAP全维度监控的发布变更单,让您的变更记录可跟踪。 微服务云应用平台对接了主流DevOps系统,助力企业CD落地,降本增效。 2. 在开源微服务体系之上,对于使用Spring Cloud和Dubbo框架自建的微服务应用无需修改任何代码即可迁移至MSAP,支持所有应用框架的微服务治理: 支持应用发布过程中的无损下线、服务压测。 应用运行时的服务鉴权、限流降级、离群实例摘除。 应用运维的服务查询、服务测试。 3. 通过产品化的方式,实现可观测、可灰度、可回滚,让您的企业立即落地安全生产。 可观测:通过应用总览、新版发布变更记录和发布后自动生成发布报告来实现多维度全流程监控。 可灰度:支持金丝雀发布,支持应用按照流量比例或请求内容策略配置实现灰度。 可回滚:支持发布过程一键回滚,并支持已运行应用回退至某历史版本。
        来自:
        帮助文档
        微服务云应用平台
        最佳实践
        Spring Cloud和Dubbo框架应用无缝迁移上MSAP
      • 产品咨询
        本页介绍了文档数据库服务产品咨询类相关常见问题。 文档数据库服务和社区版MongoDB有什么关系 文档数据库服务是天翼云基于社区版MongoDB提供的高性能NoSQL数据库服务,完全兼容MongoDB协议。文档数据库服务在容灾、备份、恢复、监控、报警等方面提供全套数据库解决方案。可降低管理维护成本,方便您专注于应用开发和业务发展。 使用文档数据库服务要注意什么 使用文档数据库服务需要综合考虑安全性、性能、可用性和数据一致性等方面,合理配置和管理数据库,确保应用程序能够高效稳定地使用文档数据库服务。 当您评估业务对服务可用性有较高的要求时,建议优先选择副本集与分片集群的架构,副本集与分片集群提供了更高的数据可靠性与服务可用性,当发生主节点宕机时,其他的节点可以接替主节点继续提供服务,不影响业务侧的读写。 实例侧的弹性云主机,对用户是不可见的,您只需参考实例基本信息页的连接串配置数据库连接进行数据库服务的访问即可。 在对数据库进行不熟悉的操作时,建议先对数据进行备份,方便数据回档。 您不需要进行数据库的基础运维,但是可以留意一下性能监控,比如机器的磁盘、内存使用率等情况,规格不足时可以进行扩容更好满足业务需求。 什么是文档数据库服务的可用性 文档数据库服务的可用性通常是指数据库系统在正常运行时可以对外提供服务的能力,以及系统在遇到故障或意外情况时能够保持部分或全部功能的可用性。文档数据库服务提供多节点副本集与分片集群的高可用架构。集群节点之间数据自动同步,提升了数据的高可靠性与服务的高可用性。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        咨询类
        产品咨询
      • 实例覆盖性恢复-I类型资源池
        本页介绍I 类型资源池恢复到已有实例,对已有实例进行覆盖性恢复。 关系数据库MySQL版I 类型资源池支持按时间点或者备份集将备份文件恢复到已有实例(已有实例包含原实例)。将覆盖已有实例的数据内容。 操作场景 若由于误操作,希望将数据恢复到此前某时间点,或者恢复某全量备份文件,在不开通新实例的情况下,可以将实例恢复到目标实例,且覆盖目标实例的内容。 前提条件 实例状态为运行中。 影响 此恢复方式指定的备份数据创建之后产生的数据将会全部丢失!请谨慎操作! 覆盖性恢复会在恢复数据前删除旧数据文件,建议恢复前对被覆盖的实例进行手动备份,确保数据安全。 在实例恢复阶段实例将暂时不可用,请妥善安排您的业务。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 备份管理,进入备份列表页面。然后在顶部菜单栏,选择区域和项目。 3. 单击单条记录操作 列的恢复,进入恢复确认页面。 4. 选择目标实例,信息确认后提交即可。 5. 信息提交成功之后,等待一段时间,可以在基础恢复列表页面查看该次恢复操作的结果信息。 注意 1. 目前 2. 已有实例包括原实例本身和该租户该资源池下的其他满足恢复条件的实例。 3. 由于目标实例本身含有数据文件,将实例覆盖性恢复到目标实例,目标实例原有的文件将全部丢失。因此请确保目标实例无用,或已经做好目标实例数据的备份工作。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        恢复
        实例覆盖性恢复-I类型资源池
      • 修改数据库端口
        本章节将介绍如何修改数据库端口的方法。 使用须知 为确保安全性,以下情况不可修改数据库端口: 租户被冻结 重启中 节点扩容中 切换SSL中 规格变更中 删除节点中 存储扩容中 异常 对于集群实例,数据库实例的端口即mongos节点的端口,默认为8635,实例创建成功后可修改。shard节点的端口为8637,config节点的端口为8636,不支持修改。 对于副本集实例,默认端口为8635,实例创建成功后可修改。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 进入实例“基本信息”页面,在“网络信息”区域的“数据库端口”处单击,修改数据库端口。 修改数据库端口 您还可以在左侧导航树,单击“连接管理”,在“基本信息”区域的“数据库端口”处单击,修改数据库端口。 修改实例端口 说明 数据库端口修改范围为2100~9500,27017,27018,27019。 单击,提交修改。此过程约需1~5分钟。 单击,取消修改。 步骤 6 稍后可在“基本信息”区域,查看修改结果。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        连接管理
        修改数据库端口
      • 1
      • ...
      • 193
      • 194
      • 195
      • 196
      • 197
      • ...
      • 213
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      应用托管

      推荐文档

      云课堂 第七课:使用对等连接在天翼云两个用户的云网络

      Microsoft SQL Server

      计费类

      将数据库实例恢复到指定时间节点

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号