活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云网融合解决方案_相关内容
      • 挂载NFS文件系统到弹性云主机 (Linux)
        您可以将文件系统挂载至Linux云主机,本文帮助您快速上手文件系统挂载。 操作场景 文件系统不可独立使用,当创建文件系统后,您需要使用云主机来挂载该文件系统,以实现多个云主机共享使用文件系统的目的。若您选择使用Linux操作系统和NFS文件系统,可使用本文指导挂载操作。 注意 不推荐NFS协议的文件系统挂载至Windows,Windows系统对NFS协议文件系统兼容性较差,会出现中文乱码和无法进行重命名等问题,影响正常使用。因此推荐使用NFS文件系统挂载至Linux操作系统的计算服务上,以避免不兼容的问题。 如果仍然期望采用NFS协议的文件系统挂载至Windows的方式,请务必知晓上述风险,若采用此种挂载方式,本服务不承诺SLA。 前提条件 在同地域已创建虚拟私有云VPC,具体操作步骤参见创建虚拟私有云VPC。 已创建该VPC下的弹性云主机且操作系统为Linux,具体操作步骤参见创建弹性云主机,海量文件服务兼容的操作系统请参考使用限制。 已创建同VPC下的NFS协议文件系统,具体操作步骤参见创建文件系统。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“计算>弹性云主机”,进入弹性云主机控制台页面,找到即将执行挂载操作的云主机。 3. 以root用户登录该弹性云主机,登录方法参考登录Linux弹性云主机。 注意 文件存储的服务端口为:111、139、2049、20048、445、11002、11003、10141,设置安全组时不要禁止,以防无法访问文件服务。 4. 执行以下命令查询该云主机是否安装NFS客户端,若没有返回安装结果,执行第5步进行安装。 plaintext rpm qa grep nfsutils 5. 安装NFS客户端。安装时注意不同操作系统执行命令不同。 CentOS系统,执行以下命令: plaintext yum y install nfsutils Ubuntu系统,执行以下命令: plaintext sudo aptget install nfscommon 6. 执行如下命令创建本地挂载路径,例如“/mnt/sfs”。 plaintext mkdir /mnt/sfs 7. 执行如下命令挂载文件系统。挂载完成后使用 df h命令查看文件系统挂载情况。 注意 请务必在挂载时使用noresvport参数,防止文件系统卡住。 IPv4地址挂载命令: plaintext mount t nfs o vers3,prototcp,async,nolock,noatime,noresvport,nodiratime,wsize1048576,rsize1048576,timeo600 挂载地址 本地挂载路径 IPv6地址挂载命令: plaintext mount t nfs o vers3,prototcp6,async,nolock,noatime,noresvport,nodiratime,wsize1048576,rsize1048576,timeo600 挂载地址 本地挂载路径
        来自:
        帮助文档
        海量文件服务 OceanFS
        快速入门
        挂载文件系统
        挂载NFS文件系统到弹性云主机 (Linux)
      • 创建伸缩策略
        参数名称 参数说明 取值样例 策略名称 创建伸缩策略的名称。 aspolicyp6g5 策略类型 计划扩展资源的策略类型可选择定时策略和周期策略,在指定的时间段进行扩展资源。 若选择周期策略除了配置表格中的参数外,还需配置以下两个参数:(1)重复周期− 按天− 按周− 按月;(2)生效时间伸缩策略触发的时间段。 时区 为默认值:GMT+08:00,代表格林尼治标准时间加8小时。 GMT+08:00 触发时间 设定伸缩策略触发时间。 执行动作 设置伸缩活动执行动作及实例的个数。执行动作包括: 1. 增加当执行伸缩活动时,向伸缩组增加实例; 2. 减少当执行伸缩活动时,从伸缩组中减少实例; 3. 设置为将伸缩组中的期望实例数设置为固定值。 l 增加1个实例l 增加10%的实例增加10%的实例,即增加的实例个数是该伸缩组当前实例个数的10%。若伸缩组当前实例个数与实例百分比的乘积是非整数,则系统会自动按照如下规则进行舍入:− 大于1的值向下取整。例如,12.7取整为12。− 大于0且小于1的值取整为1。例如,0.67取整为1。例如,某伸缩组当前有10个实例,有一个执行动作为“增加15%的实例”的伸缩策略。当该策略执行时,系统会按照规则将1.5向下取整为1。因此,此次伸缩活动结束后伸缩组的当前实例个数为11。 冷却时间 为了避免告警策略频繁触发,必须设置冷却时间。 冷却时间是指冷却伸缩活动的时间,单位为秒。系统开始计算冷却时间。 伸缩组在冷却时间内,会拒绝告警策略的触发,其他类型的伸缩策略(如定时策略和周期策略)及手动触发不受限制。 例如:冷却时间设置为300秒,定时策略设置了10:32进行伸缩活动,10:30告警触发的伸缩活动结束,则在10:3010:35时间内,伸缩组会拒绝新告警触发的伸缩活动,但不会拒绝在10:32时定时策略触发的伸缩活动;若10:36定时策略触发的伸缩活动结束,则冷却时间为10:3610:41。 说明: 如果伸缩活动是伸缩策略触发的,以伸缩策略的冷却时间为准。 如果是手工修改期望实例数量或者其他方式引起的伸缩活动,则以伸缩组的冷却时间为准。 伸缩组在进行扩容活动过程中,允许缩容策略的触发,扩容活动结束后执行缩容活动,不受冷却时间影响。 伸缩组在进行缩容活动过程中,允许扩容策略的触发,缩容活动结束后执行扩容活动,不受冷却时间影响。 300秒
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩策略管理
        创建伸缩策略
      • 查看全部检测结果
        本章介绍如何查看全部检测结果。 您可以在“全部结果”页面,获取安全状态的全视图,助您及时确定检测结果的优先级,统筹分析安全趋势。 “全部结果”支持以下特性: 支持呈现威胁告警、漏洞、风险、合规检查、违法违规、时讯舆情等领域信息。 支持实时接收安全产品检测数据,实时更新结果列表。 支持按时间范围、过滤场景等筛选结果。默认呈现近7天内检测结果。 支持查看检测结果详情,以及JSON格式的结果详情。 支持自定义结果列表呈现的属性。 支持标识检测结果的处理状态。 约束限制 按过滤场景筛选检测结果,最多可呈现10000条结果。 仅可呈现近180天的检测结果。 前提条件 已接收到安全产品的检测结果。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“安全 > 态势感知(专业版)”,进入态势感知管理页面。 3. 在左侧导航栏选择“检查结果”,进入全部结果管理页面。 4. 筛选查看检测结果。 在场景列框选择过滤场景,单击搜索按钮,即可查看到目标场景下检测结果。 当过滤后的结果仍较多时,可补充过滤条件和选择时间范围,快速查找结果。 在筛选框补充过滤条件,添加一项或多项过滤条件,并配置相应条件属性,单击搜索按钮,快速查找指定条件属性的结果。 在时间过滤框中,选择检测结果发现的时间范围,单击“确认”,快速查找指定时间范围内的结果。 5. 查看检测结果列表。筛选后的列表,可查看满足条件的检测结果列表,以及结果统计信息。 6. 查看检测结果详情。 1. 单击列表中结果的“标题”,右侧滑出结果详情窗口。 2. 查看与该结果相关的“基本信息”、“描述”、“资源信息”、“攻击信息”、受影响的用户等信息。 参数 参数说明 基本信息 检测结果的基本信息,包括标题、严重等级、状态、发现时间、业务领域、公司名称、产品名称、类型等信息。 描述 检测结果的简要介绍。 资源信息 受影响的资源信息,包括资源名称、资源ID、资源类型、资源区域等信息。 环境信息 受影响的用户信息,包括租户ID、项目ID、用户所在区域等信息。 攻击信息 攻击来源信息,包括攻击源IP、攻击目标IP、攻击源端口、攻击目标端口等信息。 相关检测结果 相关联检测结果的信息,包括相关联资源名称、结果来源等信息。 漏洞信息 漏洞结果信息,包括漏洞ID、CVSS分数、CVSS版本、提供方等信息。 漏洞影响范围 漏洞影响范围信息,包括影响版本、安全版本等信息。 合规检查信息 合规检查基本信息,包括检查项、检查结果等信息。 涉及CVE 漏洞结果CVE编号。 参考链接/链接 结果相关参考链接。 修复建议/处置建议 结果修复或处置建议说明。 3. 单击“查看JSON”,查看JSON格式检测结果详情。
        来自:
        帮助文档
        态势感知(专业版)
        用户指南
        检测结果
        查看全部检测结果
      • 购买实例
        本章节主要介绍如何购买SQL Server实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库SQL Server版 ,进入关系数据库SQL Server产品页面。然后单击立即订购,进入TeleDB数据库购买页面。 2. 在顶部菜单栏,分别选择目标区域 和项目。然后在创建页面,根据业务需求,设置实例相关配置。参数详见下表: 基础配置 参数 说明 组件引擎 请选择SQL Server以及下方的引擎版本,支持2014WEB版 、2014标准版 、2014企业版 、2016WEB版 、2016标准版 、2016企业版、2017WEB版、2017标准版、2017企业版、2019WEB版、2019标准版 、2019企业版 、2022WEB版 、2022标准版 、2022企业版 等多种版本。 根据实际业务需求选择合适的数据库引擎版本,建议您选择当前可用的最高引擎版本。 区域 实例所在区域,如需切换区域可在页面左上角切换。 说明 不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 计费模式 支持包年/包月 和按需两种模式。 包年/包月:用户选购完服务配置后,需设置购买时长,系统将一次性按照购买价格对账户余额进行扣费。 按需:用户选购完服务配置后,无需设置购买时长,系统会根据消费时长对账户余额进行扣费。 实例类型 支持单机版 和一主一备 两种类型,更多说明请详见实例类型。 可用区 部分资源池支持多可用区,请以实际界面为准。 实例字符集 数据库字符集,支持的字符集包括: 1.ChinesePRCCIAS; 2.ChinesePRCCSAS; 3.ChinesePRCCIAI; 4.SQLLatin1GeneralCP1CIAS; 5.ChinesePRC90CIAI; 6.CyrillicGeneralCIAS; 7.THAICIAS。 实例规格 参数 说明 性能类型 节点规格支持3种类型,分别是通用型 、计算增强型 和内存优化型 。 为了使所购买的SQL Server实例能更好地满足应用需求,您需要根据业务需求,评估所需要的服务能力和规模,选择合适的性能类型。 说明 对应的主机类型提供对应六代机、七代机、八代机,代系越高整体性能越佳。 性能规格 请根据业务需求选择实例的CPU和内存。 存储类型 实例的存储类型影响了实例的读写熟读。支持的存储类型包括: 高IO:磁盘类型SAS。 超高IO:磁盘类型SSD。 极速型SSD:磁盘类型ESSD。 更多说明请详见存储类型。 存储空间 SQL Server实例存储空间的大小。存储空间支持配置100GB到32TB。 存储空间自动扩展:可选择开通自动扩容,开通后实例将根据选择的阈值进行自动扩展,无需担心空间满问题,建议扩容上限值设置大一些,以备不时之需。 磁盘加密:可选择磁盘是否加密,有效保护数据安全,此项功能仅支持在订购时进行设置,在控制台暂不支持设置。 注意 磁盘加密功能仅部分资源池支持,以订购页实际显示为准。更多资源池信息,请参见功能概览。 备份空间 用作数据备份,支持选择对象存储和云硬盘两种类型,建议优先选择对象存储。 对象存储:备份空间赠送与存储空间同等大小的免费额度。且选择对象存储类型,支持下载备份以及跨域备份等高级功能。 云硬盘:默认为用户开通所订购存储空间同等大小,类型为普通IO、高IO、超高IO,无免费额度,且不支持下载备份以及跨域备份等高级功能。 企业项目 参数 描述 企业项目 企业项目是对主账号下的资源进行统一分配管理的工具,不同企业项目下的资源相互逻辑隔离,但不影响业务关联。 在不同企业项目下的用户组,相互间无法看到彼此资源。 同一个用户组可以绑定多个企业项目。用户组通过绑定企业项目实现资源的逻辑隔离,策略通过绑定用户组,实现不同用户组的权限分配。 网络 参数 说明 虚拟私有云 SQL Server实例所在的虚拟专用网络,可对不同业务进行网络隔离,您可以根据需求选择所需的虚拟私有云。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全性。子网在可用区内才会有效。 安全组 安全组限制实例的安全访问规则,加强SQL Server与其他服务间的安全访问。如果选择了不同的安全组,请注意添加安全组访问规则,开通网络访问。 注意 目前SQL Server实例创建完成后不支持切换虚拟私有云,请谨慎选择所属虚拟私有云。 集群配置 参数 说明 实例名称 SQL Server实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 设置密码 可选择“现在设置”或“创建后设置”,选择“现在设置”时会在开通时修改默认管理员账号密码。 管理员账号 登录名默认为root,不支持修改。 管理员密码 设置密码选择“现在设置”时才能配置管理员密码。 确认密码 确认密码与管理员密码一致。 参数模板 可选择自定义参数模板或系统参数模板,参数模板的版本需要与数据库引擎版本保持一致。 购买量 参数 说明 购买时长 当计费模式选择“包年/包月”时,才需要选择购买时长。系统会自动计算对应的配置费用,购买时间越长,折扣越多。 自动续订 按月购买:自动续订周期为1个月。 按年购买:自动续订周期为1年。 购买数量 SQL Server服务支持批量创建实例,单次最多可批量购买50个实例。 3. 实例信息设置完成后,可以在右侧的当前配置中,进行配置确认。 4. 请仔细阅读《关系型数据库服务等级协议》和《天翼云关系型数据库服务协议》后,如您接受并理解,请勾选相关协议。 5. 单击确认订单,提交订单。 6. 在订单支付详情页面,确认订单信息无误后,选择付费方式,单击立即支付,开始创建实例。 7. SQL Server实例创建成功后,用户可以通过实例管理 > 管理,对实例进行查看和管理。
        来自:
        帮助文档
        关系数据库SQL Server版
        快速入门
        购买实例
      • 跨账号同资源池迁移云主机
        本文为您介绍如何跨账号同资源池迁移云主机。 操作场景 本文通过采用镜像迁移方式实现跨账号同资源池迁移云主机,以实现跨账号同资源池使用镜像快速创建相同配置的弹性云主机。 方案介绍 镜像迁移方式实现跨账号同资源池迁移云主机的方案为:账号A将资源池A的云主机做成私有镜像,再共享给账号B;账号B接受账号A的共享镜像后,使用该镜像创建新的云主机。 说明 镜像为资源池级别,共享成功的镜像在该资源池所有可用区均可使用。 解决方案 以下以“北京北京5”资源池的云主机迁移到另一个账号为实例进行详细介绍。 步骤1:创建私有镜像 1. 登陆控制中心。 2. 选择资源池“北京北京5”。 3. 选择“产品服务列表>计算>弹性云主机”,进入云主机列表页面。 4. 选择需要迁移的云主机,单击右侧操作列的“更多>制作镜像”,进入创建私有镜像页面。 5. 填写页面参数,这里镜像类型选择“整机镜像”,镜像源选择“云主机”,选择要迁移的云主机,选择存储库和填写镜像名称。单击“下一步”。 6. 确认无误后,阅读并勾选协议,单击“确定下单”。 7. 返回私有镜像列表,在列表中查看新创建的私有镜像。 步骤2:共享私有镜像 1. 选择需要迁移的云主机,单击右侧操作列的“更多>共享”,进入共享镜像页面。 2. 填写共享镜像页面信息。 3. 选择需要共享的镜像和需要共享的账户邮箱,点击确认。 步骤3:接受共享私人镜像 1. 登陆需要将云主机迁移至的账号。 2. 登陆控制中心。 3. 选择资源池北京北京5。 4. 选择“产品服务列表>镜像服务”,进入镜像服务页面,单击“共享镜像”页签。 5. 选择需要迁移的共享镜像申请,单击接受共享,成功接受共享私人镜像。 步骤4:使用共享镜像创建云主机 1. 在共享镜像界面右侧操作栏,单击“申请云主机”,进入云主机创建界面。 2. 填写信息,完成弹性云主机的创建,可参考“创建弹性云主机”。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        云主机迁移相关实践
        跨账号同资源池迁移云主机
      • 使用CoreDNS实现自定义域名解析
        本文主要介绍使用CoreDNS实现自定义域名解析。 应用现状 在使用CCE时,可能会有解析自定义内部域名的需求,例如: 存量代码配置了用固定域名调用内部其他服务,如果要切换到Kubernetes Service方式,修改配置工作量大。 在集群外自建了一个其他服务,需要将集群中的数据通过固定域名发送到这个服务。 解决方案 使用CoreDNS有以下几种自定义域名解析的方案。 为CoreDNS配置存根域:可以直接在控制台添加,简单易操作。 使用 CoreDNS Hosts 插件配置任意域名解析:简单直观,可以添加任意解析记录,类似在本地/etc/hosts中添加解析记录。 使用 CoreDNS Rewrite 插件指向域名到集群内服务:相当于给Kubernetes中的Service名称取了个别名,无需提前知道解析记录的IP地址。 使用 CoreDNS Forward 插件将自建 DNS 设为上游 DNS:自建DNS中,可以管理大量的解析记录,解析记录专门管理,增删记录无需修改CoreDNS配置。 注意事项 CoreDNS修改配置需额外谨慎,因为CoreDNS负责集群的域名解析任务,修改不当可能会导致集群解析出现异常。请做好修改前后的测试验证。 为CoreDNS配置存根域 集群管理员可以修改CoreDNS Corefile的ConfigMap以更改服务发现的工作方式。 若集群管理员有一个位于10.150.0.1的Consul域名解析服务器,并且所有Consul的域名都带有.consul.local的后缀。 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 在左侧导航栏中选择“插件管理”,在“已安装插件”下,在CoreDNS下单击“编辑”,进入插件详情页。 步骤 3 在“参数配置”下添加存根域。 修改stubdomains参数,格式为一个键值对,键为DNS后缀域名,值为一个或一组DNS IP地址,如下所示。 { "stubdomains": { "consul.local": [ "10.150.0.1" ] }, "upstreamnameservers": [] } 步骤 4 单击“确定”。 也可以通过修改ConfigMap,直接按如下方式添加。 $ kubectl edit configmap coredns n kubesystem apiVersion: v1 data: Corefile: .:5353 { bind {$PODIP} cache 30 errors health {$PODIP}:8080 kubernetes cluster.local inaddr.arpa ip6.arpa { pods insecure fallthrough inaddr.arpa ip6.arpa } loadbalance roundrobin prometheus {$PODIP}:9153 forward . /etc/resolv.conf { policy random } reload }consul.local:5353 { bind {$PODIP} errors cache 30 forward . 10.150.0.1 } kind: ConfigMap metadata: creationTimestamp: "20220504T04:42:24Z" labels: app: coredns k8sapp: coredns kubernetes.io/clusterservice: "true" kubernetes.io/name: CoreDNS release: cceaddoncoredns name: coredns namespace: kubesystem resourceVersion: "8663493" uid: bba871429f8d4056b8a694c3887e9e1d
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        DNS
        使用CoreDNS实现自定义域名解析
      • 步骤四:配置必须的监控告警
        本文主要介绍如何配置分布式消息服务RabbitMQ必须的监控告警。 本章节主要介绍部分监控指标的告警策略,以及配置操作。在实际业务中,建议按照表1告警策略,配置监控指标的告警规则。 表1 RabbitMQ实例配置告警的指标 指标名称 告警策略 指标说明 解决方案 内存高水位状态 告警阈值:原始值>1 连续触发次数:1 告警级别:致命 告警阈值为1表示触发内存高水位,会阻塞消息生产 加快消费 采用生产者确认的发送模式,并监控生产端消息生产速度和时长,当消息生产时长有明显增加时进行流控措施 磁盘高水位状态 告警阈值:原始值>1 连续触发次数:1 告警级别:致命 告警阈值为1表示触发磁盘高水位,会阻塞消息生产 减少惰性队列的消息堆积 减少持久化队列的消息堆积 删除队列 内存使用率 告警阈值:原始值>业务预期使用率(推荐30%) 连续触发次数:连续3~5个周期 告警级别:重要 该指标需要分别为每个节点设置内存使用率告警,避免触发内存高水位阻塞生产 加快消费 采用生产者确认的发送模式,并监控生产端消息生产速度和时长,当消息生产时长有明显增加时进行流控措施 CPU使用率 告警阈值:原始值>业务预期使用率(推荐70%) 连续触发次数:连续3~5个周期 告警级别:重要 该指标需要分别为每个节点设置CPU使用率告警,CPU使用率过高可能会影响生产速度 减少镜像队列个数 对于集群实例,建议扩容节点个数,然后进行节点间重平衡 可消费消息数 告警阈值:原始值>业务预期可消费消息数 连续触发次数:1 告警级别:重要 可消费消息数过多表示消息堆积 请参考消息堆积的解决办法 未确认消息数 告警阈值:原始值>业务预期未确认消息数 连续触发次数:1 告警级别:重要 未确认消息数过多可能会导致消息堆积 检查消费者是否异常 检查消费者逻辑是否消耗时间过长 连接数 告警阈值:原始值>业务预期连接数 连续触发次数:1 告警级别:重要 连接数突增可能是流量变大的预警 需检查业务是否正常,可参考其他告警 通道数 告警阈值:原始值>业务预期通道数 连续触发次数:1 告警级别:重要 通道数突增可能是流量变大的预警 需检查业务是否正常,可参考其他告警 Erlang进程数 告警阈值:原始值>业务预期进程数 连续触发次数:1 告警级别:重要 进程数突增可能是流量变大的预警 需检查业务是否正常,可参考其他告警
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤四:配置必须的监控告警
      • 磁盘使用率高问题排查
        本文主要介绍磁盘使用率问题排查 使用文档数据库服务时,如果实例的磁盘使用率过高或完全被使用,将会导致实例不可⽤。 本章节帮助您分析解决DDS实例磁盘使用率高的问题。 查看磁盘使用情况 DDS目前提供如下两种方法用于查看实例磁盘的使用情况。 1. 通过DDS控制台查看磁盘使用情况。 您可以登录DDS控制台,单击目标实例名称,进入“基本信息”页面,在“存储空间”区域可以查看到当前实例的磁盘使用情况。 图 查看磁盘使用情况 2. 通过查看监控指标(磁盘利用率和磁盘使用量)判断实例磁盘的使用情况。 如何查看监控指标请参见查看监控指标。 图 查看磁盘使用情况 解决方案 1. 对于集群实例,可能是因为选择和设置的分片不合理导致数据分布不均衡,从而引起磁盘空间使用率高的情况。 此时,可以对数据库集合进行合适的分片,具体操作请参见设置数据分片以充分利用分片性能。 2. 随着业务数据的增加,原来申请的数据库磁盘容量不足。此时建议扩容磁盘空间,确保磁盘空间足够。 集群实例,请参见扩容集群实例的磁盘空间。 副本集实例,请参见扩容副本集实例的磁盘空间。 如果原有实例规格的磁盘已是最大的,请先升级规格。 集群实例,请参见变更集群实例的CPU和内存规格。 副本集实例,请参见变更副本集实例的CPU和内存规格。 3. 存在大量过期的数据文件占用磁盘空间,此时需要及时处理过期数据文件。例如:如果整个库不需要了,则可以执行dropDatabase命令进行删除,从而快速释放磁盘空间。 4. 后台数据处理机制原因。 因为无论是写入、更新或删除等操作(包括索引插入和删除等操作),在后台实际上都会转成写入。因为底层的存储引擎(WiredTiger和RocksDB),采用都是appendOnly机制。只有当存储引擎内部数据状态满足一定条件后,会触发内部的compaction操作,进行数据压缩,进而释放磁盘空间。 所以有时候会发现,磁盘占用量比实际数据量大,实际上这只是“看起来大”,并不会影响用户的使用。因为内部有些数据压缩,是延时操作,没有立即执行。随着数据的继续写入,会触发后台执行数据压缩清理空间。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        磁盘使用率高问题排查
      • DRDS SQL使用规范
        方案正文 insert操作 insert写法规范 不建议逐条insert,推荐使用insert into values (),()..();语法。 MySQL的JDBC连接的url中要加rewriteBatchedStatements参数,并保证5.1.13以上版本的驱动,才能实现批量插入。MySQL JDBC驱动在默认情况下会无视executeBatch()语句,把预计批量执行的一组sql语句拆散,一条一条地发给MySQL数据库,批量插入实际上是单条插入,直接造成较低的性能。只有把rewriteBatchedStatements参数置为true, 驱动才会批量执行SQL。另外这个选项对INSERT/UPDATE/DELETE操作都有效。 拆分字段的值:不建议使用函数、表达式、子查询等,推荐使用常量值。 普通字段的值:不建议使用子查询,推荐使用常量、函数、表达式。 大批量数据导入 推荐使用loaddata local infile来实现大批量数据导入。 数据迁移场景 建议使用mysqldump导出sql文件,再使用mysql source命令导入。 autoincrement字段 DRDS使用Sequence来实现autoincrement语义,并保证全局唯一。 赋值:若使用autoincrement字段,建议不要在values子句中赋值,否则容易造成主键冲突。如果在values中赋了值,建议使用alter sequence语句更改。 步长:autoincrement字段步长建议不要设置成1,会导致性能低下。默认设置成1000。 update与delete操作 普通更新 进行update/delete操作时,where条件建议带上拆分字段; 无法带上拆分字段的场景,建议控制并发度,控制更新/删除涉及的数据条数。建议先用select查出相应的数据,double check确保数据范围无误后再实行update/delete操作。 拆分字段更新 条数限制:DRDS拆分字段更新有数据量限制,一般不能超过10000条数据,数据量越少越好。若超过10000条数据,建议用改重建表的方式来做,或者是拆分成多次update操作来等价实现。 操作的时机:建议选择在业务低谷期做。 关联操作 不建议进行表关联更新、表关联删除操作,即不建议进行多张表同时进行update/delete操作。 子查询及limit操作 不建议update/delete语句中含有子查询。不建议update/delete语句中含有limit或order by limit语句。 select操作 Order by 及 Limit函数 "order by limit offset, count"场景,禁止给offset赋大数值,即禁止深度翻页。 Group by函数 不建议selectlist部分含有非group by列。 不支持不可下推的groupconcat聚合函数内含有order by子句。 不建议distinct、group by字段多于3项。 不建议join、或者子查询操作之后含有group by操作 不建议使用count(distinct ),sum(distinct )操作。 Join函数 select场景,建议join条件是每个表的拆分字段或使用广播表,或者是驱动表是一个小表(inner/left join驱动表是左表,right join驱动表是右表)。 不建议两个大表直接进行join操作。 不建议join on condition中含有非等值操作。 如遇到临时表超限(Temp table limit exceeded)报错,说明JOIN中间数据产生了临时表且超限,建议进行SQL调优。 不建议5张表以上进行join操作。 join查询操作建议不要开启事务。 不建议在事务中进行join查询,开启事务会影响DRDS对join算法的选择,无法使用最高效的算法。 子查询 不建议子查询包含在OR表达式中,或者是子查询的关联条件包含在OR表达式中 不建议使用含有limit的标量子查询,如 select (select x from t2 where t2.id t.id limit 1),a,b from t。 如果子查询和主表都路由到同一分片,建议在SQL前加/+dbxxx/来精准路由。 不建议子查询内部含有join语句。 不建议写嵌套子查询。 不建议ROW表达式跟子查询做比较操作,如 select from t where (a,b,c)(select x,y,z from t2 where …)。 不建议selectlist里面含有超过2个以上的子查询 。 DDL DDL执行时机 对已有表进行DDL操作时建议放在业务低峰期进行。 分片数 创建新拆分表时建议结合实际数据量进行合理预估,总分片数满足需求即可。不建议使用超出实际需求的分片数,拆分表分片数并非越多越好 高危DDL 进行高危DDL时请仔细校验SQL后谨慎操作,如DROP TABLE, TRUNCATE TABLE等操作。 DDL失败修复 DDL命令如遇报错,可以使用"check table 表名"命令对各个分片表结构进行校验,识别出失败的分片进行针对性修复。如ALTER TABLE命令遭遇失败可以在命令前添加/+allowalterreruntrue/,开启ALTER语句的幂等可重入执行后重试,直到check table 命令提示各个分片表结构达到一致则可认为执行成功。 MDL锁导致执行DDL报错 背景:为保证DDL的可用性,DRDS内部在执行DDL前会检查底层RDS相关表是否存在MDL锁。 若存在MDL锁,,则DDL会提前报错退出。 可能出现的问题:若系统中存在慢SQL,执行时间为几分钟不等,那么可能被MDL锁所阻拦,无法执行DDL。 解决方案1:在DRDS控制台提高参数“ddlprecheckmdlthresholdtime”的大小, 如提高到30分钟(1800秒)。 解决方案2:执行show metadata lock查看是否因为持有慢事务的MDL锁阻塞了DDL的执行。若存在阻塞, 可以使用kill physical threadId@host:port 来关闭底层慢事务。配合/+allowalterreruntrue /的hint, 以及check table来查看和执行,直到DDL彻底执行完。 DDL长时间卡死 在业务低峰期执行DDL时如果遇到长时间卡死情况,请另开会话执行xa recover命令查看是否有慢事务存在,如存在慢事务挂起请及时联系值班人员解决。
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        DRDS SQL使用规范
      • 步骤一:购买DRDS实例
        在使用DRDS前,您需要先创建DRDS实例。本文介绍如何创建DRDS实例。 注意事项 仅华东1、西南1和青岛20这三个资源池支持选择多个可用区、性能类型和企业项目。 V5.1.9.6020.2530及以后版本,创建实例时,Giserver与DBProxy合并部署,不再区分DBProxy和Giserver两种实例。 注意 当您需要使用GiServer时,只需开启GiServer服务,具体操作,请参见开启全局索引。 V5.1.9.6020.2533及以后版本,创建实例时,支持关联与DRDS实例相同网络的MySQL实例,或同步创建全局Binlog日志节点。 操作步骤 1. 进入DRDS实例订购页面。 方法一: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表上方,单击创建实例 ,进入DRDS实例订购页面。 方法二: 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击立即开通,进入DRDS实例订购页面。 2. 在顶部菜单栏,选择区域和项目。 2. 根据实际情况,配置如下实例相关参数。 模块 参数 描述 基本信息 组件引擎和版本 选择DRDS实例组件引擎和版本: 引擎:DRDS 版本:1.0 基本信息 区域 实例所在区域,支持在顶部菜单栏左上角切换到其他区域。 注意 不同区域内的产品内网不互通,且购买后不能更换,请谨慎选择。 基本信息 计费模式 支持包年/包月和按需计费(部分资源池显示为按需)两种模式: 包年/包月:选购完服务配置后,需设置购买时长,系统将一次性按照购买价格对账户余额进行扣费。 按需计费:选购完服务配置后,无需设置购买时长,系统会根据消费时长对账户余额进行扣费。 注意 贵州3、北京5暂不支持按需计费。 基础配置 可用区 可选择1个或多个可用区,跨可用区部署可以提升DRDS实例的高可用性,实现跨可用区的容灾能力。 仅部分资源池支持选择多个可用区,详见注意事项。 注意 若选择2个可用区,DRDS实例的节点数量是单可用区的2倍。 实例配置 计算节点数量 DRDS实例的计算节点数量,不同实例类型支持不同的节点数量,其中,每个可用区最多支持6个节点。 请根据业务所需的计算能力,选择合适的节点数量。创建后可通过规格变更进行扩容。 说明 部分资源池不支持配置单节点规格 和节点数量 ,支持配置实例规格 ,即支持选择DRDS实例的总规格(总规格单节点规格节点数量)。不同实例类型支持不同的实例规格,详见规格。 实例配置 CPU类型 DRDS的实例节点类型,默认为X86。 注意 部分资源池支持ARM,具体以控制台显示为准。 实例配置 性能类型 节点规格支持多种类型,例如通用型 、计算增强型 、内存优化型 等类型,具体性能类型信息,请参见规格。 支持选择不同代系主机,代系越高,性能与稳定性等整体表现越好。 为了使所购买的DRDS实例能更好地满足应用需求,您需要根据业务需求,评估所需要的服务能力和规模,选择合适的性能类型。 说明 部分资源池此配置项名称为主机类型,则不支持选择节点规格,仅支持选择主机代系,请以实际页面为准。 实例配置 单节点规格 请选择单节点的CPU和内存。 实例配置 日志节点 全局Binlog的日志节点,支持: 现在创建:创建DRDS时,同时创建日志节点。此时,您需要配置日志节点数量、所在的可用区和性能规格。 注意 仅支持1个日志节点。 使用时创建 :创建DRDS实例后,如您需要使用日志节点,只需在目标实例的日志节点管理页面创建日志节点即可。 实例配置 实例名称 DRDS实例的名称。 名称不能为空,长度为4到50位的字符。 实例配置 标签 您可以为实例绑定标签,对实例进行分类管理。 最多支持添加50个标签。 企业项目 企业项目 企业项目提供了对云资源进行分组管理,不同企业项目下的资源逻辑隔离,但不影响业务关联。仅部分资源池支持选择企业项目,详见注意事项。 网络 虚拟私有云 DRDS实例所在的虚拟专用网络,可对不同业务进行网络隔离,您可以根据需求选择所需的虚拟私有云。 DRDS实例选择的虚拟私有云要与MySQL实例一致,以保证网络连通。另外,建议DRDS实例与应用程序处于同一虚拟私有云下,避免网络原因造成性能损耗。 网络 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全性。子网在可用区内才会有效。 网络 安全组 安全组限制实例的安全访问规则,加强DRDS与其他服务间的安全访问。建议DRDS实例与应用程序、MySQL实例选择相同的安全组,确保三者网络访问不受限制。如果选择了不同的安全组,请注意添加安全组访问规则,开通网络访问。 关联数据库实例 数据库实例 关联与DRDS实例相同网络的MySQL实例。 在数据库实例 列表中选中目标MySQL实例后,单击绑定,即可为DRDS实例关联该MySQL实例。 购买量 购买时长 当计费模式 选择包年/包月时,才需要选择购买时长,单次最多支持购买5年。 购买量 购买数量 当计费模式 选择包年/包月时,支持批量创建实例,单次最多可批量购买5个实例。系统会自动计算对应的配置费用,购买时间越长,折扣越多。 当计费模式 选择按需时,单次只能购买1个实例。 购买量 自动续订 包年包月的实例支持自动续订。 按月购买的实例,自动续订周期为1个月。 按年购买的实例,自动续订周期为1年。 3. 在页面右侧的当前配置中,查看当前实例配置。 4. 在页面右下角阅读并勾选协议,然后单击确认订单。 5. 在订单支付详情页面,确认订单信息无误后,选择付费方式,完成支付。 6. 支付完成后,回到控制台的DRDS > 实例管理页面,查看和管理该实例。 您可以看到实例状态 为创建中 ,当实例创建成功后,实例状态 显示为运行中 。
        来自:
        帮助文档
        分布式关系型数据库
        快速入门
        步骤一:购买DRDS实例
      • 以Jeager方式接入
        在监控Go应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍采用Jaeger SDK方式上报go应用的链路数据,具体如下。 前提条件 完成vpce接入。 接入步骤 1. 引入go依赖包。 plaintext import ( "github.com/opentracing/opentracinggo" "github.com/uber/jaegerclientgo" "github.com/uber/jaegerclientgo/transport" ) 2. 查看接入点信息。 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3. 初始化Jaeger SDK。 注意 需将token和endpoint替换成相应地域的接入点信息。 plaintext func NewJaegerTracer(service string) opentracing.Tracer { auth : map[string]string{ "xctgauthorization":" ", //上面获取到的token } sender : transport.NewHTTPTransport( " ", //jaeger 上报的http地址 transport.HTTPHeaders(auth), ) tracer, : jaeger.NewTracer(service, jaeger.NewConstSampler(true), jaeger.NewRemoteReporter(sender, jaeger.ReporterOptions.Logger(jaeger.StdLogger)),) return tracer } 4. client 端上报demo。 plaintext func runClient(tracer opentracing.Tracer, httpUrl string, spanName string, r http.Request) { c : &http.Client{Transport: &nethttp.Transport{}} span : tracer.StartSpan(spanName) if r ! nil { spanCtx, : tracer.Extract(opentracing.HTTPHeaders, opentracing.HTTPHeadersCarrier(r.Header)) span tracer.StartSpan(spanName, opentracing.ChildOf(spanCtx)) } span.SetTag(string(ext.Component), spanName) defer span.Finish() ctx : opentracing.ContextWithSpan(context.Background(), span) req, err : http.NewRequest( "GET", httpUrl, nil, ) tracer.Inject(span.Context(), opentracing.HTTPHeaders, opentracing.HTTPHeadersCarrier(req.Header)) if err ! nil { onError(span, err) return } req req.WithContext(ctx) // wrap the request in nethttp.TraceRequest req, ht : nethttp.TraceRequest(tracer, req) defer ht.Finish() res, err : c.Do(req) if err ! nil { onError(span, err) return } defer res.Body.Close() body, err : ioutil.ReadAll(res.Body) if err ! nil { onError(span, err) return } fmt.Printf("Received result: %sn", string(body)) } func run() { for { time.Sleep(3 time.Second) tracer : NewJaegerTracer(HttpClientName) runClient(tracer, " + serverPort + "/", HttpClientName, nil) } } 5. server端上报demo。 注意 需将url1和url2替换成下游调用地址。 plaintext //server端接收到请求后继续再向java服务发起请求,最终实现client》goserver》javaserver的请求链路 func getJavaDemo(tracer opentracing.Tracer) func(http.ResponseWriter, http.Request) { return func(w http.ResponseWriter, r http.Request) { fmt.Println(r.Header) fmt.Println(opentracing.HTTPHeadersCarrier(r.Header)) span : opentracing.SpanFromContext(r.Context()) span.SetTag("http.serveraddr", "serveraddr") //填写您的服务端地址 span.SetTag("http.clientaddr", "clientaddr") //填写您的客户端地址 runClient(tracer, " ", HttpServerName, r) time.Sleep(10time.Millisecond) runClient(tracer, " ", HttpServerName, r) log.Print("Received getTime request") io.WriteString(w, "get java demo") } } func runServer(tracer opentracing.Tracer) { http.HandleFunc("/", getJavaDemo(tracer)) log.Printf("Starting server on port %s", serverPort) err : http.ListenAndServe( fmt.Sprintf(":%s", serverPort), // use nethttp.Middleware to enable OpenTracing for server nethttp.Middleware(tracer, http.DefaultServeMux)) if err ! nil { log.Fatalf("Cannot start server: %s", err) } } 6. 通过以上例子,我们就可以实现jaeger的方式采集go的监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Go应用
        以Jeager方式接入
      • 计费样例
        本节主要介绍GeminiDB Influx接口的计费样例。 计费场景 某用户于2023/03/18 15:30:00购买了一个按需计费的GeminiDB Influx实例,规格配置如下: 规格:2vCPUs,8GB 节点数量:3 冷存储空间:500GB 公网带宽:6Mbit/s 用了一段时间后,用户发现实例当前规格无法满足业务需要,于2023/03/20 9:00:00扩容规格为4vCPUs,16GB。因为该实例打算长期使用下去,于2023/03/20 10:30:00将实例转为包年/包月计费,购买时长为1个月。那么在3~4月份,该实例总共产生多少费用呢? 计费构成分析 可以将GeminiDB Influx的使用阶段按照计费模式分为两段: 1 、2023/03/18 15:30:00 ~ 2023/03/20 10:30:00:按需计费 2023/03/18 15:30:00 ~ 2023/03/20 9:00:00期间 实例规格:2vCPUs,8GB 节点数量:3 使用存储空间:100GB 使用备份空间:100GB 冷存储空间:500GB 公网带宽:6Mbit/s 在2023/03/20 9:00:00 ~ 2023/03/20 10:30:00期间 实例规格:4vCPUs,16GB 节点数量:3 使用存储空间:200GB 使用备份空间:210GB(备份按需计费时间:2023/03/20 10:00:00~2023/03/20 10:30:00) 冷存储空间:500GB 公网带宽:6Mbit/s 2、 2023/03/20 10:30:00 ~ 2023/04/20 23:59:59:包年/包月计费 实例规格:4vCPUs,16GB 节点数量:3 使用存储空间:200GB 使用备份空间:300GB(备份按需计费时间:2023/04/10 23:59:59 ~ 2023/04/20 23:59:59) 冷存储空间:500GB 公网带宽:6Mbit/s 计费时长:1个月 说明 此案例中的单价仅为示例,且计算出的费用为估算值。单价的变动和实际场景中计算出来的费用可能会有偏差。请以天翼云官网发布的数据为准。 按需计费 在2023/03/18 15:30:00 ~ 2023/03/20 9:00:00期间按照2vCPUs 8GB规格计费,计费时长为41.5小时,费用计算如图1: 图1 按需计费样例1 在2023/03/20 9:00:00 ~ 2023/03/20 10:30:00期间按照4vCPUs 16GB规格计费,计费时长为1.5小时,费用计算如图2: 图2 按需计费样例2 包年/包月计费 在2023/03/20 10:30:00 ~ 2023/04/20 23:59:59期间为包年/包月计费,计费时长为1个月,费用计算如图3: 图3 包年/包月计费样例 由此可见,在3~4月份,GeminiDB Influx总共产生的费用为:261.71 + 17.89 + 4467.10 4746.70 元。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        计费说明
        计费样例
      • Agent问题
        Agent安装以后会访问哪些地址? Agent安装后会访问的IP、端口如下表所示: 源IP 源端口 目的设备 目的IP 目的端口 协议 Agent云主机IP 随机 服务器安全卫士服务端 169.254.169.254 5661及16463 TCP 访问说明:Agent访问服务器安全卫士服务端,主要是获取服务端下发的策略/配置/指令,上报安全告警事件及资产指纹。 服务器安全卫士(原生版)和网页防篡改(原生版)共用Agent? 共用一个Agent,在天翼云控制台上统一下发管理防护策略,Agent执行监控与处置。 已开通安全卫士,服务器防护状态显示未防护,如何解决? 1. 查看Agent是否启动。 Windows: 点击部署目录下的 ctwin32ui.exe ,查看ui界面显示的 agent status 应为 Running,last keepalive 是否更新(与当前系统时间相差应不超过1分钟) Linux: centos 6 使用 service ctcss status 查看agent服务状态是否为 Running 其他Linux发行版使用 systemctl status ctcss 查看Agent服务状态是否为active 查看 /var/ctcss/var/run/eShieldagent.state 文件中 last keepalive 是否更新(与当前系统时间相差应不超过1分钟) 2. Agent未启动,请按如下方式启动: Windows: 点击部署目录下的ctwin32ui.exe ,在弹出的ui界面中点击左上角Manage选项,可控制Agent的启停。 Linux: centos 6 使用 service ctcss start/stop 启停 Agent; 其他Linux发行版使用 systemctl start/stop ctcss 启停 Agent。 3. 检查安全卫士Agent配置。 若Agent处于running状态,但 last keepalive时间未更新,则可能为配置文件错误。查看Agent配置文件,由于Agent版本差异,配置文件路径不同: Linux路径为 /var/ctcss/etc/ctcss.conf 或 /var/ctcss/etc/ctcss.yml ; Windows路径为 C:Program Files (x86)ctcssagentctcss.conf 或C:Program Files (x86)ctcssagentetcctcss.yml 。 其中服务器IP应为 169.254.169.254 ,端口分别为5661 和 16463。(非公有云场景下,服务端IP地址可能有变化,以实际部署信息为准)。 配置修改完成后需按前述“步骤1”中最后一段描述重新启动Agent。 4. 检查Agent的激活文件中的信息。 先检查client.keys中guid与机器真实guid是否一致。 1. 执行【 cat /var/ctcss/etc/client.keys 】获取key信息,包含四段数据,第二段为guid,如下图第一个红框。 2. 执行 【 /usr/sbin/dmidecode s systemuuid grep v '
        来自:
        帮助文档
        服务器安全卫士(原生版)
        常见问题
        产品类
        Agent问题
      • 创建桶
        本文帮助您了解对象存储创建桶的操作步骤。 操作场景 您需要先创建一个桶,然后才能在桶中存储数据。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,例如选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表点击“创建Bucket”。 5. 填写基础配置(包括地域、Bucket名称、企业项目、读写权限),然后点击“下一步”,继续填写高级配置(包括数据冗余策略、存储类型、服务端加密、合规保留等)。创建桶的全部配置参数说明可见下表: 参数 说明 地域 桶所在的地域。存储桶一旦创建成功,地域不能修改。 bucket名称 桶的名称,注意以下命名规则: 不能与已有的任何桶名称重复。 创建成功后不支持修改。 长度范围为3到63个字符,支持小写字母、数字、中划线()。 禁止以中划线()开头或结尾。 存储类型 桶的存储类型,可选标准存储/低频存储/归档存储。部分资源池暂不支持低频或归档存储。 读写权限 桶的读写权限控制。 私有:仅桶的拥有者和授权用户可进行读写操作。 公共读:公共读权限下所有用户均拥有该桶的读权限,为确保您的数据安全,不推荐此配置。 数据冗余策略 单AZ存储:选择单AZ,数据会存储在一个可用区。单AZ存储支持标准存储、低频存储、归档存储三种存储类型。 多AZ存储:选择多AZ存储,数据会存储在同一地域的多个可用区中,可用性更高。多AZ采用相对较高的计费标准。多AZ存储仅支持标准或低频存储类型。 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略后续无法更改。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务将统一的云资源按项目管理。 为桶选择所属的企业项目,从而将桶与企业项目进行关联。在选择“企业项目”的下拉列表中,将显示用户在企业项目服务中已创建的项目。 系统还内置了一个缺省的企业项目“default”,如果用户没有为桶创建企业项目,将使用缺省项目“default”。您也可参考创建企业项目完成企业项目创建。 服务端加密 开启KMS服务端加密功能,上传的对象将以加密的方式存储在ZOS中。 下载对象时,ZOS会自动将加密文件解密后再提供给用户。 合规保留 开启合规保留后,允许用户以“不可删除、不可篡改”方式保存和使用数据。 是否编辑桶标签 为指定存储桶设置标签,用来标记不同用途的存储桶并进行分类管理。 7. 点击下一步,确认配置后点击“确认”,完成Bucket创建。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        入门操作
        创建桶
      • 在CTS事件列表查看云审计事件
        介绍在CTS事件列表查看云审计事件。 操作场景 用户进入云审计服务创建管理类追踪器后,系统开始记录云服务资源的操作。在创建数据类追踪器后,系统开始记录用户对OBS桶中数据的操作。云审计服务管理控制台会保存最近7天的操作记录。 本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录。 使用限制 用户通过云审计控制台只能查询最近7天的操作记录。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志服务(LTS),才可在OBS桶或LTS日志组里面查看历史事件信息。否则,您将无法追溯7天以前的操作记录。 云上操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。 云审计控制台对用户的操作事件日志保留7天,过期自动删除,不支持人工删除。 查看审计事件 步骤1、登录管理控制台。 步骤2、单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 步骤3、单击左侧导航树的“事件列表”,进入事件列表信息页面。 步骤4、事件列表支持通过筛选来查询对应的操作事件。当前事件列表支持四个维度的组合查询,详细信息如下: 事件类型、事件来源、资源类型和筛选类型,在下拉框中选择查询条件。 筛选类型按资源ID筛选时,还需手动输入某个具体的资源ID。 筛选类型按事件名称筛选时,还需选择某个具体的事件名称。 筛选类型按资源名称筛选时,还需选择或手动输入某个具体的资源名称。 操作用户:在下拉框中选择某一具体的操作用户,此操作用户指用户级别,而非租户级别。 事件级别:可选项为“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 时间范围:可选择查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 步骤5、选择完查询条件后,单击“查询”。 步骤6、在事件列表页面,您还可以导出操作记录文件和刷新列表。 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 步骤7、在需要查看的事件左侧,单击展开该记录的详细信息。 步骤8、在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。
        来自:
        帮助文档
        性能测试PTS
        用户指南
        审计
        在CTS事件列表查看云审计事件
      • 迁移可用区
        本文介绍迁移实例节点可用区功能。 注意 仅 华北2 Ⅱ类型资源池支持该功能,Ⅰ类型资源池不支持该功能,具体支持情况以控制台页面展示为准。更多资源池信息,请参见功能概览。 前提条件 实例状态为运行中。 实例内核小版本为最新,如实例内核小版本非最新,请先升级数据库内核小版本。 约束限制 只读实例和代理节点不支持迁移可用区。 开启透明加密的实例不支持迁移可用区。 实例所在资源池需要有多个可用区才支持迁移可用区功能,单可用区的不支持迁移。 开启SSL数据加密的实例不支持迁移可用区,如需迁移,请先关闭SSL。 影响 迁移可用区过程中可能会出现数次闪断,请确保应用具有自动重连机制。 迁移可用区任务完成时间和用户设置的迁移策略与用户数据量相关。在发起迁移可用区请求后到迁移可用区结束过程中您将不可以进行重启、退订等操作。 如果迁移的目标可用区资源不足可能导致迁移可用区失败。 迁移可用区之后,将触发一次全量备份,以保证高频备份的增量备份功能正常。 迁移可用区后,数据库实例的节点信息发生变更,若实例已开启数据库代理,会回到系统配置,可以在数据库代理页面重新设置节点权重,以刷新后端的节点信息。 操作步骤 注意 迁移前的SQL审计日志(如开启)、慢查询日志、错误日志等均不随之迁移。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库PostgreSQL版 ,进入关系数据库PostgreSQL版产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择PostgreSQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 单击可用区信息 区域右侧的迁移可用区 ,进入迁移可用区页面。 5. 配置如下迁移相关参数,单击提交。 参数 说明 可用区 选择迁移的目标可用区。 说明 主备实例选择不同可用区,可以具备跨可用区故障容灾的能力。 切换时间 选择迁移时间,取值范围如下: 立即切换 用户指定时间段生效 注意 默认选择的迁移时间为立即迁移,请确认在业务低峰期执行该动作。 若您选择在指定时间段迁移,您可以指定的时间距离当前时间最长不超过72小时,若您指定的时间距离当前时间小于1小时则会立即触发迁移。 6. 若您选择了同时变更配置则会跳转至订单支付页,您需要按照页面提示完成支付。 您可以在 PostgreSQL > 任务列表页面,查看迁移可用区任务的进度。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        实例操作
        迁移可用区
      • 常见问题
        本节主要介绍常见问题。 如何解决新增节点时提示弹性IP不足的问题? 问题描述 在CCE集群中新增节点时,在“弹性IP”处选择“自动创建”,但创建节点失败,提示弹性IP不足。 解决方法 您可以有两种方法解决弹性IP不足的问题。 方法一:解绑已绑定弹性IP的虚拟机,再重新添加节点。 a. 登录弹性云主机控制台。 b. 在弹性云主机列表中,找到待解绑云服务器,单击云服务器名称。 c. 在打开的弹性云主机详情页中,单击“弹性公网IP”页签,在公网IP列表中单击待解绑IP后的“解绑”,为该云服务器解绑弹性IP,单击“确定”。 d. 返回CCE控制台创建节点页面中,选择“使用已有”重新新增节点的操作。 方法二:提高弹性IP的配额。 天翼云对用户的资源数量和容量做了配额限制。如果资源配额限制满足不了用户的使用需求,可以通过工单系统来提交工单申请,并告知您申请提高配额的理由。 在通过审理之后,我们会更新您的配额并进行通知。 如何快速清理已删除节点上的CCE组件? 使用场景 若集群中包含纳管节点,删除对应集群和节点不会删除对应的ECS,此时请按照界面提示清理节点上CCE组件。若未按照提示清理节点组件,后续需要清理ECS时,可按照如下操作进行清理。 操作步骤 1登录CCE控制台。 2在左侧导航栏中选择“集群管理 > 节点管理”,在右侧的节点列表中找到要执行操作的纳管节点,在节点的“操作”区域下单击“更多 > 移除”。 3在弹出的“移除纳管节点”对话框中输入"REMOVE"确认移除节点,单击“确认”。 4、认真阅读弹出的“提示”页面内容,按照步骤清理CCE相关资源。 如何加固CCE集群的节点VPC安全组规则? CCE作为通用的容器平台,安全组规则的设置适用于通用场景。用户可根据安全需求,通过网络控制台的安全组找到CCE集群对应的安全组规则进行安全加固。 安全组查找路径:登录控制台,单击服务列表中的“网络 > 虚拟私有云 VPC”,在网络控制台单击“访问控制 > 安全组”。 其中,控制节点的安全组名称是:{集群名}ccecontrol{随机ID};用户节点的安全组名称是:{集群名}ccenode{随机ID}。 安全组中必须开启的端口如下: {集群名}ccecontrol{随机ID}: •源地址属于本安全组规则的需全部放通。 •5444、8445、9443、4789端口的规则不能修改。 •5443端口需对VPC网段、容器网段放通。 {集群名}ccenode{随机ID}: •源地址属于本安全组规则的需全部放通。 •4789、10250端口的规则不能修改。 •3000032767端口需对VPC网段、容器网段和ELB的网段放通。
        来自:
        帮助文档
        云容器引擎
        常见问题
        常见问题
      • 查看事件信息
        本节主要介绍如何查看事件信息。 操作场景 通过查看事件列表,您可以了解近360天的事件的统计信息列表,列表内容包括事件的名称、类型、等级和发生时间等。并可通过自定义过滤条件,如事件名称、事件等级和发生时间等,快速查询到相应事件的统计信息。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“威胁管理 > 事件管理”,进入事件管理页面。 5. 在事件管理页面上方,查看事件统计情况。 急需处理事件 :呈现事件等级为致命或高危,且状态为非关闭的事件总数。 超期事件 :呈现已超过事件设置的计划关闭时间,且还未关闭的事件总数。 事件状态 :呈现“打开”、“阻塞”、“关闭”状态的事件总数及对应状态下事件数量。 事件数量 :当前工作空间内的事件总数,以及各个等级对应的事件数量。 6. 在事件列表中,查看事件详细信息。 页面最多可查看9999条事件信息。 参数 说明 事件名称 事件名称。 事件ID 事件对应的ID。 事件等级 事件严重等级,分为以下等级:提示、低危、中危、高危、致命。 类型 事件类型。 状态 事件状态,分为以下状态:打开、阻塞、关闭。 影响资产 受此事件影响的资产。 验证状态 此事件的验证状态,即事件的准确性。分为以下状态:未知、确认、误报。 责任人 此事件的主要责任人。 创建时间 此事件的创建时间。 首次发生时间 此事件首次发生时间。 最近发生时间 此事件最近一次发生的具体时间。 计划关闭时间 此事件的计划关闭时间。 描述 事件的描述信息。 数据源产品名称 事件来源产品的名称。 标签 事件的标签信息 操作 可对事件进行编辑、关闭等操作。 7. 如需查看某个事件详概览,可单击告警名称,页面右侧将展示事件的概览信息。 在事件概览页面可以查看事件的处置建议、基本信息和关联信息(包括关联的威胁指标、告警、事件、攻击信息等)。 如果需要查看事件详情,可以在事件概览页面右下角单击“事件详情”,进入事件详情页面。 在详情页面除了可以查看概览页面的信息外,还可以查看事件的时间线和攻击信息。例如:事件首次发生时间、检测时间、攻击进程ID等。 在事件概览/详情页面可以在事件等级和状态的下拉箭头中修改事件等级、状态。 在事件概览/详情页面可以关联或取消关联告警、事件、情报,还可以查看受影响资产相关信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        事件管理
        查看事件信息
      • 将MySQL同步到DWS
        操作步骤 本小节以RDS for MySQL到DWS多对一场景的实时同步为示例,介绍如何使用数据复制服务配置实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“DWS”。 网络类型 此处以“VPC网络”为示例。目前支持可选“公网网络”、“VPC网络”和“VPN、专线网络”。 目标数据库实例 可用的DWS实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 可选“全量+增量”、“全量”和“增量”三种模式,此处以“全量+增量”为示例。 全量+增量该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。、 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 全量 该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将用户选择的数据库对象和数据一次性同步至目标端数据库。 增量 该模式通过解析日志等技术,将源端产生的增量数据持续同步至目标端数据库。 标签 表 标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 源库类型 源数据库类型,可选“ECS自建库”和“RDS实例”,此处以“RDS实例”为示例。 数据库实例名称 选择待同步的RDS实例。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 说明 源数据库的数据库用户名和密码,会被系统加密暂存,直至删除该任务后自动清除。 表目标库信息 参数 描述 数据库实例名称 默认为创建同步任务时选择的DWS实例,不可进行修改。 数据库用户名 目标数据库对应的数据库用户名。 数据库密码 数据库用户名和密码将被系统加密暂存,直至该任务删除后清除。 步骤 4 在“设置同步”页面,选择同步对象类型和同步对象。单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 同步对象类型 可选同步表结构、同步数据、同步索引,根据实际需求进行选择要同步内容。 l 同步数据为必选项。 l 选择同步表结构的时候目标库不能有同名的表。 l 不选同步表结构的时候目标库必须有相应的表,且要保证表结构与所选表结构相同。 由于DWS的表结构具有业务逻辑,建议结合业务情况在DWS专家指导下自建表结构,并确保表名、列名、列类型的准确性,否则会出现数据同步失败、数据同步精度丢失等情况。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下形式: l 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 l 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 l 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 异常数据策略 源和目标数据库的客观差异差异,可能导致部分数据无法写入成功,出现异常数据,请选择出现异常数据时的任务策略。 l 任务继续:不因少量异常数据导致全部数据均停止同步,异常数据发生时将会自动记录脏数据,可在“异常数据”模块查看这部分数据。 l 任务失败:出现异常数据后,任务失败停止。 启动位点 步骤2的同步模式选择“增量”时可见,增量同步的启动位点,任务的源库日志从位点后开始获取(不含当前启动位点)。 通过show master status命令获取源库位点,根据提示分别填写File、Position、ExecutedGtidSet。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 l 可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,实现多张表对一张表的同步,具体操作可参考对象名映射。 − 使用多对一操作时,需要使用数据加工的附加列操作来避免数据冲突。 − 源库和目标库多对一的表的结构要一致。 说明 l 选择数据的时候支持对展开的库 搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 对象名同步到目标库后会转换成小写,因此选择的源库表中不能存在表名称字母相同但大小写不同的表,否则,会导致同步失败。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 l 选择库级同步时,在增量同步过程中,不能在源库创建名称字母相同但大小写不同的表,否则会导致其中一张表无法同步。 步骤 5 在“数据加工”页面,可对需要加工的表对象进行数据过滤或添加附加列,,单击“下一步”。 如果需要设置数据过滤,选择“数据过滤”,设置相关过滤规则。 如果需要设置添加附加列,选择“附加列”,单击“操作”列的“添加”,选填需要添加的列名和操作类型信息。 相关操作可参考数据加工。 步骤 6 在“预检查”页面,进行同步任务预校验,校验是否可进行实时同步。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 7 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 8 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将MySQL同步到DWS
      • 将MySQL同步到MySQL
        操作步骤 本小节以MySQL>RDS for MySQL的实时同步为示例,介绍如何使用数据复制服务创建两个数据库实例之间的实时同步任务,其他存储引擎的配置流程类似。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表 同步实例信息 参数 描述 数据流动方向 选择“入云”,即目标端数据库为本云数据库。 源数据库引擎 选择“MySQL”。 目标数据库引擎 选择“MySQL”。 网络类型 此处以公网网络为示例。可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 目标数据库实例 用户所创建的关系型数据库实例。 说明 目标数据库实例不支持选择只读实例。 目标数据库实例可以和源数据库选择同一个实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 此处以“全量+增量”为示例。 “全量+增量”:该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。说明选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”:增量同步通过解析日志等技术,将源端产生的增量数据同步至目标端。 标签 表 标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 同步实例创建成功后,在“源库及目标库”页面,填选源库信息和目标库信息后,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 源库信息 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 源数据库的用户名。 数据库密码 源数据库用户名所对应的密码。支持在任务创建后修改密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的,单击“连接信息”后的“修改连接信息”,在弹出的对话框中修改密码。 SSL安全连接 如启用SSL安全连接,请在源库开启SSL,并确保相关配置正确后上传SSL证书。。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 说明 源数据库IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 目标库信息 表 目标库信息 参数 描述 数据库实例名称 默认为创建同步任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的用户名。 数据库密码 目标数据库用户名对应的密码。支持在任务创建后修改密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面,单击“连接信息”后的“修改连接信息”,在弹出的对话框中修改密码。 SSL安全连接 如启用SSL安全连接,请在目标库开启SSL,并确保相关配置正确后上传SSL证书。 说明 最大支持上传500KB的证书文件。 如果不启用SSL安全连接,请自行承担数据安全风险。 说明 目标数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 步骤 4 在“设置同步”页面,选择数据冲突策略和同步对象,单击“下一步”。 表 同步模式和对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 限速自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。流速的大小需要根据业务场景来设置,不能超过9999MB/s。 不限速对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 限速模式只对全量阶段生效,增量阶段不生效。 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下形式: 忽略当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 覆盖当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据复制服务提供了过滤DDL操作的功能,目前支持默认过滤删除数据库的操作。 是,表示过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示过程中将相关操作同步到目标库。 对象同步范围 对象同步范围支持普通索引和增量DDL同步。您可以根据业务需求选择是否进行同步。 启动位点 步骤2的同步模式选择“增量”时可见,增量同步的启动位点,任务的源库日志从位点后开始获取(不含当前启动位点)。通过show master status命令获取源库位点,根据提示分别填写File、Position、ExecutedGtidSet。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,可选表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考 对象名映射。 使用非字母、非数字、非下划线等字符作为库表名称,或库表映射后名称包含中划线、井号时,名称的长度请不要超过42个字符。 说明 选择对象的时候支持对展开的库进行搜索,以便您快速选择需要的数据库对象。 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 选择的同步对象名称中不能包含空格。 步骤 5 在“数据加工”页面,根据需要选择数据加工的方式。 如果不需要数据加工,单击“下一步”。 如果需要数据加工,可选择“数据过滤”、“附加列”或“列加工”,参考数据加工章节,设置相关规则。 步骤 6 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 7 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 8 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将MySQL同步到MySQL
      • 创建服务器证书
        弹性负载均衡支持服务器证书创建,本文带您快速熟悉服务器证书创建的操作。 操作场景 当前支持服务器证书,用于SSL握手协商,需提供证书内容和私钥。 在证书管理页面可创建和管理证书。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方单击图标,选择区域,本文操作均选择华东华东1。 3. 在系统首页,选择“网络>弹性负载均衡>证书管理”。 4. 在负载均衡页面,单击“创建负载均衡”,进入负载均衡创建页面。 5. 参考服务器证书管理配置说明,点击“确定”,完成证书创建。 服务器证书管理配置说明 参数 说明 名称 证书名称,只能由数字、字母、组成,不能以数字和开头、以结尾,且长度为263字符。 证书类型 可选服务器或者CA证书,本操作选择服务器证书。服务器证书:在使用HTTPS协议时,服务器证书用于SSL握手协商,需提供证书内容和私钥。CA证书:又称客户端CA公钥证书,用于验证客户端证书的签发者;在HTTPS双向认证功能时,只有当客户端能够出具指定CA签发的证书时,HTTPS连接才能成功。 证书标准 支持国际标准和国密(SM2)标准。 证书内容 支持粘贴证书到内容框,或点击上传证书内容。证书包含证书的公钥和签名等信息,证书扩展名为".pem"或".crt",您可直接输入证书内容或上传证书文件。 (1)通过Root CA机构颁发的证书,证书是唯一的一份,不需要额外的证书,配置的站点即可被浏览器等访问设备认为可信。Root CA证书格式必须符合如下要求:以BEGIN CERTIFICATE, END CERTIFICATE开头和结尾。每行64个字符,最后一行长度可以不足64个字符。证书内容不能包含空格。 (2)通过中级CA机构颁发的证书,证书文件包含多份证书,需要将服务器证书与中级证书合并在一起上传。证书链格式必须符合如下要求:BEGIN CERTIFICATEEND CERTIFICATEBEGIN CERTIFICATEEND CERTIFICATEBEGIN CERTIFICATEEND CERTIFICATE服务器证书放第一位,中级证书放第二位,中间不能有空行。证书内容不能包含空格。证书之间不能有空行,并且每行64字节。符合证书的格式要求。一般情况下,证书机构在颁发证书时会有对应说明,证书要符合证书机构的格式要求。 私钥 证书的私钥,私钥扩展名为"key",您可直接输入私钥文件内容或上传符合格式的私钥文件。私钥内容格式为:以“ BEGIN RSA PRIVATE KEY ”作为开头,“ END RSA PRIVATE KEY ”作为结尾。 描述 填写证书相关描述,可选。 企业项目 选择所述的企业项目名称, 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        证书管理
        创建服务器证书
      • 搭建微信公众号后台——收发文本消息
        本文主要介绍如何搭建微信公众号后台——收发文本消息。 概述 在本教程中,您将学会使用弹性云主机(以下简称 ECS)搭建微信公众号处理后台,使用Python语言编写对应的微信消息处理逻辑代码,接收从微信服务端转发过来的消息,并返回处理结果给最终用户。 您需要了解的背景知识有: CentOS(Linux)操作系统、Python语言、Web.py框架、HTTP/XML协议。 准备事项 1、申请微信公众号 微信公众号申请链接:< 2、购买天翼云弹性云服务。 本教程中,以“云图说”为例,使用公共镜像CentOS 7.4。 3、购买弹性IP 建议同时购买弹性IP,后面需要在微信公众号上配置公网IP的地址。 安装基础软件 本教程中使用Python+Web.py组合完成微信公众号开发,需要安装或升级Python、pip、Web.py框架、WinSCP软件版本。 升级默认Python版本 CentOS 7.4自带Python版本比较老,建议升级到Python3。 1、查看Python版本,使用如下命令: python version 2、下载Python安装包,这里以Python 3.6.0版本为例,使用命令: wget 3、解压安装包,使用如下命令: tar xvf Python3.6.0a1.tar.xz 4、执行命令: cd Python3.6.0a1 ./configure 如果出现“configure: error: no acceptable C compiler found in $PATH”异常提示,是因为未安装合适的编译器。 解决方法: 执行以下命令,安装/升级gcc及其他依赖的包。 sudo yum install gccc++ 并在随后提示安装包是否OK时,输入y并回车。出现如下图提示说明依赖的包安装成功。 在编译器安装完成后,重新执行./configure命令。 5、执行命令: make && make install 执行成功。但提示pip错误,原因是我的系统中少了openssldevel包,可以先忽略 6、查看Python3版本,使用命令: python3 version 7、执行命令: python3 出现如下提示,则说明Python3安装成功。 说明 执行后续操作前需要先退出Python命令行,可通过输入以下任一命令再按回车键退出: Ctrl+Z exit() quit()
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        搭建微信公众号后台——收发文本消息
      • 评分规则
        实例概览与实例画像功能,支持对目标实例进行诊断并给出健康评分,本文介绍评分规则。 注意事项 健康度评分实行多维度评分制 ,每个评分维度采用百分制,存在告警直接扣分,得分不低于0分。 实例健康度评分取五个维度评分中的最低分。 阈值类告警扣分项需满足条件持续60秒进行触发,事件类告警扣分项需满足条件持续90秒进行触发。 评分规则表 天翼云RDS MySQL: 扣分项 含义 扣分子项 条件 所扣分数 评分维度 服务状态异常 mysqld服务心跳检测不通过。 严重 serviceDown1 50 数据库可用性 主从GTID不一致 当前主从GTID不一致。 警告 GTID0 5 数据库可用性 主从复制延迟 主从复制发生长时间延迟。 警告 30 min>replDelayTime>10 min 10 数据可靠性 主从复制延迟 主从复制发生长时间延迟。 严重 replDelayTime>30 min 15 数据可靠性 复制IO线程中断 主从中断,复制 IO 线程中断。 严重 slaveIORunningNO 10 数据可靠性 复制SQL线程中断 主从中断,复制 SQL 线程中断。 严重 slaveSQLRunningNO 10 数据可靠性 备份失败 当前实例备份失败。 严重 BACKUP0 10 数据可靠性 备份超时 备份超时,耗时3小时以上 严重 BACKUP0 10 数据可靠性 CPU使用率 当前CPU使用率,多核CPU换算成单核计算。 警告 80%>cpuUsage>70% 5 数据库性能 CPU使用率 当前CPU使用率,多核CPU换算成单核计算。 严重 cpuUsage>80% 10 数据库性能 内存使用率 当前内存使用率。 警告 90%>memUsage>80% 5 数据库性能 内存使用率 当前内存使用率。 严重 memUsage>90% 10 数据库性能 连接使用率 当前连接使用数 / 最大允许连接数 100%。 警告 80%>connectionRate>70% 5 数据库性能 连接使用率 当前连接使用数 / 最大允许连接数 100%。 严重 connectionRate>80% 10 数据库性能 IO使用率 当前IO值 / 最大允许IO值 100%。 警告 90%>ioUsage>70% 5 数据库性能 IO使用率 当前IO值 / 最大允许IO值 100%。 严重 ioUsage>90% 10 数据库性能 活动线程数 当前活跃会话数。 警告 min(4cpuCores+8,96)>threadRunning>min(2cpuCores+8,64) 10 数据库性能 活动线程数 当前活跃会话数。 严重 maxConnections>threadRunning>min(4cpuCores+8,96) 50 数据库性能 慢SQL 当前慢SQL总数相较前一采集时间点慢SQL总数的增量。 提示 10>slowSqlCount>0 5 数据库性能 慢SQL 当前慢SQL总数相较前一采集时间点慢SQL总数的增量。 警告 50>slowSqlCount>10 20 数据库性能 慢SQL 当前慢SQL总数相较前一采集时间点慢SQL总数的增量。 严重 slowSqlCount>50 50 数据库性能 行锁等待 当前发生行锁等待。 严重 rowLockWait>0 5 数据库性能 元数据锁 近一分钟存在waitingfortablemetadatalock 严重 waitingfortablemetadatalock>0 10 数据库性能 磁盘使用率 当前磁盘空间实际使用率。 警告 90%>usedSpaceUtil>80% 10 数据库可维护性 磁盘使用率 当前磁盘空间实际使用率。 严重 usedSpaceUtil>90% 50 数据库可维护性
        来自:
        帮助文档
        数据管理服务
        用户指南
        智能运维
        实例概览
        评分规则
      • 云硬盘
        本文为您介绍轻量型云主机对云硬盘的支持情况。 云硬盘 云硬盘是一种可弹性扩展的块存储设备,可以为计算产品提供高性能、高可靠的块存储服务。天翼云硬盘规格丰富,满足不同场景的业务需求,适用于文件系统、数据库、开发测试等场景。用户可以在线操作及管理云硬盘,并可以像使用传统服务器硬盘一样,对挂载到云主机的云硬盘做格式化、创建文件系统等操作。 云硬盘类型 云硬盘性能的主要指标包括: IOPS:云硬盘每秒进行读写的操作次数。 吞吐量:云硬盘每秒成功传送的数据量,即读取和写入的数据量。 IO读写时延:云硬盘处理一个读写IO需要的时间。 目前,轻量型云主机系统盘提供高IO类型的云硬盘,数据盘支持普通IO、高IO、通用SSD、超高IO高类型的云硬盘。各种类型的云盘性能如下,详情可查看磁盘类型及性能介绍。 参数 超高IO 通用型SSD 高IO 普通IO 单个云盘最大IOPS 50,000 20,000 5,000 2,000 单盘IOPS性能计算公式(基准性能),公式中容量单位为GB min{1,800+50×容量,50,000} min{1,500+8×容量,20,000} min{1,800+8×容量,5,000} min{300+2×容量,2,000} IOPS突发上限 16,000 8,000 5,000 2,000 单盘最大吞吐量 350 250 200 150 单盘吞吐量计算公式(基准性能,MB/s),公式中容量单位为GB min{120+0.5×容量,350} min{100+0.5×容量,250} min{130+0.1×容量,200} min{100+0.1×容量,150} 单队列平均访问时延(ms),Block Size4K 1 1 1~3 5~10 说明 1. 超高IO最大IOPS为50,000的资源池为:华东1、上海36、青岛20、武汉41、南宁23、华北2、南昌5、西南1、华南2、西安7、太原4、郑州5、西南2贵州、杭州7、长沙42(可用区1)。其他资源池支持的最大IOPS为33,000,单个云硬盘IOPS计算公式为:min{1,800+30×容量,33,000}。 2. 单个云硬盘的最大IOPS、IOPS突发上限、单个云硬盘的最大吞吐量三个参数的值均为读写总和。比如最大IOPSIOPS读+IOPS写。 3. 以单个超高IO云硬盘吞吐量计算公式为例说明:起步120MB/s,每GB增加0.5MB/s,上限为350MB/s。 4. 以单个通用型SSD云硬盘IOPS计算公式为例说明:起步1,500,每GB增加8,上限为20,000。 5. 单队列访问时延:单队列指队列深度为1,即并发度为1。表中时延指所有IO请求串行处理时IO的时延,表格中数据是4KB数据块能达到的时延。云硬盘性能测试方法请参见 6. 通用型SSD、超高IO云硬盘挂载至小规格的轻量云主机(如1vCPU、2vCPU等)时,磁盘性能可能会受到影响。
        来自:
        帮助文档
        轻量型云主机
        产品简介
        云硬盘
      • 实例类型
        本页介绍了关系数据库MySQL版实例类型。 关系数据库MySQL版提供了稳定可靠的云数据库服务,并以实例为最小管理单元。一个数据库实例代表了一个独立运行的数据库,并且拥有唯一标识。关系数据库MySQL版服务对运行实例数量没有限制。 您可以在一个实例中创建和管理多个数据库,并使用与独立访问数据库实例相同的工具和应用进行访问。创建和管理数据库实例非常方便,您可以通过管理控制台或RESTful方式的API来完成这些任务。 在创建实例时,您可以自定义实例规格和存储容量,并可以随时根据业务需求进行升级和扩容。这使得关系数据库MySQL版可以适合各种规模和需求的业务应用。无论您是一家中小企业还是大型企业,都可以根据实际情况选择不同的实例规格和存储容量。 注意 天翼云关系型数据库单机实例(包含只读实例)由于部署在单台机器上,因此无法保障可用性。请选择主备实例或者一主两备实例。 表1 实例类型 实例类型 简介 使用说明 ::: 单机版 采用单个数据库节点部署架构,具有高性价比。 适用于测试场景、小型应用场景,成本较低。由于单机节点存在宕机风险,极端场景下无法保证故障及时恢复。 一主一备 采用一主一备的高可用架构,对故障具备高可用性,可以实现短暂中断后自动发生主备切换。 适用于中小型业务场景,支持跨可用区高可用(AZ),创建实例时会同步创建备机,备机创建成功后,对用户不可见。在主节点故障后,从节点会自动提升为新的主节点,客户端需要支持重新连接。 需要注意主备之间的同步方式,I类型资源池默认为异步复制、II类型资源池在2024年7月10号后创建实例默认为半同步复制。 一主两备 采用一主两备的高可用架构,对故障具备更高可靠性,可以实现更快速的主备切换。 适用于对高可用性要求较高的业务场景,节点间应当配置足够高的带宽,以保证主备数据的同步速度。创建实例时会同时创建两个备机,备机创建成功后,对用户不可见。在主节点故障后,从节点会自动提升为新的主节点,客户端需要支持重新连接。 一主两备实例默认为半同步复制方式。 只读实例 采用单个物理节点架构,同步主实例的数据。 适用于读多写少的业务场景,可以分担主库的压力。当只读和主实例的复制异常后,需要花费较长时间重建复制关系,恢复时间的长短取决于数据量(说明:只有开通主实例之后,才能开通对应的只读实例。) 用户可以在关系数据库MySQL版系统中自助创建及管理各种数据库引擎的实例。
        来自:
        帮助文档
        关系数据库MySQL版
        产品简介
        实例说明
        实例类型
      • Kafka业务迁移
        方案一:先迁生产,再迁消费 指先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。 1、将生产客户端的Kafka连接地址修改为新Kafka实例的连接地址。 2、重启生产业务,使得生产者将新的消息发送到新Kafka实例中。 3、观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。 4、将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。 5、重启消费业务,使得消费者从新Kafka实例中消费消息。 6、观察消费者是否能正常从新Kafka实例中获取数据。 7、迁移结束。 本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题, 适用于对消息顺序有要求的场景 。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。 方案二:同时消费,后迁生产 指消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。 1、启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。 说明 原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。 2、修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。 3、重启生产客户端,将生产业务迁移到新Kafka实例中。 4、生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。 5、等待原Kafka中数据消费完毕,关闭原有消费业务客户端。 6、迁移结束。 迁移过程由业务自主控制。本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景 适用于对端到端时延有要求,却对消息顺序不敏感的业务 。 FAQ:如何将持久化数据也一起迁移 如果需要将原Kafka的已消费数据也迁移到Kafka专享实例,可以使用开源工具MirrorMaker,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例。 需要注意的是,天翼云Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka业务迁移
      • RDS for MySQL-> MySQL
        本节主要介绍RDS for MySQL> MySQL 使用技巧(需要人为配合) 如果您使用的是全量迁移模式(离线迁移),确保源和目标数据库无业务写入,保证迁移前后数据一致。 如果您使用的是全量+增量迁移模式(在线迁移),支持在源数据库有业务数据写入的情况下进行迁移,推荐提前23天启动任务,并配合如下使用技巧和对应场景的操作要求,以确保顺利迁移。 基于以下原因,建议您结合定时启动功能,选择业务低峰期开始运行迁移任务,相对静态的数据,迁移时复杂度将会降低。如果迁移不可避免业务高峰期,推荐使用迁移限速功能,即“流速模式”选择“限速”。 全量迁移会对源数据库有一定的访问压力。 迁移无主键表时,为了确保数据一致性,会存在3s以内的单表级锁定。 正在迁移的数据被其他事务长时间锁死,可能导致读数据超时。 由于MySQL固有特点限制,CPU资源紧张时,存储引擎为Tokudb的表,读取速度可能下降至10%。 建议您结合数据对比的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 操作要求 由于一些无法预知或人为因素及环境突变导致迁移失败的情况,数据库复制服务提供以下常见的操作限制,供您在迁移过程中参考 类型名称 操作限制 (需要人为配合) 注意事项 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用表、存储过程/函数/触发器引用视图/表、主外键关联表等。 不支持外键级联操作。 不支持高版本到低版本的迁移。 不支持源数据库实例主备倒换。 支持断点续传功能,但是对于无主键的表可能会出现重复插入数据的情况。 在未选择任何表的情况下,无法单独迁移视图、存储过程等对象。同时目前不支持DRS自动判断依存关系,如:具有主外键关系的表,单独迁移将会失败,迁移时需要一起迁移。 若专属计算集群不支持4vCPU/8G或以上规格实例,则无法创建迁移任务。 全量迁移不支持修改表结构等DDL操作。 目标数据库实例状态需为可读写状态,否则可能迁移失败。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 操作须知 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 迁移过程中,不建议对目标数据库进行主备切换。 在迁移任务结束之前,不允许目标数据库提前中断公网连接。 迁移过程中,不允许源库写入binlog格式为statement的数据。 迁移过程中,不允许源库执行清除binlog的操作。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        出云迁移使用须知
        RDS for MySQL-> MySQL
      • 服务部署
        资源监控 1. 找到需要查看的任务卡片,点击【查看】进入服务详情页面,下拉页面切换到【资源监控】tab,可查看部署服务的资源使用情况。 2. 统计说明及名词解释: 1. 作业:指运行一次任务,一次运行即一个作业; 2. 实例:指pod实例,是Kubernetes的最小调度单元; 3. 作业维度与实例维度:一般在部署时,一个任务作业会起多个pod实例。在实例维度,展示了不同实例的最小粒度的监控,此时可以精确到某个实例中的某一张卡;在作业维度,统计了该作业下的所有实例(Pod)或显卡的聚合值,以反映作业整体的资源使用情况,一般使用率、速率以平均值聚合,使用量以累加值聚合。 3. 图像展示: 1. 放大与明细:点击指标右侧“>”箭头,可展开指标大图,大图展示对图像上点的统计细项,包括最大值、最小值、平均值、中位数、75分位数; 2. 图例:点击图例,可以对线段进行展示/隐藏; 3. 时间轴:滑动图像下方时间轴,可以在已选定时间的基础上,查看更小范围的监控。 4. 监控指标: 类别 指标 维度 解释 CPU、内存与网络监控 CPU使用率 作业、实例 CPU在单位时间内,CPU被任务占用使用的时间占比。 CPU、内存与网络监控 CPU使用量 作业、实例 CPU 实际使用的核数。 CPU、内存与网络监控 内存使用率 作业、实例 已用内存占总内存的百分比。 CPU、内存与网络监控 内存使用量 作业、实例 内存实际使用量。 CPU、内存与网络监控 普通网络吞吐 作业、实例 传统以太网的实际数据传输速率,即单位时间内实际传输的数据量。 显卡基础指标 GPU/NPU使用率 作业、实例 在单位时间内,显卡被任务占用使用的时间占比。 显卡基础指标 GPU/NPU显存使用率 作业、实例 已用显存占总显存的百分比。 显卡基础指标 GPU/NPU显存使用量 作业、实例 显存实际使用量。 显卡基础指标 GPU/NPU卡温度 实例 显卡温度。 显卡基础指标 GPU/NPU功耗 实例 显卡功耗。 显卡基础指标 NPU卡健康状态 实例 每张卡的NPU芯片健康状态。 取值范围:{0,1} 1:表示在过去一段时间间隔内芯片处于健康状态; 0:表示在过去一段时间间隔内出现了不健康状态。
        来自:
        帮助文档
        训推服务
        用户指南
        模型服务
        服务部署
      • ping不通或丢包时如何进行链路测试
        WinMTR和MTR的报告分析处理 以下图为例,对MTR报告进行分析。 1. 客户端本地网络:即图中A区域,代表本地局域网和本地网络提供商网络。 1. 如果客户端本地网络中的节点出现异常,则需要对本地网络进行相应的排查分析。 2. 如果本地网络提供商网络出现异常,则需要向当地运营商反馈问题。 2. 运营商骨干网络:即图中B区域,如果该区域出现异常,可以根据异常节点的IP查询其所属的运营商,向对应运营商进行反馈。 3. 目标服务器本地网络:即图中C区域,即目标服务器所属提供商的网络。 1. 如果丢包发生在目标服务器,则可能是目标服务器的网络配置原因,请检查目的服务器的防火墙配置。 2. 如果丢包发生在接近目标服务器的几跳,则可能是目标服务器所属提供商的网络问题。 4. 链路负载均衡:即图中的D区域,如果中间链路某些部分启用了链路负载均衡,则mtr命令只会对首尾节点进行编号和探测统计,中间节点只会显示相应的IP或域名信息。 常见的链路异常案例 1. 目标主机配置不当。 如下示例所示,数据包在第5条的目标地址出现了80%的丢包,问题可能是目标服务器网络配置原因,需检查目标服务器的访问配置。 2. ICMP限速。 如下图所示,在第6、7跳出现丢包,但后续节点均未见异常。推断是该节点ICMP限速所致。该场景对最终客户端到目标服务器的数据传输不会有影响,分析时可以忽略此种场景。 3. 环路。 如下图所示,数据包在第5跳之后出现了循环跳转,导致最终无法到达目标服务器。出现此场景是由于运营商相关节点路由配置异常所致,需联系相应节点归属运营商处理。 4. 链路中断。 如下图所示,数据包在第4跳之后就无法收到任何反馈。这通常是由于相应节点中断所致。建议结合反向链路测试做进一步确认。该场景需要联系相应节点归属运营商处理。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        高频故障案例
        ping不通或丢包时如何进行链路测试
      • 概述
        本文介绍了跨域复制的基本概念、关键特点及应用场景等信息,供您了解弹性文件服务的异地容灾能力。 基本概念 跨域复制是指在不同地域之间进行自动复制数据的过程,弹性文件服务的跨域复制功能基于中国电信骨干网可以将文件系统中的数据近实时、异步复制到跨地域的另一个文件系统,以实现现数据的备份 、容灾 以及满足特定合规性要求等目的。比如金融、政企等安全合规性要求较高的企业可能在不同的地区拥有数据中心,为了确保数据的高可用性和灾难恢复能力,会使用跨域复制功能将数据从一个数据中心复制到另一个数据中心。这样,即使一个地区的数据中心出现故障,数据仍然可以在另一个地区的副本中找到,保证业务的连续性。 关键特点 自动复制 跨域复制是自动进行的,无需人工触发和干预。服务端会根据创建复制时选择的目标区域及目标文件系统,将数据和元数据自动进行同步。当复制任务创建成功后会进行一次全量扫描,然后进行初始化同步,当后续发生新增和修改时都会进行自动增量同步。 数据一致性 单个文件的数据一致性由多种方式来保证: 当用户创建一个复制任务时,服务端会比较从源传过来的文件列表下文件的checksum,如果不一致的文件,那么目的端会返回这部分不一致的文件列表,告诉源端这些不一致的文件需要复制。 如果是一个完整的文件复制完成,将会由checksum比较算法来快速比对文件是否内容一致。 如果是文件只修改了部分,首先使用checksum比较算法比对文件内容,发现不一致时就按照分块checksum比较算法,来验证块之间是否一致,不一致的块需要复制同步,当这些任务完成之后源和目的端即达到数据一致。 初始化同步时,会进行源和目标的数据扫描,目标文件系统已经存在但源文件系统不存在的数据会被保留,若是源和目标存在同名目录/同名文件,则会比较文件的数据是否一致,若不一致则会被覆盖。因此建议目标文件系统仅作为源的复制目标,不作为业务读写使用,防止数据被覆盖。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        跨域复制
        概述
      • EnvoyFilter CRD说明
        概述 EnvoyFilter提供了定制化修改服务网格数据面配置的能力,通过EnvoyFilter可以实现修改某个数据面配置字段、添加或修改过滤器、监听器、集群等配置,功能十分强大,所以在使用改功能时必须小心,确保对数据面配置有比较深入的理解;错误的配置可能影响网格数据面的稳定性。 对于任何数据面,允许存在多个EnvoyFilter匹配该数据面,位于根命名空间的EnvoyFilter优先级最高,其次是位于数据面所在的命名空间的EnvoyFilter。 注意 1. EnvoyFilter API和服务网格底层实现耦合较为紧密,在升级网格版本的时候需要关注已经定义的EnvoyFilter版本和新版本的网格是否存在兼容性问题 2. 多个EnvoyFilter匹配同一个数据面时,生效的优先级为根命名空间下的EnvoyFilter优先级最高,其他的按照创建时间顺序生效;如果EnvoyFilter之间存在冲突,结果是未定义的 3. 需要配置EnvoyFilter匹配不同的工作负载时(比如网关和sidecar),可以考虑在根命名空间下定义,且不配置workloadselector 配置示例 配置示例一 在根命名空间下创建全局生效的EnvoyFilter,在sidecar outbound方向9307端口的tcp proxy插件之前插入mongo的代理配置;为所有数据面(网关和sidecar)的HttpConnectionManager插件配置HTTP空闲连接时间为30秒。 apiVersion: networking.istio.io/v1alpha3 kind: EnvoyFilter metadata: name: customprotocol namespace: istiosystem as defined in meshConfig resource. spec: configPatches: applyTo: NETWORKFILTER match: context: SIDECAROUTBOUND will match outbound listeners in all sidecars listener: portNumber: 9307 filterChain: filter: name: "envoy.filters.network.tcpproxy" patch: operation: INSERTBEFORE value: This is the full filter config including the name and typedconfig section. name: "envoy.extensions.filters.network.mongoproxy" typedconfig: "@type": "type.googleapis.com/envoy.extensions.filters.network.mongoproxy.v3.MongoProxy" ... applyTo: NETWORKFILTER http connection manager is a filter in Envoy match: context omitted so that this applies to both sidecars and gateways listener: filterChain: filter: name: "envoy.filters.network.httpconnectionmanager" patch: operation: MERGE value: name: "envoy.filters.network.httpconnectionmanager" typedconfig: "@type": "type.googleapis.com/envoy.extensions.filters.network.httpconnectionmanager.v3.HttpConnectionManager" commonhttpprotocoloptions: idletimeout: 30s
        来自:
        帮助文档
        应用服务网格
        用户指南
        扩展中心
        EnvoyFilter CRD说明
      • 使用CDN加速访问对象存储ZOS
        本实践介绍了使用CDN加速访问对象存储ZOS的操作场景、前提条件与操作步骤。 操作场景 文件、图片、视频等静态资源一般只存储在对象存储ZOS的一个地域。不同地域的用户通过URL访问这些静态资源,响应速度存在差异;在互联网上频繁访问,会消耗大量的公网流出流量。 CDN加速能将源站内容分发至最接近用户的节点,大部分网站的静态文件会被CDN边缘节点缓存,使用户可就近、快速获取所需内容。 使用CDN加速访问对象存储ZOS,可以提升访问资源的响应速度,降低流量费用。 前提条件 已开通对象存储服务。 已开通CDN加速,请参见CDN加速购买指南产品开通。 如果要访问的桶在中国内地,确保域名已备案且备案信息有效。 注意 CDN从ZOS源站获取数据时,支持CDN回源流量的资源池采用CDN回源流量计费,不支持CDN回源流量的资源池采用公网流出流量计费。支持CDN回源流量的资源池有:西南1、福州25、杭州7、华北2、合肥2、华东1、武汉41、长沙42、华南2、呼和浩特3。 操作步骤 第一步:添加加速域名 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台首页,选择“CDN与视频>CDN加速服务”。 3. 在CDN控制台,点击“域名管理>域名列表”。 4. 在域名列表点击右上角“添加域名”。 5. 填写配置信息。配置详情,请参见CDN加速快速入门添加加速域名。在“回源配置>源站>新增源站”中,按以下说明配置各项参数。 参数 说明 源站类型 选择对象存储源站 源站 源站地址,即对象存储桶的访问地址。例如,bucketname.jiangsu10.zos.ctyun.cn。 层级 支持主或备。 权重 回该源站的权重值。 6. 若对象存储桶的读写权限为私有,即除桶ACL授权外的其他用户无桶的访问权限,请参见CDN加速用户指南域名管理回源配置私有Bucket回源进行回源配置。 7. 完成添加加速域名的信息配置后,点击“提交”。配置生效时间约510分钟。 第二步:配置CNAME 1. 域名添加成功后,在“域名管理>域名列表”页面,复制分配到的CNAME值。 2. 前往您的域名解析服务商处,添加CNAME记录。验证CDN加速服务是否生效。详情请参见:CDN加速快速入门配置CNAME。 第三步:访问对象存储ZOS 使用CDN加速域名访问ZOS中的对象。由于“指定源站回源HOST”为ZOS的桶域名,使用CDN加速域名访问对象存储的URL无需携带桶名,即
        来自:
        帮助文档
        对象存储 ZOS
        最佳实践
        使用CDN加速访问对象存储ZOS
      • 1
      • ...
      • 277
      • 278
      • 279
      • 280
      • 281
      • ...
      • 313
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      天翼云CTyunOS系统

      模型推理服务

      知识库问答

      人脸实名认证

      人脸属性识别

      人脸活体检测

      动作活体识别

      营业执照识别

      推荐文档

      删除

      源端安装客户端

      产品定义

      域名DNS配置

      Microsoft SQL Server

      只读实例简介

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号