活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      弹性IP_相关内容
      • 配置内网互访规则
        本节介绍如何配置VPC边界防护的内网互访规则。 添加内网互访规则 1. 登录云防火墙(原生版)控制台。 2. 在左侧导航栏,选择“访问控制 > VPC边界规则”,进入VPC边界规则页面。 3. 选择“内网互访规则”页签,单击“添加规则”,在弹出的添加规则页面中,填写防护规则信息。 规则参数说明如下: 参数名称 参数说明 名称 自定义防护规则名称。名称长度不能超过100个字符。 源IP地址 支持输入IPv4地址或使用已添加的地址簿: 输入IPv4:使用“/”隔开掩码,例如192.168.2.0/24,0.0.0.0/0表示任意地址。 地址簿选择:通过下拉框选择已添加的IP地址簿,添加IP地址簿请参见添加IP地址簿。 源端口 支持输入端口号或使用已添加的地址簿: 输入端口:输入单个端口号或连续的端口号,例如10或110,0表示任意端口。 地址簿选择:通过下拉框选择已添加的端口地址簿,添加端口地址簿请参见添加端口地址簿。 目的IP地址 支持输入IPv4地址或使用已添加的地址簿: 输入IPv4:使用“/”隔开掩码,如192.168.2.0/24,0.0.0.0/0表示任意地址。 地址簿选择:通过下拉框选择已添加的IP地址簿,添加IP地址簿请参见[添加IP地址簿](
        来自:
        帮助文档
        云防火墙(原生版)
        用户指南(C100)
        访问控制
        配置VPC边界防护规则
        配置内网互访规则
      • 回源配置概述
        功能 说明 回源配置模块支持客户自定义源站。支持IP或域名,支持配置多个源站地址,多源站场景下,支持设置源站的主备优先级和权重,实现负载均衡。 回源协议指边缘加速节点回源站请求资源时使用的协议。配置该功能后,边缘加速节点将根据指定的协议回源。边缘加速支持HTTP回源协议、HTTPS回源协议、跟随客户端请求使用的协议回源三种回源协议。 源站端口,是指源站接收用户请求时所用的端口,一般http协议和https协议使用不同的源站端口。 当源站同时服务多个站点,且回源站点与加速域名不同时,您需要配置回源HOST,天翼云边缘加速产品在回源时会根据配置的回源HOST信息去访问对应站点。 如果一个源站IP地址绑定多个域名,且边缘加速使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源URI改写可以实现在用户请求回源时对回源URI进行改写,配置回源URI改写功能后,边缘加速节点向源站发起回源请求时将使用改写后的URI。 回源参数改写功能可改写回源请求URL中的查询参数,即问号后的参数值。可支持参数的新增、删除、修改,以及保留或忽略所有参数。 配置301/302跟随回源功能后,边缘加速节点会代替用户去处理源站响应的301/302状态码内容,即边缘加速节点会直接跳转到源站301/302响应中的Location地址请求资源,不会把源站响应的301/302跳转地址直接返回给用户,让用户自己去请求跳转地址的资源。 回源超时时间 回源请求超时时间是指在代理服务器向上游服务器(源服务器)发起请求时,等待接收上游服务器的响应所允许的最长时间,这个超时时间的设置对于应对上游服务器响应慢、连接问题或者其他异常情况至关重要。 加速域名的回源地址可以使用客户自有源站或者天翼云
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源配置概述
      • 查看日志列表
        本节介绍如何查看集群审计日志。 查看事件统计 1. 登录容器安全卫士控制台。 2. 在左侧导航栏选择“集群安全 > 集群审计”,进入集群审计页面。 3. 查看事件统计信息:统计信息分为审计事件总数、操作用户总数、添加事件总数、删除事件总数、更新事件总数、查看事件总数、操作类型分布、资源操作分布、返回状态码、操作用户分布,帮助客户更直观的查看集群内的异常事件分布。 查看日志列表 1. 登录容器安全卫士控制台。 2. 在左侧导航栏选择“集群安全 > 集群审计”,进入集群审计页面。 3. 查看页面下方的审计日志列表,方便用户溯源事件。 日志列表内,支持按照“安全状态”、“日志级别”、“日志所属阶段”、“操作对象”、“操作类型”、“对应客户端”、“客户端节点IP”、“API响应状态”进行筛选查询。 日志信息参数说明: 参数 说明 日志级别 审计日志根据日志策略可以选择事件保存的等级,根据等级不同,APIServer记录日志的详细程度也不同。 目前支持的日志等级有: None:不记录日志。 Metadata:只记录Request的一些metadata(例如user, timestamp, resource, verb等),但不记录Request或Response的body。 Request:记录Request的metadata和body。 RequestResponse:最全记录方式,会记录所有的metadata、Request和Response的Body。 日志所属阶段 审计日志根据日志策略可以选择在事件执行的某个阶段记录。 目前支持的事件阶段有: RequestReceived:接收到事件且在分配给对应handler前记录。 ResponseStarted:开始响应数据的Header但在响应数据Body发送前记录,这种一般应用在持续很长的操作事件,例如watch操作。 ResponseComplete:事件响应完毕后记录。 Panic:内部出现panic时记录。 操作对象 操作的资源类型。 所在集群 操作对象所属集群。 操作类型 操作类型分为get获取、watch监控、list获取、update更新、create创建、patch修改、delete删除这些类型。 update和patch的区别:update请求需要将整个修改后的对象提交给 k8s;而patch请求只需要将对象中某些字段的修改提交给k8s。 对应客户端 事件服务的客户端名称(在userAgent中定义)。 访问源IPv6/IPv4 事件服务的客户端所在节点的IP地址。 API响应状态 API响应状态码分为以下几类: “1XX”为信息性状态码(informational)。 “2XX”为成功状态码(Success)。 “3XX”为重定向状态码(Redirection)。 “4XX”为客户端错误状态码(Client Error)。 “5XX”为服务端错误状态码。 常用的状态码解释说明如下: 200:OK,请求成功,具体意义根据请求所使用的方法不同而不同。 201:Created,请求成功并创建了资源; 403:Forbidden,表示身份认证通过了,但是对服务器请求资源的访问被拒绝了; 404:Not Found,表示服务器找不到你请求的资源; 409:Conflict,表示请求与服务器当前状态冲突。通常发生在更新资源时,主要是处理并发问题的状态码。 500:Internal Server Error,表示服务器执行请求的时候出错了。 API请求URL API请求URL的地址。 安全状态 安全状态分为正常和异常这两种,异常是指触发了内置策略的事件。 请求时间 事件的请求时间。 4. 单击日志列表内的下拉按钮,可展开查看事件的json格式详情。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        集群安全
        集群审计
        查看日志列表
      • 数据迁移失败问题排查
        本节主要介绍使用DCS控制台进行数据迁移时迁移失败的问题排查和解决。 在使用控制台进行数据迁移时,如果出现迁移方案选择错误、在线迁移源Redis没有放通SYNC和PSYNC命令、源Redis和目标Redis网络不连通等问题,都会导致迁移失败。 排查步骤 步骤 1 查看迁移日志。 出现如下错误,表示迁移任务底层资源不足,需要联系技术支持处理。 create migration ecs failed, flavor 出现如下错误,表示在线迁移时,源Redis没有放通SYNC和PSYNC命令,需要联系技术支持放通命令。 source redis unsupported command: psync 步骤 2 检查迁移方案。Redis实例间迁移,高版本不支持迁移到低版本。 步骤 3 检查源Redis是否放通SYNC和PSYNC命令,迁移任务底层资源与源Redis、目标Redis网络是否连通。 如果是在线迁移,才涉及该操作。 在线迁移,必须满足源Redis和目标Redis的网络相通、源Redis已放通SYNC和PSYNC命令这两个前提,否则,会迁移失败。 网络 检查DCS的源Redis、目标Redis、迁移任务所需虚拟机是否在同一个VPC,如果不在同一个VPC,则需要建立VPC对等连接,打通网络。关于创建和使用VPC对等连接,请参考《虚拟私有云用户指南》的“对等连接”文档说明。 如果是同一个VPC,则检查安全组(Redis 3.0实例)或白名单(Redis 4.0/5.0/6.0实例)是否放通端口和IP,确保网络是连通的; 源Redis和目标Redis必须允许迁移任务底层虚拟机访问。 源Redis和目标Redis属于不同的云厂商时,需使用云专线服务打通网络。 命令 默认情况下,一般云厂商都是禁用了SYNC和PSYNC命令,如果要放通,需要联系云厂商运维人员放通命令。 DCS内部进行迁移: 自建Redis迁移至DCS,默认没有禁用SYNC和PSYNC命令; DCS服务之间进行迁移,如果是同一帐号相同Region进行在线迁移,在执行迁移时,会自动放通SYNC和PSYNC命令; 如果是不同Region或相同Region不同帐号进行在线迁移,不会自动放通SYNC和PSYNC命令,无法使用控制台上的在线迁移功能。推荐使用备份文件导入方式迁移。 其他云厂商迁移到DCS服务: 一般云厂商都是禁用了SYNC和PSYNC命令,如果使用在线迁移功能,需要联系源端的云厂商运维人员放通此命令。如果使用离线迁移,推荐使用备份文件导入的方式。 如果不需要增量迁移,可以参考使用Redisshake工具在线全量迁移其他云厂商Redis进行全量迁移,该方式不依赖于SYNC和PSYNC。 步骤 4 检查源Redis是否存在大Key。 如果源Redis存在大key,建议将大key打散成多个小key后再迁移。 步骤 5 检查目标Redis的规格是否大于迁移数据大小、是否有其他任务在执行。 如果目标Redis的实例规格小于迁移数据大小,迁移过程中,内存被占满,会导致迁移失败。 如果目标Redis存在正在执行的主备切换,建议联系技术支持关闭主备切换后,重新执行数据迁移。待迁移完成后,重新开启主备切换。 步骤 6 检查迁移操作是否正确。 检查填写的IP地址、实例密码是否正确。 步骤 7 排查白名单。 步骤 8 如果无法解决,请联系技术支持。
        来自:
        帮助文档
        分布式缓存服务Redis版
        故障排除
        数据迁移失败问题排查
      • 查询HBlock信息
        本节主要介绍如何使用API查询HBlock信息。 此操作用来查询HBlock信息,包括HBlock ID、HBlock名称、HBlock序列号、服务器数量、故障域(集群版)、初始化时间、试用期信息及HBlock的管理员用户名。 请求语法 plaintext GET /rest/v1/system/info HTTP/1.1 Date: date Host: ip:port Authorization: authorization 响应结果 名称 类型 描述 storId String HBlock ID。 storName String HBlock的名称。 serialId String HBlock序列号。 serverNumbers Integer HBlock服务器数量。 basePoolName String 基础存储池的名字(仅集群版)。 faultDomain String 故障域类型(仅集群版): rack:机架级别的故障域。 room:机房级别的故障域。 server:服务器级别的故障域。 path:数据目录级别的故障域。 setupTime Long 系统初始化时间。unix时间戳(UTC),精确到毫秒。 trialStatus String 试用期标识: 对于商业版 Trial:处于试用期内,未导入软件许可证。 TrialExpired:试用期已过,未导入软件许可证。 NonTrialVersion:非试用版本,已导入软件许可证。 对于免费版: FreeEdition:未导入软件许可证,未开启高级功能试用。 ProTrialEnabled:未导入软件许可证,开启了高级功能试用。 ProTrialExpired:未导入软件许可证,高级功能试用已经过期。 trialExpireTime Long 试用期到期时间(商业版)。unix时间戳(UTC),精确到毫秒。 userName String HBlock的管理员用户名。 licenseId String 最后一次成功导入的软件许可证ID(商业版)。 type String 软件许可证订购类型(商业版): Subscription:订阅模式。 Perpetual:永久许可模式。 status String 软件许可证状态(商业版): Effective:软件许可证已生效。 Expired:软件许可证已过期。 Invalid:软件许可证无效。 maintenanceExpireTime Long 对于永久许可模式软件许可证,软件许可证维保过期时间。unix时间戳(UTC),精确到毫秒。 subscribeExpireTime Long 对于订阅模式软件许可证,软件许可证过期时间。unix时间戳(UTC),精确到毫秒。 proTrialStartTime Long 免费版的高级功能试用开启时间,unix时间戳(UTC),精确到毫秒。高级功能试用开启之后才返回,不开启不返回。 proTrialExpireTime Long 免费版的高级功能试用结束时间,unix时间戳(UTC),精确到毫秒。高级功能试用开启之后才返回,不开启不返回。 freeUpgradeExpireTime Long 免费版的升级功能过期时间,unix时间戳(UTC),精确到毫秒。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        查询HBlock信息
      • 创建HTTP函数
        本章介绍函数工作流如何创建HTTP函数。 概述 HTTP函数专注于优化 Web 服务场景,用户可以直接发送 HTTP 请求到 URL 触发函数执行,从而使用自己的Web服务。 说明 HTTP函数当前不区分编程语言,函数执行入口必须在bootstrap文件中设置,用户直接写启动命令,端口统一开放成8000,绑定IP为127.0.0.1。 bootstrap文件是HTTP函数的启动文件,HTTP函数仅支持读取bootstrap 作为启动文件名称,其它名称将无法正常启动服务。 HTTP函数支持多种开发语言。 用户函数需要返回一个合法的http响应报文。 该章节均以java 为样例,若需要使用其他语言,则更换语言路径即可,代码包路径无需更换。 前提条件 1. 准备一个java的jar包。 2. 准备一个bootstrap启动文件,作为HTTP函数的启动文件。 示例: bootstrap文件内容如下 /opt/function/runtime/java8/rtsp/jre/bin/java jar Dfile.encodingutf8 /opt/function/code/gsondemo0.0.1SNAPSHOT.jar /opt/function/runtime/java8/rtsp/jre/bin/java:表示java所在路径。 Dfile.encodingutf8:JVM参数,添加此参数,可以避免中文乱码。 /opt/function/code:表示函数代码包所在路径 gsondemo0.0.1SNAPSHOT.jar:示例jar包,提供的服务路径为“/user/get”。 若需要使用其他语言,则参见下表更换语言路径,代码包路径无需更换。 多语言路径说明 语言 路径 Java8 /opt/function/runtime/java8/rtsp/jre/bin/java Java11 /opt/function/runtime/java11/rtsp/jre/bin/java Node.js6 /opt/function/runtime/nodejs6.10/rtsp/nodejs/bin/node Node.js8 /opt/function/runtime/nodejs8.10/rtsp/nodejs/bin/node Node.js10 /opt/function/runtime/nodejs10.16/rtsp/nodejs/bin/node Node.js12 /opt/function/runtime/nodejs12.13/rtsp/nodejs/bin/node Node.js14 /opt/function/runtime/nodejs14.18/rtsp/nodejs/bin/node Python2.7 /opt/function/runtime/python2.7/rtsp/python/bin/python Python3.6 /opt/function/runtime/python3.6/rtsp/python/bin/python3 Python3.9 /opt/function/runtime/python3.9/rtsp/python/bin/python3
        来自:
        帮助文档
        函数工作流
        用户指南
        构建函数
        使用空白模板创建函数
        创建HTTP函数
      • SSL VPN连接常见问题
        分类 原因 解决方案 配置错误 SSL客户端配置错误。 请排查客户端VPN软件的配置是否与服务端配置一致。 SSL客户端证书到期 SSL客户端证书过期或无效。 1. 请排查SSL客户端证书的有效性。SSL客户端证书默认有效期为10年。2. 请删除现有的SSL客户端证书及所有配置,然后重新创建、下载、安装SSL客户端证书。开启和关闭双因子认证功能、修改SSL服务端的配置,均需要重新下载、安装SSL客户端证书。 客户端连接数超限 当前SSL服务端下的客户端连接数超限。 在VPN网关实例下查看已连接的客户端数量,确认在线客户端数量是否超限。 IP地址问题 VPC下的IP地址与客户端的IP地址冲突。 请根据实际情况,修改SSL服务端的本端网段(VPC或云间高速的网段)或者客户端网段以确保两侧IP地址不冲突。 IP地址问题 SSL服务端的客户端网段配置的太小,导致客户端无法被分配IP地址。 请确保您指定的客户端网段所包含的IP地址数量大于SSL VPN客户端数量。 VPN软件问题 客户端VPN软件冲突。 1.如果您的客户端上安装了多个VPN客户端软件,建议仅使用一个VPN客户端软件建立SSL VPN连接。
        来自:
        帮助文档
        VPN连接
        常见问题
        SSL VPN连接常见问题
      • 本地注册集群
        配置项 说明 集群服务商 服务商类型。 集群名称 自定义集群的名称,实例名称不允许重复。 舰队 创建注册集群完成后自动将集群加入指定舰队。创建时可不指定,注册集群创建完成后可手动加入舰队。 企业项目 集群归属的企业项目。企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 虚拟私有云 配置集群的虚拟私有云VPC。在已有VPC列表中选择已创建的VPC,或单击 创建虚拟私有 云创建新的VPC。 子网 在列表中根据可用区选择已有子网,或单击 创建子网 创建新的子网。集群控制面与默认节点池将使用此处指定的子网。 安全组 支持选择 自动创建安全组 、 选择已有安全组 。 指定已有安全组时,系统默认不会为安全组配置额外的访问规则,可能会导致访问异常,请参考 API server 访问 为API Server创建一个 按量付费 的私网ELB实例,作为集群API Server的内网连接端点。API Server提供了各类资源对象(Pod、Service等)的增删改查及Watch等HTTP Rest接口。 支持选择是否开放 使用 EIP 暴露 API Server 。 开放:开启后,将为 API Server 私网 ELB 实例绑定一个 EIP,获得从公网访问集群 API Server 的能力。 不开放:不会创建EIP,仅能在VPC内使用KubeConfig连接并操作集群。 注意 删除默认创建的ELB实例会导致API Server无法访问。 绑定EIP到ELB实例后,API Server可以通过公网接收请求,但集群内的资源无法通过此访问公网。 绑定公网IP 设置是否启用绑定EIP。选中此选项,会在集群中自动绑定EIP,用于建立集群链接。 说明 公网接入必选项;如果云上云下集群已通过专线接通网络,可以不勾选。 集群删除保护 推荐开启集群删除保护,防止通过控制台或OpenAPI误删除集群。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        用户指南
        注册集群
        本地注册集群
      • 资产收集
        本小节介绍态势感知资产收集的三种方式,包括主动扫描、被动发现、手工添加。 主动扫描 资产扫描任务管理,需在“资产管理 > 资产收集 > 主动扫描 > 扫描任务管理”页面添加、删除、编辑、开始、暂停。 添加扫描任务 添加扫描任务时,需要填写如下参数: 任务名称 扫描资产:扫描资产可以从内网资产中选择,也可任意添加。 扫描端口:系统内置多个类型的端口组,也可以任意添加单个或多个。 扫描类型:支持单次或周期。 扫描速度:支持慢速、中速、快速,扫描速度根据单位带宽情况选择。 允许扫描时间段 扫描端口组管理 根据不同的网络环境,系统内置多个扫描的端口组,支持添加、编辑、删除扫描端口组。 待确认资产 主动扫描发现的资产,可以通过开关控制是否需要人工确认: 如不需要进行人工确认,发现的资产直接进入资产列表。 如需要人工确认,扫描发现的资产进入“资产管理 > 主动扫描 > 待确认资产”页面,可以单个或批量确认资产,确认后进入资产列表。 被动发现 在“资产管理 > 资产收集 > 被动发现”页面,展示通过对流量分析发现的存活资产及操作系统。 被动发现的资产,可以通过开关控制,是否需要人工确认: 如不需要进行人工确认,发现的资产直接进入资产列表。 如需要人工确认,在被动发现页面,可以单个或批量确认资产,确认后进入资产列表。 手工添加 在“资产管理 > 资产收集 > 手工添加”页面,添加资产IP、归属信息、责任人、联系方式、硬件信息、厂商等信息后点击“保存”。 资产确认设置 主动扫描、被动发现的资产,可以通过开关控制,是否需要人工确认。 资产入库配置开关,在“系统管理 > 系统设置 > 功能配置”菜单页面,默认关闭。
        来自:
        帮助文档
        态势感知
        用户指南
        资产管理
        资产收集
      • 故障恢复
        参数 说明 恢复云主机名称 请输入恢复后的云主机名称。 长度为2~15 个字符,只能由英文、数字和特殊字符""组成,且只能以英文开头,以英文或数字结尾。 规格 请选择恢复后的云主机规格。 注意:请根据生产中心实际业务情况选择生产云主机的规格,如果生产云主机规格比容灾中心降配太多,恢复后可能导致业务无法流畅运行。 IP地址 请选择IP地址类型。 两种IP地址类型区别如下: DHCP:动态分配云主机的IP地址。 手动指定:用户可以手动输入指定云主机的IP地址。 生产磁盘类型 请选择磁盘类型。 生产站点VPC 自动获取并展示生产中心vpc信息,不可修改。
        来自:
        帮助文档
        云容灾 CDR
        用户指南
        故障恢复
        故障恢复
      • 名词解释
        本节介绍了分布式消息服务RabbitMQ产品常见的名词解释。 Vhost 虚拟主机(Virtual Host),类似于Namespace命名空间的概念,逻辑隔离,每个用户里可以创建多个Vhost,每个Vhost可以创建若干个Exchange和Queue。 Queue 消息队列,每个消息都会被投入到一个或者多个Queue里。 Producer 消息生产者,即投递消息的程序。 Consumer 消息消费者,即接受消息的程序。 Connection TCP 连接,Producer 或 Consumer 与消息队列间的物理 TCP 连接。 Connection将应用与分布式消息服务RabbitMQ连接在一起。Connection会执行认证、IP解析、路由等底层网络任务。应用与分布式消息服务RabbitMQ建立Connection需要多个TCP报文交互,因而会消耗较多的网络资源和分布式消息服务RabbitMQ资源。大量的Connection会对分布式消息服务RabbitMQ造成巨大压力,甚至触发分布式消息服务RabbitMQ SYN洪水攻击防护,导致分布式消息服务RabbitMQ无响应,进而影响业务。 Channel 在客户端的每个物理TCP连接里,可建立多个Channel,每个Channel代表一个会话任务。 Channel是物理TCP连接中的虚拟连接。当应用通过Connection与分布式消息服务RabbitMQ建立连接后,所有的AMQP协议操作(例如创建队列、发送消息、接收消息等)都会通过Connection中的Channel完成。Channel可以复用Connection,即一个Connection下可以建立多个Channel。Channel不能脱离Connection独立存在,而必须存活在Connection中。当某个Connection断开时,该Connection下的所有Channel都会断开。当大量应用需要与分布式消息服务RabbitMQ建立多个连接时,建议您使用Channel来复用Connection,从而减少网络资源和分布式消息服务RabbitMQ资源消耗。 Connection和Channel的使用建议 保持Connection长连接,请勿频繁开启或关闭Connection。如果确实需要频繁开启或关闭连接,请使用Channel。 一个进程对应一个Connection,一个进程中的多个线程则分别对应一个Connection中的多个Channel。 Producer和Consumer分别使用不同的Connection进行消息发送和消费。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        名词解释
      • 连通VPC子网网络的对等连接配置示例
        组网示例 场景推荐 IP类型 配置示例 两个VPC与一个中心VPC的两个子网对等 当您需要一个中心VPC和其他多个VPC之间资源互访,中心VPC部署的资源类型不同,要求其他多个VPC只能访问中心VPC的特定资源,且彼此之间隔离,可以参考本示例规划组网。 中心VPC具有多个子网,不同子网中部署不同类型的资源。 其他VPC根据业务需要访问中心VPC内特定子网的资源。 IPv4 配置两个VPC与一个中心VPC的两个子网对等 (IPv4) 两个VPC与一个中心VPC的两个子网对等 当您需要一个中心VPC和其他多个VPC之间资源互访,中心VPC部署的资源类型不同,要求其他多个VPC只能访问中心VPC的特定资源,且彼此之间隔离,可以参考本示例规划组网。 中心VPC具有多个子网,不同子网中部署不同类型的资源。 其他VPC根据业务需要访问中心VPC内特定子网的资源。 IPv6/IPv4 配置两个VPC与一个中心VPC的两个子网对等 (IPv6/IPv4) 一个中心VPC与两个VPC的特定子网对等 当您需要一个中心VPC和其他多个VPC之间资源互访,中心VPC部署某类公共资源,其他VPC只有特定子网可以访问中心VPC内的资源,且彼此之间隔离,可以参考本示例规划组网。 中心VPC部署的公共资源没有分类,其他VPC可以访问中心VPC内的所有资源。 其他VPC具有多个子网,根据业务需要指定某个子网访问中心VPC内的资源。 IPv4 配置一个中心VPC与两个VPC的特定子网对等 (IPv4) 一个中心VPC与两个VPC的重叠子网对等 本示例与上面的场景类似,当其他多个VPC和中心VPC对等的子网网段重叠时,可能会导致流量无法被转发到正确的目的地址,请参考本示例规划组网,避免发生该情况。 IPv4 配置一个中心VPC与两个VPC的重叠子网对等 (IPv4)
        来自:
      • 昇腾 910B 物理机通过benchmark测试推理性能的操作指南
        2.3 启动命令 2.3.1 不带后处理性能测试样例 Client推理模式运行时,会调用MindIE Client相应的接口向MindIE Server Endpoint发送推理请求并进行打点统计,与用户实际使用情景一致。 benchmark DatasetPath "/model/testdatagsm8k.jsonl" DatasetType "gsm8k" ModelName deepseekr1 ModelPath "/model/DeepSeekR1bf16" TestType client Http Concurrency 20 TaskKind text Tokenizer True MaxOutputLen 512 DatasetPath:数据集文件所在的目录,根据数据集路径获取数据,解析后根据批次和分词标识进行处理.Tokenizer为True时:采用文本推理模式,该参数应该传入原始数据集文件夹路径;Tokenizer为False时:采用tokenids推理模式,该参数传入已经将数据集处理为tokenids的csv文件的路径。(Tokenizer为False时,数据集转换方式参考数据集使用) DatasetType:数据集类型,枚举值:ceval、gsm8k、oasst1、boolq、truthfulqa、humaneval、mmlu、mtbench、cocotest和synthetic。 ModelName:模型名称。与MindIE ServerModelConfig参数说明中的modelName参数保持一致。 ModelPath:模型路径;传递模型初始化配置。与MindIE ServerModelConfig参数说明中的modelWeightPath参数保持一致。 TestType:取值为client、vllmclient、tgiclient、openai或tritonclient。其中vllmclient、tgiclient或tritonclient只能基于对应的三方框架上才能运行。 Http:请求url,默认为" ServerScheduleConfig参数说明中的ipAddress和port参数进行配置。 Concurrency:并发数,限制同时发起的连接数。Client模式下,不超过endpoint所支持的最大连接数。取值范围:[1,1000]。 TaskKind:判断使用Client的哪种模式进行推理,默认值为stream。stream:流式推理接口;text:非流式推理接口;streamtoken:token流式推理接口。 Tokenizer:分词向量化标识,取值True或者False,默认值为True。True:输入结果为文本;False:表示输入结果为tokens。 MaxOutputLen:最大输出长度,取值范围:[1,1048576]。该参数与ScheduleConfig参数说明中的“maxlterTimes”参数取小作为最大输出长度。当“DatasetType”取值为“synthetic”时,该参数无效,通过配置文件syntheticconfig.json中的“Output”参数控制最大输出长度。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        昇腾 910B 物理机通过benchmark测试推理性能的操作指南
      • 注册配置中心快速接入示例
        服务消费者接入注册中心 在您的Spring Cloud应用中引入如下依赖,替换其中{springcloudstarter.version}为与当前应用SpringBoot、SpringCloud版本适配的springcloudstarteralibabanacosdiscovery版本,替换其中{nacosclient.version}为当前开源nacosclient的最新稳定版,推荐替换为版本2.3.2。 com.alibaba.cloud springcloudstarteralibabanacosdiscovery ${springcloudstarter.version} com.alibaba.nacos nacosclient com.alibaba.nacos nacosclient ${nacosclient.version} 在应用配置application.properties(或yml)中添加Nacos相关参数,其中{yournacosaddr}填写ip:port格式的Nacos服务端节点地址,多个节点用英文逗号分隔。 spring.application.namenacosconsumer spring.cloud.nacos.discovery.serveraddr{yournacosaddr} spring.cloud.nacos.discovery.namespaceprod spring.cloud.nacos.discovery.username{yournacosusername} spring.cloud.nacos.discovery.password{yournacospassword} 注意 此处配置参数namespace需要填写命名空间ID 在应用中添加如下代码,定义指向nacosprovider服务的FeignClient,并暴露/getCarInfo路径,内部逻辑调用nacosprovider服务的/getCarInfo路径: @FeignClient(value "nacosprovider") public interface NacosProviderFeignClient { @GetMapping("/getCarInfo") String getCarInfo(); } @RestController public class ConsumerController { @Autowired private NacosProviderFeignClient nacosProviderFeignClient; @GetMapping("/getCarInfo") public String getPersonInfo() { return nacosProviderFeignClient.getCarInfo(); } } 启动应用。应用启动成功后,会自动连接到Nacos注册中心。 进入MSE注册配置中心控制台,点击实例ID进入您创建的Nacos实例,点击服务管理>服务列表,选定prod命名空间,可以看到您所注册的nacosconsumer服务,其下存在一个健康状态实例。 确保上述部署的服务提供者和服务消费者的网络连通,在服务消费者应用所部署机器使用如下curl指令进行访问: curl 'localhost:{yourdemoport}/getCarInfo' 此时nacosconsumer会自动到Nacos服务端获取nacosprovider的地址进行访问,完成服务发现。返回“Benz”则证明服务发现和调用成功。
        来自:
        帮助文档
        微服务引擎
        快速入门
        注册配置中心
        注册配置中心快速接入示例
      • CMDB管理
        本文主要介绍CMDB管理 APM会内置一个资源配置管理信息CMDB,用于组织应用结构信息以及相关配置信息,主要概念如下: 应用 :一个应用代表一个逻辑单元,是一个全局概念,各个region都可以看到相同的应用信息,比如一个租户下面比较独立的功能模块可以定义为一个应用。 子应用 :在一个应用下面可以创建多个子应用,主要起文件夹和管理的功能。子应用为全局概念,当前最多支持三层子应用。 组件 :组件指一个应用程序或者微服务,为全局概念,一般跟下面的环境一起组合使用,一个组件可以包含一个或者多个环境。比如一个订单的应用程序,包含功能测试环境,压力测试环境,预发环境以及现网环境等。 环境 :一个组件或者程序,由于部署不同的配置参数,形成多个环境。每个环境都有region属性,可以通过region信息可实现环境的过滤,也可以在环境上打上一个或多个标签,通过标签进行环境过滤。 实例 :实例是环境下的一个进程,名称由主机名+ip+实例名称组成。一个环境一般是部署在不同主机上或不同容器中,若部署在同一主机上,会通过实例名称进行区分。 环境标签 :环境标签是在环境上的一个属性,多个环境可能具有相同的标签,可以通过标签对环境进行过滤。标签也承载公共配置能力,比如在某个标签上设置的配置,各个具有标签的环境都共享。需注意环境标签定义在应用层面,也就是说一个标签只能添加在本应用下的环境,不能跨应用进行。 图CMDB结构 CMDB结构树支持隐藏操作。 步骤 1 单击“隐藏”,CMDB结构树不展示。 图隐藏CMDB结构树 步骤 2 单击页面上方“节点路径”选择相应的节点。 图 选择节点 步骤 3 单击“展示”,展示CMDB结构树。
        来自:
        帮助文档
        应用性能管理
        用户指南
        CMDB管理
      • 多因子认证类
        前提条件 已为用户帐号配置手机号码,且用户手机号码可用。 云堡垒机实例安全组必须已放开短信网关IP和10743、443端口,系统才能够访问短信网关。 发送短信验证码的频率未超过要求限制。 系统短信网关配置为“内置”时,手机短信验证码针对单个帐号发送频率有以下限制: 1分钟内发送短信不超过1条; 1小时内发送短信不超过5条 ; 1天内发送短信不超过15条。 配置手机短信认证 1 管理员登录云堡垒机系统。 2 选择“用户 > 用户管理”。 3 单击待修改的用户登录名,或者单击相应“管理”,进入“用户详情”页面。 4 单击“用户配置”区域的“编辑”,修改用户的登录配置。 5 配置“多因子认证”为“手机短信”。 6 单击“确认”,完成用户“手机短信”双因子认证配置。 手机短信方式登录 修改认证配置后,用户进入云堡垒机系统登录Web页面或SSH客户端登录界面,选择“手机短信”认证方式,输入登“录名”和用户帐号绑定手机号,获取短信验证码登录。 如何取消手机短信方式登录认证? 当用户短信网关故障,无法通过手机短信方式登录,可由管理员取消“手机短信”多因子认证配置。 若admin用户配置了“手机短信”多因子认证,无法登录系统取消多因子认证配置,请联系技术支持。 前提条件 管理员已获取“用户”模块操作权限。 操作步骤 1 登录云堡垒机系统。 2 选择“用户 > 用户管理”,进入用户列表页面。 3 勾选待修改配置的用户帐号,单击左下角“更多”,展开批量操作项。 4 单击“修改多因子认证”,弹出多因子认证修改窗口。 5 去掉勾选“手机短信”多因子认证方式。 6 单击“确定”,即关闭了目标用户“手机短信”认证方式。 配置了手机令牌登录,但未绑定手机令牌怎么办? 当系统管理员admin设置了开启手机令牌登录,但是没有绑定手机令牌时,可提工单反馈,技术支持人员收到反馈后,重置admin登录验证为初始状态,而不改变系统其它配置。 当系统非admin用户未绑定手机令牌时,系统管理员admin可为目标用户修改登录“多因子认证”方式。 绑定了手机令牌,却不能登录怎么办?
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        CBH系统登录
        多因子认证类
      • Variable
        输出变量声明 输出变量可在命令行上提供用户需要的信息,并可公开其他 Terraform 配置使用的信息。输出变量类似于编程语言中的返回值,是一种对外公开部分信息的方式。 输出变量有多种用途: 子模块可以使用输出将其资源属性的子集公开给父模块。 根模块可以在运行 terraform apply/output 后 在CLI上打印特定值。 按照约定,输出变量通过“output”关键字进行声明: java output "azname" { value data.ctyunzones.az.zones[0] } 关键字 output 后面紧跟的标签是 output 名称,它必须是有效的标识符。在根模块中,此名称显示给用户;在子模块中,它可用于访问输出的值。 参数 value 采用一个赋值表达式,将结果返回给用户。在本例中,该表达式指的是将data source ctyunzones中变量az.zones[0]输出。任何有效的表达式都可以作为输出值。 输出变量参数 output 块可以选择性地包含 description、sensitive 和 dependson 参数,这些内容将在以下章节中进行描述。 description:输出变量注释 sensitive:限制是否在CLI 上输出 dependson:明确输出依赖关系 java output "eipaddr" { value ctyuneip.eipexample.address description "EIP实例的公网地址" } output "dbpassword" { value ctyunmysqlinstance.mysqlexamples.password description "mysql实例的root密码" sensitive true } output "instanceipaddr" { value ctyuneip.eipexample.address description "EIP实例的公网地址" dependson [ ctyunsecuritygrouprule.sgruleexample, ] } 注意:标记为敏感项的输出变量在输出时会自动被隐藏,但其输出值仍然可以通过以下方式可见: 输出变量的值记录在 state 文件中,其值对所有能够访问state 文件的用户均可见. 子模块中敏感输出变量值被父模块调用,通过父模块的相关输出和资源引用后可以在CLI中显示。
        来自:
        帮助文档
        资源编排ROS
        模板参考
        配置指南
        Variable
      • 实例运行快照监控
        本页介绍天翼云TeleDB数据库实例运行快照。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树单击实例监控 ,选择实例运行快照 页签。 2. 快照设置 1. 单击快照设置 ,弹出实例运行快照策略设置 对话框。 2. 在实例运行快照策略设置 对话框中,打开运行快照开启状态,输入快照开启时间和快照间隔时间,单击确定 完成设置。 3. 手动快照 单击手动快照可立即执行快照。 4. 查询快照列表 可通过设置起始时间和结束时间,单击查询筛选已产生的快照列表。 5. 查看快照详情 单击对应快照记录的详情,可查看该快照的详细信息。 具体内容包括: 数据库状态:节点名称、IP、端口、角色、日志同步状态、运行状态。 数据库核心配置:synchronouscommit、maxpoolsize、autovaccum、maxconnection、workmem、walkeepsegments、vacuumdelta、sharedbuffers的参数值。 数据库连接分析:包括CN和DN的连接情况,如avgconn、avgconnactive、avgconnidle、avgconnlock等。 DataNode节点请求量统计:统计DN节点的增删改查请求量。 数据库检查点:节点的检查点情况,如checkpointstimed、checkpointsreq等。 存储情况分节点统计:节点的存储情况,如totalsize、totaltups。 慢查询TOP 50:慢查询的TOP 50情况。 错误日志情况:包括错误信息、级别。 buffer命中率分析:包括平均、最大和最小情况。 锁分析:最多展示等待时间最长50条。 节点CPU/内存利用率概况:节点CPU/内存利用率统计。 死锁详情:最多展示最近的50条。 回滚详情:最多展示最近的50条。 二阶段残留事务详情:二阶段残留事务详细信息。 6. 快照对比 1. 单击对应快照记录的快照对比,弹出快照对比 对话框。 2. 在快照对比对话框,选择要对比的快照,单击确定 可查看快照对比信息。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        实例监控
        实例运行快照监控
      • 准备Flink作业数据
        本章节主要介绍准备Flink作业数据。 创建Flink作业需要输入数据源和数据输出通道,即常说的Source和Sink。用户使用其他服务作为数据源或输出通道时,需要先开通相应服务。 Flink作业支持以下数据源和输出通道: OBS数据源 如果用户作业需要对象存储服务(OBS)作为数据源,则要先开通OBS服务,具体操作请参见对象存储用户指南中的有关开通OBS服务的章节。 开通OBS服务后,用户需要将本地文件通过Internet上传至OBS指定的位置,具体操作请参见对象存储用户指南中的“上传文件”章节。 RDS输出通道 如果用户作业需要RDS作为输出通道,需要创建RDS实例,具体操作请参见对应版本关系数据库产品《用户指南》中“创建实例”章节。 SMN输出通道 如果用户作业需要SMN作为输出通道,需要先在SMN中创建主题,获取URN资源标识,再添加订阅。 Kafka数据源和输出通道 如果用户作业需要Kafka作为数据源和输出通道,则必须要通过创建增强型跨源连接与Kafka进行对接,具体操作请参见增强型跨源连接。 如果Kafka服务端的端口监听在hostname上,则需要将Kafka Broker节点的hostname和ip的对应关系添加到跨源连接中。 CloudTable数据源和输出通道 如果用户作业需要CloudTable作为数据源和输出通道,需要先在CloudTable中创建集群,获取集群ID。 云搜索服务输出通道 如果用户作业需要云搜索服务作为输出通道,需要先在云搜索服务中创建集群,获取集群内网访问地址。具体操作请参见云搜索服务用户指南中的“快速入门”章节。 DCS输出通道 如果用户作业需要DCS作为输出通道,需要先在DCS中创建Redis类型的缓存实例,获取Redis实例连接地址。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        准备Flink作业数据
      • 使用限制
        此小节介绍企业主机安全支持的云服务器类型和操作系统。 支持的云服务器类型 弹性云主机(Elastic Cloud Server,ECS) 支持的操作系统 企业主机安全服务的Agent可运行在CentOS、EulerOS等Linux系统以及Windows 2012、Windows 2016等Windows系统的主机上。 已停止服务的Linux系统版本或者Windows系统版本,与Agent可能存在兼容性问题,建议重装或者升级为Agent支持的操作系统版本,以便获得主机安全更好的服务体验。 CentOS 6.x版本由于Linux官网已停止更新维护,主机安全平台也不再支持CentOS 6.x及以下的系统版本,谢谢您的理解! 说明 部分操作系统版本下的个别子版本存在不支持的情况,会陆续上线支持,感谢您的理解与支持。 HCE 2.0当前暂不支持漏洞检测和配置检测功能,将会根据后续版本迭代上线。 操作系统类型 系统架构 支持的操作系统版本 Linux X86 CentOS 7.4、7.5、7.6、7.7、7.8、7.9、8.0、8.1、8.2、9(64位) Debian 9、10、11.0.0、11.1.0(64位) EulerOS 2.2、2.3、2.5、2.7、2.9(64位) Fedora 28(64位) OpenSUSE: 15.3 (64bit) Ubuntu 16、18、20.03、20.04、22.04(64位) RedHat 7.4、7.6、8.0、8.7(64位) OpenEuler 20.03 LTS、22.03 SP3 LTS、22.03(64位) AlmaLinux 9.0(64位)RockyLinux 8.4、8.5、9.0(64位) HCE 2.0(64位) Linux ARM CentOS 7.4、7.5、7.6、7.7、7.8、7.9、8.0、8.1、8.2、9(64位) EulerOS 2.8、2.9(64位) Fedora 29(64位) OpenSUSE: 15 64bit with ARM(40GB) Ubuntu 18(64位) kylin V7、V10(64位) NeoKylin: V10 (aarch64bit) HCE 2.0(64位) 统信UOS V20(64位) Windows X86 Windows Server 2019 数据中心版 64位英文(40GB) Windows Server 2019 数据中心版 64位简体中文(40GB) Windows Server 2016 标准版 64位英文(40GB) Windows Server 2016 标准版 64位简体中文(40GB) Windows Server 2016 数据中心版 64位英文(40GB) Windows Server 2016 数据中心版 64位简体中文(40GB) Windows Server 2012 R2 标准版 64位英文(40GB) Windows Server 2012 R2 标准版 64位简体中文(40GB) Windows Server 2012 R2 数据中心版 64位英文(40GB) Windows Server 2012 R2 数据中心版 64位简体中文(40GB) 说明 若服务器安装了第三方安全防护软件,请先停止第三方安全防护软件的防护功能,待Agent安装完成后再开启。
        来自:
        帮助文档
        企业主机安全
        产品介绍
        使用限制
      • 备份迁移
        / EXEC master.dbo.spaddlinkedsrvlogin @rmtsrvnameN'DRSTESTREMOTE',@useselfN'False',@localloginNULL,@rmtuserN'sa',@rmtpassword' ' GO 以上脚本为范例,创建的脚本可能包含大量系统默认配置项,但是每个DBLink仅需保留以下两个关键脚本即可执行成功,同时需要注意重新输入账号连接密码。 Agent JOB Agent JOB又名SQL Server代理服务,可以方便用户快速的在实例上创建定时任务,帮助用户进行日常运维和数据处理工作,用户在本地的JOB需要手动进行脚本迁移。 步骤 4 通过微软提供的官方Microsoft SQL Server Management Studio客户端工具连接本地实例与云上实例,同时在“SQL Server代理 > 作业”下找到当前实例上的所有JOB任务。 图 查看作业 步骤 5 选择SQL Server代理下的作业,然后按F7,可以在对象资源管理器中看到所有的作业(JOB),全部选中后创建脚本到新窗口。 图 创建脚本 步骤 6 复制新窗口中的TSQL创建脚本到新实例上,然后注意修改如下几个关键项,以保障你的创建成功。 注意修改每个JOB上的Ower账号: 例如: @ownerloginnameN'rdsuser' 注意修改每个JOB上的实例名称: 例如: @serverN'实例IP' @servername N'实例IP' 新建JOB的Owner账号十分重要,在RDS SQL Server上,仅有该JOB的Owner可以看到实例上自己的JOB,别的Login账号是看不到无法操作的,所以建议所有的JOB Owner尽量是同一个账号方便管理。 关键配置 用户将数据库还原到RDS for SQL Server实例上之后,本地的一些重要配置项也需要进行同步确认,避免影响业务的正常使用。 1. tempdb:临时数据库的文件配置需要进行同步。 推荐配置为8个临时文件,注意路径一定要确保在D:RDSDBDATATemp 通过在目标数据库端执行如下脚本添加临时数据库的文件配置: USE [master] GO ALTER DATABASE [tempdb] ADD FILE ( NAME N'tempdb1', FILENAME N'D:RDSDBDATATemptempdb1.ndf' , SIZE 65536KB , FILEGROWTH 65536KB ) GO ALTER DATABASE [tempdb] ADD FILE ( NAME N'tempdb2', FILENAME N'D:RDSDBDATATemptempdb2.ndf' , SIZE 65536KB , FILEGROWTH 65536KB ) GO ALTER DATABASE [tempdb] ADD FILE ( NAME N'tempdb3', FILENAME N'D:RDSDBDATATemptempdb3.ndf' , SIZE 65536KB , FILEGROWTH 65536KB ) GO ALTER DATABASE [tempdb] ADD FILE ( NAME N'tempdb4', FILENAME N'D:RDSDBDATATemptempdb4.ndf' , SIZE 65536KB , FILEGROWTH 65536KB ) GO ALTER DATABASE [tempdb] ADD FILE ( NAME N'tempdb5', FILENAME N'D:RDSDBDATATemptempdb5.ndf' , SIZE 65536KB , FILEGROWTH 65536KB ) GO ALTER DATABASE [tempdb] ADD FILE ( NAME N'tempdb6', FILENAME N'D:RDSDBDATATemptempdb6.ndf' , SIZE 65536KB , FILEGROWTH 65536KB ) GO ALTER DATABASE [tempdb] ADD FILE ( NAME N'tempdb7', FILENAME N'D:RDSDBDATATemptempdb7.ndf' , SIZE 65536KB , FILEGROWTH 65536KB ) GO 图 检查临时文件 2. 数据库隔离级别:请确认原实例上数据库的隔离级别是否开启,并同步到RDS SQL Server实例,快照隔离参数有2个,分别是: − 读提交快照(Is Read Committed Snapshot On) − 允许快照隔离(Allow Snapshot Isolation) 若原实例上数据库的隔离级别是开启的,您可以通过在目标数据库端执行如下脚本开启数据库的隔离级别: USE [DBName] GO ALTER DATABASE [DBName] SET READCOMMITTEDSNAPSHOT ON WITH NOWAIT GO ALTER DATABASE [DBName] SET ALLOWSNAPSHOTISOLATION ON GO 3. 实例最大并行度:实例最大并行度在RDS for SQL Server实例上默认设置为0,用户也可以根据自己本地原来的设置项进行同步设置,避免不同环境下业务场景出现异常。 右击本地实例选择属性,在服务器属性弹出框中选择高级,然后在右侧找到最大并行度(max degree of parallelism)设置项,确认本地实例设置值,并同步在目标RDS for SQL Server实例管理的参数组中进行修改。 图 查看本地实例最大并行度值 登录本云实例控制台,在实例管理页,单击目标实例名称,进入基本信息页签,切换至“参数修改”,搜索最大并行度(max degree of parallelism)并进行修改。 图 修改目标RDS for SQL Server实例的最大并行度 4. 迁移上云的数据库恢复模式是否为完整(FULL)模式,如果不是需要进行修改。 右击数据库选择属性,在弹出数据库属性框中选择选项,并在右侧确认该数据库恢复模式为完整(FULL),保证该数据库高可用和备份策略可执行。 图 检查数据库恢复模式
        来自:
        帮助文档
        数据库复制
        常见问题
        备份迁移
      • 快照回滚
        操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 单击左侧导航栏中的“云硬盘快照”,进入云硬盘快照页面。 5. 在云硬盘快照页面,单击待回滚快照所在行“操作>回滚”,进入“回滚数据”窗口。 6. 根据界面提示,确定回滚操作信息后,单击“确定”,云硬盘开始进行数据回滚。注意云硬盘回滚至目标时刻之后,该目标时刻到回滚操作时刻之间的数据将被删除,请谨慎操作。 7. 在云硬盘快照页面,查看快照状态。待快照状态由“回滚中”变为“可用”时,表示回滚命令下发成功。 8. 登录云主机查看数据是否回滚成功。 注意 云硬盘数据是否回滚成功请以云硬盘实际数据为准。 验证回滚快照功能 用一个实际案例来确认快照回滚功能。 1. 登录弹性云主机实例查看当前云硬盘中的数据。比如此时文件夹/mnt/sdc中具有一个文件a.txt。 2. 在执行操作删除文件a.txt之前可以对云硬盘创建快照用于备份数据。您可在控制台创建快照。具体操作详见创建快照。 3. 您可根据业务需求继续使用云硬盘,在业务使用过程中为云硬盘创建快照可降低数据误操作的风险。比如本例中,在创建快照之后,再进行“删除文件夹/mnt/sdc中的a.txt文件” 的操作。 4. 若想将云硬盘数据恢复数据至快照时刻,您可在控制台对快照进行回滚操作,具体操作详见快照回滚。注意回滚时,云硬盘若处于挂载状态,其所挂载的云主机需要处于关机状态,现在我们进行关机及回滚。 5. 执行回滚操作后,在云主机实例中查看云硬盘数据恢复,则表明回滚操作成功。此时文件夹/mnt/sdc中恢复了a.txt文件。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘快照
        快照回滚
      • 创建专属云Kafka
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 操作步骤: 步骤一: 登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二: 进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三: 点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        快速入门
        创建专属云Kafka
      • 添加黑白名单IP地址组
        IP地址组集中管理IP地址或网段,被黑白名单规则引用时可以批量设置IP/IP地址段。本节介绍如何添加黑白名单IP地址组。 前提条件 已申请Web应用防火墙实例。 约束条件 添加IP地址组时,请确保IP/IP地址段未添加到其他IP地址组,重复添加同一IP/IP地址段会导致添加IP地址组失败。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择区域。 步骤 3 单击页面左上方的,选择“安全> Web应用防火墙(独享版)”。 步骤 4 在左侧导航树中,选择“对象管理> 地址组管理”,进入“地址组管理”页面。 步骤 5 在我的地址组列表左上方,单击“添加地址组”。 步骤 6 在弹出的“添加地址组”对话框中,输入“地址组名称”和“IP/IP段”。 步骤 7 单击“确认”,地址组创建成功。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        对象管理
        管理黑白名单IP地址组
        添加黑白名单IP地址组
      • 查看客户端连接地址
        本章节主要介绍如何查看客户端连接地址。 分布式消息服务RabbitMQ支持通过Web界面查看客户端连接地址。 说明 客户端处于连接RabbitMQ实例时,才可以查看客户端连接地址。 操作步骤 步骤 1 登录RabbitMQ Web界面。 步骤 2 在导航栏单击“Connections”,进入“Connections”页面。 步骤 3 查看客户端连接地址,如图1所示。 图1 客户端连接地址 同一个客户端可以作为生产者生产消息,也可以作为消费者消费消息,连接IP地址是相同的,如图1,此时我们无法区分哪个是生产者IP地址,哪个是消费者IP地址。如果想要直观体现生产者/消费者IP地址,您可以在客户端中设置“clientProperties”参数,通过此参数来标明生产者/消费者IP地址,示例如下。 //配置客户端连接参数 HashMap clientProperties new HashMap<>(); clientProperties.put("connectionname", "producer"); connectionFactory.setClientProperties(clientProperties); //创建连接 Connection connection connectionFactory.newConnection(); 设置“clientProperties”参数后,连接地址显示如图2所示。 图2 客户端连接地址(分区生产者/消费者IP地址)
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        连接实例
        查看客户端连接地址
      • 批量管理黑白名单规则
        本文介绍批量导入和导出黑白名单规则的操作步骤。 互联网边界防火墙和VPC边界防火墙均支持配置黑白名单规则。 下载黑白名单规则模板 1. 登录云防火墙(原生版)控制台。 2. 进入黑白名单规则页面。 互联网边界:在左侧导航栏选择“访问控制 > 互联网边界规则”,选择“黑名单规则”或者“白名单规则”页签。 VPC边界:在左侧导航栏选择“访问控制 > VPC边界规则”,选择“黑名单规则”或者“白名单规则”页签。 3. 单击规则列表右上方的下载模板图标,弹出下载模板确认框。 4. 单击“确定”,下载黑白名单规则模板到本地。 批量导入黑白名单规则 1. 按表格要求填写您要添加的防护规则信息。 注意 请按照模板要求填写相应参数,确保导入文件的格式与模板一致,否则可能会导入失败。 黑白名单规则模板参数说明如下: 参数名称 参数说明 名称 自定义规则名称。名称长度不能超过100个字符。 方向 可选择“源地址”或“目的地址”。 源地址:访问流量中的发送数据包的IP地址。 目的地址:访问流量中的接收数据包的IP地址。 IP地址 支持以下格式: 地址段,使用“/”隔开掩码,如:192.168.2.0/24 IP地址簿名称。IP地址簿为多个IPv4地址的集合,添加IP地址簿请参见[添加IP地址簿](
        来自:
        帮助文档
        云防火墙(原生版)
        用户指南(C100)
        访问控制
        批量管理黑白名单规则
      • 访问控制日志
        本文介绍了云防火墙(原生版)产品的访问控制日志功能。 约束条件 最多支持查看最近7天的日志。 查看日志列表 1. 登录云防火墙(原生版)控制台。 2. 在左侧导航栏,选择“日志审计 > 访问控制日志”,进入访问控制日志页面。 3. 在页面上方切换防火墙实例。 4. 查询日志:该列表可根据命中时间、应用、规则名称、协议、判断来源、动作、目的IP地址、目的端口、源IP地址、源端口、方向进行筛选。 5. 访问控制日志列表包括命中时间、源IP地址、源端口、目的IP地址、目的端口、协议、应用、方向、动作、命中规则名、判断来源。 查看日志详情 单击操作列的“详情”,可以查看日志命中的规则。 在该页面中,展示了命中规则的优先级、名称、源IP地址、目的IP地址、源端口、目的端口、协议、应用、动作、描述和启用状态。 导出日志 说明 最多支持导出10000条数据。 单击“导出”,可以将查询列表中的日志记录导出为csv格式。
        来自:
        帮助文档
        云防火墙(原生版)
        用户指南(C100)
        日志审计
        访问控制日志
      • kafkaConsumer
        介绍APM监控详情里消息监控中的KafkaConsumer相关指标的名称、含义等信息。 KafkaConsumer监控指标说明表 指标类别 指标 指标说明 数据类型 主题 (Topic,Kafka的Topic监控数据) id Clientid和IP信息 Enum 主题 (Topic,Kafka的Topic监控数据) topic Kafka的Topic名称 Enum 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerbytesconsumedrate 每秒消费字节 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerfetchsizeavg 请求获取平均字节 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerfetchsizemax 请求获取最大字节 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerrecordsconsumedrate 每秒消费消息数 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerrecordsperrequestavg 单次请求平均消息数 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerrecordsconsumedrate 总消费次数 Int 主题 (Topic,Kafka的Topic监控数据) kafkaconsumerrecordsperrequestavg 总消费字节数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) errorCount 错误数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) invokeCount 调用次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) maxTime 最慢调用 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms0To10Count 010ms次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms10To100Count 10100ms次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms100To500Count 100500ms次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms500To1000Count 5001000ms次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) ms1000To10000Count 110s次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) msMorethan10000Count 10s以上次数 Int Kafka消费方法监控 (Consumer,Kafka消费方法监控) totalTime 总响应时间 Int 汇总(Total,KafkaConsumer汇总信息统计) recordConsumedTotal 总消费次数 Int 汇总(Total,KafkaConsumer汇总信息统计) bytesConsumedTotal 总消费字节数 Int 异常 (Exception,Kafka消费异常信息) exceptionstacktrace 异常产生的堆栈信息 String 异常 (Exception,Kafka消费异常信息) exceptiontype 异常类型 String 异常 (Exception,Kafka消费异常信息) exceptioncount 错误数 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        消息监控
        kafkaConsumer
      • 添加节点到存储池
        本节主要介绍如何使用API添加节点到存储池。 此操作用来添加节点到存储池。 说明 初始化时添加的数据目录节点都属于基础存储池节点。后续如果需要将基础存储池中的节点添加到其他存储池,需要先从基础储存池移除。 注意 待添加的节点必须属于集群拓扑节点,且每个集群拓扑节点只能添加到一个存储池中。 添加path级别的节点时,该path不能属于其他存储池,不能处在移除状态,path所属的服务器也不能处在移除状态。 当添加的节点类型低于存储池故障域级别,该节点的祖先节点中需要存在和该存储池故障域级别相同的映射节点,否则报错。如存储池故障域为rack,针对节点 root:room1:server1,将server1加入到该存储池时报错。 当添加的节点类型高于存储池故障域级别,该节点的子孙节点中需要存在和该存储池故障域级别相同的映射节点,否则报错。例如存储池故障域为rack,存在拓扑节点root:room1:server1:path1,将room1加入到该存储池时报错。 请求语法 plaintext PUT /rest/v1/system/storagepool/poolName/node HTTP/1.1 Date: date ContentType: application/json; charsetutf8 ContentLength: length Host: ip:port Authorization: authorization { "nodes": [ node1, node2, ... ] } 请求参数 参数 类型 描述 是否必须 poolName String 存储池名称。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。 是 nodes Array of String 指定加入存储池的节点,该节点必须属于集群拓扑节点。 说明 如果待添加的节点下含有子节点,则尚未被分配到任何存储池的子节点,将会被统一添加到该存储池中。 节点名称可以使用在集群拓扑中的全路径,格式为:name :name :name,从根节点开始逐级指定;也可以使用部分路径,但该路径需在集群拓扑中唯一。例如default:room4:hblock4、room4:hblock4、hblock4在集群拓扑中均指向同一节点,且节点名在集群拓扑中唯一,则任选其一即可。 是
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        存储池(集群版)
        添加节点到存储池
      • 分区域分运营商回源
        本文介绍分区域分运营商回源功能的适用场景和配置说明。 功能介绍 如果您的域名有多个源站,且希望通过CDN加速实现多个源站之间负载均衡,您可以按照区域或者运营商划分源站,让不同区域或者运营商的客户端IP回不同的源,从而实现同运营商回源,或者就近回源。下图为分运营商回源的原理图,电信客户端用户经过CDN加速平台后回到电信源站,联通客户端用户经过CDN加速平台后回到联通源站。分区域回源原理类似。 适用场景 场景一:分区域回源 域名有多个源站,分别分布在北京、上海、广州三个区域,可以配置华北、西北、东北三个大区的所有省份的用户回北京源站;配置华东、华中这两个大区的所有省份的用户回上海源站;配置华南、西南这两个大区的所有省份的用户回广州源站。从而保证每个地区的用户都回就近的源站,同时也帮助源站解决负载均衡问题。 场景二:分运营商回源 域名有多个源站,分别是电信源站、联通源站、移动源站,可以配置联通用户回联通源站;配置移动用户回移动源站;配置电信及其他运营商用户回电信源站。从而保证电信、联通、移动的用户都能同运营商回源,其他小运营都回电信源站,解决跨运营商回源的问题。 场景三: 多个源站提供不同的内容,通过分区域回源实现不同地区看到不同的内容 例如:域名在国内和海外各有一个源站,国内源站响应中文网站,海外源站响应英文网站,可以配置国内用户回国内源站,海外用户回海外源站,从而实现国内用户访问中文网站,海外用户访问海外网站的效果。 场景四:分区域分运营商回源 例如:域名有多个源站,分别为源站1、源站2、源站3,可以配置福建电信、广西电信、广东电信回源站1;配置上海移动、浙江移动、江苏移动回源站2;其他区域和运营商回源站3。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        分区域分运营商回源
      • 连接未开启SASL的Kafka专享实例
        目前提供Kafka专享版实例的服务,Kafka专享版实例采用物理隔离的方式部署,租户独占Kafka实例。创建Kafka专享版实例之后,使用开源Kafka客户端向Kafka专享版实例生产消息和消费消息。 本章节介绍如何使用开源的Kafka客户端访问未开启SASL的Kafka专享实例方法。 多语言客户端使用请参考Kafka官网: 说明:Kafka服务器允许客户端单IP连接的个数为200个,如果超过了,会出现连接失败问题。 前提条件 已配置正确的安全组。 访问未开启SASL的Kafka专享实例时,支持VPC内访问。实例需要配置正确的安全组规则,具体安全组配置要求,请参考下表。 已获取连接Kafka专享版实例的地址。 使用VPC内访问,实例端口为9092,实例连接地址获取如下图。 获取VPC内访问Kafka专享实例的连接地址(实例未开启SASL) Kafka专享实例已创建Topic,否则请提前创建Topic。 已下载Kafka命令行工具1.1.0版本或者Kafka命令行工具2.3.0版本,确保Kafka实例版本与命令行工具版本相同。 已在Kafka命令行工具的使用环境中安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 以下操作命令以Linux系统为例进行说明: 解压Kafka命令行工具。 进入文件压缩包所在目录,然后执行以下命令解压文件。 tar zxf [kafkatar] 其中,[kafkatar]表示命令行工具的压缩包名称。 例如: tar zxf kafka2.111.1.0.tgz 进入Kafka命令行工具的“/bin”目录下。 注意,Windows系统下需要进入“/bin/windows”目录下。 执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist ${连接地址} topic ${Topic名称} 参数说明如下: 连接地址:从前提条件中获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 以获取的Kafka实例连接地址为“10.3.196.45:9092,10.78.42.127:9092,10.4.49.103:9092”为例。执行完命令后输入内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin]
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        用户指南
        连接未开启SASL的Kafka专享实例
      • 操作类
        本章节会介绍关系型数据库在使用和操作时遇到的常见问题。 可以通过创建模板的方式创建实例吗 目前不支持实例模板。可通过备份恢复功能将备份文件恢复到新实例上。 云数据库如何进行主备切换 关系型数据库(Relational Database Service,简称RDS)服务提供高可用类型,推荐您选择主备模式。 故障切换 也叫计划外的切换。当主机出现故障时,系统会在1~5分钟内自动切换到备机,主备实例的连接IP不变,整个过程无需人工干预。切换过程中不可访问,需要您设置好程序跟关系型数据库服务的自动重连,避免因为切换导致服务不可用。 手动切换 也叫计划内的切换。当实例运行正常时,用户可以自主手动触发主备切换,以满足业务需求。 步骤1 登录管理控制台。 步骤2 单击管理控制台左上角的,选择区域和项目。 步骤3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤4 在“实例管理”页面,选择指定的主备实例,单击实例名称,进入实例的“基本信息”页面。 步骤5 在“基本信息”页面中“数据库信息”模块的“实例类型”处,单击“主备切换”。 您也可以在“基本信息”页面,单击“实例拓扑图”模块的。进行主备切换。 注意 主备切换可能会造成几秒或几分钟的服务闪断(闪断时间与复制时延有关),并有可能在主备同步时延过大的情况下,导致少量数据丢失。 主备切换后,请注意对业务进行预热,避免业务高峰期出现阻塞。 在“主备切换”弹框,单击“是”进行主备实例的切换。 在“复制状态”为“正常”的情况下,复制时延大于300s,主备切换任务无法下发。 主备切换成功后,单击“返回实例列表”,用户可以在“实例管理”页面对其进行查看和管理。 切换过程中,状态显示为“主备切换中”。 在实例列表的右上角,单击刷新列表,可查看到主备切换完成后,实例状态显示为“正常”。
        来自:
        帮助文档
        关系数据库MySQL版
        常见问题
        操作类
      • 1
      • ...
      • 199
      • 200
      • 201
      • 202
      • 203
      • ...
      • 235
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      镜像服务 IMS

      天翼云CTyunOS系统

      训推服务

      AI Store

      模型推理服务

      应用托管

      科研助手

      推荐文档

      产品定义

      全面了解天翼云⑥:网站无法访问预处理

      专属云扩容

      变更实例的CPU和内存规格

      帮助中心

      创建弹性伸缩组

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号