活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      应用加速_相关内容
      • 步骤二:创建RabbitMQ实例
        本章节主要介绍如何创建分布式消息服务RabbitMQ实例。 RabbitMQ是一款基于AMQP协议的开源服务,用于在分布式系统中存储转发消息,服务器端用Erlang语言(支持高并发、分布式以及健壮的容错能力等特点)编写,支持多种语言的客户端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP、AJAX等。 AMQP,即Advanced Message Queuing Protocol,高级消息队列协议,是应用层的一个开放标准协议。 前提条件 在创建RabbitMQ专享版实例前,需要保证存在可使用的虚拟私有云。创建虚拟私有云的方法,请参考《虚拟私有云用户指南》。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 为RabbitMQ授权 如果RabbitMQ实例需要开启IPv6功能,在创建实例前,需要授予RabbitMQ操作VPC终端节点的权限,否则会导致创建失败。 在IAM控制台创建委托,委托参数如下,其他参数保持默认,创建委托的具体步骤请参见《统一身份认证服务 用户指南》的“委托 > 委托其他云服务管理资源”章节。 委托名称:dmsadmintrust 委托类型:云服务 云服务:分布式消息服务 持续时间:永久 委托将拥有所选策略:DMS VPCEndpointAccess 操作步骤 步骤1 登录管理控制台。 步骤2 在管理控制台右上角单击,选择区域资源池。 说明 此处请选择与您的应用服务相同的区域。 步骤3 在管理控制台左上角单击,选择“企业中间件 > 分布式消息服务>RabbitMQ专享版”,进入分布式消息服务RabbitMQ专享版页面。 步骤4 单击页面右上方的“购买RabbitMQ实例”。 每个项目默认最多可以创建100个RabbitMQ专享版实例,如果您想创建更多实例,请联系客服申请增加配额。 步骤5 选择“计费模式”、“区域”、“项目”和“可用区”。 步骤6 设置“实例名称”和“企业项目”。 步骤7 设置实例信息。 1. 版本:RabbitMQ的版本号,当前仅支持3.8.35。 2. 实例类型:支持“单机”和“集群”。 单机:表示部署一个RabbitMQ代理。 集群:表示部署多个RabbitMQ代理,实现高可靠的消息存储。 3. 鲲鹏实例:“创建鲲鹏架构实例”选框,默认不勾选是X86架构的实例,勾选之后是ARM架构的鲲鹏实例。 4. 规格:根据实际情况选择规格。 说明 为了保证服务的稳定可靠,RabbitMQ采用了默认的40%高水位配置。当内存占用率到达40%高水位后,会触发流控,生产者发送消息会被阻塞。为了避免高水位的产生,请及时消费积压在队列中的消息。 5. 代理个数:根据实例情况选择代理个数。 6. 存储空间:选择RabbitMQ实例的磁盘类型和存储空间总量。 单机实例的取值范围:100GB ~ 30000GB 集群实例的取值范围为:100GB 代理数 ~ 30000GB 代理数 7. 虚拟私有云:选择已经创建好的虚拟私有云和子网。 虚拟私有云可以为您的RabbitMQ专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 说明 虚拟私有云和子网在RabbitMQ实例创建完成后,不支持修改。 子网开启IPv6后,RabbitMQ实例支持IPv6功能。 实例创建成功后,不支持修改IPv6开关。 使用内网IPv6方式连接实例需要通过VPC终端节点实现,使用期间会产生VPC终端节点的费用。 8. 安全组:在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对弹性云主机的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云主机提供访问策略。 您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 图1 设置实例信息 步骤8 设置连接RabbitMQ实例的用户名和密码。 步骤9 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤10 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 您可以选择是否打开公网访问开关。 如果选择了开启,表示访问RabbitMQ实例可以通过弹性IP访问。这时页面会显示“弹性IP地址”,在“弹性IP地址”区域,您可下拉选择已有的弹性IP。另外,您可单击右侧的“创建弹性IP”,跳转到网络控制台的弹性IP页面,购买弹性IP。 图2 购买RabbitMQ实例时公网访问设置 说明 公网访问与VPC内访问相比,可能存在网络丢包和抖动等情况,且访问时延有所增加,因此建议仅在业务开发测试阶段开启公网访问进行调试。 如果用户在虚拟私有云的服务页面手动解绑定或删除EIP,相应RabbitMQ实例的公网访问功能会自动关闭。 2. 设置“SSL”。 客户端连接实例时SSL认证的开关。开启SSL,则数据加密传输,安全性更高。 SSL开关在实例创建完成后不支持修改,请明确是否需要开启 。 3. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击右侧的“查看预定义标签”,系统会跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个RabbitMQ实例最多支持设置20个不同标签。 4. 设置实例的描述信息。 步骤11 填写完上述信息后,单击“立即购买”,进入“规格确认”页面。 步骤12 确认实例信息无误且阅读并同意《分布式消息服务RabbitMQ服务等级协议》、《天翼云分布式消息服务协议》后,提交请求。 步骤13 在实例列表页面查看实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的RabbitMQ实例,然后重新创建。如果重新创建仍然失败,请联系客服。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        步骤二:创建RabbitMQ实例
      • 手动扩展资源
        本文主要介绍如何手动扩展资源。 操作场景: 通过手动将实例移入到伸缩组、手动将实例移出伸缩组或手动修改期望实例数,扩展资源。 操作步骤: 将实例移入伸缩组: 您可以手动将云主机移入指定伸缩组,将云主机成功移入指定伸缩组必须满足如下约束: 表 手动移入实例的约束 项目 约束 伸缩组 处于“已启用”状态。 伸缩组没有正在进行的伸缩活动。 移入后总实例数不能大于伸缩组的最大实例数。 云主机 不能存在于其它伸缩组中。 云主机所在的VPC必须和伸缩组所在的VPC相同。 说明 单次最多批量移入实例个数为10个。 当伸缩组已添加负载均衡器,系统会自动将加入伸缩组的实例添加到负载均衡上。 将云主机移入伸缩组的步骤如下。 1. 选择“计算 > 弹性伸缩服务”。 2. 单击具体的伸缩组名称。 3. 在“伸缩实例”页签,单击“移入伸缩组”。 4. 选择待移入的实例名称,单击“确定”。 将实例移出伸缩组 您可以将实例移出伸缩组,更新实例或排查实例的问题,然后将实例重新移入伸缩组。移出伸缩组后实例不再处理应用程序流量。 例如,您可以随时更改伸缩组使用的伸缩配置,后续实例将使用此配置。不过,伸缩组不会更新当前正在运行的实例。您可以终止这些实例并让伸缩组替换这些实例,也可以先将实例移出伸缩组,更新软件,然后将该实例移入伸缩组。 云主机移出伸缩组的相关约束如下所示。 表 手动移出实例的约束 项目 约束 伸缩组 处于“已启用”状态。 伸缩组没有正在进行的伸缩活动。 云主机 生命周期状态是已启用。 云主机不在存储容灾服务中使用。 说明 单次最多批量移出实例个数为50个。 如果移除实例后使伸缩组实例数小于最小实例数,则会自动伸缩增加实例到期望实例数。 如果实例从添加了负载均衡器的伸缩组中移出,则自动取消与此负载均衡器的关联。 将云主机移出伸缩组的步骤如下。 1. 选择“计算 > 弹性伸缩服务”。 2. 单击具体的伸缩组名称。 3. 在“伸缩实例”页签中的实例所在行的“操作”列下,单击“移出伸缩组”或“移出伸缩组并删除”。 如果您要删除多个实例,可以勾选多个实例,单击“移出伸缩组”或“移出伸缩组并删除”。 如果您要删除所有实例,可以勾选参数“名称”左侧的方框,单击“移出伸缩组”或“移出伸缩组并删除”。 说明 自动添加的云主机默认计费方式是按需计费。 当您选择“移出伸缩组”时,系统仅将其移出伸缩组。 当您选择“移出伸缩组并删除”时,系统将云主机移出伸缩组时,也会将其删除。 手动移入伸缩组的实例,只能进行移出伸缩组操作,不能进行移出伸缩组并删除操作。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩活动管理
        手动扩展资源
      • 独享型负载均衡规格
        本文主要介绍独享型负载均衡规格。 天翼云部分二类节点正在升级,以支持独享型负载均衡服务,敬请用户随时关注。 独享型负载均衡支持按规格购买,请根据自身业务规划选择实例规格。实际业务超过规格限定时,会限制新建请求的建立、以及丢包等问题。 并发最大连接数Max Connection:并发最大连接数是指在四层监听或者七层监听时,一个负载均衡实例能够承载的最大连接数量。当实例上的连接数超过规格定义的最大连接数时,为了保障已有的连接业务性能,新建连接请求将被丢弃。 每秒新建连接数Connection Per Second (CPS):每秒新建连接数是指在四层监听或者七层监听时,新建连接的速率。当新建连接的速率超过规格定义的每秒新建连接数时,为了保障已有的连接业务性能,新建连接请求将被丢弃。 说明 如果实例同时使用HTTP与HTTPS监听器业务,则最终的新建连接数按比例进行叠加,计算公式为新建连接数 HTTP新建连接数 + HTTPS新建连接数× 规格中HTTP与HTTPS的比例 举例,实例的规格提供2000个每秒的HTTP新建连接数或者200个每秒的HTTPS新建连接数,则HTTP与HTTPS的比例为10:1,则新建连接数 HTTP新建连接数+ HTTPS新建连接数× 10。 每秒查询数Query Per Second (QPS):每秒查询数是指仅在七层监听时,每秒可以处理的HTTP/HTTPS的查询请求的数量。当请求速率超过规格所定义的每秒查询数时,为了保障已有的连接业务性能,新建连接请求将被丢弃。 每秒带宽(Mbps):每秒带宽可以在四层监听或者七层监听时保障带宽的性能。 独享型负载均衡的类型选定后将无法修改,请您合理评估选择。 网络型(TCP/UDP)独享型负载均衡实例规格性能表 规格类型 最大连接数 新建连接数(CPS) 带宽(Mbps) 小型 I 500000 10000 50 小型 II 1000000 20000 100 中型 I 2000000 40000 200 中型 II 4000000 80000 400 大型 I 10000000 200000 1000 大型 II 20000000 400000 2000 应用型(HTTP/HTTPS)独享型负载均衡实例规格性能表 规格类型 最大连接数 新建连接数(CPS)(HTTP) 新建连接数(CPS)(HTTPS) 每秒查询数(QPS)(HTTP) 每秒查询数(QPS)(HTTPS) 带宽(Mbps) 小型 I 200000 2000 200 4000 2000 50 小型 II 400000 4000 400 8000 4000 100 中型 I 800000 8000 800 16000 8000 200 中型 II 2000000 20000 2000 40000 20000 400 大型 I 4000000 40000 4000 80000 40000 1000 大型 II 8000000 80000 8000 160000 80000 2000 说明 如果一个负载均衡器下创建了多个监听器,则上述表格中的每秒查询数(QPS)是指该负载均衡器下的所有监听器的QPS之和不超过规格所定义的QPS值。 带宽规格指入流量加出流量的总和不超过表中的数值。带宽规格是ELB所能提供的带宽保障范围,保障范围内资源可用;超出保障范围的,无法保障带宽性能。
        来自:
      • 开启审计日志
        操作组名称 描述 APPLICATIONROLECHANGEPASSWORDGROUP 更改应用程序角色的密码引发事件。 DATABASECHANGEGROUP 创建、更改、删除数据库。 DATABASEOBJECTCHANGEGROUP 针对数据库对象(如架构)执行create/alter/drop语句时将引发此事件。 DATABASEOBJECTOWNERSHIPCHANGEGROUP 在数据库范围内更改对象所有者时,将触发此事件。 DATABASEOBJECTPERMISSIONCHANGEGROUP 针对数据库对象(例如,程序集和架构)发出GRANT、REVOKE或DENY语句时将引发此事件。 DATABASEOWNERSHIPCHANGEGROUP 使用alter authorization语句更改数据库的所有者时,引发此事件。 DATABASEPERMISSIONCHANGEGROUP sqlserver中任何主体针对某语句权限发出的GRANT、REVOKE或DENY语句时均引发此事件(仅适用于数据库事件,例如授予对某数据库的权限) DATABASEPRINCIPALCHANGEGROUP 在数据库中创建、更改或删除主体(如用户)时,将引发此事件。 DATABASEROLEMEMBERCHANGEGROUP 向数据库角色添加登录名或从中删除登录名时将引发此事件。 FAILEDLOGINGROUP 指示主体尝试登录到SQL Server,但是失败。此类中的事件有新连接引发或由连接池中重用的连接引发。 LOGINCHANGEPASSWORDGROUP 通过alter login语句或sppassword 存储过程更改登录密码时,将引发此事件。 SCHEMAOBJECTCHANGEGROUP 针对架构执行create、alter或drop 操作时引发此事件。 SCHEMAOBJECTOWNERSHIPCHANGEGROUP 检查更改架构对象(例如表、过程或函数)的所有者的权限时,会引发此事件。 SCHEMAOBJECTPERMISSIONCHANGEGROUP 对架构对象执行grant、deny或revoke语句时将引发此事件。 SERVEROBJECTCHANGEGROUP 针对服务器对象执行create、alter、drop操作时引发此事件。 SERVEROBJECTOWNERSHIPCHANGEGROUP 服务器范围中的对象的所有者发生更改时将引发此事件。 SERVEROBJECTPERMISSIONCHANGEGROUP sqlserver中的任何主体针对某服务器对象权限发出grant、revoke、deny语句时,将引发此事件。 SERVERPERMISSIONCHANGEGROUP 为获取服务器范围内的权限而发出grant、revoke、deny语句时,将引发此事件。 SERVERPRINCIPALCHANGEGROUP 创建、更改、删除服务器主体时将引发此事件。 SERVERROLEMEMBERCHANGEGROUP 向固定服务器角色添加登录名或从中删除登录名时将引发此事件。 SERVERSTATECHANGEGROUP 修改SQL Server服务状态时将引发此事件。 USERCHANGEPASSWORDGROUP 每当使用alter user语句更改包含数据库用户的密码时,都将引发此事件。(SQL Server 2008版本不涉及)
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        日志管理
        审计日志
        开启审计日志
      • List Multipart Uploads
        本节主要介绍List Multipart Uploads。 该接口用于列出所有已经通过Initiate Multipart Upload请求初始化,但未完成或未终止的分片上传过程。 响应中最多返回1000个分片上传过程的信息,它既是响应能返回的最大分片上传过程数目,也是请求的默认值。用户也可以通过设置maxuploads参数来限制响应中的分片上传过程数目。如果当前的分片上传过程数超出了这个值,则响应中会包含一个值为true的IsTruncated元素。如果用户要列出多于这个值的分片上传过程信息,则需要继续调用List Multipart Uploads请求,并在请求中设置keymarker 和uploadidmarker参数。 在响应体中,分片上传过程的信息通过key来排序。如果用户的应用程序中启动了多个使用同一key文件开头的分片上传过程,那么响应体中分片上传过程首先是通过key来排序,在相同key的分片上传内部则是按上传启动的起始时间的升序来进行排列。 请求语法 GET /?uploads HTTP/1.1 Host: BucketName.ooscn.ctyunapi.cn Date: Date Authorization: SignatureValue 请求参数 名称 描述 是否必须 BucketName 存储桶名称。 是 delimiter 分隔符,一个用来对关键字们进行分组的字符。所有的关键字都包含delimiter和prefix间的相同子串,prefix之后第一个遇到delimiter的字符串都会加到一个叫CommonPrefix的组中。如果没有特别定义prefix,所有的关键字都会被返回,但不会有CommonPrefix。delimiter只支持”/”,不支持其他分隔符。 类型:字符串。 否 maxuploads 设置返回的分片上传过程的最大数目。 类型:整型。 取值:[1, 1000]。 默认值:1000。 否 keymarker 与uploadidmarker参数一起,该参数指定列表操作从什么位置后面开始。如果uploadidmarker参数没有被指定,那么只有比keymarker参数指定的key更大的key会被列出。如果uploadidmarker参数被指定,任何包含与keymarker指定值相等或大于key的分片上传过程都会被包括,假设这些分片上传过程包含了比uploadidmarker指定值更大的ID。 类型:字符串。 否 prefix 该参数用于列出那些以prefix为前缀的正在进行的上传过程,用户可以使用多个prefix来把一个bucket分成不同的组(可以考虑采用类似文件系统中的文件夹的作用那样,使用prefix来对key进行分组)。 类型:字符串。 否 encodingtype 指定响应中KeyMarker、NextKeyMarker、Key、Prefix、Delimiter的编码类型。如果KeyMarker、NextKeyMarker、Key、Prefix、Delimiter包含xml 1.0标准不支持的控制字符,可通过设置该参数对响应中的KeyMarker、NextKeyMarker、Key、Prefix、Delimiter进行编码。 类型:字符串。 取值:url,字母不区分大小写。 否 uploadidmarker 与keymarker参数一起,指定列表操作从什么位置后面开始。如果keymarker没有被指定,uploadidmarker参数也会被忽略。否则,任何key值等于或大于keymarker的上传过程都会被包含在列表中,只要ID大于uploadidmarker指定的值。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Bucket的操作
        List Multipart Uploads
      • 负载均衡(LoadBalancer)
        本文主要介绍 负载均衡(LoadBalancer)。 操作场景 负载均衡( LoadBalancer )可以通过弹性负载均衡从公网访问到工作负载,与弹性IP方式相比提供了高可靠的保障,一般用于系统中需要暴露到公网的服务。 负载均衡访问方式由公网弹性负载均衡服务地址以及设置的访问端口组成,例如“10.117.117.117:80”。 在访问时从ELB过来的流量会先访问到节点,然后通过Service转发到Pod。 图 负载均衡( LoadBalancer ) 在使用CCE Turbo集群 + 独享型ELB实例时,支持ELB直通Pod,使部署在容器中的业务时延降低、性能无损耗。 从集群外部访问时,从ELB直接转发到Pod;集群内部访问可通过Service转发到Pod。 图 ELB直通容器 约束与限制 CCE中的负载均衡 ( LoadBalancer )访问类型使用弹性负载均衡 ELB提供网络访问,存在如下产品约束: 自动创建的ELB实例建议不要被其他资源使用,否则会在删除时被占用,导致资源残留。 1.15及之前版本集群使用的ELB实例请不要修改监听器名称,否则可能导致无法正常访问。 创建service后,如果服务亲和从集群级别切换为节点级别,连接跟踪表将不会被清理,建议用户创建service后不要修改服务亲和属性,如需修改请重新创建service。 当服务亲和设置为节点级别(即externalTrafficPolicy为local)时,集群内部可能使用ELB地址访问不通,具体情况请参见集群内使用ELB地址无法访问Service说明。 l CCE Turbo集群仅支持集群级别服务亲和。 独享型ELB仅支持1.17及以上集群。 独享型ELB规格必须支持网络型(TCP/UDP),且网络类型必须支持私网(有私有IP地址)。如果需要Service支持HTTP,则独享型ELB规格需要为网络型(TCP/UDP)和应用型(HTTP/HTTPS)。 使用控制台创建LoadBalancer类型Service时会自动生成一个节点端口(nodeport),端口号随机。使用kubectl创建LoadBalancer类型Service时,如不指定节点端口,也会随机生成一个节点端口,端口号随机。 使用CCE集群时,如果LoadBalancer类型Service的服务亲和类型为集群级别(cluster),当请求进入到集群时,会使用SNAT分发到各个节点的节点端口(nodeport),不能超过节点可用的nodeport数量,而服务亲和为节点级别(local)则无此约束。使用CCE Turbo集群时,如果是使用共享型ELB依然有此约束,而独享型ELB无此约束,建议使用CCE Turbo时配合使用独享型ELB。 集群服务转发模式为IPVS时,不支持配置节点的IP作为Service的externalIP,会导致节点不可用。 IPVS模式集群下,Ingress和Service使用相同ELB实例时,无法在集群内的节点和容器中访问Ingress,因为kubeproxy会在ipvs0的网桥上挂载LB类型的Service地址,Ingress对接的ELB的流量会被ipvs0网桥劫持。建议Ingress和Service使用不同ELB实例。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        Service
        负载均衡(LoadBalancer)
      • 恢复副本集实例数据到指定时间点
        本文主要介绍恢复副本集实例数据到指定时间点 文档数据库服务支持使用指定时间点上的备份,恢复副本集实例的数据。 实例恢复到指定时间点,会从OBS备份空间中选择一个该时间点最近的全量备份下载到实例上进行全量恢复,再重放增量备份到指定时间点,恢复时长和实例的数据量有关,平均恢复速率为30MB/s。 使用须知 副本集实例恢复到指定时间点时,目前支持恢复到新实例和当前实例。 账户余额大于等于0元,才可恢复到新实例。 目前只有4.0版本的副本集实例支持恢复到指定时间点。 开启自动备份策略后,才允许恢复到指定时间点。 实例下能够恢复的到指定时间点的数据库不包括local数据库。 为了数据的安全性,增备恢复到指定时间点屏蔽了dropDatabase的操作。因此恢复后可能会存在残留空的库或view,用户可自行删除。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的副本集实例,单击实例名称。 步骤 5 在左侧导航树,单击“备份恢复”。 步骤 6 在“备份恢复”页面,单击“恢复到指定时间点”。 恢复到指定时间点 步骤 7 选择恢复日期和该日期内需要恢复的时间区间,输入该恢复时间区间内的一个恢复时间点,并根据业务需要选择恢复至“新实例”或“当前实例”,单击“确定”。 恢复到指定时间点 步骤 8 在服务选型页面,会根据步骤7中设置的恢复方式,进行实例恢复。 新实例跳转到“恢复到新实例”的服务选型页面,为用户重新创建一个和该备份数据相同的实例。恢复成功的新实例是一个独立的实例,与原有实例没有关联。 创建新实例时选择与原实例不同的可用区,保障应用程序不受单一位置故障的影响,提高数据的可靠性。 版本类型、实例类型、兼容MongoDB版本、存储引擎以及存储类型,与原实例相同,不可修改。 存储空间默认和原实例相同,可修改,但只可增加不可减小。 其他参数默认,用户需设置。 当前实例 说明 恢复到当前实例会导致实例数据被覆盖,且恢复过程中实例将不可用。 恢复成功后,数据库实例的管理员密码与恢复前一致。 对于备份方式为“逻辑备份”的备份,不支持恢复到当前实例。 在“实例管理”页面,可查看该实例状态为“恢复中”。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到指定时间点
        恢复副本集实例数据到指定时间点
      • 性能类
        为什么执行ls命令时,会卡顿或无响应? 默认情况下,ls会遍历目录下的所有文件,获取文件的元数据信息并展现给用户,如果目录过大如包含10万个文件,可能需要发出10万个读指令,需要耗费很长的时间。 解决方案: 避免单个目录包含过多的文件,建议单目录下文件数量不超过1万个。 执行ls时采用全路径/usr/bin/ls,不添加colorauto参数,可避免遍历目录下文件,大幅减少读指令数量。 为什么在目录下并发创建文件,每秒创建的文件数量达不到IOPS标称的值? 创建文件涉及到“为新文件分配磁盘空间”和“将新文件加入目录”至少2个IO指令: “为新文件分配磁盘空间”可以并发执行,并发程度受文件系统大小影响,文件系统越大,并发程度越高。 “将新文件加入目录”如果修改的是同一目录,不能并发执行。修改速度受IO时延影响较大,如文件系统时延为1ms,无并发的情况下1秒内能完成1000次IO,单目录的创建性能就不会超过1000文件/秒。 解决方案: 避免单个目录包含过多的文件,建议单目录下文件数量不超过1万个。 扩容文件系统,可以提升文件系统的读写性能。 如何解决向多台云主机中挂载的NFS文件系统中写入数据延迟问题? 问题描述: 云主机1更新了文件A,但是云主机2立即去读取时,仍然获取到的是旧的内容。 问题原因: 这涉及两个原因: 第一个原因是,云主机1在写入文件A后,并不会立即进行刷新(flush),而是先进行PageCache操作,依赖于应用层调用fsync或者close来进行刷新。 第二个原因是,云主机2存在文件缓存,可能不会立即从服务器获取最新的内容。例如,在云主机1更新文件A时,云主机2已经缓存了数据,当云主机2再次读取时,仍然使用了缓存中的旧内容。 解决方案: 方案一:在云主机1更新文件后,一定要执行close或者调用fsync。在云主机2读取文件之前,重新打开文件,然后再进行读取。 方案二:关闭云主机1和云主机2的所有缓存。这会导致性能较差,所以请根据实际业务情况选择适合的方案。 关闭云主机1的缓存:在挂载时,添加noac参数,确保所有写入立即落盘。挂载命令示例如下: mount t nfs o vers3,prototcp,async,nolock,noatime,noresvport,nodiratime,wsize1048576,rsize1048576,timeo600,noac 挂载地址 本地挂载路径1 关闭云主机2的缓存:在挂载时,添加actimeo0参数,忽略所有缓存。挂载命令示例如下: mount t nfs o vers3,prototcp,async,nolock,noatime,noresvport,nodiratime,wsize1048576,rsize1048576,timeo600,actimeo0 挂载地址 本地挂载路径2 根据实际情况合理以上方案可要确保云主机1更新文件后,云主机2能立即获取到最新内容。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        性能类
      • 变更实例的CPU和内存规格
        本节介绍了如何变更云数据库TaurusDB实例的CPU和内存规格。 操作场景 可以根据业务需要对包年/包月和按需实例的规格进行变更,规格指实例的CPU/内存。当实例的状态由“规格变更中”变为“正常”,则说明变更成功。 约束限制 当实例进行CPU/内存规格变更时,该实例不可被删除。 您只能对整个实例进行规格变更,无法对实例中的单个节点进行操作。 仅按需实例支持选择可维护时间段进行规格变更,且该任务不可被取消。 注意 变更规格后会主备倒换,请选择业务低峰期,避免业务异常中断。 变更规格后主节点与只读节点的读内网地址会发生变化,请及时在应用程序中修改您的连接地址以免影响业务。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择Region。 步骤 3 在页面左上角单击,选择“数据库 > 云数据库TaurusDB”。 步骤 4 您可以通过两种途径进行规格变更。 在“实例管理”页面,选择目标实例,单击“操作”列的“更多 > 规格变更”,进入“规格变更”页面。 单击目标实例名称,进入“基本信息”页面,在“实例信息”模块的“性能规格”处,单击“规格变更”,进入“规格变更”页面。 步骤 5 在“规格变更”页面,选择所需修改到的性能规格,您可以根据自己的需求缩小或扩大规格,并设置“切换时间”,单击“下一步”。 切换时间支持如下两种方式: 立即变更:系统会立即进行规格变更。 可维护时间段:在当前可维护时间段实现数据库资源变更,预约变更时间。 步骤 6 在规格确认页面,确认性能规格。 如需重新选择,单击“上一步”,修改性能规格。 按需计费模式的实例,单击“提交”,提交变更。 由规格变更产生的费用,您可在“费用中心 > 费用账单”中查看费用详情。 包年/包月模式的实例 缩小规格:单击“提交订单”,提交变更。由缩小规格产生的退款,系统会自动退还至客户帐户,您可通过单击“费用中心”进入“费用中心”页面,在左侧导航栏“订单管理”下的“我的订单”查看费用详情。 扩大规格:单击“提交订单”,跳转至支付页面,支付成功后,才可进行规格变更。 步骤 7 查看变更结果。 在实例管理页面,可以看到实例状态为“规格变更中”。稍后在对应的“基本信息”页面,查看实例规格,检查修改是否成功。此过程需要5~15分钟。 注意 TaurusDB实例规格变更成功后,系统将根据新内存大小,调整如下参数的值:“innodbbufferpoolsize”、“innodblogbuffersize”、“maxconnections”、“innodbbufferpoolinstances” “innodbpagecleaners”、“innodbparallelreadthreads”、“innodbreadiothreads”、“innodbwriteiothreads”、“threadpoolsize”。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        变更实例配置
        变更实例的CPU和内存规格
      • 添加网关
        本章节主要介绍添加网关 服务网关在微服务实践中可以做到统一接入、流量管控、安全防护、业务隔离等功能。 前提条件 服务网关使用弹性负载均衡服务(ELB)的负载均衡器提供网络访问,因此在添加网关前,请提前创建负载均衡。 创建负载均衡时,需要确保所属VPC与集群的VPC一致。 操作步骤 步骤 1 登录应用服务网格控制台,单击服务网格的名称,进入网格详情页面。 步骤 2 在左侧导航栏选择“网关管理”,单击“添加网关”。 步骤 3 配置网关参数。 网关名称 请输入网关的名称。由小写字母、数字和中划线()组成,且必须以小写字母开头,小写字母或数字结尾,长度范围为4~59个字符。 集群选择 选择网关所属的集群。 负载均衡配置 服务网关使用弹性负载均衡服务(ELB)的负载均衡器提供网络访问,支持共享型和独享型规格,且支持公网和私网。 负载均衡实例需与当前集群处于相同VPC。 监听器配置 服务网关为负载均衡器配置监听器,监听器对负载均衡器上的请求进行监听,并分发流量。 对外协议 请根据业务的协议类型选择。支持HTTP、GRPC、TCP、TLS及HTTPS五种协议类型的选择。 对外端口 开放在负载均衡服务地址的端口,可任意指定。 TLS终止 配置TLS协议时,可选择开启/关闭TLS终止。开启TLS终止时需要绑定证书,以支持TLS数据传输加密认证;关闭TLS终止时,网关将直接转发加密的TLS数据。 密钥证书 配置TLS协议并开启TLS时,需要绑定证书,以支持TLS数据传输加密认证。 配置HTTPS协议时,需要绑定密钥证书。 TLS最低版本/TLS最高版本 配置TLS协议并开启TLS终止时,提供TLS最低版本/TLS最高版本的选择。 步骤 4(可选)配置路由参数。 请求的访问地址与转发规则匹配(转发规则由域名+URL组成,域名置空时,默认为ELB IP地址)时,此请求将被转发到对应的目标服务处理。单击图标,弹出“添加路由”对话框。 域名 请填写组件对外发布域名。不填时访问地址默认为负载均衡实例IP地址。如果您开启了TLS终止,则必须填写证书内认证域名,以完成SNI域名校验。 URL匹配规则 前缀匹配:例如映射URL为/healthz,只要符合此前缀的URL均可访问。例如/healthz/v1、/healthz/v2。 完全匹配:只有完全匹配上才能生效。例如映射URL为/healthz,则必须为此URL才能访问。 URL 服务支持的映射URL,例如/example。 命名空间 服务网关所在的命名空间。 目标服务 添加网关的服务,直接在下拉框中选择。 配置诊断失败的服务无法选择,需要先根据 手动修复项或 自动修复项进行修复。 访问端口 仅显示匹配对外协议的端口。 重写 重写HTTP URI和Host/Authority头,于转发前执行。默认关闭。 步骤 5 配置完成后,单击“确定”。 网关添加完成后,可前往“服务管理”页面,获取服务外网访问地址。
        来自:
        帮助文档
        应用服务网格
        用户指南
        网关管理
        添加网关
      • 配置Kafka数据转储至OBS
        本节介绍如何配置Kafka数据转储至OBS。 本章节介绍如何创建转储的Smart Connect任务,通过Smart Connect任务可以将Kafka实例中的数据转储至OBS中,实现消息数据的备份。 源Kafka实例中的数据会实时同步到转储文件中。 约束与限制 一个实例最多创建18个Smart Connect任务。 Smart Connect任务创建成功后,不支持修改任务参数。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 已创建的OBS桶和Kafka实例需要在同一个区域。 配置Kafka数据转储至OBS 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“转储”。 9、在“源端配置”中,保持默认设置。 10、在“Topic配置”中,设置以下参数。 表11 Topic配置参数说明 参数 参数说明 正则表达式 表示以正则表达式的方式订阅Topic,并进行转储。 输入/选择 输入/选择待转储的Topic名称,支持选择多个Topic,以逗号“,”分隔。最多输入/选择20个Topic。 11、在“目标端配置”中,设置以下参数。 表12 目标端参数说明 参数 参数说明 转储启动偏移量 支持以下两种转储启动偏移量: 最早:最小偏移量,即读取最早的数据。 最新:最大偏移量,即获取最新的数据。 数据转储周期 两次转储的时间间隔,单位:秒,默认配置为300秒。 若某个时间段内无数据,则此时间段不会生成打包文件 AK 访问密钥ID。 SK 与访问密钥ID结合使用的密钥。 转储地址 设置存储Topic数据的OBS桶的名称。 选择:在下拉列表中选择已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。 输入:输入已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。输入的OBS桶必须和Kafka实例在同一个区域。 转储目录 OBS中存储Topic的目录,多级目录可以用“/”进行分隔。 时间目录格式 数据将存储在转储目录下的时间目录中,时间目录是按时间格式作为层级的目录。例如,当选择的时间目录格式精确到日时,存储目录为:“桶名称/转储目录/年/月/日”。 记录分隔符 在下拉列表中选择一种分隔符,分隔不同的转储记录 存储Key 是否转储Key,开启表示转储Key,关闭表示不转储Key。 说明 消息进行转储时,不支持以Key作为文件名。 12、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka数据转储至OBS
      • 恢复集群实例到指定时间点
        本节主要介绍恢复集群实例到指定时间点 文档数据库服务支持使用指定时间点上的备份,恢复集群实例的数据。 实例恢复到指定时间点,会从OBS备份空间中选择一个该时间点最近的全量备份下载到实例上进行全量恢复,再重放增量备份到指定时间点,恢复时长和实例的数据量有关,平均恢复速率为30MB/s。 使用须知 账户余额大于等于0元,才可恢复到新实例。 使用该功能需要具有相应的操作权限,您可联系客服人员进行申请。 目前只有4.0、4.2版本的集群实例支持恢复到指定时间点。 开启自动备份策略后,才允许恢复到指定时间点。 目前支持恢复到新实例和当前实例。 为了数据的安全性,增备恢复到指定时间点屏蔽了dropDatabase的操作。因此恢复后可能会存在残留空的库或view,用户可自行删除。 受限场景:rename操作,collmod操作,创建用户,删除用户,创建角色,删除角色,retryable writes操作。当发生受限场景时,增备会停止,待下一次自动全备后,增备重启继续。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的集群实例,单击实例名称进入实例详情页面。 步骤 5 在左侧导航树,单击“备份恢复”。 步骤 6 在“备份恢复”页面,单击“恢复到指定时间点”。 恢复集群实例到指定时间点 步骤 7 选择恢复日期和该日期内需要恢复的时间区间,输入该恢复时间区间内的一个恢复时间点,并根据业务需要选择恢复至“新实例”或“当前实例”,单击“确定”。 恢复社区版集群实例到指定时间点 步骤 8 在服务选型页面,会根据步骤7中设置的恢复方式,进行实例恢复。 新实例 跳转到“恢复到新实例”的服务选型页面,为用户重新创建一个和该备份数据相同的实例。恢复成功的新实例是一个独立的实例,与原有实例没有关联。 创建新实例时选择与原实例不同的可用区,保障应用程序不受单一位置故障的影响,提高数据的可靠性。 版本类型、实例类型、兼容MongoDB版本、存储引擎以及存储类型,与原实例相同,不可修改。 存储空间默认和原实例相同,可修改,但只可增加不可减小。 其他参数默认,用户需设置。 当前实例 在“实例管理”页面,可查看该实例状态为“恢复中”。 说明 恢复到当前实例会导致实例数据被覆盖,且恢复过程中实。将不可用。 恢复成功后,数据库实例的管理员密码与。复前一致。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到指定时间点
        恢复集群实例到指定时间点
      • 添加防护对象
        本文介绍如何通过独享型接入方式将网站接入WAF进行防护。 使用独享型接入方式接入WAF前,需要先添加防护对象。 前提条件 已购买WAF独享型实例,且当前实例支持接入的防护对象数量未超过限制。 操作步骤 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 进入到云WAF控制台,在左侧导航栏选择“接入管理”,选择“独享型接入”页签。 5. 点击“添加防护对象”进入信息配置页,依次配置“防护对象”、“服务器配置”、“代理情况”、“负载均衡策略”等信息。 配置项说明如下: 配置项 说明 选择实例 单击“选择实例”,在弹出的选择实例对话框中,找到目标实例,单击操作列的“选择”。 防护对象 填写防护网站的域名或IP。 域名:支持添加精确域名和泛域名。 精确域名:支持多级别精确域名,例如主域名ctyun.cn、子域名www.ctyun.cn等。 泛域名:支持使用泛域名格式,例如.ctyun.cn可以匹配www.ctyun.cn、test.ctyun.cn。 说明 使用泛域名后,WAF将自动匹配该泛域名对应的所有子域名,例如,.ctyun.cn能够匹配www.ctyun.cn、test.ctyun.cn等。 泛域名不支持匹配对应的主域名,例如.ctyun.cn不能匹配ctyun.cn。 如果同时存在精确域名和泛域名,则精确域名的转发规则和防护策略优先生效。 IP:支持防护公网IP、私网IP。 当填写公网IP时,指客户端访问业务系统直接指向的弹性IP(该弹性IP可能绑定在防火墙或WAF上)。 当填写私网IP时(用于内网访问防护场景),填写内网客户端访问的内网IP(因内网访问情况下,WAF代理业务系统,此处需填写WAF代理业务系统的IP而非业务系统本身的IP,即WAF业务网卡的VIP,业务系统内网IP填写在回源IP处)。 说明 采用内部IP代理场景下,因直接通过IP访问,WAF监听对象为WAF本身的IP,为了区分不同的业务,后端多业务不能采用相同端口,例如后端两个不同的业务不能同时采用80端口,否则WAF无法判断业务需要回源到哪个端口,会导致防护无法生效;若内部WAF采用域名进行区分则可配置相同端口。 防护对象名称 自定义防护网站的显示名称。 服务器配置 单击“添加一个服务器端口组”,弹出新增服务器端口组窗口。 选择网站使用的协议类型以及对应的转发服务端口: 协议类型:HTTP/HTTPS。 端口:选中协议后,系统会对应设置默认端口,HTTP协议默认为80端口,HTTPS协议默认为443端口。 用户也可自定义选择其他端口,可选类型: 标准端口:80、8080;443、8443。 非标端口:除以上标准端口以外的端口。 说明 如果防护域名使用非标准端口,请查看WAF支持的端口。 WAF通过此处添加的端口为网站提供流量的接入与转发服务,网站域名的业务流量只通过已添加的服务端口进行转发。对于未添加的端口,WAF不会转发任何该端口的访问请求流量到源站服务器,因此这些端口的启用不会对源站服务器造成任何安全威胁。 源站地址:设置网站的源站服务器地址,支持IP地址格式和域名格式。完成接入后,WAF将过滤后的访问请求转发到此处设置的服务器地址。设置说明如下: IP地址格式:填写源站的私网IP地址。 最多支持添加40个源站IP或服务器域名。 支持同时配置IPv4和IPv6地址。 说明 如果此处配置私网IP,请确保WAF到源站的网络路径是可访问的,以便于WAF能够对流量进行监控。 域名格式:一般对应该域名在DNS服务商处配置的CNAME。使用域名格式时, WAF会将客户端请求转发到回源域名解析出来的IP地址。 权重:当负载均衡算法为“加权轮询”时生效,所有请求将此处配置的权重轮流分配给源站服务器,权重越大,回源到该源站的几率越高。 不输入则视同为最低权重1。 当输入值为0时,业务不会回源到该站点。 取值范围:0~100的正整数。 说明 当健康检查发现站点出现问题时,剩余站点将按照剩余配置权重进行动态比例变化后的结果进行回源转发,节点回源请求比例节点权重/所有权重之和。 若回源列表中所有源站健康检查均失败了,为保障业务默认通路WAF将会强制回源至回源列表中顺序为第一个的站点。 若设置多个权重为0的节点,仅会回源至列表上第一个权重为0的节点。 所有站点全部健康检查失败,会强制回配置列表第一个节点。 证书配置 若选择HTTPS协议,还需要上传证书,且证书必须正确、有效,才能保证WAF正常防护网站的HTTPS协议访问请求。 1. 点击“上传证书”,进入服务器端证书配置页面。 2. 选择证书类型,支持“通用证书”和“国密证书”。 3. 配置证书。支持证书选择、手动填写、文件上传方式: 证书选择:如您使用了证书管理服务,可通过下拉框选择已有证书。 手动填写:填写证书名称,并将与域名关联的证书文件和私钥文件的文本内容的PEM编码分别复制粘贴到证书文件和证书私钥中。 文件上传:填写证书名称,点击“上传”,将与域名关联的证书文件和私钥文件上传至平台中。 说明 手动填写需要将证书和私钥的PEM编码内容填入。 上传证书时,如果证书是.PEM/.CER/.CRT的后缀,可以直接上传;私钥文件若为.KEY/.PEM的后缀,请确保内容格式为PME编码,即可上传。 高级设置 > HTTP强制跳转 选择HTTPS后,还支持启用HTTP强制跳转功能。 HTTPS强制跳转表示将客户端的HTTP请求强制转换为HTTPS请求,默认跳转到443端口。 如果您需要强制客户端使用HTTPS请求访问网站以提高安全性,则开启该设置。 说明 只有在未选中HTTP协议时,支持开启该设置。 请确保网站支持HTTPS业务再开启该设置。开启该设置后,部分浏览器将被强制设置为使用HTTPS请求访问网站。 高级设置 > TLS协议版本和加密套件 选择证书后,需要配置TLS协议版本和加密套件。WAF默认配置的TLS协议版本为“TLS1.0及以上版本”,加密套件为“全部加密套件”。 TLS协议版本 配置说明如下,为了确保网站安全,请根据业务实际需求进行配置: 支持TLS1.0及以上版本:所有的TLS协议都可以访问网站,兼容性最高,适用于网站无安全性要求的场景。 支持TLS1.1及以上版本:WAF将自动拦截TLS1.0协议的访问请求,适用于网站安全性能要求一般的场景。 支持TLS1.2及以上版本:WAF将自动拦截TLS1.0和TLS1.1协议的访问请求,适用于网站安全性能要求很高的场景。 自定义加密协议:WAF只允许所选TLS协议访问网站。 加密套件 配置说明: 全部加密套件:兼容性较高,安全性较低。 协议版本的自定义加密套件:请谨慎选择,避免影响业务。 WAF支持的加密套件及TLS协议版本详细信息请参见WAF支持的加密套件。 高级设置 > SSL解析方式 选择HTTPS后,支持配置SSL解析方式。支持“单向认证”和“双向认证”。 说明 国密证书暂不支持双向认证。 健康检查 开启健康检查将自动移除对失效源站的转发策略,当失效源站恢复健康后将重新加入转发列表。 开启后,还需配置健康检查策略。 代理情况 选择网站业务在接入WAF前是否开启了其他代理服务(例如DDoS高防、CDN等),按实际情况选择: 否:表示WAF收到的业务请求来自发起请求的客户端。WAF直接获取与WAF建立连接的IP作为客户端IP。 是:表示WAF收到的业务请求来自其他代理服务转发,而非直接来自发起请求的客户端。 为了保证WAF可以获取真实的客户端IP进行安全分析,需要进一步设置“源IP获取方式”。 源IP获取方式:系统默认设置为“从Socket连接中获取”,您也可按实际情况,创建一个有序的判定列表,系统将从列表的第一项开始查找,若不存在或者是非法的IP格式,则尝试下一条。 其中检测末项固定为“从Socket连接中获取”。获取方式列表最多可添加5条规则,可选项如下: 从Socket连接中获取 从XFowardedFor连接中获取倒数第x层代理 从HTTP头“XClientIP”中获取 负载均衡策略 当设置了多个源站服务器地址时,需设置多源站服务器间的负载均衡算法。可选项如下: 轮询:将所有请求轮流分配给不同的源站服务器。 IP Hash:将来自同一个IP的请求定向分配给同一个源站服务器。 加权轮询:根据同一组回源地址内配置的权重进行加权回源,权重越大,回源到该源站的几率越高。 设置生效后,WAF将根据设置的负载均衡算法向多个源站地址分发回源请求,实现负载均衡。 流量标记 开启流量标记功能,WAF在转发客户端请求到源站服务器时,通过在回源请求头部添加标记字段,标记该请求经过WAF转发,可以帮助源站判断请求来源。 如果请求中存在指定标记字段,则为WAF检测后的正常请求,放行该请求;如果请求中不存在指定标记字段,则为攻击者请求,拦截该请求。 单击“添加一个标记”,添加流量标记。最多支持添加5个标记字段。 支持如下标记类型: 自定义请求Header,配置自定义Header名、Header值。 客户端真实IP,配置客户端真实IP所在的HTTP Header名。 客户端真实源端口,配置客户端真实源端口所在的HTTP Header名。 注意 请勿填写标准的HTTP头部字段,否则会导致标准头部字段内容被自定义的字段值覆盖。 回源长连接 功能开启后,支持回源长连接功能,WAF独享版最大支持50000个回源长连接。 开启“回源长连接”后,还需配置“空闲连接超时时间”,默认值为10秒,最多支持60秒。 功能关闭后,将不支持WebSocket。 说明 当针对源站健康检查失败时,WAF会主动将失效的源站剔除回源列表,并将请求按照剩余站点权重比例/轮询转发至剩余健康站点,直至该源站恢复健康。 若回源列表中所有源站健康检查均失败了,为保障业务默认通路WAF将会强制回源至回源列表中顺序为第一个的站点。 源站响应超时切换时间公式:(检查间隔 + 响应超时时间) × 请求失败失效阈值。 源站恢复切换时间公式:(检查间隔 + 响应超时时间) × 失效后恢复健康阈值。 超时配置 开启超时配置,可以配置如下超时时间: 连接超时时间:WAF转发客户端请求时,与源站建立连接的超时时间。 读连接超时时间:WAF等待源站响应的超时时间。 写连接超时时间:WAF向源站发送请求的超时时间。 以上默认值均为60秒,最短支持10秒,最长支持1200秒。 备注 防护对象的描述信息,可以自定义。 6. 配置完成后单击“保存”,返回独享型接入页面。该网站的WAF防护开关默认开启。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        接入WAF
        网站接入WAF防护(独享型接入)
        添加防护对象
      • 使用V4签名时的HttpURLConnection开发
        本节主要介绍使用V4签名时的HttpURLConnection开发。 应用场景 V4签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 package cn.ctyun.oos.sample; import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.security.MessageDigest; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Collections; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import java.util.regex.Matcher; import java.util.regex.Pattern; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV4Signer { private static final SimpleDateFormat ISO8601DATEFORMAT new SimpleDateFormat("yyyyMMdd'T'HHmmss'Z'"); private static final SimpleDateFormat ISO8601DAYFORMAT new SimpleDateFormat("yyyyMMdd"); private static final char[] HEXCODE "0123456789abcdef".toCharArray(); private static final String UNSIGNEDPAYLOAD "UNSIGNEDPAYLOAD"; private static final String SCHEME "AWS4"; private static final String ALGORITHM "HMACSHA256"; private static final String TERMINATOR "aws4request"; private static final String HMACSHA256 "HmacSHA256"; private static final String OOSACCESSKEY "youraccesskey"; private static final String OOSSECRETKEY "yoursecretkey"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSBUCKET "your bucket name"; private static final String OOSOBJECTNAME "yourobjectname"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int DEFAULTTIMEOUT 30000; static { TimeZone utc TimeZone.getTimeZone("UTC"); ISO8601DATEFORMAT.setTimeZone(utc); ISO8601DAYFORMAT.setTimeZone(utc); } public static void main(String[] args) throws Exception { OOSDemoForV4Signer demo new OOSDemoForV4Signer(); demo.putObject(); demo.getObject(); demo.deleteObject(); } public void getObject() { try { HttpURLConnection connection generateConnection("GET", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if(responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void putObject() { try { HttpURLConnection connection generateConnection("PUT", OOSBUCKET, OOSOBJECTNAME); connection.setDoOutput(true); connection.connect(); // Create the object byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } // Execute the request and print the response int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject() { try { HttpURLConnection connection generateConnection("DELETE", OOSBUCKET, OOSOBJECTNAME); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } private HttpURLConnection generateConnection(String method, String bucket, String objectKey) throws Exception { String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, true); Map headers new HashMap<>(); // 1 加在headers里的所有头域,都参与计算签名。 // 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 // headers.put("xamzmetatest", "oos"); Map querys new HashMap (); URL url new URL(requestUrl); String authorization v4Sign(headers, querys, UNSIGNEDPAYLOAD, url, method); headers.put("Authorization", authorization); HttpURLConnection connection (HttpURLConnection)new URL(requestUrl).openConnection(); connection.setRequestMethod(method); connection.setConnectTimeout(DEFAULTTIMEOUT); connection.setReadTimeout(DEFAULTTIMEOUT); headers.forEach(connection::setRequestProperty); return connection; } / 以下是签名计算相关方法 / private String v4Sign(Map headers, Map queryParameters, String bodyHash, URL endpointUrl, String httpMethod) { String host endpointUrl.getHost(); String serviceName parseServiceName(host); String regionName parseRegionName(host); // first get the date and time for the subsequent request, and convert // to ISO 8601 format for use in signature generation Date now new Date(); String dateTimeStamp ISO8601DATEFORMAT.format(now); // update the headers with required 'xamzdate' and 'host' values if (headers null) { headers new HashMap (); } headers.put("xamzdate", dateTimeStamp); headers.put("xamzcontentsha256", bodyHash); int port endpointUrl.getPort(); if (port > 1 && port ! 80 && port ! 443) { host host.concat(":" + Integer.toString(port)); } headers.put("Host", host); // canonicalize the headers; we need the set of header names as well as the // names and values to go into the signature process String canonicalizedHeaderNames getCanonicalizeHeaderNames(headers); String canonicalizedHeaders getCanonicalizedHeaderString(headers); // if any query string parameters have been supplied, canonicalize them String canonicalizedQueryParameters getCanonicalizedQueryString(queryParameters); // canonicalize the various components of the request String canonicalRequest getCanonicalRequest(endpointUrl, httpMethod, canonicalizedQueryParameters, canonicalizedHeaderNames, canonicalizedHeaders, bodyHash); // construct the string to be signed String dateStamp ISO8601DAYFORMAT.format(now); String scope dateStamp + "/" + regionName + "/" + serviceName + "/" + TERMINATOR; String stringToSign getStringToSign(SCHEME, ALGORITHM, dateTimeStamp, scope, canonicalRequest); // compute the signing key byte[] kSigning createSignatureKey(OOSSECRETKEY, dateStamp, regionName, serviceName); byte[] signature sign(stringToSign, kSigning, HMACSHA256); String credentialsAuthorizationHeader "Credential" + OOSACCESSKEY + "/" + scope; String signedHeadersAuthorizationHeader "SignedHeaders" + canonicalizedHeaderNames; String signatureAuthorizationHeader "Signature" + toHex(signature); String authorizationHeader SCHEME + "" + ALGORITHM + " " + credentialsAuthorizationHeader + ", " signedHeadersAuthorizationHeader + ", " + signatureAuthorizationHeader; return authorizationHeader; } private String getCanonicalizedQueryString(Map parameters) { if (parameters null parameters.isEmpty()) { return ""; } SortedMap sorted new TreeMap (); Iterator > pairs parameters.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); String key pair.getKey(); String value pair.getValue(); sorted.put(urlEncode(key, false), urlEncode(value, false)); } StringBuilder builder new StringBuilder(); pairs sorted.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(pair.getKey()); builder.append(""); builder.append(pair.getValue()); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } private String getCanonicalizedHeaderString(Map headers) { if (headers null headers.isEmpty()) { return ""; } // step1: sort the headers by caseinsensitive order List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); // step2: form the canonical header:value entries in sorted order. // Multiple white spaces in the values should be compressed to a single // space. StringBuilder buffer new StringBuilder(); for (String key : sortedHeaders) { buffer.append(key.toLowerCase().replaceAll("s+", " ") + ":" + headers.get(key).replaceAll("s+", " ")); buffer.append("n"); } return buffer.toString(); } private String getCanonicalizeHeaderNames(Map headers) { List sortedHeaders new ArrayList (); sortedHeaders.addAll(headers.keySet()); Collections.sort(sortedHeaders, String.CASEINSENSITIVEORDER); StringBuilder buffer new StringBuilder(); for (String header : sortedHeaders) { if (buffer.length() > 0) buffer.append(";"); buffer.append(header.toLowerCase()); } return buffer.toString(); } private String getCanonicalRequest(URL endpoint, String httpMethod, String queryParameters, String canonicalizedHeaderNames, String canonicalizedHeaders, String bodyHash) { String canonicalRequest; if (bodyHash null bodyHash.equals("")) { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames; } else { canonicalRequest httpMethod + "n" + getCanonicalizedResourcePath(endpoint) + "n" + queryParameters "n" + canonicalizedHeaders + "n" + canonicalizedHeaderNames + "n" + bodyHash; } return canonicalRequest; } private String getStringToSign(String scheme, String algorithm, String dateTime, String scope, String canonicalRequest) { String stringToSign scheme + "" + algorithm + "n" + dateTime + "n" + scope + "n" + toHex(hash(canonicalRequest)); return stringToSign; } private byte[] createSignatureKey(String key, String dateStamp, String regionName, String serviceName) { byte[] kSecret (SCHEME + key).getBytes(); byte[] kDate sign(dateStamp, kSecret, HMACSHA256); byte[] kRegion sign(regionName, kDate, HMACSHA256); byte[] kService sign(serviceName, kRegion, HMACSHA256); byte[] kSigning sign(TERMINATOR, kService, HMACSHA256); return kSigning; } private byte[] sign(String stringData, byte[] key, String algorithm) { try { byte[] data stringData.getBytes("UTF8"); Mac mac Mac.getInstance(algorithm); mac.init(new SecretKeySpec(key, algorithm)); return mac.doFinal(data); } catch (Exception e) { throw new RuntimeException("Unable to calculate a request signature: " + e.getMessage(), e); } } private String getCanonicalizedResourcePath(URL endpoint) { if (endpoint null) { return "/"; } String path endpoint.getPath(); if (path null path.isEmpty()) { return "/"; } // String encodedPath urlEncode(path, true); String encodedPath path; if (encodedPath.startsWith("/")) { return encodedPath; } else { return "/".concat(encodedPath); } } private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, "UTF8"); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { encoded encoded.replace("%2F", "/"); } return encoded; } private String toHex(byte[] data) { StringBuilder r new StringBuilder(data.length 2); for (byte b : data) { r.append(HEXCODE[(b >> 4) & 0xF]); r.append(HEXCODE[(b & 0xF)]); } return r.toString(); } private byte[] hash(String text) { try { MessageDigest md MessageDigest.getInstance("SHA256"); md.reset(); md.update(text.getBytes("UTF8")); return md.digest(); } catch (Exception e) { throw new RuntimeException("Unable to compute hash while signing request: " + e.getMessage(), e); } } private String parseRegionName(String host) { String pattern "oos([w]).ctyunapi.cn$"; Pattern r Pattern.compile(pattern); Matcher m r.matcher(host); if (m.find()) { return m.group(1).toLowerCase(); } else { throw new RuntimeException("parse region error, please check endpoint."); } } private String parseServiceName(String host) { if (host.endsWith("iam.ctyunapi.cn")) { return "sts"; } else { return "s3"; } } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V4签名时的HttpURLConnection开发
      • 约束与限制
        本章节主要介绍数据治理中心的约束与限制。 浏览器限制 您需要使用支持的浏览器版本登录DataArts Studio。 表1 浏览器兼容性 浏览器版本 建议版本 建议操作系统 备注 Google Chrome 115,114,113 Windows 10 分辨率最佳可视范围为最小1366768px,最大为19201080px。其中19201080px为最佳显示分辨率,界面自适应为最优显示。 使用限制 使用DataArts Studio前,您需要认真阅读并了解以下使用限制。 表2 DataArts Studio使用限制一览表 组件 约束限制 公共 DataArts Studio基于数据湖底座提供数据一站式集成、开发、治理等能力,本身不具备存储和计算的能力,需要配合数据湖底座使用。 每个企业项目下最多绑定一个DataArts Studio实例。当企业项目下已绑定实例时,再次创建实例会失败。 DataArts Studio各组件对不同数据源的支持程度不一,您需要按照您的业务需求来选择数据湖底座。DataArts Studio平台当前支持的数据湖产品请参见“DataArts Studio用户指南 > 管理中心 > DataArts Studio支持的数据源”。 管理中心 由于管理中心的限制,数据治理各组件(如数据架构、数据质量、数据目录等)暂不支持包含中文和“.”字符的库表名。 建议为管理中心数据连接的Agent和CDM迁移作业规划相互独立的CDM集群,避免双方使用同一集群,导致业务高峰期时资源抢占引起业务不可用。 CDM集群作为管理中心数据连接Agent时,单集群无法连接多个MRS安全集群。建议您按照业务情况规划多个Agent与MRS安全集群一一映射。 CDM集群作为管理中心数据连接Agent时,单集群的并发活动线程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 单工作空间允许创建的数据连接个数最多200个。 管理中心相关开放API并发限制为100qps。 数据集成 CDM作业支持自动备份和恢复,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据集成 > 管理作业 > 作业配置管理”章节。 CDM作业本身无配额限制,但建议作业数不超过CDM集群的vCPU核数2,否则作业运行性能可能会受到一定影响。 数据集成CDM集群为单集群部署,集群故障可能会导致业务、数据损失。建议您使用数据开发作业CDM Job节点调用CDM作业,并选择两个CDM集群以提升可靠性。详情请参见用户指南中“数据开发 > 节点参考 > CDM Job”章节。 当所连接的数据源发生变化(如MRS集群扩容等情况)时,您需要重新编辑并保存该连接。 在驱动更新场景下,上传驱动后必须在CDM集群列表中重启集群才能更新生效。 单作业的抽取并发数取值范围为1300,集群的总抽取并发数取值范围为11000。其中集群最大抽取并发数的设置与CDM集群规格有关,并发数上限建议配置为vCPU核数2,作业的抽取并发数建议不超过集群的总抽取并发数,过高的并发数可能导致内存溢出,请谨慎修改。 关于数据集成中的更多约束限制,请参考用户指南中“数据集成> 约束与限制”章节。 数据开发 数据开发脚本、作业等资产支持备份管理,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据开发 > 运维调度 > 备份管理”章节。 脚本、作业或节点的历史运行记录依赖于OBS桶,如果未配置测试运行历史OBS桶,则无法查看历史运行的详细信息。 上传资源时,如果资源位置为HDFS,则只支持MRS Spark,MRS Flink Job,MRS MapReduce节点使用该资源。 单工作空间允许创建的脚本个数最多1万个,脚本目录最多5000个,目录层级最多为10层。 单工作空间允许创建的作业个数最多1万个,作业目录最多5000个,目录层级最多为10层。 RDS SQL、DWS SQL、HIVE SQL、SPARK SQL、DLI SQL脚本执行结果页面展示最多1千条,且数据量少于3MB。超过1千条数据可以使用转储功能,转储最多支持1万条。 实例监控、补数据监控只能展示最近6个月的数据。 通知记录只能展示最近30天的数据。 下载中心的下载记录会每7天做老化处理,老化时下载中心记录和已转储的OBS数据会同时被删除。 数据架构 数据架构当前支持关系建模和维度建模(仅支持星形模型)这两种建模方式。 数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 码表和数据标准的根目录下禁止直接创建码表和数据标准。 单工作空间中创建各类对象的配额如下: l主题5000个。 l数据标准目录500条,个数20000个。 l业务指标100000个。 l原子指标、衍生指标、复合指标各5000条。 配置中心中各类对象的自定义项配额如下: l主题自定义项10条。 l表自定义项30条。 l属性自定义项10条。 l业务指标自定义项50条。 数据质量 数据质量作业执行时长依赖数据引擎,如果底层数据引擎资源不足,可能会导致运行速度变慢。 单个数据质量作业最多可以配置50条规则,如有需要可拆分为多个质量作业。 单个数据连接上的质量作业关联SQL的并发数默认为1000,如果超出则等待排队执行。可配置范围101000。 单Region内的质量作业关联SQL的并发数为10000,如果超出则等待排队执行。 业务指标监控模块总览中的实例运行状态和实例告警状态支持按照7天展示,告警趋势、业务看板、指标看板支持按照7天、15天和30天展示。 数据质量监控模块总览中的变化趋势支持按照30天展示,质量告警分类趋势和规则数量趋势支持按照7天展示。 质量报告采用T+1日定时批量生成,质量报告数据保留90天。 导出质量报告至OBS,会将质量报告导出到工作空间中配置的作业日志OBS路径中,导出记录保留3个月。 数据目录 单工作空间中元数据采集任务最多创建100个。 元数据采集任务通过执行引擎相关的DDL SQL获取,不建议单个任务采集超过1000张表。如有需要可拆分为多个采集任务,另外调度时间和频次也需要根据业务需要进行合理设置,避免对引擎造成较大的访问和连接压力,设置建议如下: l若业务对元数据时效性要求为1天,则设置调度周期max(1天,单次采集周期时间),其他情况同理。 l若业务压力集中在白天,则设置调度时间在夜间,其他情况同理,选择数据源压力最小的时间段。 数据血缘的产生依赖于数据开发中调度运行的作业,测试运行的作业不会产生血缘。 元数据采集模块总览中的数据连接历史统计支持按照7天、15天和30天展示。 数据服务 数据服务共享版仅供开发测试使用,专享版性能优于共享版,推荐使用数据服务专享版。 DataArts Studio实例下最多支持创建5个数据服务专享版集群,且集群需要与某个工作空间绑定,不能多空间共用同一集群。 数据服务专享版集群创建后暂不支持修改规格或升级版本。 DataArts Studio实例下支持创建的专享版API最大数量由数据服务专享版API总分配配额(默认为5000)和当前实例下集群的API规格总和共同决定,取较小的作为限制。例如,某DataArts Studio实例下的数据服务专享版API总分配配额为5000,已分别创建了API规格为500和2000的两个集群,则当前实例下支持创建的专享版API最大数量为2500。 单工作空间下支持创建的专享版API最大数量由数据服务专享版API已分配配额(通过编辑工作空间信息分配)和当前空间下集群的API规格总和共同决定,取较小的作为限制。例如,某工作空间下的数据服务专享版API已分配配额为800,当前工作空间下已创建了API规格为500的两个集群,则当前工作空间下支持创建的专享版API最大数量为800。 单工作空间下支持创建的应用数量为1000。 单工作空间下支持创建的流控策略数量为500。 数据服务支持跟踪并保存事件。对于每个事件,数据服务会报告事件发生日期、说明、时间源(某个集群)等信息,事件保存时长为30天。 数据服务专享版日志信息仅查询集群最近100条访问记录,均分至集群全部所属节点中获取。 总览中的调用趋势、发布趋势、调用比率 top5、调用时间 top5和调用次数 top5支持按照近12小时、近1天、近7天和近30天展示,总调用数为前7天数据总和(不含当天)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        约束与限制
      • 后端主机
        是否支持添加端口号不一致的后端主机? 支持。为弹性负载均衡的添加后端主机时,您可以为每个独立的指定每个后端主机的端口号。不同后端主机之间端口号可以相同也可以不同,也可以根据需要调整后端主机的端口号。修改后端主机的端口号请参考 修改后端主机端口和权重。 弹性负载均衡是否支持添加不同操作系统的云主机? 支持,弹性负载均衡本身不会限制后端云主机的操作系统,只需确保两台云主机上的应用服务部署相同且数据一致即可。然而,我们建议您选择两台操作系统相同的云主机进行配置,以方便以后的管理和维护。 弹性负载均衡是否支持跨AZ的后端云主机? 支持。可以同时将同一VPC内的有不同可用区属性的云主机加入同一个后端主机组。可用区资源池类型的资源池有多个可用区,具体可参考 资源池区别。 在可用区资源池为负载均衡配置跨可用区的后端主机,可以实现业务的跨可用区容灾。当一个可用区内的云主机全部发生异常无法提供服务时,如果有其他可用区可正常承载服务的后端主机时,负载均衡可将流量分发至剩余的正常的后端主机保障业务正常。 弹性负载均衡可以只绑定一台云主机上使用吗? 可以,但是仅一台云主机无法做到负载均衡,建议使用两台以上云主机作为后端主机。通过配置调度算法和后端主机权重,实现业务流量在多台云主机之间均衡负载。 后端主机的权重用于指定负载均衡器在将请求分发给后端主机时所采用的权重比例。通过为每个后端主机设置不同的权重,可以实现对主机资源的分配控制和负载均衡策略的调整。 天翼云负载均衡支持的算法会根据后端主机的权重比例,决定将多少流量分发给每个后端主机,具体如下: 调度算法 权重 算法策略 轮询 调度算法权重算法策略轮询权重取值范围为[1,256] 根据后端主机的权重, 将流量按照顺序逐个分发给后端主机,每台主机依次接收请求,实现流量均衡。相应的权重表示后端主机的处理性能, 常用于短连接服务。 最小连接 权重取值范围为[1,256] 将流量分发给当前连接数最少的主机,以确保负载较小的主机能够处理更多的请求。加权最小连接即根据主机的权重和当前连接数来分发流量,常用于长连接服务。 源算法 在非0的权重下,由于使用了源算法,各个后端主机的权重属性将不再生效 将请求的源IP地址进行Hash运算,得到一个具体的数值,同时对后端主机进行编号,按照运算结果将请求分发到对应编号的主机上。这可以使得对不同源IP的访问进行负载分发,同时使得同一个客户端IP的请求始终被派发至某特定的主机。 通过调整后端服务器的权重,您可以根据服务器的性能、处理能力或其他因素,合理分配请求流量。较高权重的主机将处理更多的请求,而较低权重的主机将处理较少的请求,从而实现负载均衡和资源优化。
        来自:
        帮助文档
        弹性负载均衡 ELB
        常见问题
        后端主机
      • 数据迁移
        本节介绍了如何使用mysqldump工具迁移云数据库TaurusDB。 使用mysqldump迁移TaurusDB数据 注意 对于mysqlpump工具,由于在并行备份场景有coredump问题,不建议您使用,推荐您使用mysqldump工具迁移。 迁移准备 TaurusDB支持开启公网访问功能,通过弹性IP进行访问。您也可通过弹性云主机的内网访问TaurusDB。 1. 准备弹性云主机或可通过公网访问TaurusDB。 1. 通过弹性云主机连接TaurusDB数据库实例,需要创建一台弹性云主机。创建并登录弹性云主机,请参见《弹性云主机用户指南》中“创建弹性云主机”和“登录弹性云主机”。 2. 通过公网地址连接TaurusDB数据库实例,需具备以下条件。 1. 先对TaurusDB数据库实例绑定公网地址。 2. 保证本地设备可以访问TaurusDB数据库实例绑定的公网地址。 2. 在准备的弹性云主机或可访问TaurusDB数据库的设备上,安装MySQL客户端。 如何获取相应安装包及完成安装,请参见如何安装MySQL客户端。 说明 该弹性云主机或可访问TaurusDB数据库的设备需要安装和TaurusDB数据库服务端相同版本或更高版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 导出数据 要将源数据库迁移到TaurusDB数据库,需要先对其进行导出。 注意 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 步骤 1 登录已准备的弹性云主机,或可访问TaurusDB数据库的设备。 步骤 2 使用mysqldump将元数据导出至SQL文件。 注意 MySQL数据库是TaurusDB数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ] [ ] [^ ] / /' e 's/DEFINER[ ]. FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases gaussdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.xx.xx.xx P 3306 sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > dumpdefs.sql Enter password: 命令执行完会生成“dumpdefs.sql”文件。 步骤 3 使用mysqldump将数据导出至SQL文件。 注意 MySQL数据库是TaurusDB数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u p h P r 以上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases gaussdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.xx.xx.xx P 3306 r dumpdata.sql 命令执行完会生成“dumpdata.sql”文件。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        数据迁移
      • PUT Object - Copy
        本节主要介绍PUT ObjectCopy。 此操作用来创建一个存储在OOS里的文件拷贝。类似于执行一个GET,然后再执行一次PUT。要执行拷贝请求,用户需要对源文件有读权限,对目标Bucket有写权限。 注意 当OOS接收到请求或者正在执行拷贝操作时,拷贝操作可能会返回失败。如果在拷贝操作开始之前出现异常,OOS返回标准的错误信息。如果在拷贝操作过程中出现异常,由于200 OK状态码是先返回的,这意味着200 OK响应体可能包含成功或错误。请在客户端应用程序中解析响应体的内容并进行适当处理。 请求语法 plaintext PUT /destinationObject HTTP/1.1 Host: destinationBucket.ooscn.ctyunapi.cn xamzcopysource: /sourcebucket/sourceObject xamzmetadatadirective: metadatadirective xamzcopysourceifmatch: etag xamzcopysourceifnonematch: etag xamzcopysourceifunmodifiedsince: timestamp xamzcopysourceifmodifiedsince: timestamp xamzmetaparamater: value Authorization: SignatureValue Date: date 请求头 名称 描述 是否必须 xamzcopysource 源Bucket和文件的名称,用斜杠(/)分割。 类型:字符串。 是 xamzmetadatadirective 指明元数据是源文件的拷贝或者元数据被请求头提供的元数据覆盖。 类型:字符串。 取值: COPY:除存储类型(xamzstorageclass)、数据位置(xctyundatalocation)外的其他元数据保持不变,拷贝源文件的元数据。 REPLACE:所有原始元数据都被指定的元数据覆盖。 默认值为COPY。 注意 如果取值为COPY,源文件和目的文件相同,则必须携带xamzstorageclass,否则不能拷贝,返回400错误码。 否 xamzcopysourceifmatch 只有当源文件的Etag与给定Etag匹配时,才能执行文件拷贝操作,否则返回412 HTTP状态码错误。 类型:字符串。 否 xamzcopysourceifnonematch 只有当源文件的Etag与给定Etag不匹配时,才能执行文件拷贝操作,否则返回412 HTTP状态码错误。 类型:字符串。 否 xamzcopysourceifunmodifiedsince 只有源文件在指定时间点之后没有修改,才执行文件拷贝操作,否则返回412错误。 类型:字符串。 取值:格式为EEE, d MMM yyyy HH:mm:ss 'GMT'。 否 xamzcopysourceifmodifiedsince 只有源文件在指定时间点之后修改过,才执行文件拷贝操作,否则返回412错误。 类型:字符串。 取值:格式为EEE, d MMM yyyy HH:mm:ss 'GMT'。 否 xamzstorageclass 目标文件的存储类型。 类型:字符串。 取值: STANDARD:标准存储。 STANDARDIA:低频访问存储 默认值为STANDARD。 否 xctyundatalocation 目标文件的数据位置。 注意 香港节点不支持此参数。 类型:字符串。 取值: 格式为:typeLocal,scheduleStrategyscheduleStrategy 或者typeSpecified,locationlocation ,scheduleStrategyscheduleStrategy type:指定数据存储位置的类型,取值为Local或者Specified。Local表示就近写入,Specified表示指定位置。如果type取值为Specified,则需要指定具体的数据位置location,location可以填写多个,以逗号分隔: 对于对象存储网络,可取值为:ChengDu、GuiYang、LanZhou、QingDao、SH2、ShenYang、ShenZhen、SuZhou、WuHan、WuHu、WuLuMuQi、ZhengZhou。 对于对象存储网络2,可取值为:NeiMeng1、HangZhou1。 scheduleStrategy:调度策略,取值为: Allowed:允许OOS自动调度数据存储位置。 NotAllowed:不允许OOS自动调度数据存储位置。 否 xamzmetaparamater 用户自定义的元数据,用户可以根据需要,自定义一些元数据的参数。 类型:字符串。 否
        来自:
        帮助文档
        对象存储(经典版)I型
        API参考
        存储桶(Bucket)和文件(Object)
        关于Object的操作
        PUT Object - Copy
      • 创建RocketMQ实例
        本章节介绍了如何创建和运行一个分布式消息服务RocketMQ的实例。 本章节以在“广州4”创建一个开启SSL的RocketMQ 实例为例,介绍如何在控制台创建RocketMQ 实例。 前提条件 在创建RocketMQ实例前,需要保证存在可使用的虚拟私有云和安全组。如果还没有,请参考准备环境创建。 为RocketMQ授权 如果RocketMQ实例需要开启IPv6功能,在创建RocketMQ实例前,需要为RocketMQ授予VPC终端节点操作权限,否则会导致创建失败。 在IAM控制台创建委托,委托参数如下,其他参数保持默认,创建委托的具体步骤请参见《统一身份认证服务 用户指南》的“委托 > 委托其他云服务管理资源”章节。 委托名称:dmsadmintrust 委托类型:云服务 云服务:分布式消息服务 持续时间:永久 委托将拥有所选策略:DMS VPCEndpointAccess、DMSAgencyCheckAccessPolicy 选择授权范围方案如下: DMS VPCEndpointAccess:指定区域项目资源 DMSAgencyCheckAccessPolicy:所有资源 操作步骤 1. 进入购买RocketMQ实例页面。 2. “计费模式”选择“按需计费”。 3. 在“区域”下拉列表中,选择靠近您应用程序的区域,可降低网络延时、提高访问速度。 4. 在“项目”下拉列表中,选择项目。 5. 在“可用区”区域,根据实际情况选择1个或者3个及以上可用区。 6. 设置“实例名称”和“企业项目”。 7. 设置实例信息,配置详情请参考表1。 表1 设置实例信息 参数 配置说明 规格选择模式 选择“默认” 版本 可选择“5.x、4.8.0” RocketMQ实例创建后,版本号不支持修改。 实例类型 5.x版本提供基础版、专业版两种类型 部署架构 5.x版本支持“单机”和“集群” 4.8.0支持“集群” 鲲鹏实例 “创建鲲鹏架构实例”选框,默认不勾选是X86架构的实例,勾选之后是ARM架构的鲲鹏实例。 代理规格 选择“rocketmq.4u8g.cluster” 代理数量 选择“1” 代理存储空间 选择“超高I/O 300GB” 实例总存储空间 单个代理的存储空间 代理数量 8. 设置实例网络环境信息,配置详情请参考表2。 参数 配置说明 虚拟私有云 选择已经创建好的虚拟私有云和子网。 虚拟私有云和子网在RocketMQ实例创建完成后,不支持修改。 IPv6 仅当子网选择了支持IPv6地址后,才会显示该参数。开启IPv6后,客户端可以使用IPv6的内网连接地址连接实例。 实例创建成功后,不支持修改IPv6开关。 使用内网IPv6方式连接实例需要通过VPC终端节点实现,使用期间会产生VPC终端节点的费用。 安全组 选择已经创建好的安全组。 SSL 开启 ACL访问控制 开启 9. 单击“更多配置”,设置更多相关信息,配置详情请参考表3。 表3 更多配置 参数 配置说明 公网访问 不开启 标签 不设置 描述 不设置 10. 填写完上述信息后,单击“立即购买”,进入规格确认页面。 11. 确认实例信息无误后,提交请求。 12. 在实例列表页面,查看RocketMQ实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 当实例的“状态”变为“创建失败”,请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        创建RocketMQ实例
      • 操作指导
        功能 描述 首页 资产总量分布 统计资产总数及不同类型资产数目及占比。 统计主机风险资产、网站风险资产占比(风险等级非信息类资产)。 首页 弱点总量分布 统计当前发现的所有弱点数及根据不同弱点类型统计弱点数目。 首页 资产风险分布 从不同风险等级维度统计风险资产数量。 首页 风险主机TOP5 根据风险主机弱点数,列出风险数最多的5个主机资产。 首页 风险网站TOP5 根据风险网站的弱点数,列出风险数最多的5个网站资产。 首页 主机资风险/服务分布 统计主机资产出现次数最多的10个弱点、漏洞风险、服务类型、端口。 首页 网站资产风险/服务分布 统计网站资产出现次数最多的10个弱点、漏洞风险、服务类型。 首页 弱点发现趋势 按时间展示弱点的趋势状态,弱点的数据包括所有扫描类型的数据(不包含信息类漏洞)。 资产管理 资产列表 支持主机资产、网站资产两种类型。 支持新增、导入、导出、删除、编辑资产。 支持按照组织视角展示资产。 资产管理 授权管理 支持主机授权信息管理。 支数据库授信息管理。 任务管理 创建任务 支持创建通用任务、专项任务。 通用任务支持主机扫描、网站扫描、数据库扫描、基线配置核查、事件内容。 专项任务支持弱口令扫描、存活主机探测、大数据漏洞扫描、物联网漏洞扫描、信创漏洞扫描。 任务管理 任务列表 支持查看已下发的所有扫描任务,可对任务进行集中管理,包括查询任务、新增任务、执行任务等。 模板中心 漏洞模板 支持主机策略、网站策略、数据库策略管理。 支持新增、编辑、另存为、删除、查看策略。 支持使用自定义策略下发扫描任务。 模板中心 基线模板 支持工信部、公安部行业基线核查模板。 支持对应用程序、操作系统、网络设备、虚拟化设备、数据库五类资产的安全配置进行核查。 支持查看基线模板详情。 模板中心 扫描参数 支持设置主机扫描、网站扫描高级参数模板。 可根据需要设置与恢复默认扫描参数配置。 模板中心 字典模板 主机扫描和弱口令发现任务中引用的各协议弱口令字典。可自定义弱口令字典。 模板中心 报告模板 根据不同任务类型,设置离线报告导出的内容。 支持设置主机扫描报告、网站扫描报告、数据库扫描报告、基线核查报告、事件内容报告。 支持系统默认模板及自定义报告内容模板。 模板中心 端口列表 系统默认提供的端口列表模板。 报告管理 报告管理 支持对已扫描完成的任务导出离线报告。 支持对已导出报告进行下载。 系统管理 用户管理 支持角色管理及用户管理。 支持新增角色、编辑角色、删除角色。 支持新增用户,并指定用户角色。 系统管理 系统设置 提供系统服务、升级、数据备份等管理功能。 支持在线升级和离线升级。 支持系统SSH服务开启、系统重启、系统关闭、网卡重启操作。 支持设置系统时间。 支持根据需要备份系统数据。 系统管理 配置管理 提供网络配置、安全配置、告警配置、版权配置功能。 支持网卡设置、路由配置、DNS配置、网关配置。 支持密码安全复杂度、登录安全设置、超时设置、磁盘告警设置、多因子认证设置。 支持验证码登录、认证证书登录、用户名密码登录。 系统管理 引擎管理 支持对系统各个引擎状态进行查看与监控。 系统管理 常用工具 支持Ping、Traceroute、Dig、Telnet、SSH、CURL、Nmap命令工具。 系统管理 许可管理 支持查看许可授权内容及更新许可。
        来自:
        帮助文档
        云等保专区
        用户指南
        漏洞扫描
        操作指导
      • 功能特性
        告警名称 威胁告警说明 DDoS “实时检测”互联网主机的DDoS攻击。 共支持检测100+种子类型DDoS威胁。 网络层攻击 NTP Flood攻击、CC攻击等。 传输层攻击 SYN Flood攻击、ACK Flood攻击等。 会话层攻击 SSL连接攻击等。 应用层攻击 HTTP Get Flood攻击、HTTP Post Flood攻击等。 暴力破解 “实时检测”入侵资产的行为和主机资产内部的风险,检测SSH、RDP、FTP、SQL Server、MySQL等账户是否遭受的口令破解攻击,以及检测资产账户是否被破解异常登录。 共支持检测22种子类型的暴力破解威胁。 支持检测的暴力破解威胁 包括SSH暴力破解(2种)、RDP暴力破解、MSSQL暴力破解、MySQL暴力破解、FTP暴力破解、SMB暴力破解(3种)、HTTP暴力破解(4种)、Telnet暴力破解。 接入的HSS服务上报的告警事件 包括SSH暴力破解、RDP暴力破解、FTP暴力破解、MySQL暴力破解、IRC暴力破解、Webmin暴力破解、其他端口被暴力破解、系统被成功爆破事件。 Web攻击 “实时检测”Web恶意扫描器、IP、网马等威胁。 共支持检测38种子类型的Web攻击威胁。 支持检测的Web攻击威胁 包括Webshell攻击(3种)、跨站脚本攻击、代码注入攻击(7种)、SQL注入攻击(9种)、命令注入攻击。 接入的HSS服务上报的告警事件 包括Webshell攻击、Linux网页篡改、Windows网页篡改。 接入的WAF服务上报的告警事件 包括跨站脚本攻击、命令注入攻击、SQL注入攻击、目录遍历攻击、本地文件包含、远程文件包含、远程代码执行、网站后门、网站信息泄露、漏洞攻击、IP信誉库、恶意爬虫、网页防篡改、网页防爬虫。 后门木马 “实时检测”资产系统是否存在后门木马风险,以及被后门木马程序入侵后的恶意请求行为。 共支持检测5种子类型的后门木马威胁。 检测主机资产上Web目录中的PHP、JSP等后门木马文件类型。 检测资产被植入木马特性 检测内容包括资产系统存在win32/ramnit checkin木马、被入侵后执行wannacry勒索病毒相关的DNS解析请求、被入侵后尝试下载木马程序,被入侵后访问HFS下载服务器等。 僵尸主机 “实时检测”资产被入侵后对外发起攻击的威胁。 共支持检测7种子类型的僵尸主机威胁。 对外发起SSH暴力破解 对外发起RDP暴力破解 对外发起Web暴力破解 对外发起MySQL暴力破解 对外发起SQLServer暴力破解 对外发起DDoS攻击 被入侵后安装挖矿程序 异常行为 “实时检测”资产系统异常变更和操作行为。 共支持检测21种子类型的异常行为威胁。 支持检测的异常行为威胁 包括文件系统被扫描、CMS V1.0漏洞、敏感文件被访问。 接入的HSS服务上报的告警事件 包括系统成功登录审计事件、文件目录变更监测事件、混杂模式网卡、异常权限用户、反弹Shell、异常Shell、高危命令执行、异常自启动、文件提权、进程提权、Rootkit程序。 接入的WAF服务上报的告警事件 包括自定义规则、白名单、黑名单、地理访问控制、扫描器爬虫、IP黑白名单、非法访问。 漏洞攻击 “实时检测”资产被尝试使用漏洞进行攻击。 共支持检测2种子类型的漏洞攻击威胁。 WebCMS漏洞攻击 命令控制 “实时检测”资产可能被命令与控制服务器(C&C,Command and Control Server)远程控制,访问与恶意软件或建立与恶意软件之间的链接。 共支持检测3种子类型的命令控制威胁。 监控主机存在访问DGA域名行为 监控主机存在访问恶意C&C域名行为 监控主机存在恶意C&C通道行为
        来自:
        帮助文档
        态势感知(专业版)
        产品介绍
        功能特性
      • 新建对账作业
        本章节主要介绍新建对账作业操作。 数据对账对于数据开发和数据迁移流程中的数据一致性至关重要,而跨源数据对账的能力是检验数据迁移或数据加工前后是否一致的关键指标。 数据质量监控中的对账作业支持跨源数据对账能力,可将创建的规则应用到两张表中进行质量监控,并输出对账结果。 前提条件 在DataArts Studio控制台的数据质量模块,“数据质量监控 > 对账作业”页面创建归属目录。基于某个数据连接创建对账作业,需要选择作业归属目录,请参见下图创建归属目录。 下表是目录导航栏按键说明 序号 说明 1 新建目录 2 刷新目录 3 选择目录,单击右键,可新建目录、删除目录和对目录重命名。 创建作业 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据质量”模块,进入数据质量页面。 2.选择“数据质量监控 > 对账作业”。 3.单击“新建”,在弹出的对话框中,参见下表配置相关参数。 参数名 说明 作业名称 对账作业的名称,只能包含中文、英文字母、数字、“”,且长度为1~64个字符。 描述 为更好的识别数据对账作业 ,此处加以描述信息。描述信息长度不能超过256个字符。 所属目录 数据对账作业的存储目录,可选择已创建的目录。 作业级别 支持提示,一般,严重和致命四种级别,作业级别决定发出通知消息的模板样式。 4.单击“下一步”,进入规则配置页面。您需要点击规则下图中红框内按钮,然后参见以下表“配置模板规则”配置数据对账规则。您也可选择添加对账规则。 打开对账作业规则配置 配置模板规则 模块 参数名 说明 基本信息 子作业名称 在作业的执行结果中,每条规则对应一个子作业。为便于结果查看和日志定位,建议您补充子作业信息。 基本信息 描述 为更好的识别子作业,此处加以描述信息。 来源对象/目的对象 规则类型 来源对象的“规则类型”包括“表级规则”,“字段级规则”和“自定义规则”。字段级规则可针对表中的具体字段配置监控规则。此处选择为表级规则,页面中其他设置项对应为表级规则配置项。 目的对象的“规则类型”由来源对象的规则类型自动生成。 来源对象/目的对象 数据连接 来源对象/目的对象支持的数据源类型:DWS,MRS Hive,DLI,ORACLE、RDS(MySQL、PostgreSQL)。 从下拉列表中选择已创建的数据连接。 说明 规则都是基于数据连接的,所以在建立数据质量规则之前需要先到管理中心模块中建立数据连接。 针对通过代理连接的MRS HIVE,需要选择MRS API方式或者代理方式提交: MRS API方式:通过MRS API的方式提交。历史作业默认是MRS API提交,编辑作业时建议不修改。 代理方式:通过用户名、密码访问的方式提交。新建作业建议选择代理提交,可以避免权限问题导致的作业提交失败。 来源对象/目的对象 数据对象 在来源对象选择的数据表将和右侧目的对象的数据表做结果比较。选择配置的数据对账规则所应用到的表。 说明 数据表与数据库强相关,基于已选择的数据库。数据库基于已建立的数据连接。 来源对象/目的对象 SQL 当“规则类型”选择“自定义规则”时,需要配置该参数。此处需输入完整的SQL语句,定义如何对数据对象进行数据质量监控。 计算引擎 集群名称 选择运行对账作业的引擎。仅数据连接为DLI类型时,此参数有效。 规则模板 模板名称 该参数定义如何对数据对象做数据质量监控。 来源对象的模板名称包含内置的规则模板和用户自定义的规则模板。 目的对象的“模板名称”由来源对象的规则类型自动生成。 说明 模板类型与规则类型强相关,详情请参见新建规则模板章节中的 系统内置的规则模板一览表。除去系统内置规则模板外,您也可关联在新建规则模板中新建的自定义模板。 规则模板 版本 仅“模板名称”选择为自定义的规则模板时,需要配置该参数。自定义的规则模板发布后,会产生对应的版本号,此处选择所需的版本。 计算范围 选择扫描区域 支持选择“全表扫描”或“条件扫描”,默认为全表扫描。 当仅需计算一部分数据,或需周期性按时间戳运行质量作业时,建议通过设置where条件进行条件扫描。 计算范围 where条件 输入where子句,系统会选择符合条件的数据进行扫描。 例如需要筛选数据表中“age”字段在(18, 60]区间范围内的数据时,where条件可设置为如下内容: age > 18 and age (datetrunc('hour', now()) interval '24 h') and time :大于 :大于等于 :大于 :大于等于 <:小于等于 !:非 ll:或 &&:与 例如,“规则模板”为“表行数”,需要配置来源侧表行数小于100或来源侧表行数不等于目的侧表行数时告警,则此处可设置为“(${11}<100)(${11}!${21})”,其中“${11}”和“${21}”分别为通过告警参数配置的来源侧表和目的侧表的“总行数”,“”表示满足两个条件之一即会告警。 5.单击“下一步”,设置订阅配置信息,如果需要接收SMN通知,打开通知状态,选择通知类型和SMN服务主体,如下图。 订阅配置 6.单击“下一步”,选择调度方式,支持单次调度和周期调度两种方式,周期调度的相关参数配置请参见下表“配置周期调度参数”。配置完成后单击“提交”。 说明 1. 单次调度会产生手动任务的实例,手动任务的特点是没有调度依赖,只需要手动触发即可。 2. 周期调度会产生周期实例,周期实例是周期任务达到启用调度所配置的周期性运行时间时,被自动调度起来的实例快照。 3. 周期任务每调度一次,便生成一个实例工作流。您可以对已调度起的实例任务进行日常的运维管理,如查看运行状态,对任务进行终止、重跑等操作。 4. 只有支持委托提交作业的MRS集群,才支持对账作业周期调度。支持委托方式提交作业的MRS集群有: MRS的非安全集群。 MRS的安全集群,集群版本大于 2.1.0,并且安装了MRS 2.1.0.1以上的补丁。 配置周期调度参数 参数名 说明 生效日期 调度任务的生效日期。 调度周期 选择调度任务的执行周期,并配置相关参数。 分钟 小时 天 周 说明 调度周期选择分钟/小时,需配置调度的开始时间、间隔时间和结束时间。 调度周期选择天,需要配置调度时间,即确定了调度任务于每天的几时几分启用。 调度周期选择周,需要配置生效时间和调度时间,即确定了调度任务于周几的几时几分启用。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        数据质量监控
        新建对账作业
      • 管理工作负载和任务
        操作场景 工作负载创建后,您可以对其执行伸缩、升级、编辑YAML、日志、监控、回退、删除等操作。 日志 您可以通过“日志”功能查看无状态工作负载、有状态工作负载、守护进程集、普通任务的日志信息。本文以无状态工作负载为例说明如何查看日志。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击工作负载后的“日志”。 在弹出的“日志”窗口中可以查看最近5分钟、最近30分钟、最近1小时内的日志信息。 升级 基于CCE,您可以通过更换镜像或镜像版本实现无状态工作负载、有状态工作负载、守护进程集的快速升级,业务无中断。本节以无状态工作负载为例说明如何进行升级。 若需要更换镜像或镜像版本,您需要提前将镜像上传到容器镜像服务。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”,单击待升级工作负载后的“升级”。 说明:有状态工作负载升级时,若升级类型为替换升级,需要用户手动删除实例后才能升级成功,否则界面会始终显示“升级中”。 步骤 2 请根据业务需求进行工作负载的升级。 镜像名称:单击“更换镜像”,选择新的镜像。 镜像版本:在镜像版本后的下拉框中选择对应版本。 容器名称: 单击容器名称后的,修改容器名称。 特权容器:开启后,容器将可以访问主机上的所有设备。 容器规格:可分别设置CPU配额、内存配额。 高级设置: − 生命周期:用于设置容器启动和运行时需要执行的命令。 启动命令:设置容器启动时执行的命令,具体请参见设置容器启动命令。 启动后处理:设置容器成功运行后执行的命令,详细配置方法请参见设置容器生命周期。 停止前处理:设置容器结束前执行的命令,通常用于删除日志/临时文件等,详细配置方法请参见设置容器生命周期。 − 健康检查:CCE提供了存活与业务两种探针,用于判断容器和用户业务是否正常运行。详细配置方法请参见设置容器健康检查。 工作负载存活探针:检查容器是否正常,不正常则重启实例。 工作负载业务探针:检查用户业务是否就绪,不就绪则不转发流量到当前实例。 − 环境变量:在容器中添加环境变量,一般用于通过环境变量设置参数。 在“环境变量”页签,单击“添加环境变量”,当前支持三种类型: 手动添加:输入变量名称、变量/变量引用。 密钥导入:输入变量名称,选择导入的密钥名称和数据。您需要提前创建密钥,具体请参见创建密钥。 配置项导入:输入变量名称,选择导入的配置项名称和数据。您需要提前创建配置项,具体请参见创建配置项。 说明: 对于已设置的环境变量,单击环境变量后的“编辑”,可对该环境变量进行编辑。单击环境变量后的“删除”,可删除该环境变量。 − 数据存储:给容器挂载数据存储,支持本地磁盘和云存储,适用于需持久化存储、高磁盘IO等场景。具体请参见本地磁盘存储。 说明: 有状态工作负载只能在创建时添加数据存储,创建完成后无法再添加。 − 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。 请输入用户ID,容器将以当前用户权限运行。 − 容器日志:设置容器日志采集策略、配置日志目录。用于收集容器日志便于统一管理和分析。详细配置请参见采集容器标准输出日志、采集容器内路径日志。 步骤 3 更新完成后,单击“提交”。 编辑YAML 可通过在线YAML编辑窗对无状态工作负载、有状态工作负载、守护进程集和容器组的YAML文件进行修改和下载。普通任务和定时任务的YAML文件仅支持查看、复制和下载。本文以无状态工作负载为例说明如何在线编辑YAML。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击工作负载后的“更多 > 编辑YAML”,在弹出的“编辑YAML”窗中可对当前工作负载的YAML文件进行修改。 步骤 3 单击“修改”,在弹出的提示框中单击“确定”,完成修改。 步骤 4 (可选)在“编辑YAML”窗中,单击“下载”,可下载该YAML文件。 伸缩 您可以根据业务需求自行定义无状态工作负载、有状态工作负载和守护进程集的伸缩策略,降低因应对业务变化和高峰压力而人为反复调整资源的工作量,帮助您节约资源和人力成本。本文以无状态工作负载为例说明如何使用伸缩功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待设置伸缩策略工作负载后的“更多 > 伸缩”,进入工作负载详情页面。 步骤 3 在“伸缩”页签,可设置“弹性伸缩”和“手动伸缩”策略,或“编辑伸缩规则”。 详细设置方法请参见工作负载弹性伸缩。 监控 您可以通过CCE控制台查看无状态工作负载、守护进程集和容器组的CPU和内存占用情况,以确定需要的资源规格。本文以无状态工作负载为例说明如何使用监控功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击已创建工作负载的名称,进入工作负载详情页面。在监控页签,可查看工作负载的CPU利用率和物理内存使用率。 步骤 3 单击“实例列表”,单击某个实例名称前的,单击“监控”。 步骤 4 查看相应实例的CPU使用率、内存使用率。 CPU使用率。 横坐标表示时间,纵坐标表示CPU使用率。绿色线条表示CPU使用率,红色线条表示CPU使用限额。 说明: CPU使用量需要计算,故初次显示时,CPU使用量会比内存使用量晚一分钟左右显示。 只有实例处于运行状态时,才能查看CPU使用量。 物理内存使用率。 横坐标表示时间,纵坐标表示内存使用量。绿色线条表示内存使用率,红色线条表示内存使用限额。 说明: 实例处于非运行状态时,无法查看内存使用量。 回退(仅无状态工作负载可用) 所有无状态工作负载的发布历史记录都保留在系统中,您可以回退到指定的版本。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待回退工作负载后的“更多 > 回退”。 步骤 3 在“回退到该版本”后,选择回退版本,单击“确定”。 暂停(仅无状态工作负载可用) 无状态工作负载可以进行暂停操作。暂停后,对负载进行的升级操作可以正常下发,但不会被应用到实例。 如果您正在滚动升级的过程中,滚动升级会在暂停命令下发后停止,出现新旧实例共存的状态。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待暂停的工作负载后方操作栏中的“更多 > 暂停”。 步骤 3 在弹出的负载暂停信息提示框中,单击“确认”。 步骤 4 单击“确定”,可完成暂停操作。 须知: 工作负载状态为暂停中时无法执行回退操作。 恢复(仅无状态工作负载可用) 暂停中的负载可以进行恢复操作。恢复后,负载可以正常升级和回退,负载下的实例会与负载当前的最新信息进行一次同步,如果有不一致的,则会自动按照负载的最新信息进行升级。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待恢复的工作负载后方操作栏中的“更多 > 恢复”。 步骤 3 在弹出的负载恢复信息提示框中,单击“确认”。 标签管理 标签是以key/value键值对的形式附加在工作负载上的。添加标签后,可通过标签对工作负载进行管理和选择,主要用于设置亲和性与反亲和性调度。您可以给多个工作负载打标签,也可以给指定的某个工作负载打标签。 您可以根据业务需求对无状态工作负载、有状态工作负载和守护进程集的标签进行管理,本文以无状态工作负载为例说明如何使用标签管理功能。 如下图,假设为工作负载(例如名称为APP1、APP2、APP3)定义了3个标签:release、env、role。不同工作负载定义了不同的取值,分别为: APP 1:[release:alpha;env:development;role:frontend] APP 2:[release:beta;env:testing;role:frontend] APP 3:[release:alpha;env:production;role:backend] 在使用调度或其他功能时,选择“key/value”值分别为“role/frontend”的工作负载,则会选择到“APP1和APP2”。 图标签使用案例 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待添加标签的工作负载,进入工作负载详情页面。 步骤 3 单击“标签管理”,单击“添加标签”,输入键和值,单击“确定”。 说明: 标签格式要求如下:以字母和数字开头或结尾,由字母、数字、连接符()、下划线()、点号(.)组成且63字符以内。 删除工作负载/任务 若工作负载无需再使用,您可以将工作负载或任务删除。工作负载或任务删除后,将无法恢复,请谨慎操作。本文以无状态工作负载为例说明如何使用删除功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待删除工作负载后的“更多 > 删除”,删除工作负载。 请仔细阅读系统提示,删除操作无法恢复,请谨慎操作。 步骤 3 单击“是”。 说明: 若Pod所在节点不可用或者关机,负载无法删除时可以在详情页面实例列表选择强制删除。 请确保要删除的存储没有被其他负载使用,导入和存在快照的存储只做解关联操作。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        管理工作负载和任务
      • 【协议变更】《天翼云数据传输服务DTS版服务等级协议》更新通知
        DTS服务等级协议变更说明。 尊敬的用户您好,我们将于2026年2月14日更新《天翼云数据传输服务DTS版服务等级协议》以期向您展示更加清晰完整的条款内容,帮助您更加清楚高效地了解我们的产品服务。 本次更新内容如下: 1. 将原协议第二条 服务承诺 和第三条 服务说明 的内容合并到新的第二条 服务说明与承诺,并更新关于服务不可用的定义,修改后内容如下: 服务不可用:指依照数据传输服务平台的系统日志,显示用户使用的数据迁移、数据同步功能因天翼云原因导致的从源数据库到目标数据库写入数据失败,且失败状态连续超过五分钟视为服务不可用,低于五分钟的不可用时间不视为服务不可用。 2. 将原协议第四条 赔偿方案 变更为 第三条服务补偿,并更新关于补偿申请时限的说明,新增关于补偿申请方法的说明,相关修改和新增内容如下: 补偿申请时限:用户可在每服务周期账单结清后对该服务周期没有达到服务可用性承诺的云服务提出补偿申请,且补偿申请必须在该云服务没有达到服务可用性承诺的服务周期结束后两个月内提出。超出申请时限的补偿申请将不被受理。天翼云将对用户的申请进行合理评估,并依据本SLA约定及诚信原则就是否适用补偿做出决定。 补偿申请方法:用户可以在天翼云用户中心提交工单申请补偿。 3. 将原协议第五条 不可抗力及免责 变更为第四条 限制,并新增如下条款: 以下原因导致的甲方数据传输服务不可用的情况不计在不可用时间内: 甲方的应用程序或安装活动所引起的; 任何天翼云所属设备以外的网络、设备故障或配置调整引起的; 系统或服务日常维护而引起的; 甲方使用DTS免费任务或处于收费任务的免费阶段的; 甲方未遵循天翼云产品官方使用文档或使用建议引起的; 甲方的源端数据库或目标端数据库自身原因导致的; 由于源端数据库或者目标端数据库用户名、密码修改后,甲方未及时在DTS控制台更新导致的; 由甲方操作所引起的不可用,包括但不限于实例被意外重启、源端数据库或者目标端数据库参数修改不当以及删改数据库账户、权限后未及时在DTS控制台更新等; 依照法律法规,应监管部门要求或依照协议及协议中援引的政策用户的服务被暂停或终止的。 4. 将原协议第五条 不可抗力及免责 中关于协议生效的内容放到新增的第五条 协议生效及其他并更新说明,修改后内容如下: 本服务等级协议自用户申请天翼云数据传输服务之日起生效并遵行。终止日期以《天翼云数据传输服务DTS版服务协议》的终止为准。 天翼云有权对本SLA条款作出修改。如本SLA条款有任何修改,天翼云将提前30天以网站公示或发送邮件的方式通知用户。如用户不同意天翼云对SLA所做的修改,用户有权停止使用DTS服务,如用户继续使用DTS服务,则视为用户接受修改后的SLA。 本次更新将于2026年2月14日正式更新至官网协议文档,请您务必认真阅读上述变更内容,若您不同意天翼云即将对SLA所做的修改,您有权停止使用DTS服务,如您继续使用DTS服务,则视为您接受修改后的SLA。
        来自:
        帮助文档
        数据传输服务DTS
        产品公告
        【协议变更】《天翼云数据传输服务DTS版服务等级协议》更新通知
      • 开启并配置MySQL数据库代理服务
        步骤三:配置MySQL数据库代理服务 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 单击数据库代理,进入数据库代理页面。 5. 在读写规则 选项下,单击设置。 6. 在对话框内,选择需要的选项进行设置。 注意 对于可以处理读写请求的主节点,如果主实例的主节点权重设置为0,则不会处理任何读写请求,将影响您的写入操作。 建议将主节点权重设置为非0值,其他备节点权重设置相对较大值以分担读请求。 当您新创建一个账号后,马上通过数据库代理使用新账号连接的时候,会提示拒接访问。是因为定时任务同步需要大约23分钟的时间导致的,请您23分钟后再尝试连接即可。 参数 说明 读写属性 设置读写方式。 读写(读写分离)(默认):同时连接主实例和只读实例(或备节点),可以接受写请求。 连接池 代理连接地址设置的连接池类型: 事务级连接池:适用于总连接数比较多(如连接数上万)的场景。 会话级连接池:适用于短连接场景。 延迟阈值 只读实例或备节点同步主实例数据时允许的最长延迟时间。若一个节点的延迟时间超过该阈值,读请求不会转发至该节点。范围为03600s。 延迟检查间隔 检查主从延迟的时间间隔,即每多少秒检查一次主从延迟,如果超过延迟阈值,则不转发读请求。范围为13600s。 容错次数 检查主从时间延迟,连续检查设置的次数后,如每次都超过延迟阈值,则确认该节点已延迟,不转发读请求。 事务拆分 是否开启事务拆分功能。事务拆分能够将事务内的读请求转发到只读实例或者备节点,降低主实例负载。 默认为关闭 。 前端连接数 前端连接数是指应用程序到数据库代理的连接数量,需根据业务并发需求合理设置。 后端连接数 在自定义分配中,可以自定义每个节点的后端连接数。后端连接数指数据库代理与数据库实例节点之间的连接数量,需确保其不超过数据库节点设定的最大连接数上限,请根据业务合理配置。 读写分离权重分配 实例的读权重越高,处理的读请求越多。例如,假设实例有1个主节点和3个备节点(包含只读实例),读权重分别为100、100、200和200,则表示主节点、3个备节点按照1:1:2:2的比例处理读请求。 系统分配:系统根据实例规格自动分配各个节点的读权重。后续该主节点下新增的只读节点不会自动设置权重,需要手动重新配置加入到读写分离链路中。更多信息请参见系统权重分配规则。 自定义:手动设置各个节点的读权重,权重输入范围为0100000,且必须是整数。后续该主节点下新增只读节点的读权重默认为0,需要您手动配置。 说明 分配权重展示的是主节点和备节点(包含只读实例),例如:一主两备实例,则展示三个节点,用于配置权重。 7. 单击确定,等待配置生效。 说明 开启数据库代理后,若进行了系列升级、迁移可用区等导致实例的节点信息发生变更的操作,则需要在数据库代理页面重新设置节点权重,以刷新后端的节点信息。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库代理
        开启并配置MySQL数据库代理服务
      • 标准快照功能概述(白名单开放)
        使用场景 快照功能可以帮助您实现以下需求: 日常备份数据 通过对云硬盘定期创建快照,实现数据的日常备份,可以应对由于误操作、病毒以及黑客攻击等导致数据丢失或不一致的情况。 快速恢复数据 应用软件升级或业务数据迁移等重大操作前,您可以创建一份或多份快照,一旦升级或迁移过程中出现问题,可以通过快照及时将业务恢复到快照创建点的数据状态。 例如,当由于云服务器A的系统盘A发生故障而无法正常开机时,由于系统盘A已经故障,因此也无法将快照数据回滚至系统盘A。此时您可以使用系统盘A已有的快照新创建一块云硬盘B并挂载至正常运行的云服务器B上,从而云服务器B能够通过云硬盘B读取原系统盘A的数据。 说明 当前通过快照回滚数据,只支持回滚快照数据至源云硬盘,不支持快照回滚到其它云硬盘。 快速部署多个业务 通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。例如数据挖掘、报表查询和开发测试等业务。这种方式既保护了原始数据,又能通过快照创建的新云硬盘快速部署其他业务,满足企业对业务数据的多元化需求。 快照原理 标准快照存储原理 标准快照是以数据块作为快照数据备份的最小粒度,快照分为全量快照和增量快照。为云硬盘创建的第一个快照为全量快照,全量快照包含创建快照时间点前云硬盘上的所有数据(数据块);后续创建的快照均为增量快照,增量快照仅存储较上一个快照有变化的数据块。 全量快照和增量快照的元数据文件中会记录快照创建时间点前的所有数据块信息,因此通过任何一个快照回滚数据至云硬盘时,均可以恢复创建快照时间点前的所有云硬盘数据。 根据数据块的来源区分,快照元数据文件中包含三类数据块:继承数据块(继承于上一个快照的数据块)、修改数据块(较上一个快照有修改的数据块)、新增数据块(较上一个快照新增的数据块)。 快照的数据文件中只会存储较上一个快照有变化的数据块(修改数据块、新增数据块)。 如图所示,假设云硬盘在9:30和10:30均有数据写入,为了备份数据,在9:00创建快照1,在10:00创建快照2,在11:00创建快照3,创建快照原理如下: 9:00首次创建快照,快照1中包含云硬盘的所有数据,其中的数据块有A、B、C,快照1为全量快照。快照1的元数据文件中会记录云硬盘全量的数据块A、B、C。 随后写入数据,修改数据块A为A1,修改数据块B为B1,新增数据块D,10:00创建快照2,仅存储较快照1有变化的数据块A1、B1、D,快照2为增量快照。快照2的元数据文件中会记录云硬盘全量的数据块A1、B1、C、D,其中数据块C继承于快照1。 随后写入数据,修改数据块A1为A2,修改数据块C为C1,新增数据块E,11:00创建快照3,仅存储较快照2有变化的数据块A2、C1、E,快照3为增量快照。快照3的元数据文件中会记录云硬盘全量的数据块A2、B1、C1、D、E,其中数据块B1、D继承于快照2。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        标准快照(白名单开放)
        标准快照功能概述(白名单开放)
      • 云日志服务Logging handler SDK
        本文主要介绍Logging handler SDK使用方法。 Python logging handler概述 Python logging 模块提供了一套灵活的日志记录系统,允许开发者在应用程序中记录不同级别的消息,如调试信息、警告、错误等。使用Python SDK提供的logging Handler可以使Python程序在日志在不落盘的情况下自动上传到日志服务上,这种上传方式具有实时性、异步性、吞吐量大、配置简单等特点。使用这部分功能,只需要配置handler目录下的logging.ini 内的几个关键配置即可直接使用。 使用步骤 1、安装ctyunltspythonsdk:1.10.0,目录中包含ctyunltspythonsdk1.10.0.tar.gz。 plaintext pip install ctyunltspythonsdk1.10.0.tar.gz 如果安装失败,可单独安装requirementspy3.txt,详情可参考python SDK 概述2.2下载和安装。 plaintext pip install r requirementspy3.txt 2、修改handler 中的 logging.ini 中的自定义配置,里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) 3、执行example/samplelogginghandler.py 示例即可。 logging.ini 配置 在用例中自定义配置了三种handler :consoleHandler、asyncHandler、syncHandler。 1、consoleHandler的配置中classStreamHandler,这代表会将logger 日志输出到控制台。 2、syncHandler 配置中的 classhandler.AsyncHandler,这代表handler 将会去使用SyncHandler 类的配置进行日志上传,这个类使用的是同步单线程将logger 的日志上传到云日志服务中。 3、asyncHandler配置中的 classhandler.AsyncHandler,这代表handler 将会去使用AsyncHandler 类的配置进行日志上传,这个类使用的是异步批量多线程方式将logger 的日志上传到云日志服务中。 用户使用这个功能的时候,需要修改handler 中的args 配置。里面包含了与日志上传服务相关的5个参数,这和使用SDK上传日志类似。 plaintext ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) ;使用环境变量 ;args(os.environ.get('LTSENDPOINT', '',),os.environ.get('LTSACCESSKEY', ''), os.environ.get('LTSSECRETKEY', ''),os.environ.get('LTSLOGPROJECT', ''), os.environ.get('LTSLOGUNIT', '')) 当然如果对安全性要求较高,强烈建议不要将明文accesskey 和 secretkey 写在logging.ini配置中,代替使用系统变量存放。可使用args(os.environ.get('LTSENDPOINT', '',)获取系统变量。 plaintext [loggers] keysroot,synclogging,asynclogging [handlers] keysconsoleHandler, asyncHandler,syncHandler [formatters] keysconsoleFormatter,ltsFormatter [loggerroot] levelDEBUG handlersconsoleHandler [loggerasynclogging] levelINFO handlersconsoleHandler,asyncHandler qualnameasynclogging propagate0 [loggersynclogging] levelINFO handlersconsoleHandler,syncHandler qualnamesynclogging propagate0 [handlerconsoleHandler] classStreamHandler levelDEBUG formatterconsoleFormatter args(sys.stdout,) [handlerasyncHandler] classhandler.AsyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [handlersyncHandler] classhandler.SyncHandler formatterltsFormatter ;替换下面5个参数 args('your endpoint','your accesskey','your secretkey', 'logproject', 'logunit',) [formatterconsoleFormatter] format%(asctime)s %(name)s %(levelname)s %(message)s [formatterltsFormatter] format%(asctime)s %(levelname)s %(threadName)s %(filename)s[line:%(lineno)d] %(message)s
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务Logging handler SDK
      • 部署高可用集群
        参数 参数说明 本实践配置示例 名称 伸缩组的名称,用户可自定义,也可以选择保持系统默认分配名称。 asgrouptest 最大实例数(台) 当伸缩组的当前实例数大于最大实例数时,弹性伸缩服务会自动移出实例,使得伸缩组的当前实例数等于伸缩最大实例数。理论上实际实例数不允许大于最大实例数。 10 最小实例数(台) 当伸缩组的当前实例数小于伸缩最小实例数时,弹性伸缩服务会自动添加实例,使得伸缩组的当前实例数等于伸缩最小实例数。理论上实际实例数不允许小于最小实例数。 0 开启期望实例数 伸缩组内是否开启期望实例数配置。期望实例数是伸缩组内包含的实例数量的稳态值。 若您为伸缩组开启并设置了期望实例数,当伸缩组内实例数不等于期望实例数时,弹性伸缩服务会自动进行扩缩容,确保伸缩组内始终保持该数量的实例数。 不启用 虚拟私有云 同一伸缩组内的弹性云主机的虚拟私有云是一致的。 vpc233测试 网卡 一个伸缩组可以绑定多张网卡,默认第一张网卡为主网卡。 subnet857f 安全组 安全组类似防火墙功能,是一个逻辑上的分组,用于设置网络访问控制。 DefaultSecurityGroup 负载均衡 选择启用负载均衡后,伸缩组中的云主机会自动挂载到您关联的负载均衡下。访问流量将按照分发策略自动分发到伸缩组内的所有弹性云主机。注意:一个伸缩组可最多添加10组负载均衡监听器。当选择使用弹性负载均衡时,需配置4个参数:负载均衡器、主机组、后端端口和权重。 不启用 实例移除策略 在对伸缩组进行缩容时,会采用此策略进行移除,共有以下四种方式: 较早创建的配置且较早创建的实例:先筛选出较早创建的配置所创建出的实例,再筛选较早创建的实例移出。 较晚创建的配置且较晚创建的实例:先筛选出较晚创建的配置所创建出的实例,再筛选较晚创建的实例移出。 较早创建的实例(FIFO):根据时间筛选较早创建的实例,跟是否是伸缩配置创建的无关。 较晚创建的实例(LIFO):根据时间筛选较晚创建的实例,跟是否是伸缩配置创建的无关。 较晚创建的实例 实例回收模式 指伸缩组自动创建的实例被移出后的处理策略。 释放模式:将移出的伸缩组自动创建的云主机释放。 注意:对于手动移入伸缩组的云主机,如果被移出伸缩组,资源不会被释放,状态保持不变,不适用此策略。 释放模式 健康检查方式 健康检查会将处于“异常”状态的云主机从伸缩组中移出,并替换同种规格的云主机来承载业务流量。有以下两种方式: 云主机健康检查:是指对云主机的运行状态进行检查,如关机、删除都是云主机异常状态。 弹性负载均衡健康检查:是指根据负载均衡对云主机的健康检查结果进行的检查。所有监听器下检测到的云主机状态必须均为正常。 不启用:关闭伸缩组健康检查,伸缩组不会获取实例健康状态信息。 注意:只有开启负载均衡时您才可以选择弹性负载均衡健康检查,建议当伸缩组开启负载均衡时,使用弹性负载均衡健康检查。 云主机健康检查 健康检查间隔 执行健康检查的周期时间。您可以根据业务实际情况设置合理的健康检查间隔(5分钟、 15分钟、 1小时、 3小时),以确保其包含主机中应用程序的预期启动时间。 5分钟 企业项目 支持为伸缩组选择企业项目。 Default
        来自:
        帮助文档
        弹性伸缩服务 AS
        最佳实践
        部署高可用集群
      • 使用mysqldump迁移RDS for MySQL数据
        本章节会介绍如何使用mysqldump迁移RDS for MySQL数据 迁移准备 关系型数据库服务支持开启公网访问功能,通过弹性公网IP进行访问。您也可通过弹性云主机的内网访问关系型数据库。 1.准备弹性云主机或可通过公网访问关系型数据库。 通过弹性云主机连接关系型数据库实例,需要创建一台弹性云主机。 通过公网地址连接关系型数据库实例,需具备以下条件。 先对关系型数据库实例绑定公网地址。 保证本地设备可以访问关系型数据库实例绑定的公网地址。 2.在准备的弹性云主机或可访问关系型数据库的设备上,安装MySQL客户端。 说明 该弹性云主机或可访问关系型数据库的设备需要安装和RDS for MySQL数据库服务端相同版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 数据迁移到云数据库RDS后可能要面对更改IP的问题,为减少客户业务更改,降低迁移难度,支持更改内网IP。 云数据库RDS的系统库mysql和sys不支持导入到RDS for MySQL实例。 导出数据 要将源数据库迁移到关系型数据库,需要先对其进行导出。 说明 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 步骤 1 登录已准备的弹性云主机,或可访问关系型数据库的设备。 步骤 2 使用mysqldump将表结构导出至SQL文件。 说明 mysql数据库是关系型数据库服务管理所必须的数据库,导出表结构时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldumpdatabases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ] [ ] [^ ] / /' e 's/DEFINER[ ] . FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.168.151.18 P 3306 sed e 's/DEFINER[ ] [ ] [^ ]/ /' e 's/DEFINER[ ] . FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > dumpdefs.sql Enter password: 说明 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdefs.sql”文件,如下: [rds@localhost ~]$ ll dumpdefs.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdefs.sql 步骤 3 使用mysqldump将数据导出至SQL文件。 说明 mysql数据库是关系型数据库服务管理所必须的数据库,导出数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggersu ph P r 以上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases rdsdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.168.151.18 P 8635 r dumpdata.sql 说明 若使用的mysqldump低于5.6版本,需要去掉“setgtidpurgedOFF”。 命令执行完会生成“dumpdata.sql”文件,如下: [rds@localhost ~]$ ll dumpdata.sql rwr. 1 rds rds 2714 Sep 21 08:23 dumpdata.sql
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库迁移实例
        使用mysqldump迁移RDS for MySQL数据
      • 告警转事件或关联事件
        类别 说明 告警转事件原因 当告警的严重性达到一定程度,或者持续出现,或者其影响范围广泛时,它可能不再仅仅是一个需要关注的信号,也可能表明系统或网络中存在一个持续性的问题,此时,它已经演变成了一个需要立即处理的事件,这种情况下,可以将告警转化为事件来处理,以便深入调查问题的根源,并采取相应的措施来彻底解决。通常告警转事件的原因有以下几个方面: 信息聚合与分类 告警通常是对某个特定条件或阈值被违反的即时响应。随着时间的推移,大量的告警可能会被触发,如果直接处理这些独立的告警,可能会变得非常混乱和低效。将这些告警聚合成事件,可以帮助相关人员根据告警的类型、来源、影响等维度进行分类,从而更有效地处理它们。 简化工作流程 告警到事件的转换过程,通常伴随着对告警的过滤、去重、聚合等处理。这些处理使得原本可能触发多个相似告警的情况,被整合为一个更具代表性的事件。这样不仅减少了处理单个告警的工作量,也使得处理过程更加条理清晰,便于跟踪和记录。 提升问题解决效率 将告警转换为事件后,由于事件通常提供了比单个告警更全面的上下文信息,因此相关人员可以更容易地识别出问题的根本原因,有助于更快地定位问题,并采取有效的解决措施。 便于历史回顾与趋势分析 事件记录了问题的发生、发展、解决的全过程,这为后续的问题预防、系统优化等提供了宝贵的历史数据。通过对事件进行趋势分析,可以发现系统中潜在的薄弱环节,提前采取措施进行改进。 增强跨部门协作 在大型组织中,不同的部门可能需要共同参与问题的处理。将告警转换为事件后,可以更容易地在不同部门之间共享相关信息,促进跨部门协作,提高问题解决的效率。 总而言之,将告警转换为事件助于简化工作流程、提升问题解决效率、便于历史回顾与趋势分析。 告警关联事件原因 告警关联事件是监控和故障管理中的一个重要环节,它涉及到将多个独立但可能相互关联的事件或告警组合起来,以便更好地理解问题的根源和范围,从而更有效地进行故障排查和响应。通常告警关联事件的原因有以下几个方面: 依赖关系 在复杂的系统中,各个组件之间往往存在复杂的依赖关系。当一个组件出现故障时,可能会影响依赖它的其他组件的正常工作,进而引发一系列告警。例如,在微服务架构中,一个服务的崩溃可能导致调用该服务的其他服务也出现问题。 资源共享 当多个系统或服务共享同一资源(如服务器、数据库、网络设备等)时,该资源的问题可能导致多个系统或服务同时发出告警。例如,共享数据库服务器的性能下降可能会触发多个依赖该数据库的应用程序的性能告警。 连锁反应 某些情况下,一个初始的故障可能触发一系列连锁反应,导致更多的组件或系统受到影响。这种连锁反应可能由于系统设计不当、错误处理机制不完善或资源限制(如内存泄漏导致的性能下降)等原因引起。 配置错误 配置错误或不一致的配置可能导致系统行为异常,进而触发多个看似不相关的告警。例如,错误的路由配置可能导致流量被错误地路由到不稳定的服务器,从而引发多个与性能相关的告警。 软件缺陷 软件中的缺陷(如bug)可能导致程序在特定条件下表现异常,并触发告警。如果这些缺陷影响了多个组件或系统,则可能引发多个关联告警。 外部因素 外部因素如自然灾害(如地震、洪水)、网络攻击、基础设施故障(如电力中断、网络中断)等也可能导致多个系统或组件同时出现问题,并触发大量告警。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        告警管理
        告警转事件或关联事件
      • 产品规格
        一级功能 二级功能 功能描述 标准版 高级版 仪表盘 从全局视角统计重要资产、防护情况、告警趋势、及安全情况,便于用户更好的进行安全响应处置,提升运营效率。 ✓ ✓ 资产中心 查看集群资产、镜像资产、主机节点资产、应用服务资产、K8S配置详细信息。 ✓ ✓ 告警响应 运行态检测 查看所有容器、主机、K8S入侵告警事件,并对其进行响应处置。 ✓ ✓ 告警响应 镜像告警 查看所有触发安全策略的镜像告警事件,并对其进行响应处置。 ✓ ✓ 告警响应 IaC告警 查看存在未通过高危检查的文件。 × ✓ 告警响应 响应中心 查看告警处置记录,包括隔离Pod列表、暂停容器列表、重启Pod列表、镜像阻断列表,并进行白名单管理、一键封堵。 ✓ ✓ 安全合规 基线管理 对各版本的Linux系统按照等保、CIS的基线要求检测,覆盖主流操作系统的检测。 对各版本的kubernetes按照CIS基线要求检测。 对各个版本容器运行环境按照CIS基线要求检测。 ✓ ✓ 安全合规 基线配置 自定义配置基线扫描周期、安全合规达标率等。 ✓ ✓ 镜像安全 镜像管理 对业务环境主机中和镜像仓库中的镜像资产统一管理、安全扫描,并提供可写入dockerfile的修复建议。 ✓ ✓ 镜像安全 镜像策略 通过漏洞规则、文件规则、软件包规则、及其他规则设置来对风险制品镜像进行告警或阻断管控。 ✓ ✓ 镜像安全 镜像设置 配置节点镜像和仓库镜像扫描周期。 ✓ ✓ 容器安全 实时检测 从命名空间或节点的视角实时检测容器安全状态,对容器进行基线检查、容器审计等。 ✓ ✓ 容器安全 容器策略 创建并管理容器入侵检测策略及入侵检测规则。 ✓ ✓ 容器安全 文件防篡改 创建并管理容器防篡改策略。 × ✓ 容器安全 进程访问控制 创建并管理容器进程访问策略,支持进程阻断/放行。 × ✓ 容器安全 弱口令 弱口令字典管理及弱口令检测。 × ✓ 容器安全 容器设置 设置容器保留时长、容器审计信息保留时长,及容器扫描周期。 ✓ ✓ 节点安全 节点安全 查看节点信息、集群组件信息、防御容器健康状态,对节点实时入侵监测,扫描节点漏洞,开启节点debug日志。 ✓ ✓ 节点安全 节点设置 自定扫描新增节点,设置节点更新周期。 ✓ ✓ IaC安全 IaC检查 对于部署资源所编写的编排文件,支持扫描编写内容是否存在风险以及是否符合编写规范。 × ✓ IaC安全 规则管理 统一管理K8S manifests/helmchart文件规则、Dockerfile文件规则、ConfigMap文件规则等。 × ✓ IaC安全 IaC设置 配置自动扫描、周期扫描策略。 × ✓ 集群安全 组件漏洞 扫描Kubernetes 内的kubelet、calico、etcd等组件漏洞信息。 × ✓ 集群安全 安全检查 对集群进行安全检查,发现未通过检查项及影响范围,提供解决方案及参考链接。 × ✓ 集群安全 插件管理 可通过提供插件的形式,帮助用户验证1day漏洞信息。 × ✓ 集群安全 集群审计 记录了对APIServer的访问事件,通过查看、分析日志,可以了解集群的运行状况、排查异常,发现集群潜在的安全、性能等风险对异常事件支持报警。 × ✓ 集群安全 集群策略 配置集群审计策略,管理集群审计规则,管理集群告警规则。 × ✓ 集群安全 集群设置 配置自动扫描新增集群及集群扫描周期。 × ✓ 网络安全 网络策略 通过对单个业务之间,业务组之间,以及租户之间的网络访问策略配置,实现业务之间隔离,来减小被入侵之后的影响范围。 × ✓ 网络雷达 对容器环境中网络流量进行绘图,打破网络黑洞,支持对命名空间、Pod、主机、集群、外网级别的网络监测。通过对单个业务之间、业务组之间以及多租户之间的网络访问策略配置,通过对业务之间的隔离,来减小被入侵之后的影响范围。通过网络拓扑图从网络层判断入侵的影响范围。 × ✓ 平台管理 日志审计 对系统操作日志进行统计及报表输出。 ✓ ✓ 安装配置 支持天翼云原生集群或非原生集群部署方式。 ✓ ✓ 订单中心 查看用户订单情况,可以进行退订、扩容、续订等操作。 ✓ ✓ 任务中心 查看任务执行情况,可以进行终止、删除、查看详情等操作。 ✓ ✓ 消息中心 查收系统内部消息。 ✓ ✓
        来自:
        帮助文档
        容器安全卫士
        产品介绍
        产品规格
      • 主服务器相关参数
        本页介绍天翼云TeleDB数据库主服务器相关参数。 这些参数可以在发送复制数据给一个或多个后备服务器的主控/主要服务器上设置。注意除了这些参数之外,在主控服务器上必须设置合适的wallevel,并且也启用可选的 WAL 归档。这些参数值与后备服务器无关,尽管你可能希望为了准备好一个后备机转变成主控机来设置这些参数。 synchronousstandbynames (string) 这个参数指定一个支持同步复制的后备服务器的列表。可能会有一个或者多个活动的同步后备服务器,在这些后备服务器确认收到它们的数据之后,等待提交的事务将被允许继续下去。同步后备服务器是那些名字出现在这个列表中,并且当前已连接并且正在实时流传输数据(如pgstatreplication视图中streaming 的状态所示)的服务器。指定多个同步备用可以实现非常高的可用性并防止数据丢失。用于此目的的备用服务器的名称是备用数据库的applicationname设置, 如备用数据库的连接信息中所设置的。在物理复制备用的情况下, 这应该在recovery.conf的primaryconninfo 设置中设置;默认值是walreceiver。对于逻辑复制,可以在订阅的连接信息中设置,并且它默认为订阅名称。对于其他复制流消费者,请参阅他们的文档。这个参数使用下面的语法之一来指定一个后备服务器列表:[FIRST] numsync ( standbyname [, ...] ) ANY numsync ( standbyname [, ...] ) standbyname [, ...]其中numsync 是事务需要等待其回复的同步后备服务器的数量,standbyname 是一个后备服务器的名称。FIRST和ANY 指定从列出的服务器中选择同步备用数据库的方法。关键字FIRST加上numsync,指定基于优先级的同步复制,并使事务提交等待,直到它们的WAL记录被复制到根据其优先级进行选择的 numsync同步备用数据库。 例如,FIRST 3 (s1, s2, s3, s4) 的设置将导致每个提交等待来自从备用服务器 s1、s2、s3和s4 中选择出来的三个更高级备用服务器的回复。其名称出现在列表前面的备用数据库被赋予更高的优先级,并将被视为同步。 在列表后面出现的其他备用服务器代表潜在的同步备用服务器。如果任何当前的同步备用服务器因任何原因断开连接, 它将立即被次最高优先级的备用机器替换。关键字FIRST是可选的。关键字ANY加上numsync, 指定基于数量的同步复制,并使事务提交等待,直到它们的WAL记录被复制到 至少numsync 个列出的备用服务器。例如,ANY 3 (s1, s2, s3, s4) 的设置将导致每个提交至少被s1、s2、 s3 和s4中的任意三个备用服务器回复处理。FIRST和ANY是大小写无关的。 如果这些关键字用作备用服务器的名称,那么 standbyname必须是双引号引用的。它与第一个使用FIRST和numsync 等于1的语法相同。例如,FIRST 1 (s1, s2)和s1, s2 具有相同的含义:选择s1或s2作为同步备用。特殊项匹配任何备用服务器名称。没有机制来强制备用名称的唯一性。在重复的情况下, 匹配的备用数据库之一将被视为较高优先级,但确切地说哪一个是不确定的。注意每一个standbyname 都应该具有合法 SQL 标识符的形式,除非它是。 如果必要你可以使用双引号。但是注意在比较 standbyname 和后备机应用程序名称时是大小写不敏感的(不管有没有双引号)。如果这里没有指定同步后备机名称,那么同步复制不能被启用并且事务提交将不会等待复制。这是默认的配置。即便当同步复制被启用时,个体事务也可以被配置为不等待复制,做法是将synchronouscommit参数设置为local或off。这个参数只能在postgresql.conf文件中或在服务器命令行上设置。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        复制相关参数
        主服务器相关参数
      • 1
      • ...
      • 206
      • 207
      • 208
      • 209
      • 210
      • ...
      • 231
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      应用托管

      科研助手

      推荐文档

      查看队列的详情

      服务器迁移的功能

      生产消息

      创建生产者

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号