活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云服务器_相关内容
      • 创建MySQL连接器
        参数名 说明 取值样例 名称 输入便于记忆和区分的连接名称。 mysqllink 数据库服务器 MySQL数据库的IP地址或域名。 192.168.1.110 端口 MySQL数据库的端口。 3306 数据库名称 MySQL数据库的名称。 sqoop 用户名 拥有MySQL数据库的读、写和删除权限的用户。 admin 密码 用户的密码。 使用本地API 使用数据库本地API加速(系统会尝试启用MySQL数据库的localinfile系统变量)。 是 使用Agent 是否选择通过Agent从源端提取数据。 是 localinfile字符集 mysql通过localinfile导入数据时,可配置编码格式。 utf8 驱动版本 适配mysql的驱动。 Agent 单击“选择”,选择连接Agent中已创建的Agent。 单次请求行数 指定每次请求获取的行数。 1000 单次提交行数 支持通过agent从源端提取数据 1000 连接属性 自定义连接属性。 useCompressiontrue 引用符号 连接引用表名或列名时的分隔符号。默认为空。 ' 单次写入行数 指定单次批量写入的行数,当写入行数累计到单次批量提交行数时提交一次,该值应当小于单次提交行数。 100
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        创建MySQL连接器
      • 支持的操作系统版本
        以下是我们在实验室中已测试验证通过的操作系统版本,使用如下操作系统版本的服务器,支持使用存储容灾服务的各项功能: OS 类型 OS 版本 内核版本 位数 CentOS 7.2 3.10.0327.el7.x8664 3.10.01127.19.1.el7.x8664 3.10.01160.6.1.el7.x8664 64 CentOS 7.3 3.10.0514.el7.x86 64 64 CentOS 7.4 3.10.0693.el7.x86 64 64 CentOS 7.5 3.10.0862.el7.x86 64 64 CentOS 7.6 3.10.0957.el7.x8664 3.10.01160.6.1.el7.x8664 64 CentOS 7.7 3.10.01062.el7.x8664 64 CentOS 7.9 3.10.01160.el7.x8664 64 Redhat 7.4 3.10.0693.el7.x8664 64 Redhat 7.9 3.10.01160.el7.x8664 64 Redhat 8.6 4.18.0372.9.1.el8.x8664 64 Redhat 8.8 4.18.0477.10.1.el88.x8664 64 Windows windows server 2016 64 Windows windows server 2019 64 说明 操作系统镜像来源于平台提供的公共镜像。 存储容灾服务支持操作系统版本,包括但不限于上述内容,持续更新中,敬请期待。
        来自:
        帮助文档
        存储容灾服务
        产品简介
        支持的操作系统版本
      • 运维用户客户端无法访问用户资产如何处理?
        运维用户客户端无法访问服务器、数据库等用户资产需要排查客户端到云堡垒机以及云堡垒机到运维资产的网络通路,重点排查安全组配置。 注意 请先确认以下配置均已正确配置: 运维终端已正确安装访问插件,并配置访问路径; 用户拥有访问及运维资产的授权。 排查步骤 1. 检查客户端到云堡垒机网络是否能连通。 在您的客户端使用ping命令测试客户端与堡垒机的网络是否连通,如果连接失败,请您登录堡垒机控制台,查看堡垒机EIP是否正常,检查云堡垒机实例安全组策略是否正确配置,确认IP和端口是否正确开放,具体请查阅安全策略配置方法。 2. 检查堡垒机到运维资产网络是否能连通。 检查云堡垒机实例到运维资产的网络和端口是否开放,需要检查运维资产所属安全组的安全端口访问策略限制,是否允许云堡垒机实例访问运维资产。
        来自:
        帮助文档
        云堡垒机(原生版)
        常见问题
        操作类
        运维用户客户端无法访问用户资产如何处理?
      • 产品定义
        本文为您介绍分布式消息服务MQTT的概念。 分布式消息服务MQTT是面向移动互联网以及物联网领域的轻量级消息中间件,扩展支持MQTT、MQTTSN、CoAP、LwM2M或私有TCP协议等主流通信协议。可以在有限的资源条件下,为连接远程设备提供实时可靠的消息服务并支持数据高效分类存储、再处理,实现终端设备与云端应用互通。 产品示意图 分布式消息服务MQTT的通信是通过基于主题(Topic)的发布/订阅方式来实现的,Broker用来进行消息的存储和转发,发布方和订阅方通过中间方Broker而无直接连接来进行解耦。一次典型的 MQTT 消息通信流程如下所示: 1. 发布方(Publisher)连接到Broker; 2. 订阅方(Subscriber)连接到Broker,并订阅主题Topic1; 3. 发布方(Publisher)发送给Broker一条消息,主题为Topic1; 4. Broker收到了发布方的消息,发现订阅方(Subscriber)订阅了Topic1,然后将消息转发给订阅方(Subscriber); 5. 订阅方从Broker接收该消息。 MQTT通过订阅与发布模型对消息的发布方和订阅方进行解耦后,发布方在发布消息时并不需要订阅方也连接到Broker,只要订阅方之前订阅过相应主题,那么它在连接到Broker之后就可以收到发布方在它离线期间发布的消息。我们可以称这种消息为离线消息。 核心概念 MQTT是一种轻量级的通信协议,广泛用于物联网(IoT)等领域,具有高效、可靠、低开销的特点。以下是MQTT核心概念总结: Broker(服务器) : MQTT协议中的服务端,负责管理连接、接收和转发消息,处理订阅和取消订阅请求。它充当中间人,将消息从发布者传递给订阅者。 Client(客户端): 使用MQTT协议的程序或设备,可以是传感器、嵌入式设备、服务器等。客户端与Broker建立连接,发送和接收数据,订阅或取消订阅主题。 Message(消息): MQTT协议中传输的数据单元,通常包含消息内容以及与之相关的主题名称和服务质量等信息。 Topic(主题): 主题用于标识消息的分类或关联。在发布消息时,消息与主题相关联,告诉Broker消息应该发送到哪个主题。在订阅消息时,客户端指定感兴趣的主题,Broker会将匹配的消息发送给订阅者。 Publish(发布): 客户端向Broker发送消息的过程。发布消息时需要指定主题和服务质量(QoS),Broker将消息转发给订阅了相同主题的其他客户端。 Subscribe(订阅): 客户端订阅特定主题的过程。客户端告诉Broker它对哪个主题感兴趣,一旦有消息发送到该主题,Broker会将消息传递给订阅者。取消订阅过程称为Unsubscribe。 QoS(服务质量): 用于控制消息可靠性传递的参数。 MQTT协议的灵活性和可定制性使其成为许多IoT应用的理想选择,能够适应不同的通信需求和资源限制。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        产品定义
      • 初始化Windows数据盘(Windows 2019)
        本文为您介绍在Windows 2019环境下初始化数据盘的操作场景及操作步骤。 操作场景 本示例以“Windows Server 2019 数据中心版64位中文版”操作系统为例,介绍云硬盘在Windows中的数据盘初始化操作。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考。 前提条件 数据盘已挂载至云主机,且此数据盘没有被初始化。 操作步骤 当新增云硬盘的容量小于2TB,初始化Windows数据盘的操作共分为两步,具体步骤如下: 登录弹性云主机。 初始化磁盘:根据界面提示完成磁盘初始化,当新增云硬盘的容量小于2TB时,分区形式请选择MBR(主启动记录)。 登录弹性云主机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>弹性云主机”,进入云主机列表页面。 4. 单击需要初始化数据盘的云主机所在行的“操作>远程登录”,登录此台云主机,具体操作可参见登录Windows弹性云主机。 初始化磁盘(MBR分区) 1. 登录成功之后,单击开始图标,在Windows Server区域中选择 “服务器管理器”。跳转至“服务器管理器>仪表板”窗口。 2. 在此页面中,单击右上角的“工具”,在下拉菜单栏中选择“计算机管理”。 3. 在“计算机管理”页面左侧导航栏中,选择“存储>磁盘管理”,进入“磁盘管理”页面。进入磁盘管理页面后,若存在没有初始化的磁盘,系统会自动弹出“初始化磁盘”的窗口,如图: 4. 因未初始化的磁盘容量小于2TB,因此磁盘分区形式勾选“MBR(主启动记录)”,点击“确定”。 5. 在磁盘1的未分配区域右键单击,选择“新建简单卷”,如图: 6. 在弹出的“新建简单卷向导”窗口,根据界面提示,点击“下一页”。 7. 用户根据需要指定卷大小(建议用户在初始化之前就计算好磁盘分区的容量),默认为最大值,单击“下一页”。 8. 勾选分配驱动器号,单击“下一页”。 9. 勾选“按下列设置格式化这个卷”,并根据实际情况设置参数,格式化新分区,这里保持默认值,单击“下一步”窗口跳转至完成页面。 10. 单击“完成”,等待片刻让系统完成初始化操作,当卷状态为“状态良好”时,表示初始化磁盘成功。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        初始化Windows数据盘(Windows 2019)
      • 流量镜像的使用限制
        本文主要介绍流量镜像的使用限制。 如下图所示,流量镜像的报文采用标准的VXLAN报文格式封装,更多有关VXLAN协议的信息,请参见RFC 7348。当被镜像的报文长度加上VXLAN报文长度大于镜像源实例的MTU值时,系统会对报文进行截断。为了防止报文被截断,建议您在IPv4场景下,设置弹性网卡的MTU值比链路支持的MTU值至少小64字节。 当前流量镜像支持部分规格云服务器的弹性网卡作为镜像源,包括c7n、m7n。 如果一个弹性网卡已被用作镜像源,则镜像目的不能使用该弹性网卡。 流量镜像会占用弹性网卡绑定实例的带宽,并且不做独立限速。 当一个镜像目的实例需要接收来自多个镜像源的流量镜像时,为了确保正常使用,请您根据业务实际需要合理规划云服务器的规格。 根据流量镜像的匹配规则,同一个镜像源的同一个报文同时符合多个筛选条件规则,也仅会被匹配一次,并且根据采集策略决定是否镜像到目的实例。 对于镜像源弹性网卡已被安全组或者网络ACL拦截丢弃的报文,流量镜像不会镜像该部分报文。 当镜像源的报文符合筛选条件被镜像时,该报文不受镜像源安全组或者网络ACL出方向规则约束,即您无需在镜像源的安全组或者网络ACL做额外配置。但是如果需要将报文镜像到镜像目的实例时,则需要为镜像目的实例所在的安全组和网络ACL配置以下规则: 安全组规则:入方向允许来自镜像源弹性网卡的IP访问4789端口的UDP协议报文。假如镜像源弹性网卡的IP地址为192.168.0.27,则安全组规则配置示例如下表所示。 规则类别 策略 类型 协议端口 源地址 入方向规则 允许 IPv4 自定义UDP: 4789 IP地址:192.168.0.27/32此处仅为示例,请根据实际情况配置。 网络ACL规则:入方向允许来自镜像源弹性网卡的IP访问所有端口的UDP协议报文。假如镜像源弹性网卡的IP地址为192.168.0.27,则网络ACL规则配置示例如下表所示。 规则类别 类型 策略 协议 源地址 源端口范围 目的地址 目的端口范围 入方向规则 IPv4 允许 UDP IP地址:192.168.0.27/32此处仅为示例,请根据实际情况配置。 此处为空,表示全部端口。 IP地址:10.10.0.0/24此处仅为示例,请根据实际情况配置。 4789必须放通4789端口,其他端口请根据实际情况配置。 不同的虚拟私有云VPC之间网络不通,如果镜像源和镜像目的实例不在同一个VPC内,则您需要使用VPC对等连接或者企业路由器连通VPC之间的网络。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        流量镜像
        流量镜像的使用限制
      • 安全接入点接入
        本节介绍如何使用的安全接入点接入Kafka的方法,文档以Java代码为例。 前提条件 已配置正确的安全组。 已获取连接Kafka实例的地址。 如果Kafka实例未开启自动创建Topic功能,在连接实例前,请先创建Topic。 已创建弹性云服务器,如果使用内网同一个VPC访问实例,请设置弹性云服务器的VPC、子网、安全组与Kafka实例的VPC、子网、安全组一致。 需要用户先在用户管理页面创建用户,然后给对应的topic授予生产消费权限。 使用内网同一个VPC访问,实例端口为8092,实例连接地址从控制台实例详情菜单处获取,如下图所示。 Maven中引入Kafka客户端 java Kafka实例基于社区版本2.8.2/3.6.2,推荐客户端保持一致。 org.apache.kafka kafkaclients 2.8.2/3.6.2 客户端关键参数 java Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLPLAINTEXT"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"Kafka@Test";"); 生产者代码示例 java package com.justin.kafka.service.gw.sasl; import org.apache.kafka.clients.CommonClientConfigs; import org.apache.kafka.clients.producer.Callback; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.config.SaslConfigs; import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class Producer { private final KafkaProducer producer; public final static String TOPIC "testtopic2"; public final static String BROKERADDR "192.168.0.11:8092,192.168.0.9:8092,192.168.0.10:8092"; public Producer() { Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLPLAINTEXT"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"Kafka@Test";"); props.put(ProducerConfig.ACKSCONFIG, "all"); props.put("retries",3); producer new KafkaProducer<>(props); } public void produce() { try { for (int i 0; i (TOPIC, data), new Callback() { public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception ! null) { // TODO: 异常处理 exception.printStackTrace(); return; } System.out.println("produce msg completed, partition id " + metadata.partition()); } }); } } catch (Exception e) { // TODO: 异常处理 e.printStackTrace(); } producer.flush(); producer.close(); } public static void main(String[] args) { Producer producer new Producer(); producer.produce(); } }
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        连接Kafka
        安全接入点接入
      • 使用KMS用户主密钥在线加解密数据
        本文为您介绍如何使用KMS中的用户主密钥,快速实现少量数据的在线加解密。 KMS提供针对敏感信息的加密能力,适用于保护小型敏感数据(小于6KB),如口令、身份信息、证书、后台配置文件等。 通过密钥管理服务KMS的在线加密API,使用用户主密钥(CMK)直接加密敏感数据信息,而非直接将明文存储,确保敏感数据安全。 场景示意图 操作流程(以证书加密为例) 1. 通过KMS控制台或者调用CreateKey接口,创建一个用户主密钥(CMK)。 2. 调用KMS服务的Encrypt接口,将明文证书加密为密文证书。 3. 将密文证书部署在服务器上。 4. 当服务器启动需要使用证书时,调用KMS服务的Decrypt接口将密文证书解密为明文证书。 相关API 您可以调用以下KMS API,轻松完成对数据的加密或解密操作。 API名称 说明 createKey 创建用户主密钥(CMK)。 encrypt 指定CMK,直接输入明文数据,由KMS在线加密数据。 decrypt 解密由encrypt接口加密的数据,不需要指定CMK即可完成在线解密。 操作步骤 1. 通过密钥管理服务控制台创建用户主密钥CMK。 2. 通过OpenAPI在线加密接口,对敏感数据进行加密。 请求参数说明 参数 是否必填 参数位置 参数类型 说明 cmkUuid 是 body String 主密钥(CMK)的全局唯一标识符。 plaintext 是 body String 待加密明文(必须经过Base64编码)。 请求示例 plaintext { "plaintext": "SGVsbG8gd29ybGQ", "cmkUuid": "241ede22626146179caf10d89990516c" } 成功返回 plaintext { "code": 200, "result": { "ciphertextBlob": "MDA2NE1qUXhaV1JsTWpJdE5qSTJNUzAwTmpFM0xUbGpZV1l0TVRCa09EazVPVEExTVRaakpqUTVaV00zTm1RM0xXTmpOR010TkRBd1pTMDVaakU1TFdZNU1EQXhOVGczWVdVd1pnPT3oCYiGAy7mNTLitIlJaQ92", "cmkUuid": "241ede22626146179caf10d89990516c", "keyVersionId": "49ec76d7cc4c400e9f19f9001587ae0f" }, "statusCode": 200, "success": 1 } 返回参数说明 参数 说明 ciphertextBlob 数据被指定CMK的主版本加密后的密文。 cmkUuid CMK的全局唯一标识符。如果请求中的Cmkuuid参数使用的是CMK的别名,在响应中会返回别名对应的CMK标志符。 keyVersionId 用于加密明文的密钥版本标志符,是指定CMK的主版本。 3. 将加密后的数据存储。 根据业务的应用场景,将密文进行存储。 4. 通过OpenAPI解密接口,对密文数据进行解密。 请求参数说明 参数 是否必填 参数位置 参数类型 说明 ciphertextBlob 是 body String 主密钥(CMK)加密的数据密钥的密文。 成功返回 plaintext { "statusCode": 800, "returnObj": { "code": 200, "result": { "cmkUuid": "8bca8f33d42a448a866ba064f44b29b7", "keyVersionId": "73670b284eea4260b497ae0334cc0c85", "plaintext": "sc7280+klUSln3Y9FHdfKGUT+6kPrcIMW41uZQeXxGU" }, "statusCode": 200, "success": 1 } } 返回参数说明 参数 说明 cmkUuid CMK的全局唯一标识符。如果请求中的Cmkuuid参数使用的是CMK的别名,在响应中会返回别名对应的CMK标志符。 keyVersionId 密钥版本ID。主密钥版本的全局唯一标识符。 plaintext 解密后的明文经过Base64编码的后的值。
        来自:
        帮助文档
        密钥管理
        最佳实践
        使用KMS用户主密钥在线加解密数据
      • 配置云容灾网关
        操作场景 初次使用的云容灾网关及容灾机器,需要配置。 前提条件 云容灾网关建议起始规格为8U16G,操作系统只支持Linux,建议参考支持的操作系统版本。 云容灾网关服务器所在的区域、可用区、VPC 需要和生产站点服务器保持一致。 云容灾网关和代理客户端建议放在同一安全组内,安全组配置为仅允许安全组内弹性云主机互通。 操作步骤 以下操作以配置“24.6.0”版本的容灾网关“sdrslinuxamd6424.6.0.20240627203949.tar.gz”为例。 在/opt/cloud/sdrs目录下,执行以下命令,配置云容灾网关。 sh registergateway.sh 执行脚本 1. 跨AZ场景配置参数: 参数 参数说明 获取方法 参数示例 DR Scene 复制场景 1 云平台跨AZ容灾 2 云平台跨Region容灾 1 source platform type 生产云平台类型 请联系管理员获取。 source project id 生产区域项目ID 在生产区域控制台“我的凭证”页面,查看“项目ID”。 51af777371904892a49a0c3e3e53de44 source region code 生产区域的Region ID 通过地区和终端节点页面查询。 source ecs endpoint 生产区域ECS终端节点 通过地区和终端节点页面查询。 source evs endpoint 生产区域EVS终端节点 通过地区和终端节点页面查询。 source iam ak 生产区域访问密钥ID 获取方式见API参考中的认证鉴权。 RZSAMHULWKKE71N0XHUT source iam sk 生产区域访问密钥 获取方式见API参考中的认证鉴权。 K7bXplAT0pEpy4SAiN2fHUwEtxvgmK3IqyhqnMTA target sdrs endpoint 容灾区域SDRS服务终端节点 通过地区和终端节点页面查询。 sdrs.region1.xxxx.com 2. 跨region场景配置参数: 参数 参数说明 获取方法 参数示例 DR Scene 复制场景 1 云平台跨AZ容灾 2 云平台跨Region容灾 2 source platform type 生产区域云平台类型 请联系管理员获取。 source project id 生产区域项目ID 在控制台“我的凭证”页面,查看“项目ID”。 51af777371904892a49a0c3e3e53de44 source region code 当前区域的Region ID 通过地区和终端节点页面查询。 source ecs endpoint 生产区域ECS终端节点 通过地区和终端节点页面查询。 source evs endpoint 生产区域EVS终端节点 通过地区和终端节点页面查询。 source iam ak 生产区域访问密钥ID 获取方式见API参考中的认证鉴权。 source iam sk 生产区域访问密钥 获取方式见API参考中的认证鉴权。 target sdrs endpoint 容灾区域SDRS服务终端节点 通过地区和终端节点页面查询。 sdrs.region1.xxxx.com target platform type 容灾区域云平台类型 请联系管理员获取。 target project id 容灾区域项目ID 在控制台“我的凭证”页面,查看“项目ID”。 51af777371904892a49a0c3e3e53de44 target iam ak 容灾区域访问密钥ID 获取方式见API参考中的认证鉴权。 target iam sk 容灾区域访问密钥 获取方式见API参考中的认证鉴权。
        来自:
        帮助文档
        存储容灾服务
        用户指南
        管理客户端
        配置云容灾网关
      • 将PostgreSQL同步到PostgreSQL
        前提条件 已登录数据复制服务控制台。 满足实时同步支持的数据库类型和版本,详情请参见实时同步。 已阅读以上使用建议和使用须知。 操作步骤 本小节以PostgreSQL>PostgreSQL的入云同步为示例,介绍如何使用数据复制服务配置VPC网络场景下的实时同步任务。 步骤 1 在“实时同步管理”页面,单击“创建同步任务”。 步骤 2 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”。 任务信息 表 任务和描述 参数 描述 任务名称 任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 同步实例信息 表同步实例信息 参数 描述 数据流动方向 选择“入云”。 源数据库引擎 选择“PostgreSQL”。 目标数据库引擎 选择“PostgreSQL” 。 网络类型 此处以“VPC网络”为示例,可选公网网络、VPC网络和VPN、专线网络。 目标数据库实例 目标数据库为RDS for PostgreSQL数据库实例。 同步实例所在子网 请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 同步模式 全量+增量:该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 全量该模式为数据库一次性同步,适用于可中断业务的数据库同步场景,全量同步将非系统数据库的全部数据库对象和数据一次性同步至目标端数据库。 标签 表标签 参数 描述 标签 可选配置,对同步任务的标识。使用标签可方便管理您的任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。 说明 对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。 步骤 3 在“源库及目标库”页面,同步实例创建成功后,填写源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 测试连接时需要确保DRS任务与源库、目标库的连通性。 网络连通性: 确保源库和目标库允许DRS访问,通常至少需要放通DRS的IP。公网网络的DRS任务放通DRS的公网IP,VPC网络、VPN、专线网络的DRS任务放通DRS的内网IP。 帐号连通性 :确保源库和目标库允许DRS通过连接帐号和密码访问。 说明 此处源库类型分为ECS自建库和RDS实例,需要根据源数据库的实际来源选择相应的分类。两种场景下的参数配置不一样,需要根据具体场景进行配置。 场景一:ECS自建库源库信息配置 表 ECS自建库场景源库信息 参数 描述 源库类型 选择“ECS自建库”。 VPC 源数据库实例所在的虚拟专用网络,可以对不同业务进行网络隔离。您需要创建或选择所需的虚拟私有云。 子网 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。子网在可用分区内才会有效,创建源数据库实例的子网需要开启DHCP功能,在创建过程中也不能关闭已选子网的DHCP功能。 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 指定数据库名称 选择是否指定数据库,开启后需手动输入数据库名称。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对同步链路的加密。 说明 源数据库的IP地址或域名、数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。 场景二:RDS实例源库信息配置 表RDS实例场景源库信息 参数 描述 源库类型 选择“RDS实例”。 数据库实例名称 选择待同步的关系型PostgreSQL数据库实例作为源数据库实例。 数据库用户名 源数据库实例的用户名。 数据库密码 源数据库的用户名所对应的密码。 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型PostgreSQL数据库实例,不可进行修改。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。 说明 源和目标数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 在“设置同步”页面,选择同步对象和同步用户,单击“下一步”。 表 同步对象 参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 l 限速 自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 l 不限速 对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 l 限速模式只对全量阶段生效,增量阶段不生效。 l 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下形式: l 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 l 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 l 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 对象同步范围 对象同步范围支持选择普通索引、增量DDL同步和全量阶段填充物化视图,您可以根据业务需求选择是否进行同步。 全量阶段填充物化视图:仅对源库已经填充的物化视图生效,该填充操作会影响全量同步性能,建议在全量同步完成后,手动在目标库填充。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 l 选择库级同步: 全量同步时,同步对象为所选的库、库中对象的存量数据;增量同步时,同步除了无日志表、临时表外的所有表的DML及部分 DDL。 l 选择表级同步: 全量同步时,同步对象为所选的表、序列、视图或物化视图的存量数据;增量同步时,同步所选表的DML及部分 DDL。 l 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。 模式名或表名映射时,为防止索引和约束名冲突,同步后表上的原索引名称将变为此格式:i+哈希值+原索引名(可能被截断)+key。其中哈希值由“原模式名原表名原索引名”计算得到。同理,同步后表上的原约束名将变为:c+哈希值+原约束名(可能被截断)+key。 说明 l 选择对象的时候支持对展开的库 进行搜索,以便您快速选择需要的数据库对象。 l 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。 l 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。 l 选择的同步对象名称中不能包含空格。 同步用户 数据库的同步过程中,同步用户需要进行单独处理。 同步用户一般分为两类:可同步的用户和不支持同步的用户。对于不支持同步的用户,在备注列的查看详情中会提示具体的原因,您可以根据业务需求选择是否同步用户和权限。 步骤 5 在“预检查”页面,进行同步任务预校验,校验是否可进行。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 步骤 6 在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。 表 任务启动设置 参数 描述 启动时间 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 说明 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 步骤 7 同步任务提交后,您可在“管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见任务状态说明。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将PostgreSQL同步到PostgreSQL
      • 配置卷类型
        本节主要介绍HBlock Cinder配置卷类型。 可以按照下列步骤进行卷类型配置。 1. 修改Cinder的配置文件/etc/cinder/cinder.conf,使用enabledbackends启用HBlock的卷,并且在配置文件中增加HBlock卷相关参数。 说明 一次可以在cinder.conf添加多个卷的类型。 单机版示例如下: plaintext [DEFAULT] enabledbackends lvmdriver1,stor1 [stor1] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor1 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint writepolicy WriteBack sectorsize 4096 maxsessions 2 storpath /mnt/stor flattenvolumefromsnapshotfalse maxclonedepth5 集群版示例如下: plaintext [DEFAULT] enabledbackends lvmdriver1,stor,stor1,stor2 [stor] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storchapuser chapuser storchappassword storagemode Local localstorageclass EC 2+1 highavailability ActiveStandby writepolicy WriteBack sectorsize 512 ecfragmentsize 16 maxsessions 2 minreplica 2 flattenvolumefromsnapshotfalse maxclonedepth5 [stor1] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor1 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storagemode Local localstorageclass singlecopy highavailability Disabled writepolicy WriteAround sectorsize 512 flattenvolumefromsnapshottrue maxclonedepth5 [stor2] volumegroupstackvolumeslvmdriver2 volumedriverstordriver.driver.driverstor.StorDriver volumebackendname stor2 storprovider HBlock storapiuser storuser storapipassword storchapuser chapuser storchappassword storapiendpoint storagemode Local localstorageclass 3copy highavailability ActiveStandby writepolicy WriteThrough sectorsize 4096 文件中的参数解释如下: 参数名称 参数说明 是否必须 enabledbackends 需要在系统生效的后端存储名称。 如果有多个需要生效的存储,名称之间用英文逗号隔开。 是 volumegroup 卷的组。 是 volumedriver HBlock驱动所在路径。 取值: 如果驱动作为独立Python包进行安装,取值为stordriver.driver.driverstor.StorDriver。 如果复制stordriver到Cinder驱动目录的方式安装驱动,取值为:cinder.volume.drivers.stordriver.driver.driverstor.StorDriver。 是 volumebackendname 卷对应的后端存储名称,存储节点的Volume Provider 命名。与enabledbackends定义的后端存储名字保持一致。 是 storprovider 产品名称。 取值:HBlock。 是 storapiuser HBlock的管理员用户名。 说明 HBlock初始化时,默认用户名为storuser。 是 storapipassword HBlock的管理员密码。 是 storagemode HBlock卷的模式。 取值: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 默认值为Local。 否 storchapuser CHAP验证用名称。 取值:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 storchappassword CHAP认证密码。 取值:字符串形式,长度范围是12~16,只能由字母、数字或下划线( )组成,字母区分大小写。 否 storapiendpoint 配置HBlock RESTful API地址和端口。 对于集群版HBlock,可以填写多对HBlock RESTful API地址和端口,以英文逗号隔开。 说明 安装HBlock时,默认API端口为1443。 是 storpath 指定HBlock存储卷数据的数据目录(仅单机版支持)。 说明 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 否 servernumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 faultdomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 pool 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 注意 已用该卷类型创建卷,禁止修改pool,否则将影响已创建的卷。如果需要修改pool,需要创建新的卷类型。 否 cachepool 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 否 highavailability 选择卷的高可用类型(仅集群版支持): ActiveStandby:启用主备,该卷关联对应Target下的所有IQN。 Disabled:不启用主备,该卷关联对应Target下的1个IQN。 默认值为ActiveStandby。 否 localstorageclass 卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 否 minreplica 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 否 redundancyoverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:对副本模式,取值范围是[1,副本数],默认值为1;对于EC模式,取值范围是[1,M+N],默认值为1。 否 ecfragmentsize 纠删码模式分片大小(仅集群版支持)。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 否 sectorsize 设置扇区大小。 取值:512、4096,单位是bytes。默认值为4096。 否 writepolicy 卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack(wb)。 否 maxsessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 否 flattenvolumefromsnapshot 是否断开卷与快照的关系链: true:断开。 false:不断开。 默认值为false。 否 maxclonedepth 最大克隆卷深度,当超过设置的最大深度时,新创建的卷会自动执行断链。 取值:整数,取值范围是[0, 15],默认值为5。0表示不支持克隆卷。 否 cloudbucketname 已存在的OOS存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 上云卷必填 cloudprefix 设置OOS中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 取值:字符串形式,长度范围是1~256。 否 cloudaccesskey OOS AccessKeyID。 上云卷必填 cloudsecretkey OOS SecretAccessKey。 上云卷必填 cloudendpoint 设置OOS Endpoint。 上云卷必填 cloudobjectsize 数据存储在OOS中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 否 cloudstorageclass 设置OOS的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为STANDARD。 否 cloudcompression 是否压缩数据上传至OOS: Enabled(on):压缩数据上传至OOS。 Disabled(off):不压缩数据上传至OOS。 默认值为Enabled(on)。 否 cloudsignversion 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 否 cloudregion 表示Endpoint资源池所在区域。 V4签名时,此项必填。 条件 deleteclouddata 删除卷时,是否删除云上的数据: true:删除云上数据。 false:不删除云上数据。 默认值为true。 否 2. 使用下列命令,使用配置生效: plaintext cinder typecreate volumebackendname cinder typekey volumebackendname set volumebackendnamevolumebackendname 示例1:使步骤1中单机版配置生效 plaintext cinder typecreate stor1 cinder typekey stor1 set volumebackendnamestor1 示例2:使步骤1中配置的集群版配置生效 plaintext cinder typecreate stor cinder typekey stor set volumebackendnamestor cinder typecreate stor1 cinder typekey stor1 set volumebackendnamestor1 cinder typecreate stor2 cinder typekey stor2 set volumebackendnamestor2 3. 重启Cinder服务 如果使用DevStack方式安装OpenStack,重启Cinder服务命令如下: plaintext systemctl restart devstack@c 如果使用Packstack安装OpenStack,重启Cinder服务命令如下: plaintext systemctl restart openstackcinder 4. 配置Multipath(集群版) 1)参考客户端配置章节中的“配置 MPIO”,确保MPIO正确配置。 2)启用Nova的multipath功能(如果是多节点部署,需要到对应的计算节点修改配置):如果使用DevStack方式安装OpenStack,修改/etc/novacpu.conf;如果使用Packstack安装OpenStack,修改/etc/nova/nova.conf。 plaintext [libvirt] iscsiusemultipath true 5. 重启Nova服务(集群版) 如果使用DevStack方式安装OpenStack,重启Nova服务命令如下: plaintext systemctl restart devstack@n 如果使用Packstack安装OpenStack,重启Nova服务命令如下: plaintext systemctl restart openstacknova 说明 如果是多节点部署,需要到对应的计算节点重启Nova服务。 6. 验证卷是否配置正确 plaintext cinder typelist cinder typeshow ID
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        OpenStack Cinder驱动插件
        配置卷类型
      • 多层级资源管理最佳实践
        二、 简单型多层级组织 简单型多层级组织架构一般为三级,即存在一级组织总管平台,具备平台全部权限,同时二级组织所使用的资源数量需要由一级组织进行分配。二级组织下有多个项目,此时可以参照该模式进行多级资源管理,进行AI作业,组织层级及各层级角色与功能关系如下图: 一级组织:一级组织可以视为客户内部使用天翼云训推平台最高管理人员,将其账号赋予“admin”用户组(即管理员角色),其将拥有平台全部权限(参见《准备工作章节》)。一级组织(管理员)进行资源层面的管控,可以给二级组织(二级管理员)分配专属集群资源,具体AI作业由二级组织及其下级组织执行。一级组织(管理员)给二级组织(二级管理员)分配专属集群资源的操作步骤详见《成员管理章节》。 二级组织:二级组织可以视为客户内部具体的业务部门,将二级组织负责人的账号赋予“二级管理员”用户组(即二级管理员角色),其可拥有平台内仅次于管理员的权限(与管理员的区别主要在于资源使用权,二级组织负责人(二级管理员)需要由一级组织(管理员)为其分配资源后,才可使用被分配的资源)。二级组织负责人(二级管理员)基于一级组织(管理员)为其分配的资源,可以将这些资源用于组织内部的AI作业。二级组织内部存在多个项目,故为了便于将每个项目进行区分,训推平台引入了“工作空间”概念,即使用训推平台进行AI作业时,需要在工作空间内进行,在空间内,项目所有成员之间数据、资源共享,各个空间之间数据和资源是互相隔离的。故若二级组织下有多个项目,可以由二级组织负责人(二级管理员)为每个项目创建一个工作空间,并将项目负责人授予工作空间管理员权限,以及为每个工作空间创建专属的资源配额,供下级组织成员使用。工作空间的创建、工作空间成员的添加详见《工作空间章节》,资源配额的创建详见《资源配额章节》。 三级组织:三级组织即为具体使用训推平台进行AI作业的项目团队,每个项目具备单独的工作空间(由二级组织负责人(二级管理员)创建),二级组织负责人(二级管理员)可以设置项目负责人为此工作空间的管理员,项目负责人(工作空间管理员)可以将项目其他成员添加进工作空间,并赋予其工作空间内的角色(如算法开发、运维角色),若二级组织负责人(二级管理员)未给工作空间添加资源配额,则项目负责人(工作空间管理员)可以自己为工作空间添加资源配额(只有为工作空间添加资源配额后,工作空间成员在进行AI作业时才能正常使用资源)。工作空间成员可以基于工作空间关联的资源配额进行AI作业,如模型开发、模型训练,推理部署等。工作空间成员的添加以及为工作空间添加资源配额详见《工作空间章节》,资源配额的创建详见《资源配额章节》。
        来自:
      • 加载软件许可证
        本节主要介绍如何使用API加载软件许可证。 此操作用来加载软件许可证。 说明 HBlock软件初始化后提供30天试用期,如确定使用,建议尽快联系软件供应商获取正式版软件许可证,并加载。 可以通过查询HBlock信息获取HBlock序列号serialId,将该该序列号提供给软件供应商用于获取软件许可证。 试用期过期,或软件许可证过期,仅部分功能可用,详见软件许可证到期(试用期或订阅模式)后仍可用的功能。 永久模式许可证的维保服务过期后,升级功能不可用,其余功能均可正常使用。 请求语法 plaintext POST /rest/v1/system/license HTTP/1.1 Date: date ContentType: application/json; charsetutf8 ContentLength: length Host: ip:port Authorization: authorization { "key": "key" } 请求参数 参数 类型 描述 是否必须 key String 软件许可证密钥。 是 响应结果 名称 类型 描述 licenseId String 软件许可证ID。 account String 软件许可证所属的账号。 customerName String 客户名称。 说明 如果申请许可证时未填写,不显示此字段。 type String 软件许可证的购买类型: Subscription:订阅模式。 Perpetual:永久许可模式。 status String 软件许可证的状态: Effective:已生效。 Expired:已过期。 Invalid:已失效。 如果软件许可证是Perpetual类型的,不存在过期状态。 maximumLocalCapacity Long 当前时间允许的最大本地卷容量,单位TiB。如果不限容量,不返回此项。 records Array of record 软件许可证购买记录的集合,详见“表1 响应参数record说明”。 usages Array of usage 软件许可证的使用记录的集合,详见“表2 响应参数usage说明”。 表1 响应参数record说明 名称 类型 描述 purchaseTime Long 记录购买的时间,unix时间戳(UTC),精确到毫秒。 operationtype String 软件许可证的购买操作记录: New:首次购买。 Expand:扩容。 Renew:续订/续保。 localCapacity Long 本次购买对应的本地卷容量,单位TiB。如果不限容量,不返回此项。 subscribeEffectiveTime Long 对于订阅模式的软件许可证,本次购买操作对应的软件许可证生效时间,unix时间戳(UTC),精确到毫秒。 subscribeExpireTime Long 对于订阅模式的软件许可证,本次购买操作对应的软件许可证的过期时间,unix时间戳(UTC),精确到毫秒。 maintenanceEffectiveTime Long 对于永久许可模式的软件许可证,本次购买操作对应的维保生效时间,unix时间戳(UTC),精确到毫秒。 maintenanceExpireTime Long 对于永久许可模式的软件许可证,本次购买操作对应的维保的过期时间,unix时间戳(UTC),精确到毫秒。 substatus String 本次购买操作的当前生效状态: NotStart:未生效。 Effective:已生效。 Expired:已过期。 表2 响应参数usage说明 名称 类型 描述 maximumLocalCapacity Long 对应时间段内允许的最大本地卷容量,单位TiB。如果不限容量,不返回此项。 subscribeEffectiveTime Long 对于订阅模式的软件许可证,许可证对应的生效时间,unix时间戳(UTC),精确到毫秒。 subscribeExpireTime Long 对于订阅模式的软件许可证,许可证对应的过期时间,unix时间戳(UTC),精确到毫秒。 maintenanceEffectiveTime Long 对于永久许可模式的软件许可证,许可证对应的维保生效时间,unix时间戳(UTC),精确到毫秒。 maintenanceExpireTime Long 对于永久许可模式的软件许可证,许可证对应的维保过期时间,unix时间戳(UTC),精确到毫秒。 substatus String 对于订阅模式的软件许可证,表示对应时间段内许可证的状态;对于永久许可模式的软件许可证,表示对应时间段内许可证的维保状态: NotStart:未生效。 Effective:已生效。 Expired:已过期。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        软件许可证
        加载软件许可证
      • 创建告警规则
        本文介绍如何针对弹性文件服务创建告警规则。 概述 通过使用云监控的告警功能,用户可以对弹性文件服务的核心监控指标设置告警规则,当监控指标触发用户设置的告警条件时,支持以邮箱、短信等方式通知用户,让用户在第一时间得知云服务发生异常,迅速处理故障,避免因资源问题造成业务损失。更多信息,请参考使用告警功能云监控服务用户指南。 操作步骤 方式一:通过云监控服务控制台创建告警规则 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 单击“管理与部署>云监控服务”,进入云监控控制台页面。 3. 单击“云服务监控”下拉菜单,选择"告警服务>告警规则",进入告警规则控制台页面 4. 可通过以下三个入口,创建告警规则: 入口一:您可以选择在“云服务监控>弹性文件监控”页,在目标文件系统的“操作”栏下点击“创建告警规则”,选择需要告警服务的监控指标创建规则,包括监控阈值、通知频率、通知方式等。 入口二:在“云服务监控>弹性文件监控”页面,在目标文件系统的“操作”栏下点击“查看监控图表”,进入文件系统的监控详情页,目标监控项图表右上方,点击“+”创建此监控项的告警规则。 入口三:单击“云服务监控”下拉菜单,选择"告警服务>告警规则",进入告警规则控制台页面,页面右上方点击“创建告警规则”,选择监控服务:弹性文件及文件系统名称、监控维度、实例、指标等参数,创建相应的告警规则。 5. 根据界面提示,配置告警规则的相关指标,配置参数如表所示: 参数 参数说明 选择类型 可选择从模板导入或自定义创建。 从模板导入:在下拉框中选择已有的模板,参考告警模板云监控服务用户指南。 自定义创建:需进行配置参数选择。 监控指标 详细内容参见监控指标。 策略 支持的聚合值:原始值、平均值、最大值、最小值支持的策略:≥,>,≤,<,=值:填写设定的值数。 聚合周期 可以选择:1分钟、5分钟、20分钟、1小时、4小时、12小时和24小时,根据告警规则需求选择。 出现次数 选择达成策略值出现的次数。 发送通知 关闭,无需配置后续通知规则;开启,需配置下列相关参数,选择通知发送的模式。 选择告警联系组 在下拉框中选择告警联系组,如果没有,需添加告警联系人/组。 告警重复 可以选择不重复、1次、2次、3次。 触发场景 出现告警,恢复正常。 通知周期 选择可接收到通知的时间,根据需求勾选星期一、星期二、星期三、星期四、星期五、星期六、星期日。例如未勾选星期一,则星期一不会收到通知信息。 通知时段 选择通知的具体时间段,如6:30:007:30:00。 通知方式 邮件、短信。 告警回调 请填写具体URL。 规则名称 填写告警规则名称。 企业项目 选择告警规则所属企业项目。 描述 填写告警规则的信息描述,限制100字以内。 6. 设置好对应参数后,点击“确定”,等待告警规则创建完成。 7. 弹性文件服务告警规则设置完成后,当符合规则的告警产生时,系统会自动进行通知。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        监控告警
        创建告警规则
      • 概述
        本文主要介绍云日志服务的日志接入概述。 云日志服务支持实时日志采集,通过采集器的方式方便您在各种数据源场景下采集日志,采集日志后,您可在云日志服务控制台实时查询、分析日志数据。 日志源接入 目前支持接入天翼云弹性云主机以及云容器引擎日志接入。 弹性云主机:支持采集云主机文本日志,将弹性云主机待采集日志的路径配置到日志单元中,采集器将按照配置的采集规则采集日志至云日志服务。接入详情请参考接入云主机文本日志。 云容器引擎:支持采集云容器引擎的标准输出日志与文件日志。接入详情请参考接入云容器引擎应用日志。 日志结构化解析 日志的结构化解析指日志数据将以 keyvalue 对的形式存储在云日志服务平台上。日志数据结构化后,您可以在云日志服务控制台根据指定的键值进行日志检索、分析与加工。目前采集器提供多种解析方式,详情如下: 解析方式 说明 单行全文 单行全文是指一条日志仅包含一行的内容,在采集的时候,将使用换行符来作为一条日志的结束符,即在日志文件中,以换行符分隔两条日志。日志数据本身不再进行日志结构化处理,也不会提取日志字段。每条日志都会存在一个默认的字段message,采集器会将日志内容存放在message中。详情请参考单行全文模式。 多行全文 多行全文日志是指一条完整的日志数据可能跨占多行,您需要指定首行正则以进行匹配,当某行日志匹配上预先设置的正则表达式,就认为是一条日志的开头,而下一个行首出现则作为该条日志的结束标识符。日志内容同样也会存放在message字段中。详情请参考多行全文模式。 单行正则 单行正则模式用于处理结构化的日志,针对包含一行内容的日志,您需要指定一个正则表达式,采集器按照正则表达式将一条完整日志提取为多个 keyvalue 键值。详情请参考单行正则模式。 多行正则 多行正则模式用于处理结构化的日志,针对包含多行内容的日志,您需要指定一个行首正则表达式用于匹配日志的开头,并指定一个正则表达式用于提取多个值,采集器按照该正则表达式将一条完整日志提取为多个 keyvalue 键值。详情请参考多行正则模式。 单行分隔符 单行分隔符模式支持通过配置的分隔符将一条日志分割成多个 keyvalue 键值,从而实现结构化处理,该模式仅适用于单行日志,每条完整的日志以换行符为结束标识符。详情请参考单行分隔符模式。 JSON 支持解析Object类型的JSON日志,提取JSON日志内容作为KeyValue对,即Object首层的键作为Key,Object首层的值作为Value。详情请参考JSON模式。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        概述
      • Windows主机挂载
        介绍Windows主机挂载的最佳实践。 实践背景 使用iSCSI协议的块设备也可以在windows操作系统下使用,下面将以win10为例连接天翼云媒体存储块设备,其他版本的操作系统类似。 操作步骤 1.打开控制面板>管理工具> iSCSI 发起程序。 2.修改iSCSI 发起程序中"配置"页下的发起程序名称为媒体存储控制台块设备创建时填写的CHAP iqn(本例以iqn.209901.com.client.cicdtestcy:230323为例); 3.右键开始菜单,管理员模式下运行命令行程序,如下图。 并在命令行中输入如下命令(所有都需要): iscsicli AddTarget iqn.201810.com.redhat.iscsigw:iscsiigw iqn.201810.com.redhat.iscsigw:iscsiigw 14.215.109.226 13260 说明 1. 以上示例中:iqn.201810.com.redhat.iscsigw:iscsiigw 是TargetName、TargetAlias,对应TargetIqn,14.215.109.226是网关地址,13260是数据端口。挂载时,您需要对应替换成需要挂载的块空间信息。 2. 你也可以可直接通过块空间详情复制对应的操作命令,具体界面如下图所示。如您通过控制台复制挂载命令进行操作,此步操作完成后,可直接跳转第5步查看新增的磁盘信息。 3. 更多块空间管理操作可参考: 结果如下: 并且在"属性"中的"门户组"页下可以看到关联的网络门户为14.215.109.226:13260。 4.连接到目标网关:点击【连接】按钮,然后点击【高级】,再勾选【启用CHAP登录】,并输入名称和目标机密,最后点击【确定】,就会进行连接,如下图所示。 这里具体的参数可参考:块空间管理,获取所需挂载块空间的CHAP用户与CHAP密钥。 5.实现连接后,可以在计算机管理>磁盘管理中找到新加入的网络盘,如下图,然后进行磁盘的初始化工作。初始化完成后,即可在资源管理器中看到新增的设备,可进行正常的文件系统操作。 6.断开连接:点击iSCSI发起程序目标下面的刷新,在已连接磁盘上右键点击"断开连接",或者在命令行中输入命令:iscsicli SessionList ,找到连接ID;再输入:iscsicli LogoutTarget,完成断开操作。 7.删除连接,在命令行中输入:iscsicli RemoveTarget iqn.201810.com.redhat.iscsigw:iscsiigw ,完成删除操作。
        来自:
        帮助文档
        媒体存储
        最佳实践
        块存储
        Windows主机挂载
      • 数据脱敏
        本页介绍天翼云TeleDB数据库中数据脱敏。 脱敏是指在用户无感知的情况下,对非授权用户返回被脱敏的数据。其主要原理是通过某种运算法则,在真实数据返回给访问终端前,按照既定规则,将原始数据映射到另一种形式(可以支持多种变化),该映射规则对查询用户不可见,且转换后的形式不能做逆向操作(即转换为原始数据)。 说明 无感知是指用户使用的查询操作变化,也无需增加额外的运算操作。 非授权用户是指没有访问权限的用户,以访问表为例,用户具备该表的查询权限,但被限制对某些字段真实值的获得。 例如: 安全员通过脱敏配置接口,对表的某些敏感字段设置数据脱敏规则。这样原系统中的所有用户(包括管理员)再去查看表数据时,都得到的脱敏规则使能后的结果,且规则下发后立即生效,无需停机或者重启。 相应的,对于原本正常访问的数据库用户,定义为授权用户,安全员可以将这些数据库用户定义为某些对象的白名单用户,即给这些数据库用户添加白名单属性。这些白名单用户在登录系统完成鉴权后,就被系统识别为授权用户,访问表的方式也是没有变化的,而且获得的都是原始数据。 所以,从以上两个维度实现了更细粒度的数据访问控制,是对现有访问控制的增强,而且做到对现有业务系统无感知。 创建数据脱敏策略 1. 切换到godlike用户,创建 tbldatamaskxx表、tbldatamaskyy表、tbldatamaskzz表,并插入数据。 c regression godlike create table tbldatamaskxx( i int, im int, ii int2, iim int2, j bigint, jmbigint, x varchar, xm varchar, y text, ym text) distribute by shard(i); NOTICE: Replica identity is needed for shard table, please add to this table through "alter table" command. insert into tbldatamaskxx values(1024, 1024, 7788, 7788,42949672960,42949672960, '112233201804035566', '112233201804035566','abcdefghijk', 'abcdefghijk'); insert into tbldatamaskxx(i, x) values(1025, 'all is null'); insert into tbldatamaskxx(i, x, xm, ym) values(1026, 'all is null', 'this is a very very very looooooooong string, i guess here is over 32 bytes length, emmmmm', 'tbase!!~~~'); create table tbldatamaskyy( i int, im int, ii int2, iim int2, j bigint, jmbigint, x varchar, xm varchar, y text, ym text) distribute by shard(i);; 使用mlsadmin用户创建数据脱敏策略 案例1:api健壮性测试 NOTICE: Replica identity is needed for shard table, please add to this table through "alter table" command. insert into tbldatamaskyy values(1024, 1024, 7788, 7788, 42949672960,42949672960, '112233201804035566', '112233201804035566','abcdefghijk', 'abcdefghijk'); create table tbldatamaskzz ( i int , j text , z text ) distribute by shard(i);; NOTICE: Replica identity is needed for shard table, please add to this table through "alter table" command. insert into tbldatamaskzz values(1024,'x','y'); 2. 使用mlsadmin用户创建数据脱敏策略。 c regression mlsadmin select currentdatabase(); currentdatabase regression (1 row) select currentuser; currentuser mlsadmin (1 row)
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        数据脱敏
      • 全密态加密
        本页介绍天翼云TeleDB数据库中全密态加密。 全密态加密是一种数据加密技术,‌旨在确保数据在整个生命周期(‌包括传输、‌运算和存储)‌中始终保持加密状态,‌从而保护数据隐私。‌这种加密技术不仅涉及到数据的存储加密,‌还包括数据在处理过程中的加密,‌确保即使在数据传输和计算过程中,‌攻击者也无法获取有效的数据信息。‌全密态加密技术的实现依赖于特定的密钥管理机制,‌包括客户端主密钥(‌CMK)‌和数据加密密钥(‌CEK)‌的使用,‌其中CMK用于加密CEK,‌而CEK则用于加密用户数据,‌从而形成一个完整的数据加密体系。 全密态加密方案 全密态加密的实现原理是用户发起查询任务指令,在客户端按照与数据相同的加密策略(加密算法,加密密钥等)完成加密。参数加密完成后整个查询任务被变更成⼀个加密的查询任务并发到数据库服务端。查询得到的结果仍然为密⽂,并最终返回客户端进⾏解密。其核心在用户自己持有数据加解密密钥且数据加解密过程仅在客⼾侧完成,数据以密⽂形态存在于数据库服务侧的整个生命周期过程中,并在数据库服务端完成查询运算。 开启全密态加密 您可参考如下操作开启全密态加密。 管控侧操作: 1. 以用户名和密码登录TeleDBDCP管理控制台。 2. 进入TeleDBDCP控制台管理页面,开通实例。您可参考《安装部署》中实例服务初始化及实例开通章节开通实例。 3. 在实例开通页面,填写基本信息页面,打开KMS开关,选择KMS机器。 说明 KMS开启后无法关闭,选择后无法更改。 数据库侧操作: 1. 在安装⽬录下新建 etc/localkms ⽬录⽤于存储CMK⽂件。 2. psql使⽤C开启全密态。 psql dxxx pxxx hxxx C 3. 创建主密钥CMK。 CREATE CLIENT MASTER KEY cmk1 WITH (KEYSTORE LOCALKMS , KEYPATH "kms1", ALGORITHM SM2); 4. 创建数据密钥CEK。 CREATE COLUMN ENCRYPTION KEY CEK1 WITH VALUES (CLIENTMASTERKEY cmk1,ALGORITHM SM4SM3); 5. 创建加密表,指定加密列。 CREATE TABLE creditcardinfo ( idnumber int,name text encrypted with (columnsencryptionkey cek1, encryptiontype DETERMINISTIC), creditcard varchar(19) encrypted with (columnsencryptionkey cek1,encryptiontype DETERMINISTIC)); 6. 执⾏SQL(仅⽀持SELECT、UPDATE、INSERT、DELETE)。 使用示例 创建CMK主秘钥 CREATE CLIENT MASTER KEY cmk12 WITH (KEYSTORE localkms, KEYPATH "localkms1" , ALGORITHM SM2);CREATE CLIENT MASTER KEY cmk2 WITH (KEYSTORE localkms, KEYPATH "localkms1" , ALGORITHM SM2); 创建CEK数据秘钥 CREATE COLUMN ENCRYPTION KEY cek1 WITH VALUES (CLIENTMASTERKEY cmk1, ALGORITHM SM4SM3);CREATE COLUMN ENCRYPTION KEY cek2 WITH VALUES (CLIENTMASTERKEY cmk2, ALGORITHM SM4SM3);DROP CLIENT MASTER KEY cmk1 CASCADE 创建加密表,col1未加密,col2使⽤cek1加密,col3和col4使⽤cek2加密 CREATE TABLE IF NOT EXISTS tbl1 (col1 INT,col2 INT ENCRYPTED WITH (COLUMNSENCRYPTIONKEY cek1, ENCRYPTIONTYPE DETERMINISTIC),col3 TEXT ENCRYPTED WITH (COLUMNSENCRYPTIONKEY cek2, ENCRYPTIONTYPE DETERMINISTIC),col4 VARCHAR(20) ENCRYPTED WITH (COLUMNSENCRYPTIONKEY cek2, ENCRYPTIONTYPE DETERMINISTIC));
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        安全配置手册
        数据加密
        全密态加密
      • 变量规范
        本文将为您介绍天翼云短信服务的变量规范。 变量命名 短信模版需明确表述短信发送的实际内容,禁止发送一切有关黄赌毒、党政军、诈骗等违法内容。 短信模版可以包含变量,变量前后需加文字说明,以体现模版使用者的商业意图,不支持仅为变量或多个变量的组合,如: 你好:${content} 你好:${name},${content} 变量表示实际发送短信时,用户希望自定义变化的内容,固定格式如:${name}、${content}等,中间字母应代表变量名字。 {}内变量命名规则:首字母必须为英文字母、只支持字母、数字和下划线组成,不能为纯数字等。 变量规范 短信模板可以包含变量,变量表示实际发送短信时,用户希望自定义变化的内容。变量前后需加文字说明,以体现模板使用者的商业意图,公众号、小程序、App、链接等产品内容需置于变量外。 类别 说明 :: 变量格式 ${name}、${content}等,中间字母应代表变量属性。 变量名称 变量限制为1~25个字符,首字母必须为英文字母,只支持字母、数字和下划线组成,不能为纯数字,同时不能为email、mobile、id、nick、site等。 说明:如果变量超过25字符,您需要升级为企业用户,然后提交工单申请解除变量限制,由专员对新提交的短信模板进行评估。变量个数不做限制,但是模板长度有限,您需要将模板总长度(含变量信息)控制在500字符内。 其他规范 通知模板可以添加链接但需固定内容:不支持设置变量链接,如www.${site}.cn 个人和企业用户如果选择模板类型 为短信通知 ,且模板内容 中设置了变量时,必须指定变量属性。变量属性的设置规范如下: 变量属性 变量名称 规范 ::: 电话号码 自定义,建议设置为phone等。 长度为5~11位。 支持国内标准手机号、固定电话号码。 其他号码 自定义,建议根据编号类型设置,例如code、order、ordersn、password等。 订单号等数字或编码,主要用于订单号、密码、随机密钥等数字组成的编号。 不支持手机号、QQ号、微信号、URL等联系方式。 变量限制为1~25个字符。 仅包含大小写字母、数字和字符组合。 时间 自定义,建议根据时间类型设置,例如time、date、day、year、month等。 变量限制为1~25个字符。 需要符合时间的表达方式,例如20210315、20210315、2021/03/15等。 说明:不支持下划线等特殊符号。 金额 自定义,建议设置为money等有意义的变量名称。 变量限制为1~25个字符。 仅支持传入能够正常表达金额的数字或中文,例如壹、贰、叁、肆等。 注意:变量中仅支持传入数字或中文,¥$等货币符号需要放在模板中。 其他(名称、账号、地址等) 自定义,建议根据变量类型设置一个有意义的变量名称。 变量限制为1~40个字符。(个人认证客户限制为125个字符) 可以设置为公司、产品、地址、姓名、内容、账号、会员名等。 不允许设置为QQ号、微信号(公众号)、手机号、网址、座机号等联系方式。如果有特殊需要,请把联系方式放入模板中。 注意:人民币、元、¥、$等货币符号需要放在模板中表达。 其他(如名称、账号、地址等) 长度限制:140位(个人认证客户限制为125位)。 安全规则:公司/产品/地址/姓名/内容/账号/会员名等;不允许出现QQ号/微信号(公众号)/手机号/网址/座机号等联系方式,如确有需要,请放入模板中表达。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        用户指南
        模板
        变量规范
      • 文件格式介绍
        二进制格式 如果想要在文件系统间按原样复制文件,则可以选择二进制格式。二进制格式传输文件到文件的速率、性能都最优,且不需要在作业第二步进行字段匹配。 文件传输的目录结构 CDM的文件传输,支持单文件,也支持一次传输目录下所有的文件。传输到目的端后,目录结构会保持原样。 增量迁移文件 使用CDM进行二进制传输文件时,目的端有一个参数“重复文件处理方式”,可以用作文件的增量迁移,具体请参见 文件增量迁移。 增量迁移文件的时候,选择“重复文件处理方式”为“跳过重复文件”,这样如果源端有新增的文件,或者是迁移过程中出现了失败,只需要再次运行任务,已经迁移过的文件就不会再次迁移。 写入到临时文件 二进制迁移文件时候,可以在目的端指定是否写入到临时文件。如果指定了该参数,在文件复制过程中,会将文件先写入到一个临时文件中,迁移成功后,再进行rename或move操作,在目的端恢复文件。 生成文件MD5值 对每个传输的文件都生成一个MD5值,并将该值记录在一个新文件中,新文件以“.md5”作为后缀,并且可以指定MD5值生成的目录。 文件格式的公共参数 源文件处理方式 CDM在文件复制成功后,可以对源端文件进行操作,包括:不处理、重命名源文件或者删除源文件。 启动作业标识文件 这个主要用于自动化场景中,CDM配置了定时任务,周期去读取源端文件,但此时源端的文件正在生成中,CDM此时读取会造成重复写入或者是读取失败。所以,可以在源端作业参数中指定启动作业标识文件为“ok.txt”,在源端生成文件成功后,再在文件目录下生成“ok.txt”,这样CDM就能读取到完整的文件。 另外,可以设置超时时间,在超时时间内,CDM会周期去查询标识文件是否存在,超时后标识文件还不存在的话,则作业任务失败。 启动作业标识文件本身不会被迁移。 作业成功标识文件 文件系统为目的端的时候,当任务成功时,在目的端的目录下,生成一个空的文件,标识文件名由用户来指定。一般和“启动作业标识文件”搭配使用。 这里需要注意的是,不要和传输的文件混淆,例如传输文件为finish.txt,但如果作业成功标识文件也设置为finish.txt,这样会造成这两个文件相互覆盖。 过滤器 使用CDM迁移文件的时候,可以使用过滤器来过滤文件。支持通过通配符或时间过滤器来过滤文件。 −选择通配符时,CDM只迁移满足过滤条件的目录或文件。 −选择时间过滤器时,只有文件的修改时间晚于输入的时间才会被传输。 例如:用户的“/table/”目录下存储了很多数据表的目录,并且按天进行了划分:DRIVINGBEHAVIOR20180101~DRIVINGBEHAVIOR20180630,保存了DRIVINGBEHAVIOR从1月到6月的所有数据。如果只想迁移DRIVINGBEHAVIOR的3月份的表数据。那么需要在作业第一步指定源目录为“/table”,过滤类型选择“通配符”,然后指定“路径过滤器”为“DRIVINGBEHAVIOR201803”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        文件格式介绍
      • Kafka触发器
        Kafka触发器可以订阅天翼云提供的分布式消息队列Kafka实例,并根据消息触发关联的函数,借此能力,使得函数可以消费指定Topic的消息,执行自定义处理逻辑。 注意事项 Kafka触发器订阅的Kafka实例必须和函数计算的函数实例在相同地域。 前提条件 已创建函数。 已开通分布式消息Kafka实例(KAFKA引擎版),详情请参考创建分布式消息服务Kafka实例。 已创建Topic,创建GroupID(可选)。 操作步骤 1. 登录函数计算控制台,点击目标函数,进入函数详情。 2. 选择详情下顶部的配置选项卡。 3. 在配置选项卡 中,选择左边的触发器选项卡。 4. 点击创建触发器 ,在弹出的右抽屉中选择Kafka触发器,配置参数解释如下。 配置项 操作 示例 触发器类型 选择Kafka触发器。 Kafka触发器 名称 填写自定义的触发器名称。 kafkatrigger 版本或别名 默认值为LATEST,支持选择任意函数版本或函数别名。 LATEST Kafka 实例 选择已创建的Kafka实例。 Topic 选择已创建的Kafka实例的Topic。 Group ID 快速创建:推荐方案。自动创建以 GROUPFCTrigger{triggername}{uuid} 命名的 Group ID。 使用已有:选择Kafka实例已有的GroupID,请您注意不要与已有的业务混用GroupID,否则会影响已有的消息收发。 消费任务并发数 消费者的并发数量,有效取值范围为[1,20],建议不超过Topic的分区数。该值同时影响投递到函数的并发数。 消费位点 选择消息的消费位点,即触发器从kafka消息队列开始拉取消息的位置。 最早位点 :从最早位点开始消费。 最新位点:从最新位点开始消费。 最新位点 调用方式 选择函数调用方式。 同步调用 :指触发器消费topic消息后投递到函数是同步调用,会等待函数响应后继续下一个消息投递。但消费任务并发数大于1时,多个消费者有可能会并发消费消息并投递,并发的情况视Topic队列本身积存的消息而定。 异步调用:指触发器消费topic消息后投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 同步调用 触发器启用状态 创建触发器后是否立即启用。默认选择开启,即创建触发器后立即启用触发器。 启用 推送配置 批量推送条数:批量推送的最大值,积压值达到后立刻推送,取值范围为 [1, 10000]。 批量推送间隔:批量推送的最大时间间隔,达到后立刻推送,单位秒,取值[0,15]。默认0无需等待,数据直接推送。 推送格式:函数收到的事件格式,详情请查阅触发器事件消息格式。 重试策略 消息推送函数失败后重试的策略,共两种: 指数退避:指数退避重试,重试5次,重试周期为2,4,8,16,32(秒)。 线性退避:线性退避重试,重试5次,重试周期为1,2,3,4,5(秒)。 容错策略 当重试次数耗尽后仍然失败时的处理方式: 允许容错:当异常发生并超过重试策略配置时直接丢弃。 禁止容错:当异常发生并超过重试策略配置时继续阻塞执行。 死信队列 当容错策略为:允许容错时,可以额外开启死信队列。当开启死信队列时且异常发生并超过重试策略配置时,消息会被投递到指定的消息队列里,当前只支持投递到kafka和rocketmq
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        Kafka触发器
      • 购买云防火墙
        本文介绍如何购买云防火墙。 云防火墙支持一个账号下购买多个防火墙,便于管理不同场景下的资源和策略。 前提条件 当前账号拥有BSS Administrator权限。 版本信息说明 云防火墙支持包年/包月(预付费)计费方式,提供以下服务版本:标准版、专业版。 各版本的功能差异请参见产品功能。 各服务版本推荐使用的说明如下: 标准版 有等保需求,或对网络入侵、主机失陷等网络安全比较关注的中小型客户。 专业版 有等保或重保需求,或对网络入侵、主机失陷、内部网络互访等网络安全比较关注的中大型客户。 标准版防火墙 1. 登录天翼云控制中心。 2. 在左侧导航树中,单击左上方的“服务列表”,选择“安全 > 云防火墙”,进入云防火墙的概览页面。 3. 单击“购买云防火墙”,进入“购买云防火墙”页面,相关参数如下表所示。 参数名称 参数说明 计费模式 包年/包月,按配置周期计费。 区域 购买云防火墙的区域。 版本规格 选择版本:标准版。 版本规格 扩展防护公网IP数 (可选)选择需扩展的防护公网IP数,可选择范围:0~2000个 说明 此处为套餐外购买数量,例如标准版防护公网IP数默认20个(套餐内费用包含),如果您的公网IP是65个,那么只需要填写45个。 版本规格 扩展互联网边界防护带宽 (可选)选择需扩展的防护流量峰值(出流量或入流量的最大峰值),可选择范围:0~5000Mbps/月(需为5的整数倍) 说明 此处为套餐外购买流量值,例如标准版防护互联网边界流量峰值默认10Mbps(套餐内费用包含),如果您的防护流量是200Mbps,那么只需要填写190Mbps。 防护流量按照出流量或入流量的最大峰值取值。 高级设置 防火墙名称 设置当前防火墙的名称。 命名规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)、空格和特殊字符()。 长度支持148个字符。 高级设置 企业项目 在下拉列表中选择防火墙归属的企业项目,选择后,防火墙将归属到该企业项目下,用于费用及账单管理;但是,云防火墙的防护层级不会发生改变,仍支持防护所有企业项目下的资源。 企业项目针对企业用户使用,只有开通了企业项目的客户,或者权限为企业主账号的客户才可见。企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 说明 “default”为默认企业项目,账号下原有资源和未选择企业项目的资源均在默认企业项目内。 高级设置 标签 (可选)如果您需要使用同一标签标识多种云资源,即所有服务均可在标签输入框下选择同一标签,建议在TMS中创建预定义标签。 购买时长 自主选择购买时长。 选择时长后,可勾选“自动续费”若您勾选并同意自动续费,则在服务到期前,系统会自动按照购买周期生成续费订单并进行续费,无需手动续费。 4. 确认购买信息无误后,单击“立即购买”。
        来自:
        帮助文档
        云防火墙
        用户指南
        购买及变更云防火墙
        购买云防火墙
      • 有效的数据治理策略
        shardmap 大商户使用定制的数据分布逻辑,即:Shardid Hash(merchantid) % shardmap + fcreatetime dayoffset from 19700101 通过在大商户group分布逻辑中加入日期偏移,来实现同一个用户的数据在group内部多个节点间均匀分布。从而有效的解决数据分布不均匀问题。 示例: 如大小商户数据的不同处理逻辑: 从以上示例可以看出,大商户的数据每天都有不同的shardid,不同的shardid也就意味着不同的数据库节点,从而可以达到数据在group内部的完美平衡。 冷热数据分级存储方案 冷热数据分级存储是指TeleDB支持根据数据的访问频率和业务重要性,将数据分为冷数据和热数据,并分别存储在不同的存储介质中。冷数据是指访问频率低,对当前项目价值较低,但需要长期保存的数据。这些数据一般存储在低成本、低性能的介质中。热数据是指经常被访问和修改,且需要快速访问的数据。由于这些数据为高性能和低延迟设计,需存储在高性能的存储介质中。针对冷热数据的存储介质的差异,TeleDB开发了冷热数据分离的功能,从而有效的降低业务的资源成本。 TeleDB冷热数据分离功能的整体逻辑框图如下: 对象存储OSS或是HDFS文件系统作为冷数据存储对象,通过XBlock搬迁数据至远端文件系统,通过XLake从数据库访问远端文件系统。 说明 Oss是指对象存储,在冷热分离方案中用于存放冷数据。 XBlock一种远端访问文件系统,可以屏蔽掉不同类型的底层文件系统,并将数据库数据搬迁至远端文件系统。 XLake一种数据库外部访问方案,可以让数据库直接访问外部的数据文件,并参与内部查询。 XBlock主要包括文件系统接口、访问连接管理、文件缓存、元数据管理和文件系统实现等。 文件系统接口:天翼云TeleDB数据库的冷热分离特性,需要能够将冷数据,转存到相应的冷数据存储中,并且能过对冷数据存储中的文件进行相应的打开、读取、写入等操作。 访问连接管理:冷热分离组件也需要考虑数据库的并发场景,需要能够支持多session同时对冷热分离模块进行访问读取。 文件缓存:多次对冷数据进行访问,则也需要在内存中缓存部分数据,提升后续的访问速率,且需要有缓存管理,能够根据一定规则进行缓存淘汰。 元数据管理:冷热分离特性对于冷数据的转储,请求读取等操作,都会记录一条元数据到相应的元数据库中,并且需要能够对元数据进行管理。 文件系统实现:冷热分离特性需要实例能够对冷数据存储中的文件有相应的操作能力,包括不限于ls、state等命令。 XLake主要包括文件访问的配置、不同数据格式的支持和不同文件系统的访问支持。 文件访问的配置:需要Xlake能够以外部文件为基准,创建外表,并且对外表进行查询,以及查询计划的展示和优化。 不同数据格式的支持:需要Xlake能够支持不同的文件格式,包括text、csv以及Parquet文件格式。 不同文件系统的访问支持:需要Xlake能够支持不同的文件系统,包括oss、hdfs、hive等,从而能够通过对接不同的文件系统,实现冷热分离的功能。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        有效的数据治理策略
      • 自定义监控
        自定义监控展示用户所有自主定义上报的监控指标。用户可以针对自己关心的业务指标进行监控,将采集的监控数据通过使用简单的API请求上报至云监控服务进行处理和展示。 查看自定义监控 1. 登录管理控制台。 2. 单击“服务列表 > 云监控服务”。 3. 单击页面左侧的“自定义监控”。 4. 在“自定义监控”页面,可以查看当前用户通过API请求上报至云监控服务的相关数据,包括自定义上报的服务,指标等。 说明 当用户通过API添加监控数据后,云监控服务界面才会显示自定义监控数据。 5. 选择待查看的云服务资源所在行的“查看监控指标”,进入“监控指标”页面。 在这个页面,用户可以选择页面左上方的时间范围按钮,查看该云服务资源“近1小时”、“近3小时”、“近12小时”、“近1天”和“近7天”的监控原始数据曲线图,同时监控指标视图右上角会动态显示对应时段内监控指标的最大值与最小值。 添加自定义告警规则 1. 登录管理控制台。 2. 单击“服务列表 > 云监控服务”。 3. 在“告警 > 告警规则”界面,单击“创建告警规则”。 4. 在“创建告警规则”界面,根据界面提示配置参数。 1. 选择监控对象,根据界面提示配置参数,如表11所示。 表11 配置参数 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。 取值样例:alarmb6al 描述 告警规则描述(此参数非必填项)。 归属企业项目 告警规则所属的企业项目。只有拥有该企业项目权限的用户才可以查看和管理该告警规则。 资源类型 配置告警规则监控的云服务资源名称。 取值样例:弹性云主机 维度 用于指定告警规则对应指标的维度名称 取值样例:云主机 监控范围 告警规则适用的资源范围,可选择资源分组或指定资源。 说明 : 当选择资源分组时,该分组下任何资源满足告警策略时,都会触发告警通知。 资源分组不支持通过模板创建告警规则。 分组 当监控范围为资源分组时需配置此参数。  b. 选择监控指标,选择“自定义创建”,参照表12完成参数配置。 表12 配置参数 参数 参数说明 取值样例 选择类型 选择自定义创建。 自定义创建 指标名称 例如: CPU使用率 该指标用于统计测量对象的CPU使用率,以百分比为单位。 内存使用率 该指标用于统计测量对象的内存使用率,以百分比为单位。 CPU使用率 告警策略 触发告警的告警策略。 例如:监控周期为5分钟,连续三个周期平均值≥80% 告警级别 根据告警的严重程度不同等级,可选择紧急、重要、次要、提示。 重要 发送通知 配置是否发送邮件、短信通知用户,可以选择“是” (推荐选择)或者“否”。选择“否”,就不会发送邮件、短信通知用户,选择“是”,就需要选择已有的主题或者新建主题。 是 选择主题 消息发布或客户端订阅通知的特定事件类型,若此处没有需要的主题,需先创建主题并订阅该主题。 生效时间 该告警规则仅在生效时间内发送通知消息。 如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 可以选择“出现告警”、“恢复正常”两种状态,作为触发告警通知的条件。
        来自:
        帮助文档
        云监控服务
        用户指南
        自定义监控
      • 昇腾计算加速型云主机
        规格 规格名称 CPU 内存 AI加速卡类型 显存 最大带宽/基准带宽(Gbit/s) 网络收发包(万PPS) 多队列 pak2.4xlarge.8 16 128 Huawei Atlas 300I duo 196G 25/8 225 8 pak2.4xlarge.9 16 144 Huawei Atlas 300I duo 196G 25/8 225 8 支持的镜像 CTyunOS 22.06 64 位 ARM 版昇腾 25.0.RC1 专用 银河麒麟高级服务器操作系统 V10 SP3 64 位 ARM 版昇腾 25.0.RC1 专用 openEuler 22.03 SP2 64 位 ARM 版昇腾 25.0.RC1 专用 说明 1.具体支持镜像清单以官网控制台展示为准。 2.本规格族预装的NPU驱动为25.0.RC1 ,CANN包为8.1.rc1。 3.昇腾计算加速型云主机的公共镜像已预置固定版本的 NPU 驱动和 CANN 包,请勿自行变更版本,以免引发不可预期的问题。 PAK1型云主机 PAK1型昇腾计算加速型云主机采用专为AI推理打造的Atlas 300I pro加速卡(Ascend 310芯片),国产ARM架构鲲鹏CPU/NPU,独享宿主机的CPU资源,实例间无CPU争抢,没有进行资源超配,属于计算加速型(直通)规格,云主机的CPU/内存配比为1:4,主要适用于搜索推荐、内容审核和OCR系统等推理场景。
        来自:
        帮助文档
        GPU云主机
        产品简介
        产品规格
        国产AI加速云主机
        昇腾计算加速型云主机
      • 使用Cubecni网络插件
        本节介绍Cubecni网络插件的用户指南 网络模型 Cubecni网络插件使用VPC资源构建Underlay容器网络,可用于使用云主机(ECS)和弹性裸金属(EBM)部署的Kubernetes集群,适用于高性能场景。Cubecni基于弹性网卡构建的Underlay容器网络,没有封包解包开销,部分场景无主机路由和netfilter处理开销,容器网络性能相比于容器隧道网络有一定的优势,并且支持同一VPC内云服务器从集群外直接访问容器等特殊场景。 Cubecni支持多种模式,下图为共享ENIIPVLAN模式网络模型: 共享ENIIPVLAN模式 Cubecni会为节点添加弹性网卡并申请多个辅助IP,Pod主网卡是该弹性网卡的IPVLAN虚拟网络接口,Pod IP为弹性网卡的辅助IP。此模式下,流量走向示意如下: 说明: 1. 节点内Pod间通信:同节点的Pod间通信直接通过IPVLAN转发; 2. 跨节点Pod间通信:跨节点Pod间通信走弹性网卡二层网络,不经主机网络栈处理; 3. Pod访问Service:走主机网络栈处理和转发; 4. Pod访问集群外地址:Pod访问集群外地址走子网网关转发。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        容器网络插件
        Cubecni网络插件
        使用Cubecni网络插件
      • 使用Cubecni网络插件(1)
        本节介绍Cubecni网络插件的用户指南 网络模型 Cubecni网络插件使用VPC资源构建Underlay容器网络,可用于使用云主机(ECS)和弹性裸金属(EBM)部署的Kubernetes集群,适用于高性能场景。Cubecni基于弹性网卡构建的Underlay容器网络,没有封包解包开销,部分场景无主机路由和netfilter处理开销,容器网络性能相比于容器隧道网络有一定的优势,并且支持同一VPC内云服务器从集群外直接访问容器等特殊场景。 Cubecni支持多种模式,下图为共享ENIIPVLAN模式网络模型: 共享ENIIPVLAN模式 Cubecni会为节点添加弹性网卡并申请多个辅助IP,Pod主网卡是该弹性网卡的IPVLAN虚拟网络接口,Pod IP为弹性网卡的辅助IP。此模式下,流量走向示意如下: 说明: 1. 节点内Pod间通信:同节点的Pod间通信直接通过IPVLAN转发; 2. 跨节点Pod间通信:跨节点Pod间通信走弹性网卡二层网络,不经主机网络栈处理; 3. Pod访问Service:走主机网络栈处理和转发; 4. Pod访问集群外地址:Pod访问集群外地址走子网网关转发。
        来自:
      • (可选)添加负载均衡器到伸缩组
        本文主要介绍(可选)添加负载均衡器到伸缩组。 弹性负载均衡(Elastic Load ,简称CTELB)是将访问流量根据转发策略分发到后端多台云服务器流量分发控制服务。弹性负载均衡可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 若您需要使用弹性负载均衡提供的功能,请参考此章节为您的伸缩组添加负载均衡器。将负载均衡器添加到伸缩组后,可确保在伸缩组内添加和删除实例时,所有实例均可分配到应用程序的流量。 弹性伸缩只能添加已创建的负载均衡器,且弹性伸缩组和负载均衡器必须处于同一VPC内。如何创建负载均衡器请参见《弹性负载均衡用户指南》。为伸缩组添加负载均衡器方法如下: 在创建伸缩组时,可通过配置“负载均衡”参数添加负载均衡器。操作可参考创建伸缩组。 伸缩组为非启用状态、实例数为0且没有正在进行的伸缩活动时,可以通过修改伸缩组的负载均衡配置,为伸缩组添加负载均衡器。操作可参考修改伸缩组信息。
        来自:
      • 步骤3:创建安全组
        本文帮助您快速熟悉虚拟私有云创建安全组的操作流程。 操作场景 安全组实际是网络流量访问策略,通过访问策略可以控制流量入方向规则和出方向规则,通过这些规则可以为加入安全组内的云服务器、云容器、云数据库等实例提供安全保护。安全组的访问策略由入方向规则和出方向规则共同组成。 操作步骤 1. 登录管理控制台。 2. 在系统首页,选择“网络 > 虚拟私有云”。 3. 在左侧导航栏,选择“访问控制 > 安全组”。进入安全组列表页面。 4. 在安全组列表右上方,单击“创建安全组”。进入“创建安全组”页面。 5. 根据界面提示,设置安全组参数。 6. 安全组参数设置完成后,可以在创建页面下方查看模板的入方向和出方向规则,确认无误后,单击“确定”。 表 参数说明 参数 参数说明 取值样例 名称 必选参数。安全组的名称。安全组的名称只能由中文、英文字母、数字、“”、“”和“.”组成,且不能有空格,长度不能大于64个字符。 说明:安全组名称创建后可以修改,建议不要重名。 sg318b 描述 可选参数。安全组的描述信息,非必填项。描述信息内容不能超过255个字符,且不能包含“ ”。
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        配置无需访问公网的弹性云主机的VPC
        步骤3:创建安全组
      • 应用场景
        组网架构 高可用SNAT的组网如图所示: 应用场景四:多NAT网关实例 场景说明 当单网关性能达到瓶颈,如SNAT支持最大100万连接,如果无法满足业务需求时,推荐使用多NAT网关组成集群来横向扩展容量。 推荐配置 集群资源池支持多NAT实例组成集群,可横向扩充公网访问能力,需要一个VPC创建多个NAT网关,并使用自定义路由表和路由把流量分散到多个NAT网关,实现公网访问能力的横向扩容。 组网架构 NAT网关集群组网如图所示: 应用场景五:云间NAT网关高速访问互联网 场景说明 用户本地数据中心的服务器需要访问公网或为公网提供服务时,集群资源池NAT网关可为您提供高效、优质的网络服务。 推荐配置 通过开通云专线实现本地数据中心上云,然后购买公网NAT网关,通过配置SNAT规则实现访问公网。 组网架构 云间NAT网关高速访问互联网组网如图所示: 私网NAT网关 应用场景一:混合云使用指定地址互访场景
        来自:
        帮助文档
        虚拟私有云 VPC
        NAT网关
        应用场景
      • 恢复类问题
        本章节列举了使用云主机备份过程中的恢复类问题,以及相对应的解答。 使用云主机备份恢复数据时,需要停止云主机吗? 恢复数据时系统会关闭云主机,待数据恢复后系统会自动启动云主机。 如果取消勾选“恢复后立即启动云主机”,则需要用户手动启动云主机。 云主机变更后能否使用备份恢复数据? 如果您的云主机做过备份后进行变更(添加、删除、扩容云硬盘),还可以使用原有的备份恢复数据。但因为文件系统的限制,恢复数据后,云硬盘恢复为未变更前的状态,建议您在变更后重新做备份。 如果备份后用户添加了云硬盘,再使用备份进行恢复,则添加的云硬盘数据不会改变。 如果备份后用户删除了云硬盘,再使用备份进行恢复,则删除的云硬盘不会被恢复。 如果备份后用户对服务器切换系统,再使用系统盘备份进行恢复原系统盘,则由于磁盘UUID的改变将导致系统盘备份恢复不成功。 使用备份恢复云主机或镜像创建云主机后,密码被随机如何处理? 请参考弹性云主机帮助中心,常见问题,密码类,密码重置章节完成对应操作系统密码重置。
        来自:
        帮助文档
        云主机备份 CSBS
        常见问题
        恢复类问题
      • 采集器管理
        本文主要介绍采集器管理。 日志采集器lmtagent安装成功后,支持查看lmtagent状态、卸载lmtagent操作。 查看lmtagent 1. 登录云日志服务控制台。 2. 左侧菜单栏点击“主机管理”“主机”,进入主机管理页面。 3. 主机列表中可查看目标主机的lmtagent状态。 卸载lmtagent 注意 云主机上的lmtagent被卸载后,会影响该云主机的日志采集,请谨慎操作! Linux云主机卸载lmtagent 支持控制台界面卸载与登录云主机卸载两种方式: 控制台界面卸载 1. 登录云日志服务控制台。 2. 左侧菜单栏点击“主机管理”“主机”,进入主机管理页面。 3. 勾选一个或多个待卸载lmtagent的云主机,单击上方的“卸载lmtagent”。 4. 二次确认后即开始卸载,卸载预计需要1分钟左右,请耐心等待。卸载完成后在主机列表中lmtagent状态将会显示“未安装”。 登录云主机卸载 1. 登录云主机服务器。 2. 从系统服务中禁用采集器。参考以下命令: plaintext systemctl disable lmtagent systemctl stop lmtagent 3. 删除安装目录。采集器的默认安装目录为/app/cams/lmtgent/。 Windows云主机卸载lmtagent Windows云主机不支持通过界面卸载lmtagent。请到采集器安装目录 C:Program FilesCtyunlmtagentcmd,点击uninstall.bat 脚本,提示Uninstallation completed,表示卸载成功。
        来自:
      • 1
      • ...
      • 301
      • 302
      • 303
      • 304
      • 305
      • ...
      • 340
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      轻量型云主机

      弹性高性能计算 E-HPC

      AI Store

      公共算力服务

      模型推理服务

      一站式智算服务平台

      推荐文档

      服务器迁移相关术语解释

      云课堂 第十三课:如何远程管理天翼云RDS数据库

      android端

      客户端使用说明

      入门教程④:Windows Service 2008系统扩容卷功

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号