活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      云堤·抗D_相关内容
      • 迁移数据库
        本章节介绍了如何创建DRS实例,并将本地Oracle上的testinfo数据库迁移到云数据库GaussDB 实例中testdatabaseinfo数据库中。 迁移前检查 在创建任务前,需要针对迁移条件进行手工自检,以确保您的迁移任务更加顺畅。 在迁移前,您需要参考入云使用须知获取迁移相关说明。 创建迁移任务 1. 登录天翼云控制台。 2. 单击管理控制台左上角的,选择区域。选择目标实例所在的区域。 3. 单击左侧的服务列表图标,选择“数据库 > 数据库服务 > 数据复制”。 4. 左侧导航栏选择“实时同步管理”,单击“创建同步任务”。 5. 配置同步实例信息。 a) 选择区域,项目,填写任务名称。 b) 配置迁移任务的类型,选择目标实例和子网等。 c) 单击“开始创建”。 6. 配置源库及目标库信息。 a) 填写源库的IP、端口、用户、密码等信息。 填写完成后,需要单击“测试连接”,测试连接信息是否正确。 b) 填写目标库的账户和密码。 填写完成后,需要单击“测试连接”,测试连接信息是否正确。 c) 单击“下一步”,仔细阅读提示内容后,单击“同意,并继续”。 7. 设置同步。 a) 在源库选择需要迁移的数据库和表。本次实践中选择“ testinfo” 中的 “DATATYPELIST” 表。 b) 选择完成后,可以设置迁移后是否重新命名库名和表名。 c) 本次实践将表名重新命名为“ DATATYPELISTAfter ”。 注意重新命名时不要使用特殊符号,否则会导致迁移后执行SQL语句报错。 d) 确认重命名设置内容,单击“下一步”。 8. 高级设置。 本页面内容仅做确认,无法修改,确认完成后单击“下一步”。 9. 数据加工。 在该页面可以对迁移的表进行加工。包括选择迁移的列,重新命名迁移后的列名,本次实践将“ COL01CHARE ”重新命名为“ newline ”。 a) 选择需要加工的表。 b) 编辑“COL01CHARE”列。 c) 将“COL01CHARE”重新命名为“newline”,单击“确定”。 d) 单击“下一步”。 10. 预检查。 a) 所有配置完成后,进行预检查,确保迁移成功。 b) 对于未通过的项目,根据检查结果中的提示信息修复,修复完成后,单击“重新校验”,直到预检查通过率为100%。 c) 预检查全部通过后,单击“下一步”。 11. 任务确定。 a) 检查所有配置项是否正确。 b) 单击“启动任务”,仔细阅读提示后,勾选“我已阅读启动前须知”。 c) 单击“启动任务”,完成任务创建。 12. 任务创建成功。 任务创建成功后,返回任务列表查看创建的任务状态。
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        迁移数据库
      • 连接类
        为什么对等连接创建完成后不能互通? 1. 检查对等连接的两个VPC是否已创建对等连接,主要检查对等连接的VPC ID。 2. 检查对等连接下的两个VPC是否都已添加到对端的路由信息。 3. 检查对等连接下的路由信息是否正确,当两个VPC网段重叠时,要配置对端子网的路由。 4. 检查对等连接的两个VPC的所有子网网段,是否有重叠的。 5. 检查对等连接两端要互通的弹性云服务器是否开放了安全组规则,弹性云服务器的iptables或防火墙是否加了限制规则。 6. 如果添加对等连接路由时,报错“路由已存在”,请检查:VPN、对等连接等路由的目的地址是否已存在。 7. 对等连接的路由VPN路由的目的地址有重叠,此时路由有可能失效。 对等连接的配额是多少? 通过对等连接连通同一个区域VPC时,一个租户在一个区域内的对等连接默认配额是50个。 同帐户的VPC对等连接:在一个区域内,您可以创建50个VPC对等连接。 跨账户的VPC对等连接:在一个区域内,已接受的VPC对等连接会占用双方帐户内的配额。处于待接受状的VPC对等连接占用发起方的配额,不占用接受方的配额。 您可以在配额范围内创建多个帐户下的VPC对等连接,比如帐号A和帐号B的VPC对等连接,帐号A和帐号C的VPC对等连接,帐号A和帐号D的VPC对等连接等,不受帐号数量限制。 同时拥有自定义路由和弹性公网IP的访问外网的优先级是什么? 弹性IP的优先级高于VPC路由表中的自定义路由。示例如下: 假如VPC路由表中存在一条自定义路由,目的地址为默认路由(0.0.0.0/0),下一跳为NAT网关。 如果VPC内的ECS绑定了EIP,会在ECS内增加默认网段的策略路由,并且优先级高于VPC路由表中的自定义路由,此时会导致流量转发至EIP出公网,无法抵达NAT网关。
        来自:
        帮助文档
        虚拟私有云 VPC
        常见问题
        连接类
      • 支持的数据源
        类别 类型 简要释义 存储格式示例 Hive DWS 字符串 CHAR(M) 固定长度的字符串是以长度为1到255之间个字符长度(例如:CHAR(5)),存储右空格填充到指定的长度。 限定长度不是必需的,它会默认为1。 ‘a’或‘aaaaa’ CHAR CHAR VARCHAR(M) 可变长度的字符串是以长度为1到255之间字符数(高版本的MySQL超过255);例如:VARCHAR(25). 创建VARCHAR类型字段时,必须定义长度。 ‘a’或‘aaaaa’ VARCHAR VARCHAR 数值 DECIMAL(M,D) 非压缩浮点数不能是无符号的。在解包小数,每个小数对应于一个字节。 定义显示长度(M)和小数(D)的数量是必需的。 NUMERIC是DECIMAL的同义词。 52.36 DECIMAL D为0时对应BIGINT D不为0时对应NUMBERIC NUMBERIC 与DECIMAL相同。 DECIMAL NUMBERIC INTEGER 一个正常大小的整数,可以带符号。 如果是有符号的,它允许的范围是从2147483648到2147483647。 如果是无符号,允许的范围是从0到4294967295。 可以指定多达11位的宽度。 5236 INT INTEGER INTEGER UNSIGNED INTEGER的无符号形式。 BIGINT INTEGER INT 与INTEGER相同。 5236 INT INTEGER INT UNSIGNED 与INTEGER UNSIGNED相同。 BIGINT INTEGER BIGINT 一个大的整数,可以带符号。 如果有符号,允许范围为9223372036854775808到9223372036854775807。 如果无符号,允许的范围是从0到18446744073709551615.可以指定最多20位的宽度。 5236 BIGINT BIGINT BIGINT UNSIGNED BIGINT的无符号形式。 BIGINT BIGINT MEDIUMINT 一个中等大小的整数,可以带符号。如果有符号,允许范围为8388608至8388607。 如果无符号,允许的范围是从0到16777215,可以指定最多9位的宽度。 128、127 INT INTEGER MEDIUMINT UNSIGNED MEDIUMINT的无符号形式。 BIGINT INTEGER TINYINT 一个非常小的整数,可以带符号。如果是有符号,它允许的范围是从128到127。 如果是无符号,允许的范围是从0到255,可以指定多达4位数的宽度。 100 TINYINT SMALLINT TINYINT UNSIGNED TINYINT的无符号形式。 TINYINT SMALLINT BOOL MySQL的bool实际上就是tinyint(1) 128、127 SMALLINT BYTEA SMALLINT 一个小的整数,可以带符号。 如果有符号,允许范围为32768至32767。 如果无符号,允许的范围是从0到65535,可以指定最多5位的宽度。 9999 SMALLINT SMALLINT SMALLINT UNSIGNED SMALLINT的无符号形式。 INT SMALLINT REAL 同DOUBLE。 DOUBLE FLOAT(M,D) 不能使用无符号的浮点数字。 可以定义显示长度(M)和小数位数(D)。 这不是必需的,并且默认为10,2。其中2是小数的位数,10是数字(包括小数)的总数。 小数精度可以到24个浮点。 52.36 FLOAT FLOAT4 DOUBLE(M,D) 不能使用无符号的双精度浮点数。 可以定义显示长度(M)和小数位数(D)。 这不是必需的, 默认为16,4,其中4是小数的位数。 小数精度可以达到53位的DOUBLE。 REAL是DOUBLE同义词。 52.36 DOUBLE FLOAT8 DOUBLE PRECISION 与DOUBLE相似。 52.3 DOUBLE FLOAT8 位 BIT(M) 存储位值的BIT类型。 BIT(M)可以存储多达M位的值,M的范围在1到64之间。 B'1111100' B'1100' TINYINT BYTEA 日期时间 DATE 以YYYYMMDD格式的日期,在10000101和99991231之间。 例如,1973年12月30日将被存储为19731230。 19991001 DATE TIMESTAMP TIME 用于存储时、分、秒信息 '09:10:21'或'9:10:21' 不支持(String) TIME DATETIME 日期和时间组合以YYYYMMDD HH:MM:SS格式,在10000101 00:00:00到99991231 23:59:59之间。 例如,1973年12月30日下午3:30,会被存储为19731230 15:30:00。 '19731230 15:30:00' TIMESTAMP TIMESTAMP TIMESTAMP 1970年1月1日午夜之间的时间戳,到2037的某个时候。这看起来像前面的DATETIME格式,无需只是数字之间的连字符; 1973年12月30日下午3点30分将被存储为19731230153000(YYYYMMDDHHMMSS)。 19731230153000 TIMESTAMP TIMESTAMP YEAR(M) 以2位或4位数字格式来存储年份。 如果长度指定为2(例如YEAR(2)),年份就可以为1970至2069(70〜69)。 如果长度指定为4,年份范围是19012155,默认长度为4。 2000 不支持(String) 不支持 多媒体(二进制) BINARY(M) 字节数为M,允许长度为0M的变长二进制字符串,字节数为值得长度加1 0x2A3B4058 (二进制数据) 不支持 BYTEA VARBINARY(M) 字节数为M,允许长度为0M的定长二进制字符串 0x2A3B4059 (二进制数据) 不支持 BYTEA TEXT 字段的最大长度是65535个字符。TEXT是“二进制大对象”,并用来存储大的二进制数据,如图像或其他类型的文件。 0x5236(二进制数据) 不支持 不支持 TINYTEXT 0255字节短文本二进制字符串 不支持 MEDIUMTEXT 0167772154字节中等长度文本二进制字符串 不支持 LONGTEXT 04294967295字节极大长度文本二进制字符串 不支持 BLOB 字段的最大长度是65535个字符。 BLOB是“二进制大对象”,并用来存储大的二进制数据,如图像或其他类型的文件。 BLOB大小写敏感。 0x5236(二进制数据) 不支持 BYTEA TINYBLOB 0255字节短文本二进制字符串 BYTEA MEDIUMBLOB 0167772154字节中等长度文本二进制字符串 BYTEA LONGBLOB 04294967295字节极大长度文本二进制字符串 0x5236(二进制数据) 不支持 BYTEA 特殊类型 SET SET是一个字符串对象,可以有零或多个值,其值来自表创建时规定的允许的一列值。 指定包括多个SET成员的SET列值时各成员之间用逗号(‘,’)间隔开。这样SET成员值本身不能包含逗号。 不支持 JSON 不支持 不支持(TEXT) ENUM 当定义一个ENUM,要创建它的值的列表,这些是必须用于选择的项(也可以是NULL)。 例如,如果想要字段包含“A”或“B”或“C”,那么可以定义为ENUM为ENUM(“A”,“B”,“C”)也只有这些值(或NULL)才能用来填充这个字段。 不支持 不支持
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        支持的数据源
      • 作业开发
        本章节主要介绍Spark作业相关问题中有关作业开发的问题。 Spark如何将数据写入到DLI表中 使用Spark将数据写入到DLI表中,主要设置如下参数: fs.obs.access.key fs.obs.secret.key fs.obs.impl fs.obs.endpoint 示例如下: import logging from operator import add from pyspark import SparkContext logging.basicConfig(format'%(message)s', levellogging.INFO) import local file testfilename "D://testdata1.txt" outfilename "D://testdataresult1" sc SparkContext("local","wordcount app") sc.jsc.hadoopConfiguration().set("fs.obs.access.key", "myak") sc.jsc.hadoopConfiguration().set("fs.obs.secret.key", "mysk") sc.jsc.hadoopConfiguration().set("fs.obs.impl", "org.apache.hadoop.fs.obs.OBSFileSystem") sc.jsc.hadoopConfiguration().set("fs.obs.endpoint", "myendpoint") red: textfile rdd object textfile sc.textFile(testfilename) counts counts textfile.flatMap(lambda line: line.split(" ")).map(lambda word: (word, 1)).reduceByKey(lambda a, b: a + b) write counts.saveAsTextFile(outfilename) 通用队列操作OBS表如何设置AK/SK 获取结果为AK和SK时,设置如下: 1. 代码创建SparkContext val sc: SparkContext new SparkContext() sc.hadoopConfiguration.set("fs.obs.access.key", ak) sc.hadoopConfiguration.set("fs.obs.secret.key", sk) 2. 代码创建SparkSession val sparkSession: SparkSession SparkSession .builder() .config("spark.hadoop.fs.obs.access.key", ak) .config("spark.hadoop.fs.obs.secret.key", sk) .enableHiveSupport() .getOrCreate() 获取结果为ak、sk和securitytoken时,鉴权时,临时AK/SK和securitytoken必须同时使用,设置如下: 1. 代码创建SparkContext val sc: SparkContext new SparkContext() sc.hadoopConfiguration.set("fs.obs.access.key", ak) sc.hadoopConfiguration.set("fs.obs.secret.key", sk) sc.hadoopConfiguration.set("fs.obs.session.token", sts) 2. 代码创建SparkSession val sparkSession: SparkSession SparkSession .builder() .config("spark.hadoop.fs.obs.access.key", ak) .config("spark.hadoop.fs.obs.secret.key", sk) .config("spark.hadoop.fs.obs.session.token", sts) .enableHiveSupport() .getOrCreate() 说明 出于安全考虑,不建议在obs路径上带AK/SK信息。而且,如果是在OBS目录上建表,建表语句path字段给定的obs路径不能包含AK/SK信息。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Spark作业相关问题
        作业开发
      • 容器引擎基础知识
        本文主要介绍 容器引擎基础知识 容器引擎(Docker)是一个开源的引擎,可以轻松的为任何应用创建一个轻量级、可移植的应用镜像。 安装前的准备工作 在安装容器引擎前,请了解容器引擎的基础知识,具体请参见Docker Documentation。 选择容器引擎的版本 容器引擎几乎支持在所有操作系统上安装,用户可以根据需要选择要安装的容器引擎版本,具体请参见 说明 由于SWR支持容器引擎1.11.2及以上版本上传镜像,建议下载对应版本。 安装容器引擎需要连接互联网,内网服务器需要绑定弹性公网IP后才能访问。 安装容器引擎 你可以根据自己的操作系统选择对应的安装步骤: Linux操作系统下安装 在Linux操作系统下,可以使用如下命令快速安装Docker的最新稳定版本。如果您想安装其他特定版本的Docker,可参考安装Docker。 curl fsSL get.docker.com o getdocker.sh sh getdocker.sh sudo systemctl daemonreload sudo systemctl restart docker EulerOS操作系统下安装 在EulerOS操作系统下,安装容器引擎的方法如下: a. 登录弹性云服务器。 b. 配置yum源。 如果您的机器上还没有配置yum源,首先配置本机的yum。 c. 安装并运行容器引擎。 i. 获取yum源里的dockerengine包。 yum search dockerengine ii. 使用yum install y命令安装上一步获取的dockerengine包,x86架构示例: yum install dockerengine.x8664 y iii. 设置开机启动Docker服务。 systemctl enable docker iv. 启动Docker。 systemctl start docker d. 检查安装结果。 docker version 回显如下类似信息,表示容器引擎安装成功。 Docker version 18.09.0, build 384e3e9
        来自:
        帮助文档
        容器镜像服务
        用户指南
        容器引擎基础知识
      • 使用天翼云弹性文件服务进行WordPress网站搭建
        步骤三:安装WordPress 1. 本次测试使用Docker容器来安装WordPress,执行如下命令安装Docker容器。 yum install docker y 2. 拉取WordPress镜像。 docker pull wordpress 3. 拉取mysql镜像。 docker pull mysql:5.7 4. 安装完成之后,使用 docker image ls 查看容器镜像。 5. 执行如下命令,启动mysql容器。此处设置账号:root,密码:{password},实际操作使用中应该填写自己的复杂密码。 "/root/mysql"表示Docker的mysql容器映射到云主机中的目录,可以按照自己的使用需求修改目录。 docker run name mysql d p 3306:3306 v /root/mysql:/var/lib/mysql e MYSQLROOTPASSWORD{password} restartalways mysql:5.7 6. 使用 docker ps查看mysql容器的ID,见下图。然后执行以下命令进入容器。{mysqlid}为查询获得,根据查询结果进行替换。 docker exec it {mysqlid} /bin/bash 7. 在容器内部依次执行以下指令,创建WordPress使用的数据库,请注意替换{password}为自行设置的复杂密码。 mysql uroot p alter user 'root'@'localhost' identified by '{password}'; CREATE DATABASE wordpress; 创建完成之后,连续输入两次“exit”退出mysql和mysql的Docker容器。 8. 执行如下命令,启动WordPress。 docker run name wordpress link mysql p 22330:80 v /mnt/wordpressdata/:/var/www/html d restartalways wordpress:latest "link {name}"表示WordPress启动时连接的mysql容器名,在步骤8中启动mysql容器时设置的name是mysql,此处按照实际的name填写。 9. 启动之后执行 docker ps查看容器:
        来自:
        帮助文档
        弹性文件服务 SFS
        最佳实践
        基于弹性文件服务搭建应用
        使用天翼云弹性文件服务进行WordPress网站搭建
      • 通过外部镜像文件创建数据盘镜像
        本文主要介绍通过外部镜像文件创建数据盘镜像 操作场景 数据盘镜像是只包含用户业务数据的镜像,您可以通过本地或者其他云平台上的外部镜像文件创建数据盘镜像。数据盘镜像可以用于创建云硬盘,将用户的业务数据迁移到云上。 流程说明 通过外部镜像文件创建数据盘镜像的过程如下: 图 创建过程 1、准备符合格式要求的外部镜像文件。当前支持vhd、vmdk、qcow2、raw、vhdx、qcow、vdi、qed、zvhd或zvhd2格式,其他镜像文件,需要转换格式后再导入。 镜像格式转换可参考“通过qemuimg工具转换镜像格式”。 2、上传外部镜像文件到OBS个人桶中,注意OBS桶和镜像文件的存储类别必须是标准存储。具体操作可参考上传镜像文件(Linux)。 创建数据盘镜像,具体操作请参见操作步骤。 使用数据盘镜像创建新的数据盘,具体操作请参见后续操作。 操作步骤 1、登录IMS控制台。 a.登录控制台。 b.选择“镜像服务”。 进入镜像服务页面。 2、创建数据盘镜像。 a.单击右上角的“创建私有镜像”,进入创建私有镜像页面。 b.在创建方式选择“导入私有镜像”,“镜像类型”处选择“数据盘镜像”。 c.从列表中先选择保存镜像文件的桶,再选择对应的镜像文件。 图 通过外部镜像文件创建数据盘镜像 d.在“配置信息”区域,完成以下参数填写: 操作系统类型:必须明确指定操作系统类型,取值为Windows或Linux。 数据盘:输入数据盘的大小,范围为40~2048GB,并且请确保不小于镜像文件的数据盘大小。 名称:设置一个便于您识别的镜像名称。 (可选)加密:如果需要加密镜像,请勾选“KMS加密”并从密钥列表中选择一个密钥名称。 企业项目:从下拉列表中选择所在的企业项目。该参数针对企业用户使用,只有开通了企业项目的客户,或者权限为企业主帐号的客户才可见。如需使用该功能,请联系您的客户经理申请开通。企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 (可选)标签:为镜像设置标签键和标签值,便于识别和管理。 (可选)描述:对镜像进行描述。 f.单击“立即创建”。 g.根据界面提示,确认镜像参数。阅读并勾选协议,单击“提交”。 3、返回私有镜像列表,查看创建的数据盘镜像。 当镜像的状态为“正常”时,表示创建完成。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        通过外部镜像文件创建数据盘镜像
      • 操作系统资源限制类问题
        本页介绍天翼云TeleDB数据库操作系统资源限制类问题。 进程打开文件数达到上限问题 问题描述 节点运行报错too many open file。 可能影响 应用连接数据库报错; 执行SQL报错。 解决步骤 1. 检查数据库用户的操作系统参数是否符合预期 > 执行以下命令,返回值不应少于131072。 > ulimit n > 如果少于,则需要检查/etc/security/limits.conf中以下配置项是否符合预期 > soft nofile 131072 > hard nofile 131072 > 不符合则需要修改。 2. 检查/etc/security/limits.d/下是否有后缀为.conf的文件,其中是否有上述内容,如果有且不符合预期,则同样需要修改; 3. 重新登录数据库用户,再次执行ulimit n验证返回结果是否符合预期,如不符合,重新检查上述步骤; 4. 检查Agent服务进程和实例节点主进程的limits环境参数是否符合预期 > 如: > cat /proc/22319/limitsgrep open > Max open files 131072 131072 files > 其中22319为进程ID 5. 如果第1/3步检查结果已符合预期,但第4步结果不符,则需要重启Agent服务和实例节点。 用户启动进程数达到上限问题 问题描述 节点运行报错unable to create new native thread。 可能影响 应用连接数据库报错; 执行SQL报错。 解决步骤 1. 检查数据库用户的操作系统参数是否符合预期。 > 执行以下命令,返回值不应少于131072。 > ulimit u > 如果少于,则需要检查/etc/security/limits.conf中以下配置项是否符合预期。 > soft nproc 131072 > hard nproc 131072 > 不符合则需要修改。 2. 检查/etc/security/limits.d/下是否有后缀为.conf的文件,其中是否有上述内容,如果有且不符合预期,则同样需要修改; 3. 重新登录数据库用户,再次执行ulimit u验证返回结果是否符合预期,如不符合,重新检查上述步骤; 4. 检查Agent服务进程和实例节点主进程的limits环境参数是否符合预期。 > 如: cat /proc/22319/limitsgrep processes Max processes 131072 131072 processes > 其中22319为进程ID 5. 如果第1/3步检查结果已符合预期,但第4步结果不符,则需要重启Agent服务和实例节点。 信号量不足问题
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        操作系统资源限制类问题
      • SFS容量型迁移至本地主机
        前提条件 已在云上和本地分别创建一台Linux操作系统的服务器。 服务器已完成弹性IP的配置,保证两台服务器间可以相互访问。 已获取到SFS容量型文件系统的挂载地址。 操作步骤 1. 登录弹性云服务器管理控制台。 2. 登录已创建的本地服务器client1,创建/mnt/src(可替换为本地目录)目录 3. 登录已创建的Linux云服务器client2,创建/mnt/dst目录,执行以下命令,用于访问云上SFS容量型文件系统 mount t nfs o vers3,timeo600,noresvport,nolock /mnt/dst 4. 在本地服务器client1中执行以下命令安装rclone工具。 wget nocheckcertificate unzip rclonev1.53.4linuxamd64.zip chmod 0755 ./rclone/rclone cp ./rclone/rclone /usr/bin/ rm rf ./rclone 5. 在本地服务器client1中执行以下命令,进行环境配置。 rclone config No remotes found make a new one n) New remote s) Set configuration password q) Quit config n/s/q> n name> remotename(新建名字) Type of storage to configure. Enter a string value. Press Enter for the default (""). Choose a number from below, or type in your own value 24 / SSH/SFTP Connection "sftp" Storage> 24 (选择ssh/sftp号码) SSH host to connect to Enter a string value. Press Enter for the default (""). Choose a number from below, or type in your own value 1 / Connect to example.com "example.com" host> ip address (client2机器ip地址) SSH username, leave blank for current username, root Enter a string value. Press Enter for the default (""). user> user name(client2机器的用户名) SSH port, leave blank to use default (22) Enter a string value. Press Enter for the default (""). port> 22 SSH password, leave blank to use sshagent. y) Yes type in my own password g) Generate random password n) No leave this optional password blank y/g/n> y Enter the password: password:(client2机器的登录密码) Confirm the password: password:(确认client2机器的登录密码) Path to PEMencoded private key file, leave blank or set keyuseagent to use sshagent. Enter a string value. Press Enter for the default (""). keyfile> (默认Enter) The passphrase to decrypt the PEMencoded private key file. Only PEM encrypted key files (old OpenSSH format) are supported. Encrypted keys in the new OpenSSH format can't be used. y) Yes type in my own password g) Generate random password n) No leave this optional password blank y/g/n> n When set forces the usage of the sshagent. When keyfile is also set, the ".pub" file of the specified keyfile is read and only the associated key is requested from the sshagent. This allows to avoid Too many authentication failures for username errors when the sshagent contains many keys. Enter a boolean value (true or false). Press Enter for the default ("false"). keyuseagent> (默认Enter) Enable the use of the aes128cbc cipher. This cipher is insecure and may allow plaintext data to be recovered by an attacker. Enter a boolean value (true or false). Press Enter for the default ("false"). Choose a number from below, or type in your own value 1 / Use default Cipher list. "false" 2 / Enables the use of the aes128cbc cipher. "true" useinsecurecipher> (默认Enter) Disable the execution of SSH commands to determine if remote file hashing is available. Leave blank or set to false to enable hashing (recommended), set to true to disable hashing. Enter a boolean value (true or false). Press Enter for the default ("false"). disablehashcheck> Edit advanced config? (y/n) y) Yes n) No y/n> n Remote config [remotename] type sftp host(client2 ip) user(client2 user name) port 22 pass ENCRYPTED keyfilepass ENCRYPTED y) Yes this is OK e) Edit this remote d) Delete this remote y/e/d> y Current remotes: Name Type remotename sftp e) Edit existing remote n) New remote d) Delete remote r) Rename remote c) Copy remote s) Set configuration password q) Quit config e/n/d/r/c/s/q> q client2机器ip地址为公网地址。 6. 执行以下命令查看rclone.conf文件,路径为/root/.config/rclone/rclone.conf。 cat /root/.config/rclone/rclone.conf [remotename] type sftp host(client2 ip) user(client2 user name) port 22 pass keyfilepass 7. 在本地服务器client1执行以下命令,同步数据。 rclone copy remotename:/mnt/src /mnt/dst P transfers 32 checkers 64 1. 命令中的remotename需替换为实际的远端名称。 2. 参数说明如下,transfers和checkers数目可以根据系统规格自行配置: transfers:传输文件的并发数目。 checkers:扫描本地文件的并发数目。 P:数据拷贝进度。 等待数据完成同步后,查看本地/mnt/dst是否已成功迁移。
        来自:
        帮助文档
        弹性文件服务 SFS
        最佳实践
        SFS容量型迁移至本地主机
      • 使用备份和恢复实现云搜索实例的跨区域迁移
        源端西南1资源池云搜索服务实例操作 1. Elasticsearch实例绑定公网访问:购买弹性IP,在“安全设置”中绑定Elasticsearch集群,安全组开放9200端口访问,具体操作参见“实例公网访问” 2. 创建索引和数据:通过公网ip+端口,在Elasticsearch中插入数据。 创建索引 cpp curl u admin: X PUT " H 'ContentType: application/json' d' { "mappings": { "properties": { "name": { "type": "text" }, "price": { "type": "float" } } } } ' 插入第一个产品 cpp curl u admin: X POST " H 'ContentType: application/json' d' { "name": "Laptop", "price": 899.99 } ' 插入第二个产品 cpp curl u admin: X POST " H 'ContentType: application/json' d' { "name": "Smartphone", "price": 499.99 } ' 3. 打开备份管理功能 开通ZOS服务,创建存储桶,在云搜索控制台开启备份能力,填写AK/SK。具体开通操作可参考“创建快照备份”。 4. 手动备份索引 点击手动备份,填写备份名称“backuptest”,选择存储桶,备份对象我们选择“索引”,填写索引名称“products”,确认。等待备份完成。 目的端华东1资源池云搜索实例操作 1. 开通云主机:在华东1资源池与云搜索实例同一个VPC下,开通一台云主机。 2. 下载安装ZOS数据迁移工具,根据系统下载如下工具包: unzip ZOSMigrationToollinuxamd64.zip chmod +x zsync 3. 打开备份管理功能 开通ZOS服务,创建存储桶,在云搜索控制台开启备份能力,填写AK/SK。具体操作可参考“创建快照备份”。 4. 配置ZOS数据迁移工具 根据实际情况配置migaration.conf文件。 注意 因为云主机在华东1,西南1需要配置外网地址,而华东1只需要配置内网地址。 如果是跨云迁移,例如友商云迁移到天翼云,需要填写不同的srcType。具体可参考ZOS数据迁移工具页面上的《ZOS数据迁移工具使用手册》.pdf文件。 迁移工具里的AKSK需要填ZOS对象存储的。其值可以从对应的对象存储页面获取。 srcUrl/destUrl的值可以从桶页面的概览页获取。 不同版本的迁移工具,配置项可能略有区别,根据实际情况调整即可。 示例配置如下: cpp { "srcType":"S3", "srcUrl":" "srcAccessKey":"", "srcSecretKey":"", "srcBucket":"bucket3cab", "srcMigrationType": "Bucket", "srcMigrateFolder": [], "srcMigrateFiles": [], "srcMigratePrefix": [], "destUrl":" "destAccessKey":"", "destSecretKey":"", "destBucket":"bucket5daa", "destPrefix":"", "multipartSize(megabytes)": 5, "enableConsistencyCheck":"False", "objectStorageClass":"", "objectAcl":"", "recordFailedObject": "True", "migrationAfterModified": "", "migrationBeforeModified": "", "conflictMode": "IGNORE", "logLevel":"DEBUG", "processNums":12, "threadNums":16, "failRetryMode": "False", "retryFailFiles": [] } 5. 启动迁移 迁移完成后,在华东1的对应的桶中,应该可以看到所有的快照信息。备份数据路径参考esearch/snapshots/manual/Elasticsearch。 6. 恢复索引 创建快照仓库: cpp curl u admin: X PUT "ip:9200/snapshot/remoterestoreonly?pretty" H 'ContentType: application/json' d' { "type": "s3", "settings": { "bucket": "bucket5daa", "basepath": "esearch/snapshots/manual/Elasticsearch", "protocol": "http", "endpoint": " } }' 恢复索引: cpp curl u admin: X POST "ip:9200/snapshot/remoterestoreonly/backuptest/restore?pretty" H 'ContentType: application/json' d' { "indices": "products" }' 注意,这里填写的快照名称要和创建时一致。 返回成功: cpp { "accepted" : true } restore完成后查看恢复情况: cpp curl u admin: X GET "192.168.0.24:9200/products/recovery?pretty" 等待索引恢复成功。 7. 迁移完成后清理 删除迁移用的快照: cpp curl u admin: X DELETE "ip:9200/snapshot/remoterestoreonly/backuptest" 删除迁移用的快照仓库: cpp curl u admin: X DELETE "ip:9200/snapshot/remoterestoreonly" 删除ZOS桶中的数据:路径参考:esearch/snapshots/manual/Elasticsearch。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        迁移集群
        使用备份和恢复实现云搜索实例的跨区域迁移
      • 云日志服务C SDK
        3.1. 基本使用 使用 SDK访问云日志服务,需要设置正确的 AccessKey、SecretKey 和endpoint,所有的服务可以使用同一 key 凭证来进行访问,但不同的服务地区需要使用不同的 endpoint 进行访问,详情参考天翼云官网SDK接入概述。在调用前SDK,需要已知以下参数: 云日志服务访问地址。详情请查看访问地址(Endpoint)。 key凭证:accessKey和secretKey 。详情请查看如何获取访问密钥(AK/SK)。 日志项目编码:logProject,在使用SDK前,需要确保您有至少一个已经存在的日志项目。 日志单元编码:logUnit,在使用SDK前,需要确保日志项目中有至少一个已经存在的日志单元。 待上传的日志:logItem,在使用SDK前,需要确保日志已按照特定格式组织。 参数 参数类型 描述 是否必须 endpoint string 域名 是 accessKey string AccessKey,简称ak 是 secretKey string SecretKey ,简称sk 是 logProject string 日志项目编码 是 logUnit string 日志单元编码 是 示例代码:SDK使用示例 c include include include "logconfig.h" include "logitem.h" include "logclient.h" include "logresponse.h" int main(void) { char accessKey "your accessKey"; char secretKey "your secretKey"; char endpoint "endpoint"; char logProject "log project Code"; char logUnit "log unit Code"; Client client Clientnew(endpoint,accessKey,secretKey); if (client NULL) { printf("client init failedn"); return 0; } int logsize10; //send 10 logs once LogItems logItems LogItemsnew(logsize); for (sizet i 0; i statusCode,response>message,response>error); } else { printf("response is null"); } PutLogsResponsefree(response); } LogItemsfree(logItems); Clientfree(client); return 0; }
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        SDK接入
        云日志服务C SDK
      • CSV机密计算环境(1)
        检查CSV使能状态 在使用CSV加密计算环境前,建议您先通过以下命令检查云主机的CSV使能状态。 plaintext sudo dmesg grep CSV 返回类似结果如下图,即表示CSV已经使能。 验证CSV远程证明 您可以通过在CSV云主机中生成远程证明报告,并通过工具验证其可信性,证明云主机处于可信安全的CSV环境。天翼云为您提供多种方式,以便于您对CSV云主机进行远程证明认证。远程证明相关信息请参见远程证明服务。 在您对CSV云主机进行远程证明认证前,请通过如下命令确保CSV相关驱动已经加载: plaintext ls l /dev/csvguest 若没有结果返回,需要执行如下命令: plaintext sudo su plaintext modprobe csvguest 方式一:自行调用天翼云提供的远程证明服务接口进行验证 1. 执行以下命令,检查libhygoncsvattester.so在云主机内的存在: plaintext ls /usr/lib64/libhygoncsvattester.so 2. 执行以下命令,检查是否有raagent工具: plaintext rpm qa grep raagent 如果没有结果返回,则需要执行以下命令进行安装: plaintext wget plaintext rpm ivh nodeps raagent0.0.11.ctl4.x8664.rpm 3. 执行以下命令,在客户端本地生成随机数: plaintext head c 32 /dev/urandom base64 w 0 执行示例: 4. 执行以下命令,检查是否有racli工具:(对应步骤2) plaintext rpm qa grep racli 1. 若该工具存在,则可以继续执行如下命令: plaintext ./attestationcli evidence get attestertypes "hygoncsv" noncetype "user" nonce " " out "evidence.txt" 执行示例: 提示 类似的Error信息可忽略。 2. 若该工具不存在,则需要执行以下命令: plaintext curl X POST H "ContentType: application/json" d '{ "attesters": [{ "attestertype": "hygoncsv" }], "noncetype": "user", "nonce": " ", "attesterdata": {"testkey": "testvalue"} }' > evidence.txt 5. 在客户端本地将证据发送给天翼云远程证明服务进行校验(对应步骤3和4),通过OpenAPI调用接口,参数填入evidence.txt的内容即可。 如果证据是伪造的,则会得到类似下面的结果: 如果证据是由硬件正确签名的,则会返回类似下面的结果: 6. 其中包含一个token字段,将token字段后面的值放入++ 关于远程证明报告的解析内容,您需要关注以下字段: eatnonce 应等于在第4步中添加的nonce值,证明“证据”是在此次远程证明中刚生成的。 measure 云主机启动过程所载入软件的度量值 policyasidreuse 若1,与其他云主机共用ASID policycsv3 若1,则叠加了CSV3的特性 policyes 若1,则叠加了CSV2的特性 policynodbg 若1,则云主机不可被宿主机上用户调试 policynoks 若1,则不与其他云主机共用内存加密密钥
        来自:
      • 创建xstore存储表
        create index tx1c on xt1 using xbtree(c); CREATE INDEX postgres d+ xt1; Table "public.xt1" Column Type Collation Nullable Default Storage Stats target Description +++++++ a integer not null plain b integer plain c text extended Indexes: "xt1pkey" PRIMARY KEY, xbtree (a) "tx1b" xbtree (b) "tx1c" xbtree (c) Distribute By: HASH(a) Location Nodes: ALL DATANODES 查看xstore表访问方式 查询系统目录表pgclass 和 pgam检查xstore存储表的访问方式 plaintext teledb select relname,amname from pgclass,pgam where relampgam.oid and relname'xt'; relname amname + xt xstore (1 row) 删除xstore存储表 删除列xstore表和行存表语法一致,使用drop table 语句删除 plaintext teledb drop table xt; DROP TABLE
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        xstore引擎
        基础使用介绍
        创建xstore存储表
      • 表达式使用示例
        {Job.getYesterday("yyyyMMdd")} EL表达式说明:Job为作业对象,通过getYesterday方法获取作业计划执行时间前一天的时间,时间格式为yyyyMMdd。 假设作业计划执行时间为2018/9/26 01:00:00,这个表达式计算结果是20180925,该计算结果将替换SQL脚本中的${yesterday}参数。替换后的SQL内容如下: INSERT OVERWRITE TABLE tradereport SELECT sum(tradecount), '20180925' FROM tradelog where dateformat(tradetime, 'yyyyMMdd') '20180925' d.单击,测试运行作业。 e.作业测试无问题后,单击,保存作业配置。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        EL表达式参考
        表达式使用示例
      • 创建用户主密钥
        参数 是否必填 参数类型 说明 示例 下级对象 protectionLevel 是 String 保护等级,取值范围: 0:硬件 1:软件 0 keySpec 是 String 支持的加密算法,软件加密取值范围: AES256 RSA2048 硬件加密取值范围: AES256 RSA2048 CtyunSM2 CtyunSM4 AES256 keyUsage 是 String 密钥类型,取值范围: 1:加密解密 2:签名验签 1 description 否 String 密钥描述,长度小于8129 存储加密密钥 enableAutomaticRotation 是 String 是否开启轮转,取值范围: true:开启 false:不开启 true rotationInterval 否 String 轮转周期:时间范围为7天730天,只需要传“数字+d”即可 7d origin 是 String 密钥来源,取值范围: 1:KMS 2:外部密钥 1 aliasName 否 String 密钥别名 ECS
        来自:
        帮助文档
        密钥管理
        API参考(OpenAPI)
        API
        密钥管理接口
        密钥生命周期管理
        创建用户主密钥
      • 告警事件:查询告警历史详情
        告警事件 告警事件:查询告警历史详情 接口功能介绍 查询单条告警历史详情。 接口约束 无 URI GET /v4/monitor/queryalerthistoryinfo 路径参数 无 Query参数 参数 是否必填 参数类型 说明 示例 下级对象 issueID 是 String 告警历史ID 65b08a5848091836a6f2afd8 请求参数 请求头header参数 无 请求体body参数 无 响应参数 参数 参数类型 说明 示例 下级对象 statusCode Integer 返回状态码(800为成功,900为失败),默认值:800 800 errorCode String 失败时的错误代码,参见公共错误码说明 message String 失败时的错误描述,一般为英文描述 Success msgDesc String 失败时的错误描述,一般为中文描述 成功 error String 错误码,请求成功时,不返回该字段 Openapi.Parameter.Error returnObj Object 返回对象 returnObj 表 returnObj 参数 参数类型 说明 示例 下级对象 status Integer 本参数表示告警状态。取值范围:0:正在告警。1:告警历史。根据以上范围取值。 1 alarmType String 本参数表示告警类型。取值范围:series:指标类型。event:事件类型。根据以上范围取值。 series infoID String 告警详情ID 65b08a5848091836a6f2afd9 service String 本参数表示服务。取值范围:ecs:云主机。evs:云硬盘。pms:物理机。...详见“告警规则:获取告警服务列表”接口返回。 ecs dimension String 本参数表示告警维度。取值范围:ecs:云主机。disk:磁盘。pms:物理机。...详见“告警规则:获取告警服务维度关系”接口返回。 ecs resource Array of Objects 告警资源 resource condition Object 告警规则 condition count Integer 资源告警出现次数 2 value Double 告警数据值 0.27116666 createTime Integer 触发时间的时间戳 1698823059 updateTime Integer 结束时间的时间戳。 1698823059 表 resource 参数 参数类型 说明 示例 下级对象 name String 监控指标 cpuutil value String 监控指标中文描述 cpu使用率 表 condition 参数 参数类型 说明 示例 下级对象 metric String 监控指标 cpuutil metricCnName String 监控指标中文描述 cpu使用率 fun String 本参数表示告警采用算法。取值范围:last:原始值算法。avg:平均值算法。max:最大值算法。min:最小值算法。根据以上范围取值。 avg operator String 本参数表示比较符。默认值le。取值范围:eq:等于。gt:大于。ge:大于等于。lt:小于。le:小于等于。根据以上范围取值。 eq period String 本参数表示算法统计周期。默认值5m。参数fun为last时不可传。参数fun为avg、max、min均需填此参数。本参数格式为“数字+单位”。单位取值范围:m:分钟。h:小时。d:天。根据以上范围取值。 5m threshold String 告警阈值,可以是整数、小数或百分数格式字符串 0 unit String 单位。 %
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        告警服务
        告警记录
        活动告警/历史告警
        告警事件:查询告警历史详情
      • 安装物理机备份客户端
        本节介绍如何为物理机安装备份客户端。 操作场景 云备份通过客户端提供备份服务。备份操作前,需要在备份目标机器中安装客户端,可在控制台进行客户端安装操作。 约束与限制 操作系统限制:物理机支持CentOS7.0/7.1/7.2/7.3/7.4/7.5/7.6/7.7/7.8/7.9、Ubuntu16.04/18.04/20.04、KylinOS V10 SP1/SP2、CTyunOS2.0操作系统,目前仅支持64位系统。 物理机文件备份时,物理机必须处于开机状态。 操作步骤 弹性裸金属 1.登录控制中心。 2.在控制中心左上角点击,选择地域,此处选择华东华东1。 3.选择“存储>云备份”,进入云备份控制台。单击左侧“物理机文件备份”按钮,进入物理机文件备份控制台。 4.点击要备份的弹性裸金属所在行的“操作更多接入VPC”,进入创建VPCE窗口 ,确认该弹性裸金属的网络信息,点击”确定“后 ,自动为该弹性裸金属的VPC创建终端节点以访问云备份服务。 5.同时还需要为要备份的弹性裸金属的VPC接入对象存储服务,请参考VPCE接入对象存储。 6.确认以上4、5步骤都完成后,点击要备份的弹性裸金属所在行的“操作安装客户端”,在安装客户端窗口选择一个已有的对象存储VPCE。 7.若以上操作都已完成且弹性裸金属的子网已接入了云备份服务和对象存储服务,窗口下方会展示客户端安装命令。 a.登录弹性裸金属并切换为root账号。 b.在弹性裸金属界面输入云备份控制台的安装命令(控制台界面提供了安装命令的复制按钮)并执行命令。 c.等待安装界面显示“Successful”,代表客户端安装完成。 d.若以上自动命令执行失败,也可进行手动下载客户端安装包至弹性裸金属内进行激活。 e.下载客户端安装包并解压后,执行“cbrinstall.sh”脚本,根据提示输入云备份控制台的激活命令即可。 f.安装完成后,在云备份控制台物理机资源页面,客户端状态为“已激活”。 标准裸金属 1.登录控制中心。 2.在控制中心左上角点击,选择地域,此处选择华东华东1。 3.选择“存储>云备份”,进入云备份控制台。单击左侧“物理机文件备份”按钮,进入物理机文件备份控制台。 4.点击要备份的标准裸金属所在行的“操作更多接入VPC”,进入创建VPCE窗口 ,选择一个该标准裸金属的普通子网,点击”确定“后 ,自动为该标准裸金属的VPC创建终端节点以访问云备份服务。 5.同时还需要为要备份的标准裸金属的VPC接入对象存储服务,请参考VPCE接入对象存储。 6.确认以上4、5步骤都完成后,点击要备份的标准裸金属所在行的“操作安装客户端”,在安装客户端窗口选择一个标准裸金属的普通子网(即在”接入VPC“步骤已创建了VPCE的子网)以及一个已有的对象存储VPCE。 7.若以上操作都已完成且标准裸金属的普通子网已接入了云备份服务和对象存储服务,窗口下方会展示客户端安装命令 a.登录标准裸金属并切换为root账号。 b.在标准裸金属界面输入云备份控制台的安装命令(控制台界面提供了安装命令的复制按钮)并执行命令。 c.等待安装界面显示“Successful”,代表客户端安装完成。 d.若以上自动命令执行失败,也可进行手动下载客户端安装包至标准裸金属内进行激活。 e.下载客户端安装包并解压后,执行“cbrinstall.sh”脚本,根据提示输入云备份控制台的激活命令即可。 f.安装完成后,在云备份控制台物理机资源页面,客户端状态为“已激活”。
        来自:
        帮助文档
        云备份 CBR
        快速入门
        安装客户端
        安装物理机备份客户端
      • 配置磁盘挂载
        Linux系统 CentOS、SUSE、Euler OS、Fedora或OpenSUSE等系统 1.配置yum源 在/etc/yum.repos.d目录下创建文件euleros.repo(文件名可随意取,但是必须以“.repo”结尾)。 使用如下命令进入euleros.repo编辑配置信息。 vi /etc/yum.repos.d/euleros.repo Euler 2.0SP3 yum配置信息如下: [base] nameEulerOS2.0SP3 base baseurl enabled1 gpgcheck1 gpgkey Euler 2.0SP5 yum配置信息如下: [base] nameEulerOS2.0SP5 base baseurl enabled1 gpgcheck1 gpgkey 说明 参数说明 name:仓库的名称。 baseurl:仓库的地址。 使用http协议的网络地址: 使用本地仓库地址:file:///path/to/local/repo gpgcheck:表示是否进行gpg(GNU Private Guard)校验,以确定RPM包来源的有效性和安全性。gpgcheck设置为1表示进行gpg校验,0表示不进行gpg校验。如果没有这一项,默认是检查的。 保存配置的repo文件。 执行如下命令清理缓存。 yum clean all 2.使用如下命令安装nfsutils yum install nfsutils 3.设置共享文件夹 打开/etc/exports,比如要把/sharedata目录设置为共享目录,可以填入如下内容: /sharedata 192.168.0.0/24(rw,sync,norootsquash) 说明 上述内容的含义是:把/sharedata这个目录共享给192.168.0.0/24这个子网段的其他服务器。 命令输入完成后,可以执行命令exportfs v 显示共享的目录,从而判断是否设置成功。 4.使用如下命令启动nfs服务 systemctl start rpcbind service nfs start 5.修改共享目录 比如需要新增/home/myself/download到共享目录,可以在/etc/exports中新增如下内容。 /home/myself/download 192.168.0.0/24(rw,sync,norootsquash) 然后重启nfs服务。 service nfs restart 或者用如下命令,无需重启nfs服务。 exportfs rv 6.设置rpcbind开机启动(可选) 如果需要设置rpcbind服务开机启动,可执行如下命令。 systemctl enable rpcbind
        来自:
        帮助文档
        函数工作流
        用户指南
        配置函数
        配置磁盘挂载
      • 查询平均响应时间
        示例: 请求路径: 示例1: 请求参数: json { "producttype": [ "008", "004" ], "starttime": 1653362700, "endtime": 1653363000, "interval": "5m" } 返回结果: json { "starttime": 1653362700, "code": 100000, "reqresponsetimedatainterval": [ { "timestamp": 1653362700, "province": 340000, "domain": "a.ctyun.cn", "isp": 1, "responsetime": 0 }, { "timestamp": 1653362700, "province": 340000, "domain": "b.ctyun.cn", "isp": 1, "responsetime": 7000 }, { "timestamp": 1653362700, "province": 510000, "domain": "c.ctyun.cn", "isp": 3, "responsetime": 100 }, { "timestamp": 1653363000, "province": 340000, "domain": "d.ctyun.cn", "isp": 1, "responsetime": 307000 } ], "endtime": 1653363000, "interval": "5m", "message": "success" } 错误码请参考:参数code和message含义
        来自:
        帮助文档
        CDN加速
        API参考
        API
        统计分析
        查询平均响应时间
      • CSV机密计算环境
        检查CSV使能状态 在使用CSV加密计算环境前,建议您先通过以下命令检查云主机的CSV使能状态。 plaintext sudo dmesg grep CSV 返回类似结果如下图,即表示CSV已经使能。 验证CSV远程证明 您可以通过在CSV云主机中生成远程证明报告,并通过工具验证其可信性,证明云主机处于可信安全的CSV环境。天翼云为您提供多种方式,以便于您对CSV云主机进行远程证明认证。远程证明相关信息请参见远程证明服务。 在您对CSV云主机进行远程证明认证前,请通过如下命令确保CSV相关驱动已经加载: plaintext ls l /dev/csvguest 若没有结果返回,需要执行如下命令: plaintext sudo su plaintext modprobe csvguest 方式一:自行调用天翼云提供的远程证明服务接口进行验证 1. 执行以下命令,检查libhygoncsvattester.so在云主机内的存在: plaintext ls /usr/lib64/libhygoncsvattester.so 2. 执行以下命令,检查是否有raagent工具: plaintext rpm qa grep raagent 如果没有结果返回,则需要执行以下命令进行安装: plaintext wget plaintext rpm ivh nodeps raagent0.0.11.ctl4.x8664.rpm 3. 执行以下命令,在客户端本地生成随机数: plaintext head c 32 /dev/urandom base64 w 0 执行示例: 4. 执行以下命令,检查是否有racli工具:(对应步骤2) plaintext rpm qa grep racli 1. 若该工具存在,则可以继续执行如下命令: plaintext ./attestationcli evidence get attestertypes "hygoncsv" noncetype "user" nonce " " out "evidence.txt" 执行示例: 提示 类似的Error信息可忽略。 2. 若该工具不存在,则需要执行以下命令: plaintext curl X POST H "ContentType: application/json" d '{ "attesters": [{ "attestertype": "hygoncsv" }], "noncetype": "user", "nonce": " ", "attesterdata": {"testkey": "testvalue"} }' > evidence.txt 5. 在客户端本地将证据发送给天翼云远程证明服务进行校验(对应步骤3和4),通过OpenAPI调用接口,参数填入evidence.txt的内容即可。 如果证据是伪造的,则会得到类似下面的结果: 如果证据是由硬件正确签名的,则会返回类似下面的结果: 6. 其中包含一个token字段,将token字段后面的值放入++ 关于远程证明报告的解析内容,您需要关注以下字段: eatnonce 应等于在第4步中添加的nonce值,证明“证据”是在此次远程证明中刚生成的。 measure 云主机启动过程所载入软件的度量值 policyasidreuse 若1,与其他云主机共用ASID policycsv3 若1,则叠加了CSV3的特性 policyes 若1,则叠加了CSV2的特性 policynodbg 若1,则云主机不可被宿主机上用户调试 policynoks 若1,则不与其他云主机共用内存加密密钥
        来自:
        帮助文档
        弹性云主机 ECS
        安全合规
        机密计算与可信计算
        机密计算能力
        CSV机密计算环境
      • 为Java应用手动安装Agent
        监控Java应用需要先为Java应用安装Agent,您可以选择以手动方式或脚本方式安装Agent,本文介绍如何为Java应用手动安装Agent。 为Java应用手动安装Agent。 准备工作 1. DNS配置:上报域名为内网域名,需要在dns配置文件(/etc/resolv.conf)第一行加上 nameserver 100.95.0.1 才生效。 2. 检查VPC接入情况:使用agent前,需要先接入云主机所在的VPC网络。 下载Agent 各个资源池的下载地址都不一样,在接入应用面板的STEP1区域下载对应的Agent。 注意 javaagent目前仅支持JDK 8、11、17版本。 安装Agent 进入Agent压缩包所在目录并将其解压至任意工作目录下。 plaintext unzip ctyunArmsAgent.zip d /{user.workspace}/ “{user.workspace}”是示例路径,此处及以下均请根据具体环境替换为正确的路径 。 复制以下JVM参数,添加到应用服务的启动脚本中。 plaintext nohup java javaagent:/{user.workspace}/ctyunArmsAgent/ctyunArmsAgent.jar Dotel.resource.attributesservice.namemyservice Darms.licenseKeySgrpVvT0@14462p5oHbdZ Dotel.exporter.otlp.endpoint jar {jar.name}.jar & license.key和endpoint 是我们为您自动生成的。 service.name 是您的应用名称,请将 myservice 替换成您自己的应用名。 如需在同一台服务器为一个应用部署多个进程实例,则应在Dotel.resource.attributes内容中增加配置:instance.id逻辑实例名,使用逗号与其他配置隔开,如若无此配置,则多个进程实例数据将合并为同一个实例。 启动应用 请在重新启动您的应用,大约5分钟后Agent将会安装完毕。 结果验证 约5分钟后,若Java应用出现在应用列表页面中且有数据上报,则说明接入成功。
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入Java应用
        为Java应用手动安装Agent
      • 通过mongoexport和mongoimport工具迁移数据
        导出源库数据 步骤 1 登录到已准备的弹性云服务器或可访问源数据库的设备。 步骤 2 使用mongoexport,将源数据库转储至JSON文件。 此处以SSL连接方式为例进行说明,如果选择普通连接方式,去掉命令中对应的“ssl sslAllowInvalidCertificates”即可。 ./mongoexport host port ssl sslAllowInvalidCertificates type json authenticationDatabase u db collection out DBADDRESS为数据库地址。 DBPORT为数据库端口。 AUTHDB为存储DBUSER信息的数据库,一般为admin。 DBUSER为数据库用户。 DBNAME为要迁移的数据库名称。 DBCOLLECTION为要迁移的数据库集合。 DBPATH为存储数据JSON文件所在的路径。 出现如下提示时,输入数据库管理员对应的密码: Enter password: 示例如下,命令执行完会生成“exportfile.json”文件: ./mongoexport host 192.168.1.21 port 8635 ssl sslAllowInvalidCertificates type json authenticationDatabase admin u rwuser db test02 collection Test out /tmp/mongodb/export/exportfile.json 步骤 3 查看导出结果。 输出内容显示如下,说明迁移成功。其中,“x”表示转储数据的记录条数。 exported x records 步骤 4 压缩导出的JSON文件。 gzip exportfile.json 压缩是为了方便网络传输,压缩后生成“exportfile.json.gz”文件。 将数据导入至目标DDS 步骤 1 登录到已准备的弹性云服务器或可访问文档数据库的设备。 步骤 2 将要导入的数据上传到弹性云服务器或可访问文档数据库的设备。 根据不同的平台选择相应的上传方法。 Linux下可参考命令: scp @ : − IDENTITYFILE为存储“exportfile.json.gz”的文件目录,该文件目录权限为600。 − REMOTEUSER为弹性云服务器的操作系统用户。 − REMOTEADDRESS为弹性云服务器的主机地址。 − REMOTEDIR为将“exportfile.json.gz”上传到弹性云服务器的文件目录。 Windows平台下,请使用传输工具上传“exportfile.json.gz”至弹性云服务器。 步骤 3 解压数据包。 gzip d exportfile.json.gz 步骤 4 将转储文件导入到文档数据库。 此处以SSL连接方式为例进行说明,如果选择普通连接方式,去掉命令中对应的“ssl sslAllowInvalidCertificates”即可。 ./mongoimport host port ssl sslAllowInvalidCertificates type json authenticationDatabase u db collection file DBADDRESS为数据库实例的IP地址。 DBPORT为数据库端口。 AUTHDB为DBUSER进行权限验证的数据库,一般为admin。 DBUSER为数据库管理员帐号名。 DBNAME为要导入的数据库。 DBCOLLECTION为要导入的数据库中的集合。 DBPATH为转储数据JSON文件所在的路径。 出现如下提示时,输入数据库管理员对应的密码: Enter password: 示例如下: ./mongoimport host 192.168.1.21 port 8635 ssl sslAllowInvalidCertificates type json authenticationDatabase admin u rwuser db test02 collection Test file /tmp/mongodb/export/exportfile.json 步骤 5 查看迁移结果。 输出内容显示如下,说明迁移成功。其中,“x”表示转储数据的记录条数。 imported x records
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据迁移
        通过mongoexport和mongoimport工具迁移数据
      • 监控指标
        监控指标 监控对象(dimension) 监控指标(metric) 说明 单位 数据粒度 system(仅集群版支持) IOPS 客户端与HBlock之间的总IOPS。 无 精细 system(仅集群版支持) RIOPS 客户端从HBlock读取数据的IOPS。 无 精细 system(仅集群版支持) WIOPS 客户端向HBlock写入数据的IOPS。 无 精细 system(仅集群版支持) Bandwidth 客户端与HBlock之间的总带宽。 B/s 精细 system(仅集群版支持) RBandwidth 客户端从HBlock读取数据的带宽。 B/s 精细 system(仅集群版支持) WBandwidth 客户端向HBlock写入数据的带宽。 B/s 精细 system(仅集群版支持) Latency 客户端与HBlock之间的总时延。系统在一个采集周期内,读写操作平均时延,反映HBlock处理读写请求的时长。 ms 精细 system(仅集群版支持) WLatency 客户端向HBlock写入数据的时延,系统在一个采集周期内,写操作平均时延,反映HBlock处理写请求的时长。 ms 精细 system(仅集群版支持) RLatency 客户端从HBlock读取数据的时延,集群在一个采集周期内,读操作平均时延,反映HBlock处理读请求的时长。 ms 精细 system(仅集群版支持) PathCap 系统中所有数据目录所在磁盘总容量。 bytes 粗糙 system(仅集群版支持) PathUsed 系统中所有数据目录所在磁盘已用容量。 bytes 粗糙 system(仅集群版支持) PathRate 4.0之前版本:系统的数据目录所在磁盘平均使用率,即所有数据目录所在磁盘使用率的平均值。 4.0及后续版本:系统的数据目录所在磁盘平均使用率,即PathUsed/PathCap。 % 粗糙 system(仅集群版支持) PathCapQuota 系统中HBlock可用空间大小,即用户给HBlock分配的所有目录容量配额的总和。 bytes 粗糙 system(仅集群版支持) PathCapQuotaUsed 系统中所有数据目录所在磁盘中,HBlock数据占用的空间大小。 bytes 粗糙 system(仅集群版支持) PathCapQuotaRate 4.0之前版本:系统的数据目录容量配额平均使用率,所有数据目录PathCapQuotaUsed/PathCapQuota的平均值。(4.0之前版本) 4.0及后续版本:系统的数据目录容量配额平均使用率,即PathCapQuotaUsed/PathCapQuota。 % 粗糙 system(仅集群版支持) CloudBandwidth HBlock与云之间的总带宽。 B/s 精细 system(仅集群版支持) CloudUBandwidth HBlock向云上传数据的带宽。 B/s 精细 system(仅集群版支持) CloudDBandwidth HBlock从云下载数据的带宽。 B/s 精细 server CPURate 服务器CPU使用率。 % 精细 server MemRate 服务器内存使用率。 % 精细 server MemTotal 服务器内存总量。 B/s 精细 server MemUsed 服务器内存使用量。 B/s 精细 server IOPS 客户端与HBlock之间的总IOPS。 无 精细 server RIOPS 客户端从HBlock读取数据的IOPS。 无 精细 server WIOPS 客户端向HBlock写入数据的IOPS。 无 精细 server Bandwidth 客户端与HBlock之间的总带宽。 B/s 精细 server RBandwidth 客户端从HBlock读取数据的带宽。 B/s 精细 server WBandwidth 客户端向HBlock写入数据的带宽。 B/s 精细 server Latency 客户端与HBlock之间的总时延。采集周期内,服务器关联卷的读写时延平均值。 ms 精细 server WLatency 客户端到HBlock写时延,采集周期内,服务器关联卷的写时延平均值。 ms 精细 server RLatency 客户端从HBlock读取数据的时延,采集周期内,服务器关联卷的平均读时延。 ms 精细 server PathCap HBlock服务器的数据目录所在磁盘总容量。 bytes 粗糙 server PathUsed HBlock服务器的数据目录所在磁盘已用容量。 bytes 粗糙 server PathRate 4.0之前版本:HBlock服务器的数据目录所在磁盘平均使用率,即服务器上所有数据目录所在磁盘使用率的平均值。 4.0及后续版本:HBlock服务器的数据目录所在磁盘平均使用率,即PathUsed/PathCap。 % 粗糙 server PathCapQuota HBlock可用空间大小,即用户给HBlock分配的所有数据目录容量配额的总和。 bytes 粗糙 server PathCapQuotaUsed HBlock服务器所有数据目录所在磁盘中,HBlock数据占用的空间大小。 bytes 粗糙 server PathCapQuotaRate 4.0之前版本:数据目录容量配额平均使用率,即所有数据目录PathCapQuotaUsed/PathCapQuota的平均值。 4.0及后续版本:HBlock服务器的数据目录容量配额平均使用率,即PathCapQuotaUsed/PathCapQuota。 % 粗糙 server CloudBandwidth HBlock服务器与云之间的总带宽。 B/s 精细 server CloudUBandwidth HBlock服务器向云上传数据的带宽。 B/s 精细 server CloudDBandwidth HBlock服务器从云下载数据的带宽。 B/s 精细 disk PathCap 数据目录所在磁盘总容量。 bytes 粗糙 disk PathUsed 数据目录所在磁盘已用容量。 bytes 粗糙 disk PathRate 数据目录所在磁盘使用率。 % 粗糙 disk PathCapQuota HBlock可用空间大小,即用户给HBlock分配的容量配额。 bytes 粗糙 disk PathCapQuotaUsed 数据目录所在磁盘,HBlock数据占用的空间大小。 bytes 粗糙 disk PathCapQuotaRate 数据目录容量配额使用率,即PathCapQuotaUsed/PathCapQuota。 % 粗糙 LUN IOPS 客户端与HBlock卷之间的总IOPS 无 精细 LUN RIOPS 客户端从HBlock卷读取数据的IOPS。 无 精细 LUN WIOPS 客户端向HBlock卷写入数据的IOPS。 无 精细 LUN Bandwidth 客户端与HBlock卷的之间的总带宽。 B/s 精细 LUN RBandwidth 客户端从HBlock卷读取数据的带宽。 B/s 精细 LUN WBandwidth 客户端向HBlock卷写入数据的带宽。 B/s 精细 LUN Latency 客户端与HBlock卷之间的总时延,卷在一个采集周期内,读写操作平均时延,反映HBlock单卷处理读写请求的时长。 ms 精细 LUN WLatency 客户端向HBlock卷写入数据的时延,卷在一个采集周期内,写操作平均时延,反映HBlock单卷处理写请求的时长。 ms 精细 LUN RLatency 客户端从HBlock卷读取数据的时延,卷在一个采集周期内,读操作平均时延,反映HBlock单卷处理读请求的时长。 ms 精细 LUN CloudBandwidth HBlock卷与云之间的总带宽。 B/s 精细 LUN CloudUBandwidth HBlock卷向云上传数据的带宽。 B/s 精细 LUN CloudDBandwidth HBlock卷从云下载数据的带宽。 B/s 精细 LUN WaitUpload 待从HBlock卷上传云的数据量。 bytes 精细 pool(仅集群版支持) IOPS 客户端与HBlock之间的总IOPS。 无 精细 pool(仅集群版支持) RIOPS 客户端从HBlock读取数据的IOPS。 无 精细 pool(仅集群版支持) WIOPS 客户端向HBlock写入数据的IOPS。 无 精细 pool(仅集群版支持) Bandwidth 客户端与HBlock之间的总带宽。 B/s 精细 pool(仅集群版支持) RBandwidth 客户端从HBlock读取数据的带宽。 B/s 精细 pool(仅集群版支持) WBandwidth 客户端向HBlock写入数据的带宽。 B/s 精细 pool(仅集群版支持) Latency 客户端与HBlock之间的总时延。系统在一个采集周期内,读写操作平均时延,反映HBlock处理读写请求的时长。 ms 精细 pool(仅集群版支持) WLatency 客户端向HBlock写入数据的时延,系统在一个采集周期内,写操作平均时延,反映HBlock处理写请求的时长。 ms 精细 pool(仅集群版支持) RLatency 客户端从HBlock读取数据的时延,集群在一个采集周期内,读操作平均时延,反映HBlock处理读请求的时长。 ms 精细 pool(仅集群版支持) PathCap 数据目录总容量,即存储池中所有数据目录所在磁盘的总容量。 bytes 粗糙 pool(仅集群版支持) PathUsed 数据目录已用容量,即存储池中所有数据目录所在磁盘的已用容量。 bytes 粗糙 pool(仅集群版支持) PathRate 4.0之前版本:数据目录平均使用率,即存储池所有数据目录所在磁盘使用率的平均值。 4.0及后续版本:数据目录平均使用率,即PathUsed/PathCap。 % 粗糙 pool(仅集群版支持) PathCapQuota HBlock可用空间大小,即存储池中所有数据目录所在磁盘中,用户给HBlock分配的容量配额的总和。 bytes 粗糙 pool(仅集群版支持) PathCapQuotaUsed 存储池中所有数据目录所在磁盘中,HBlock数据占用的空间大小。 bytes 粗糙 pool(仅集群版支持) PathCapQuotaRate 4.0之前版本:数据目录容量配额平均使用率,存储池中所有数据目录PathCapQuotaUsed/PathCapQuota的平均值。 4.0及后续版本:存储池的数据目录容量配额平均使用率,即PathCapQuotaUsed/PathCapQuota。 % 粗糙
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        运维
        监控
        监控指标
      • Linux文件系统提示:Read-only file system
        本文针对linux文件系统提示“readonly file system”问题给出修复方案请您参考。 问题现象 Linux操作系统云主机删除或者修改文件的时候会提示文件系统:Readonly file system,最终导致操作失败。 问题分析 造成这个问题的原因大多数是因为非正常关机后导致文件系统受损引起的,在系统重启之后,受损分区就会被Linux自动挂载为只读。解决的方法是通过fsck来修复文件系统,然后重启即可。报错readonly file system的原因是所在的分区只有读权限,没有写权限(如下图)。 解决方法 使用fsck手动修复,具体操作如下: 重启系统后使用root进入单用户模式,运行。 fsck.ext3 y /dev/vda3 说明 ext3的文件系统使用fsck.ext3,ext4文件系统使用fsck.etx4。/dev/vda3是系统/根分区。运行完毕后,reboot重启系统就恢复正常。fsck.ext3开始进入扫描、修正文件系统,这个过程有时很快,有时比较长,中间有数次停顿的过程,只需等待即可,千万不要以为死机而重启服务器。修正完文件系统后,如果没有提示重启系统,也需要reboot来重启系统。 附fsck参数详解: 使用方法:fsck [参数] 设备名 参数: t : 给定档案系统的型式,若在/etc/fstab中已有定义或kernel 本身已支援的则不需加上此参数。 s : 依序一个一个地执行fsck 的指令来检查。 A : 对/etc/fstab 中所有列出来的partition做检查。 C : 显示完整的检查进度。 d : 列印e2fsck的debug 结果。 p : 同时有A 条件时,同时有多个fsck的检查一起执行。 R : 同时有A 条件时,省略/ 不检查。 V : 详细显示模式。 a : 如果检查有错则自动修复,所以你不用一直按y 键。 y: 与a类似,但是某些文件系统仅支持y 这个参数,所以也可以用y。 r : 如果检查有错则由使用者回答是否修复。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        磁盘空间管理
        Linux文件系统提示:Read-only file system
      • 概述
        获取“包装密钥”和“导入令牌” 方法一:单击“下载”,下载的文件为包装密钥 wrappingKey 密钥ID :即包装密钥,编码为二进制格式,用于加密密钥材料的包装密钥。 导入令牌:引导程序已自动传递导入令牌,无需下载,若中途退出引导程序,导入令牌将自动失效。 注意 包装密钥将在24小时后失效,失效后将不能使用。如果包装密钥失效,请重新下载包装密钥。 引导程序将自动传递导入令牌,若创建密钥过程中,关闭或者退出设置则导入令牌失效。重新发起导入密钥材料操作时,导入令牌引导程序自动启动。 方法二:通过调用API接口的方式获取包装密钥和导入令牌 步骤 1 调用“getparametersforimport”接口,获取包装密钥和导入令牌。 publickey:调用API接口返回的base64编码的包装密钥内容。 importtoken:调用API接口返回的base64编码的导入令牌内容。 以获取密钥ID为“43f1ffd718fb45689575602e009b7ee8”,加密算法为“RSAESOAEPSHA256”的包装密钥和导入令牌为例。 请求样例 { "keyid": "43f1ffd718fb45689575602e009b7ee8", "wrappingalgorithm":"RSAESOAEPSHA256" } 响应样例 { "keyid": "43f1ffd718fb45689575602e009b7ee8", "publickey":" public key base64 encoded data ", "importtoken":" import token base64 encoded data ", "expirationtime":1501578672 } 步骤 2 保存包装密钥,包装密钥需要按照以下步骤转换格式。使用转换格式后的包装密钥加密的密钥材料才能成功导入管理控制台。 复制包装密钥“publickey”的内容,粘贴到“.txt”文件中,并保存为“PublicKey.b64”。 使用OpenSSL,执行以下命令,对“PublicKey.b64”文件内容进行base64转码,生成二进制数据,并将转码后的文件保存为“PublicKey.bin”。 openssl enc d base64 A in PublicKey.b64 out PublicKey.bin 步骤 3 保存导入令牌,复制导入令牌“importtoken”的内容,粘贴到“.txt”文件中,并保存为“ImportToken.b64”。
        来自:
        帮助文档
        数据加密
        用户指南
        密钥管理
        导入密钥
        概述
      • 手工搭建LNMP环境(Ubuntu 20.04)
        操作步骤 1、安装Nginx。 a.登录弹性云主机。 b.执行以下命令安装Nginx。 sudo aptget update sudo aptget install nginx c.调整防火墙(可选)。 UFW(Uncomplicated Firewall)是一个iptables的接口,可以简化配置防火墙的过程。Ubuntu默认安装了UFW,执行以下命令查看防火墙的状态。 sudo ufw status 如果你没有也不想开启防火墙,则可以直接跳过此步骤,如果你想要开启防火墙可以通过以下命令实现。 sudo ufw enable 之后再次检查防火墙状态验证是否成功开启防火墙。 在测试Nginx之前,需要重新配置我们的防火墙软件以允许访问Nginx。执行以下命令,将Nginx自动注册在UFW。 sudo ufw app list 回显信息: Available applications: Nginx Full Nginx HTTP Nginx HTTPS ... Nginx Full:此配置文件打开端口 80(正常,未加密的Web流量)和端口443(TLS / SSL加密流量) Nginx HTTP:此配置文件仅打开端口 80(正常,未加密的Web流量) Nginx HTTPS:此配置文件仅打开端口 443(TLS / SSL加密流量) 执行以下命令确保防火墙允许HTTP和HTTPS连接。 sudo ufw allow 'Nginx Full' d.验证Nginx是否正常工作。 在浏览器中通过域名或者IP地址进行访问Nginx,如果Nginx正常启动则会打开Welcome to nginx的欢迎页面。 使用浏览器访问 “ 2、安装MySQL。 a.执行以下命令安装MySQL。 sudo apt y install mysqlserver b.查看MySQL运行状态。 sudo systemctl status mysql mysql.service MySQL Community Server Loaded: loaded (/lib/systemd/system/mysql.service; enabled; vendor preset: enabled) Active: active (running) since Wed 20230726 15:57:29 CST; 22min ago Main PID: 10770 (mysqld) Status: "Server is operational" Tasks: 37 (limit: 4217) Memory: 364.9M CGroup: /system.slice/mysqld.service └─10770 /usr/sbin/mysqld Jul 26 15:57:29 ecsubuntu systemd[1]: Starting MySQL Community Server... Jul 26 15:57:29 ecsubuntu systemd[1]: Started MySQL Community Server. c.执行以下命令,进入MySQL。 sudo mysql d.执行以下命令,设置root用户密码。 ALTER USER 'root'@'localhost' IDENTIFIED WITH mysqlnativepassword by 'newpassword'; 其中'newpassword'为待设置的密码。 e.执行以下命令,退出MySQL数据库。 exit; f.执行以下命令,并按照回显提示信息进行操作,加固MySQL。 mysqlsecureinstallation Securing the MySQL server deployment. Enter password for user root:
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        手工搭建LNMP环境(Ubuntu 20.04)
      • 上传CSR
        参数 是否必填 参数类型 说明 示例 下级对象 name 否 String CSR名称 test1 csr 是 String CSR字符串 BEGIN CERTIFICATE REQUEST MIIC1TCCAb0CAQAwaDELMAkGA1UEBhMCQ04xEjAQBgNVBAgMCeWkqea0peW4gjES MBAGA1UEBwwJ5aSp5rSl5biCMRAwDgYDVQQDDAd0ZXN0LmNuMQ0wCwYDVQQKDARh YWFhMRAwDgYDVQQLDAdzZGFkcXdkMIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIB CgKCAQEAs7inXHHqxxamBtnYMVM+7XBsbdFgddeEE/cU85N/+D/1RfSGp6cy/KV1 UnT7+irDbaWDDUiY+tLrB/ndaKFkpTomqEkItAcXmSVcMcJ7TppClo6WukaWv/qz cg+tLFOWbQmwrgziNg4M1Z2fyCGOCyy/Tzq5++rREwqXwMTP+uUOZDTxiODEmt7v BtNs/S50GD8ymGs8JiGkL2F2+Og1B59aJt6h3i9OBPRmpcKJslDRSxyVS5GBvoju 6NdGyJMKeSIUicuvKWe8j4AbQls8secptMplXKaBtWgU0VU97aw61UfOe8EBQA/s KwHu20oXLznLa0+BVPHcoMTOm+qnjQIDAQABoCgwJgYJKoZIhvcNAQkOMRkwFzAV BgNVHREBAf8ECzAJggdhYmMuY29tMA0GCSqGSIb3DQEBCwUAA4IBAQCaFI8SRhpl NAjTWnz9QjOBJJUV1EfVedIWC8C4TiguZDQa3uYjUkFYdX3lEzNYBhAUeYyJGqNZ 2qM8v8HJ1cm+FTGaWrqcaJIWsdRSLRTVVkt0svqe0HzWtBQYlkUa+GrY9qZ+XmNo E6nbeLtUrz/6y4yFKHiZsztqIXH4VdI6KQ4WiXPE16ZMPdziN6AXNmcu+8o6PpF9 P7yenMUq05lIFQ174M8wzWX1r7GiD/ren3tJLJ3W4FK/CtdAC/TR95IFkZr4eMf2 5LZeAPmsagmeSUus2WynqPr+XRgZCOOgkb1meV5XwUIwqgXifvSZoiFCLqcv8IOb P5FiphJf13tU END CERTIFICATE REQUEST privateKey 是 String 私钥 BEGIN PRIVATE KEY MIIEvwIBADANBgkqhkiG9w0BAQEFAASCBKkwggSlAgEAAoIBAQCzuKdccerHFqYG 2dgxUz7tcGxt0WB114QT9xTzk3/4P/VF9IanpzL8pXVSdPv6KsNtpYMNSJj60usH +d1ooWSlOiaoSQi0BxeZJVwxwntOmkKWjpa6Rpa/+rNyD60sU5ZtCbCuDOI2DgzV nZ/IIY4LLL9POrn76tETCpfAxM/65Q5kNPGI4MSa3u8G02z9LnQYPzKYazwmIaQv YXb46DUHn1om3qHeL04E9GalwomyUNFLHJVLkYG+iO7o10bIkwp5IhSJy68pZ7yP gBtCWzyx5ym0ymVcpoG1aBTRVT3trDrVR857wQFAD+wrAe7bShcvOctrT4FU8dyg xM6b6qeNAgMBAAECggEAEDjVJnOD4ReKweiM6prcfbsdlmYFQm3DFrhBNGE2dlZz ka5qLxzY7dQTfG9hxSlx/WYop5zLbix2mYA0u3qB5qYSkjMRbYqMVz73jOhEkAo9 g3B4a3Tuq4J6CwweMfeThuEOiQ9RpdZr0yZIo1xgAWM3G3QuEG6YE5NrsjMxoLBA VleiUQ68myzfPpsdlYTV26HiZMIkfpU4ho1svivq1PGICdMqv5gbi00Syk9VZW53 p9nKpuhUIJZOn+gDdV9X7y/mX2VhFgGtozUxh+66JQTVp0qljXiwiEQ9CMjEy3xZ Pc5o6n+GbcNq0NMaa0tWFcFgxW/Bj0rjBZmVvgudowKBgQDqQ4SkDt4ibze3NlF9 +2DOGf0Ksoo4ezn4FY3l6uwTtZewRmVOaTsEbMnk7EDpFKd/i4qCvmChtcCZoU3s u9IC3M0eXEw4/n04MYSvK8olA4bDl/8R5Ue2hgcBu205opN7UCgbAVbDj+91v1x8 NAg5SzD0ZjDkz/+6DEpTm06wowKBgQDEZZXltrlySg49hyOP0LtN/hiyOVXe34T5 8V2KMPHwQFX+gnKX6I0RYfUkr5zGNhuFcxURuH1SKDm6pQHLi+LhSc+7w4Z+p5rW 5k8sQBnG37vgjo3hcz+ifFsRWoHsyIxJHBuUiiuJeUJjPRs2nLVgQZPXe4ARxh88 of9jaUdaDwKBgQCxh2NAdKfwTnpZlIdjQpoU9mrlrXHD5daDY8o5/7LSKN6AToi9 SE/aRZsmqcdzGxzoMlZQSHewdK01f6EvExLO6odjR6zX0DwS1qvnl/bD4A1Dsq8w 36Fd9+ndbS0T7Vl4rMEH3hbjcvOUNuWelkvZJ1s9Cyhobhws4N1+yIZ0owKBgQCO NPhrEvoItXLGPnoTgpJ9kMWVF0sETFjfGlQe4f3tdshNt2r+b9blhUaaP8aHB1q6 MHBLGokz2gijCyPXnPy1IFsYnCVgxD+r56vgYLHJfOtvWAmH+4lSQDU4xY5aQ4TA 02dtEPchXfoiHXb8/k+e2R0R5E0BkbHAl5RzCSIvJQKBgQCpaWyBPxLYWt6vpSva RJjcA5GdWZ2/pYJx31T1QjEZuD5TYDaIUof6CBIpwr0GDusbES92W7FpQuhDd5fl aRpSd5UWZgWN46vWiZGqU5QL6OUaGay+ZvK21KTE+rIifkPomLXZwpjXsiGwOwaq povE/SnXk9tArtPkhscOcR9aaQ END PRIVATE KEY
        来自:
        帮助文档
        证书管理服务
        API参考
        API
        2024-01-10
        上传CSR
      • 查询日志内容
        枚举参数 无 请求示例 请求url 无 请求头header { "loggroup": "100054c0416811e9a6690242ac110002", "logunit": "100054c0416811e9a6690242ac110002", "urlType": "CTAPI" "page": "1" "size": "10" } 请求体body { "startTime": "2024/11/14 10:37:34", "endTime": "2024/11/15 10:37:34", "isFullIndex": 1, "judgeMode": 1, "keys": [ { "key": "ipproto", "value": "1", "judgeMode": 1 }, { "key": "proto", "value": "1", "judgeMode": 1 }, { "key": "dir", "value": "2", "judgeMode": 1 }, { "key": "origin", "value": "3", "judgeMode": 1 } ] } 响应示例 { "statusCode": "800", "error": "CFW0000", "message": "成功!", "returnObj": { "pages": "1", "total": 51, "realtotal": 51, "rawlogs": [ { "ipproto": 1, "sport": "0", "level": 3, "sip": "100.124.4.132", "origin": 3, "dip": "192.168.10.8", "dir": 2, "hostid": "425fc38eccefce85ce6945d86d0e7e38", "dport": "0", "ruleid": 8528500, "proto": 1, "action": 2, "time": 1731575980, "appid": 0 } ] } } 状态码 请参考 状态码
        来自:
        帮助文档
        云防火墙(原生版)
        API参考
        API
        2023-10-16
        日志管理
        查询日志内容
      • 安装并配置Cloudbase-Init工具
        本节介绍了安装并配置CloudbaseInit工具的操作场景、前提条件、安装CloudbaseInit工具、配置CloudbaseInit工具。 操作场景 为了保证使用私有镜像创建的新云主机可以通过“用户数据注入”功能注入初始化自定义信息(例如为云主机设置登录密码),建议您在创建私有镜像前安装CloudbaseInit工具。 不安装CloudbaseInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 使用公共镜像创建的云主机,默认已经安装CloudbaseInit,不需要执行安装及配置操作。 使用外部镜像文件创建的云主机,请按照指导安装及配置CloudbaseInit。 前提条件 已为云主机绑定弹性公网IP。 已登录到云主机。 云主机的网卡属性为DHCP方式。 已安装一键式重置密码插件。 因为安装CloudbaseInit工具的操作步骤中如果有重启云主机的操作,可能导致密码被修改为一个随机密码,所以需要安装一键式重置密码插件重置密码。操作步骤请参考安装一键式重置密码插件。 安装CloudbaseInit工具 1. 在Windows操作系统中,单击“开始”,选择“控制面板 > 程序 > 程序和功能”查看是否安装CloudbaseInit。 − 是,无需重复安装,直接执行下文“配置CloudbaseInit工具”。 − 否,执行以下安装操作步骤。 2. 操作系统是否为Windows桌面版。 − 是,执行3。 − 否,若操作系统为Windows Server版本,请执行4。 3. 如果操作系统是Windows桌面版,如Windows 7或者Windows 10,那么需要在安装CloudbaseInit前确保Adminstrator账号未禁用。以Windows 7为例,具体操作请以实际为准。 a. 在操作系统中单击“开始”,选择的“控制面板 > 系统和安全 > 管理工具”。 b. 双击“计算机管理”。 c. 选择“系统工具 > 本地用户和组 > 用户”。 d. 右键单击“Administrator”,选择“属性”。 e. 确认已取消勾选“账户已禁用”选项。 4. 下载CloudbaseInit工具安装包。 根据Windows操作系统的不同位数,您需要下载不同版本的CloudbaseInit工具安装包。Cloudbase官网: CloudbaseInit分为稳定版本和Beta版本两种。 稳定版本获取路径: − 64位: − 32位: Beta版本获取路径: − 64位: − 32位: 5. 双击打开CloudbaseInit工具安装包开始安装。 6. 单击“Next”。 7. 勾选“I accept the terms in the License Agreement”,单击“Next”。 8. 使用CloudbaseInit默认安装路径进行安装,单击“Next”。 9. 在“Configuration options”窗口中,设置用户名为“Administrator”,日志输出串口选择“COM1”,且不勾选“Run CloudbaseInit service as LocalSystem”。如下图所示。 说明: 图片中的版本号仅供参考,请以实际情况为准。 设置参数 10. 单击“Next”。 11. 单击“Install”。 12. 在“Files in Use”窗口保留默认勾选“Close the application and attempt to restart them”,单击“OK”。 13. 操作系统是否为Windows桌面版。 − 是,执行15。 − 否,执行14。 14. 在“Completed the CloudbaseInit Setup Wizard ”窗口,请勿勾选“Run Sysprep to create a generalized Image. This is necessary if you plan to duplicate this instance, for example by creating a Glance image”及“Shutdown when Sysprep terminate”。如下图所示。 完成安装 说明: 图片中的版本号仅供参考,请以实际情况为准。 15. 单击“Finish”。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Windows操作系统相关操作
        安装并配置Cloudbase-Init工具
      • 产品定义
        版本介绍 应用服务网格CSM按照不同的功能及支撑能力划分为基础版、标准版。 版本 说明 基础版 支持50以内Pod数规模,无企业级增强能力,不推荐生产使用。 标准版 支持1000Pod数规模。 使用方式 为了更好的使用应用服务网格CSM产品,建议您先开通以下产品: 1. 开通云容器引擎,至少有一个云容器引擎集群实例。 2. 开通天翼云微服务引擎,并在服务网格控制面集群同VPC内创建云原生网关实例。 相关云服务 云产品名称 开通类型 产品说明 云容器引擎 必选项 云容器引擎 弹性负载均衡ELB 必选项(开通服务网格时自动开通) 弹性负载均衡
        来自:
        帮助文档
        应用服务网格
        产品简介
        产品定义
      • 创建连接MRS集群的SSH隧道并配置浏览器
        本章节主要介绍创建连接MRS集群的SSH隧道并配置浏览器 。 操作场景 用户和MRS集群处于不同的网络中,需要创建一个SSH隧道连接,使用户访问站点的数据请求,可以发送到MRS集群并动态转发到对应的站点。 MAC系统暂不支持该功能访问MRS,请参考通过弹性公网IP访问内容访问MRS。 前提条件 准备一个SSH客户端用于创建SSH隧道,例如使用开源SSH客户端Git。请下载并安装。 已创建好集群,并准备pem格式的密钥文件或创建集群时的密码。 用户本地环境可以访问互联网。 操作步骤 1.登录MRS管理控制台,选择“集群列表 > 现有集群”。 2.单击指定名称的MRS集群。 记录集群的“安全组” 。 3.为集群Master节点的安全组添加一条需要访问MRS集群的IP地址的入规则,允许指定来源的数据访问端口“22”。 具体请参见“《虚拟私有云》帮助文档> 安全性 > 安全组 > 添加安全组规则”。 4.查询集群的主管理节点,具体请参考如何确认Manager的主备管理节点。 5.为集群的主管理节点绑定一个弹性IP地址。 具体请参见“《虚拟私有云》帮助文档”,为弹性云主机申请和绑定弹性公网IP。 6.在本地启动Git Bash,执行以下命令登录集群的主管理节点: ssh root@弹性 IP 地址或者 ssh i 密钥文件路径 root@弹性 IP 地址 7.执行以下命令查看数据转发配置: cat /etc/sysctl.conf grep net.ipv4.ipforward 系统查询到“net.ipv4.ipforward1”表示已配置转发,则请执行步骤9。 系统查询到“net.ipv4.ipforward0”表示未配置转发,则请执行步骤8。 系统查询不到“net.ipv4.ipforward”参数表示该参数未配置,则请执行以下命令后再执行步骤9。 echo "net.ipv4.ipforward 1"/etc/sysctl.conf 8.修改节点转发配置: a.执行以下命令切换root用户: sudo su root b.执行以下命令,修改转发配置: echo 1 > /proc/sys/net/ipv4/ipforward sed i "s/net.ipv4.ipforward0/net.ipv4.ipforward 1/g"/etc/sysctl.conf sysctlw net.ipv4.ipforward1 c.执行以下命令,修改sshd配置文件: vi /etc/ssh/sshdconfig 按I进入编辑模式,查找“AllowTcpForwarding”和“GatewayPorts”,并删除注释符号,修改内容如下,然后保存并退出: AllowTcpForwarding yesGatewayPorts yes d.执行以下命令,重启sshd服务: service sshd restart 9.执行以下命令查看浮动IP地址: ifconfig 系统显示的“eth0:FIHUE”表示为Hue的浮动IP地址,“eth0:wsom”表示Manager浮动IP地址,请记录“inet”的实际参数值。 然后退出登录:exit 10.在本地机器执行以下命令创建支持动态端口转发的SSH隧道: 使用命令 ssh i 密钥文件路径 v ND 本地端口地址 root@弹性IP 地址或者 ssh v ND 本地端口地址 root@弹性 IP 地址 ,然后输入创建集群时的密码。 其中,“本地端口地址”需要指定一个用户本地环境未被使用的端口,建议选择8157。 创建后的SSH隧道,通过“D”启用动态端口转发功能。默认情况下,动态端口转发功能将启动一个SOCKS代理进程并侦听用户本地端口,端口的数据将由SSH隧道转发到集群的主管理节点。 11.执行如下命令配置浏览器代理。 a.进入本地Google Chrome浏览器客户端安装目录。 b.按住“shift+鼠标右键”,选择“在此处打开命令窗口”,打开CMD窗口后输入如下命令: chrome proxyserver"socks5://localhost:8157" hostresolverrules"MAP 0.0.0.0 , EXCLUDE localhost" userdatadirc:/tmppath proxybypasslist"googlecom, gstatic.com, gvt .com, :80" 说明 8157为步骤10中配置的本地代理端口。 若本地操作系统为Windows 10,请打开Windows操作系统“开始”菜单,输入cmd命令,打开一个命令行窗口执行12中的命令。若该方式不能成功,请打开Windows操作系统“开始”菜单后,在搜索框中输入并执行11中的命令。 12.在新弹出的浏览器地址栏,输入Manager的访问地址。 Manager访问地址形式为 浮动IP 地址:28443/web 。 访问启用Kerberos认证的集群时,需要输入MRS集群的用户名和密码,例如“admin”用户。未启用Kerberos认证的集群则不需要。 第一次访问时,请根据浏览器提示,添加站点信任以继续打开页面。 13.准备站点的访问地址。 a.参考开源组件Web站点中的Web站点一览,获取Web站点的地址格式及对应的角色实例。 b.单击“服务管理”。 c.单击指定的服务名称,例如HDFS。 d.单击“实例”,查看NameNode的主角色实例“NameNode(主)”的“业务IP” 14.在浏览器输入访问Web站点真实地址并访问。 15.退出访问Web站点时,请终止并关闭SSH隧道。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        访问MRS集群上托管的开源组件Web页面
        创建连接MRS集群的SSH隧道并配置浏览器
      • 创建列存储表
        本页介绍如何创建、查看和删除列存储表。 创建列存储表 要创建列存储表,需要将表的访问方式(Table Access Method) 设为 PAX,在建表时显式使用 USING PAX 子句指定表访问方式 teledb CREATE TABLE t1(a int, b int, c text) USING PAX; CREATE TABLE teledb d+ t1 Table "public.t1" Column Type Collation Nullable Default Storage Stats target Description +++++++ a integer plain b integer plain c text extended Distribute By: HASH(a) Location Nodes: ALL DATANODES 查看列存储表访问方式 查询系统目录表pgclass 和 pgam 检查列存储表的访问方式 teledb SELECT relname, amname FROM pgclass, pgam WHERE relam pgam.oid AND relname 't1'; relname amname + t1 pax (1 row) 删除列存储表 删除列存储表和行存表语法一致,使用drop table 语句删除 teledb drop table t1; DROP TABLE
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        列存储引擎
        基础使用介绍
        创建列存储表
      • 1
      • ...
      • 11
      • 12
      • 13
      • 14
      • 15
      • ...
      • 415
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      训推服务

      AI Store

      模型推理服务

      应用托管

      科研助手

      推荐文档

      PostgreSQL

      文档下载

      生产消息

      产品定义

      Telnet/SSH/Rlogin访问

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号