云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务RabbitMQ_相关内容
      • 产品基本概念
        本文带您了解云监控产品相关术语及其基本概念。 名词 解释 云服务监控 云服务监控是对天翼云的云产品进行监控。查看当前天翼云账号下各云产品中资源的监控项。支持查看云主机、云硬盘、弹性IP等云产品的监控项。 云服务 云服务是天翼云提供的云产品和云服务的总称,例如:云主机ECS、云硬盘和云监控等。 告警服务 客户对云服务监控中的产品实例的监控项设置告警规则。当监控项满足告警规则时,及时发送告警通知。 监控项 云服务具体产品实例的监控指标类型。例如:云主机ECS的CPU使用率、内存使用率、磁盘使用率等。 监控面板 客户关键业务需要重点关注的场景,在监控首页设置监控面板和视图。 告警规则 告警规则是监控项的告警条件。当监控项达到该告警条件时,客户会收到告警通知。 沉默时间 在自定义告警规则时,需要设定沉默时间。沉默时间指告警发生后,如果未恢复正常,间隔多久重复发送一次告警通知。 告警联系人 告警通知的实际接收人。 告警组 告警联系人组。一组告警联系人,可以包含一个或多个告警联系人。在创建告警规则和应用分组时,需要向告警组中的联系人发送告警通知。告警系统根据预先设定的告警方式,在达到告警阈值时向告警组中的联系人发送告警通知。 通知方式 发送报警通知的方式。包括:邮箱、短信。 告警回调 通过接口回调,云监控将推送告警信息至您已有的运维系统或消息通知系统。当告警策略被触发或恢复时,均会通过接口回调各推送一次告警消息。告警回调的重试策略为3次,超时时间为5秒。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。
        来自:
        帮助文档
        云监控服务
        产品简介
        产品基本概念
      • 云审计服务支持的DMS for Kafka操作列表
        本文主要介绍云审计服务支持的DMS for Kafka操作列表。 通过云审计服务,您可以记录与分布式消息服务Kafka相关的操作事件,便于日后的查询、审计和回溯。 表 云审计服务支持的DMS for Kafka操作列表 操作名称 资源类型 事件名称 创建DMS实例订单成功 kafka createDMSInstanceOrderSuccess 创建DMS实例任务执行成功 kafka createDMSInstanceTaskSuccess 创建DMS实例订单失败 kafka createDMSInstanceOrderFailure 创建DMS实例任务执行失败 kafka createDMSInstanceTaskFailure 删除创建失败的DMS实例成功 kafka deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败 kafka deleteDMSCreateFailureInstancesFailure 删除DMS实例任务执行成功 kafka deleteDMSInstanceTaskSuccess 删除DMS实例任务执行失败 kafka deleteDMSInstanceTaskFailure 批量删除DMS实例任务 kafka batchDeleteDMSInstanceTask 提交批量删除DMS实例请求成功 kafka batchDeleteDMSInstanceSuccess 批量删除DMS实例任务执行成功 kafka batchDeleteDMSInstanceTaskSuccess 提交批量删除DMS实例请求失败 kafka batchDeleteDMSInstanceFailure 批量删除DMS实例任务执行失败 kafka batchDeleteDMSInstanceTaskFailure 提交修改DMS实例订单请求成功 kafka modifyDMSInstanceOrderSuccess 提交修改DMS实例订单请求失败 kafka modifyDMSInstanceOrderFailure 提交扩容实例请求成功 kafka extendDMSInstanceSuccess 扩容DMS实例任务执行成功 kafka extendDMSInstanceTaskSuccess 提交扩容实例请求失败 kafka extendDMSInstanceFailure 扩容DMS实例任务执行失败 kafka extendDMSInstanceTaskFailure 提交重置DMS实例密码请求成功 kafka resetDMSInstancePasswordSuccess 提交重置DMS实例密码请求失败 kafka resetDMSInstancePasswordFailure 提交重启DMS实例请求成功 kafka restartDMSInstanceSuccess 重启DMS实例任务执行成功 kafka restartDMSInstanceTaskSuccess 提交重启DMS实例请求失败 kafka restartDMSInstanceFailure 重启DMS实例任务执行失败 kafka restartDMSInstanceTaskFailure 提交批量重启DMS实例请求成功 kafka batchRestartDMSInstanceSuccess 批量重启DMS实例任务执行成功 kafka batchRestartDMSInstanceTaskSuccess 提交批量重启DMS实例请求失败 kafka batchRestartDMSInstanceFailure 批量重启DMS实例任务执行失败 kafka batchRestartDMSInstanceTaskFailure 提交修改DMS实例信息请求成功 kafka modifyDMSInstanceInfoSuccess 修改DMS实例信息任务执行成功 kafka modifyDMSInstanceInfoTaskSuccess 提交修改DMS实例信息请求失败 kafka modifyDMSInstanceInfoFailure 修改DMS实例信息任务执行失败 kafka modifyDMSInstanceInfoTaskFailure 删除后台任务成功 kafka deleteDMSBackendJobSuccess 删除后台任务失败 kafka deleteDMSBackendJobFailure 冻结DMS实例任务执行成功 kafka freezeDMSInstanceTaskSuccess 冻结DMS实例任务执行失败 kafka freezeDMSInstanceTaskFailure 解冻DMS实例任务执行成功 kafka unfreezeDMSInstanceTaskSuccess 解冻DMS实例任务执行失败 kafka unfreezeDMSInstanceTaskFailure Kafka专享实例创建Topic成功 kafka KafkacreatetopicSuccess Kafka专享实例创建Topic失败 kafka KafkacreatetopicFailure Kafka专享实例删除Topic成功 kafka KafkadeletetopicsSuccess Kafka专享实例删除Topic失败 kafka KafkadeletetopicsFailure 开启自动创建Topic成功 kafka enableautotopicSuccess 开启自动创建Topic失败 kafka enableautotopicFailure 重置消费组偏移量成功 kafka KafkaresetconsumeroffsetSuccess 重置消费组偏移量失败 kafka KafkaresetconsumeroffsetFailure 创建用户成功 kafka createUserSuccess 创建用户失败 kafka createUserFailure 删除用户成功 kafka deleteUserSuccess 删除用户失败 kafka deleteUserFailure 更新用户策略成功 kafka updateUserPoliciesTaskSuccess 更新用户策略失败 kafka updateUserPoliciesTaskFailure
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        云审计服务支持的关键操作
        云审计服务支持的DMS for Kafka操作列表
      • 设置告警规则
        本节介绍了设置GeminiDB Redis告警规则的具体方法。 操作场景 通过设置GeminiDB Redis告警规则,用户可自定义监控目标与通知策略,及时了解GeminiDB Redis运行状况,从而起到预警作用。 设置GeminiDB Redis的告警规则包括设置告警规则名称、监控对象、监控指标、告警阈值、监控周期和是否发送通知等参数。 操作步骤 1、登录管理控制台。 2、在左侧导航树,选择“告警 > 告警规则”。 3、在“告警规则”页面,单击“创建告警规则”。 4、根据界面提示配置告警参数。 5、配置完成后,单击“立即创建”,完成告警规则的创建。 告警规则创建完成后,当监控指标触发设定的告警策略时,云监控服务会在第一时间通过消息通知服务实时告知您云上资源异常,以免因此造成业务损失。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        监控与告警
        设置告警规则
      • Java客户端接入示例
        生产消息 import java.util.ArrayList; import java.util.List; import java.util.Properties; import java.util.concurrent.Future; import org.apache.kafka.clients.CommonClientConfigs; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import org.apache.kafka.common.config.SslConfigs; public class KafkaProducerDemo { public static void main(String args[]) { //加载kafka.properties Properties kafkaProperties JavaKafkaConfigurer.getKafkaProperties(); Properties props new Properties(); //设置接入点,请通过控制台获取对应Topic的接入点 props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, kafkaProperties.getProperty("bootstrap.servers")); //设置SSL根证书的路径,请记得将XXX修改为自己的路径 props.put(SslConfigs.SSLTRUSTSTORELOCATIONCONFIG, kafkaProperties.getProperty("ssl.truststore.location")); //根证书store的密码,保持不变 props.put(SslConfigs.SSLTRUSTSTOREPASSWORDCONFIG, "c24f5210"); //接入协议,目前支持使用SSL协议接入 props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SSL"); //Kafka消息的序列化方式 props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringSerializer"); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, "org.apache.kafka.common.serialization.StringSerializer"); //请求的最长等待时间 props.put(ProducerConfig.MAXBLOCKMSCONFIG, 30 1000); //设置客户端内部重试次数 props.put(ProducerConfig.RETRIESCONFIG, 5); //设置客户端内部重试间隔 props.put(ProducerConfig.RECONNECTBACKOFFMSCONFIG, 3000); //hostname校验改成空 props.put(SslConfigs.SSLENDPOINTIDENTIFICATIONALGORITHMCONFIG, ""); //构造Producer对象,注意,该对象是线程安全的,一般来说,一个进程内一个Producer对象即可; //如果想提高性能,可以多构造几个对象,但不要太多,最好不要超过5个 KafkaProducer producer new KafkaProducer (props); //构造一个Kafka消息 String topic kafkaProperties.getProperty("topic"); //消息所属的Topic,请在控制台申请之后,填写在这里 String value "this is the message's value"; //消息的内容 try { //批量获取 futures 可以加快速度, 但注意,批量不要太大 List > futures new ArrayList >(128); for (int i 0; i kafkaMessage new ProducerRecord (topic, value + ": " + i); Future metadataFuture producer.send(kafkaMessage); futures.add(metadataFuture); } producer.flush(); for (Future future: futures) { //同步获得Future对象的结果 try { RecordMetadata recordMetadata future.get(); System.out.println("Produce ok:" + recordMetadata.toString()); } catch (Throwable t) { t.printStackTrace(); } } } catch (Exception e) { System.out.println("error occurred"); e.printStackTrace(); } } }
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Java
        Java客户端接入示例
      • 连接类
        本节介绍了连接类相关问题与处理方法。 root账号的ssltype修改为ANY后无法登录、 场景描述 在控制台以root帐号通过DAS登录实例时,报错Access denied。 原因分析 1. 查看mysql.user表中的root帐号信息,排查客户端IP范围是否正确、是否使用SSL。 SELECT FROM mysql.user WHERE User'root'; 如果发现root帐号的ssltype 被设置为 ANY ,表明root帐号需要使用SSL连接。 2. 查看SSL开启情况。 show variables like '%ssl%'; 发现该实例未开启SSL: 因此,问题原因是自行修改root帐号的ssltype 为ANY后,导致无法登录。 解决方案 将root帐号的ssltype修改为空即可,参考命令: update mysql.user set ssltype'' where user 'root'; 如果要将其他所有用户帐号的ssltype修改为空,参考命令: update mysql.user set ssltype'' where user not like 'mysql%'; SSL使用与介绍 场景描述 使用SSL无法连接上数据库。 原因分析 优先检查网络是否已经连通,如果不带SSL的连接方式可以连接,则可能是mysql client或对应的数据库驱动的版本不兼容。 解决方案 TaurusDB是兼容社区8.0以上版本的,需要使用8.0及以上版本的mysql client或数据库驱动。 SSL(Secure Socket Layer:安全套接字层)使用数据加密、身份校验和消息完整性校验,为连接提供安全性保证。 SSL提供的功能主要包含 : 1. 加密数据传输:利用对称密钥算法对传输的数据进行加密。 2. 身份校验:基于证书使用数字签名的方法对客户端与服务器进行身份验证。 3. 消息完整性校验:消息传输过程中使用MAC算法来检验消息的完整性。 注意 当服务端的SSL开启时,客户端的身份验证是可选的,即:即使服务端开启了SSL,客户端也可以不通过SSL的方式连接服务端,此时也可以正常通信,只是数据不会被加密。 如果不是通过SSL的方式,那么其在网络中的传输数据会以明文进行,存在安全隐患。 TaurusDB数据库服务端会默认开启服务端会默认开启SSL,客户业务使用时可以在客户端自行选择是否使用SSL。
        来自:
        帮助文档
        云数据库TaurusDB
        故障排除
        连接类
      • 创建主题
        参数 是否必填 参数类型 说明 示例 下级对象 prodInstId 是 String 实例id d7ed2dbad63843f4bcb3b9dc0955a617 brokerNameList 是 Array of Strings 关联的Broker节点名称列表,需填写实际部署的Broker节点名称,不可为空数组 ["broker1"] writeQueueNums 是 Integer 主题的写队列数量,用于控制消息写入的并发能力,需为正整数 4 readQueueNums 是 Integer 主题的读队列数量,需与写队列数量保持一致,确保消息消费的负载均衡,需为正整数 4 order 是 Boolean 标识主题是否为顺序消息队列,true表示顺序队列,false表示普通队列 false perm 是 Integer 主题的权限控制值,固定可选值为2(只读)、4(只写)、6(读写),默认推荐6 6 allowdConsumerGroups 是 Array of Strings 允许订阅该主题的消费者组列表,空数组表示不限制消费者组订阅 [] topicName 是 String 主题名称,需符合MQ主题命名规范(字母、数字、下划线组合,长度164字符),不可重复 test1
        来自:
        帮助文档
        分布式消息服务RocketMQ
        API参考
        API
        2022-04-06
        Topic管理
        创建主题
      • Java开发环境搭建
        开发环境 Maven Apache Maven 2.5及以上版本,可至Maven官方网站下载。 JDK Java Development Kit 1.8及以上版本,可至Oracle官方网站下载。 安装后注意配置JAVA的环境变量。 IntelliJ IDEA 获取并安装IntelliJ IDEA,可至IntelliJ IDEA官方网站下载。 操作步骤 1. 下载Demo包kafkajavademo.zip 下载后解压,有如下文件: 表1 KAFKA Demo文件清单 文件名 路径 说明 ::: JavaKafkaConfigurer.java .srcmainjavajavaDemo 读取Kafka配置文件。 KafkaConsumerDemo.java .srcmainjavajavaDemo 消费消息。 KafkaMultiConsumerDemo.java .srcmainjavajavaDemo 批量消费消息。 KafkaProducerDemo.java .srcmainjavajavaDemo 生产消息。 kafka.properties .srcmainresources kafka配置参数 pom.xml . maven配置文件,包含Kafka客户端引用。 2. 打开IntelliJ IDEA,导入Demo。Demo是一个Maven构建的Java工程,因此需要配置JDK环境,以及IDEA的Maven插件。 3. 修改Kafka配置信息。 修改kafka.properties 修改demo文件中的属性变量
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Java
        Java开发环境搭建
      • 连接设置相关参数
        bonjour (boolean) 通过Bonjour广告服务器的存在。默认值是关闭。 这个参数只能在服务器启动时设置。 bonjourname (string) 指定Bonjour服务名称。空字符串''(默认值)表示使用计算机名。 如果编译时没有打开Bonjour支持那么将忽略这个参数。这个参数只能在服务器启动时设置。 tcpkeepalivesidle (integer) 指定不活动多少秒之后通过TCP 向客户端发送一个 keepalive 消息。 0 值表示使用默认值。这个参数只有在支持TCPKEEPIDLE或等效套接字选项的系统或 Windows 上才可以使用。在其他系统上,它必须为零。在通过 Unix 域套接字连接的会话中,这个参数被忽略并且总是读作零。注意在 Windows 上,值若为 0,系统会将该参数设置为 2 小时,因为 Windows 不支持读取系统默认值。 tcpkeepalivesinterval (integer) 指定在多少秒之后重发一个还没有被客户端告知已收到的TCP keepalive 消息。0 值表示使用系统默认值。这个参数只有在支持TCPKEEPINTVL或等效套接字选项的系统或 Windows 上才可以使用。在其他系统上,必须为零。在通过 Unix域套接字连接的会话中,这个参数被忽略并总被读作零。注意在 Windows 上,值若为 0,系统会将该参数设置为 1 秒,因为 Windows 不支持读取系统默认值。 tcpkeepalivescount (integer) 指定与客户端的服务器连接被认为死掉之前允许丢失的TCP keepalive 数量。0 值表示使用系统默认值。这个参数只有在支持TCPKEEPCNT或等效套接字选项的系统上才可以使用。在其他系统上,必须为零。在通过 Unix 域套接字连接的会话中,这个参数被忽略并总被读作零。注意Windows 不支持该参数,且必须为零。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        连接和认证相关参数
        连接设置相关参数
      • 重试机制
        本章介绍函数工作流在同步调用或异步调用执行失败时如何重试。 函数在同步调用或异步调用执行失败时,您可以参见以下重试机制进行操作。 同步调用 同步调用执行失败,建议您自行尝试重试。 异步调用 异步调用可在界面配置最大重试次数和消息最大有限期,具体配置方法请参见配置函数异步。函数平台会根据您配置的最大重试次数和消息最大有限期(最大有限期为24小时),进行重试。重试次数和配置的最大重试次数一致,重试有效期和配置的消息最大有效期一致。
        来自:
        帮助文档
        函数工作流
        用户指南
        调用函数
        重试机制
      • 存储桶内无对象,为什么还会产生公网流出流量费用
        本文介绍存储桶内无对象,为什么还会产生公网流出流量费用。 存储桶中如无对象,但账单体现公网流出流量费用,常见原因如下(包括但不限于): 流量每小时结算一次,在这一个小时中您或被授权账号向桶中上传对象后又删除了该对象,结算时您看到桶内无对象,但实际已产生流量。 对桶的操作,如设置桶ACL、设置生命周期,请求中均会携带消息体,会产生流量。 对媒体存储发送请求失败,返回4xx错误(403除外),会同时返回消息体,该消息体会产生流量。
        来自:
        帮助文档
        媒体存储
        常见问题
        计费常见问题
        存储桶内无对象,为什么还会产生公网流出流量费用
      • 自定义授权服务策略
        配置项 说明 安全策略名称 策略名称 协议 HTTP和GRPC协议的外部授权服务 服务地址 实现了Envoy extauthz授权接口的服务名称,如extauth.default.svc.cluster.local 服务端口 授权服务端口 超时时间 数据面请求外部授权服务的超时时间,如1s,2.5s 鉴权服务不可用时放行请求 访问鉴权服务失败或者鉴权服务返回5XX状态码时是否放行请求,默认关闭 鉴权服务不可用自定义错误码 请求鉴权服务出现网络错误时返回自定义状态码 在鉴权请求中携带请求Body 是否将请求Body带到鉴权服务 鉴权请求携带Body的最大长度(Byte) 允许携带到鉴权服务的Body最大长度 允许将不完整消息发送至鉴权服务 在请求Body超出最大长度限制时,若不启用该选项则将拒绝请求并返回HTTP 413 在鉴权请求中携带header 指定将请求中的部分Header带到鉴权服务 在鉴权请求中新增header 请求鉴权服务时新增Header 在鉴权通过时覆盖Header 鉴权通过时使用鉴权服务返回的Header覆盖原始请求Header访问上游 鉴权失败时覆盖Header 鉴权通过时使用鉴权服务返回的Header覆盖应答Header返回给下游
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格安全中心
        CSM安全策略
        自定义授权服务策略
      • 功能特性
        在线加密 在线加密是对称密钥加密的场景,适用于保护小型敏感数据(小于6KB),如口令、证书、身份信息、后台配置文件等。通过密钥管理服务KMS的在线加密API,使用用户主密钥(CMK)直接加密敏感数据信息,而非直接将明文存储,确保敏感数据安全。 信封加密 信封加密是对称密钥加密的场景,是一种应对海量数据的高性能加解密方案。这种技术不再使用用户主密钥(CMK)直接加密和解密数据,而是通过生成加密数据的数据密钥(DEK),将其封入信封中(即通过CMK加密)存储、传递和使用,由KMS确保数据密钥的随机性和安全性。 实际使用时,用户无需将大量业务数据上传至KMS服务端,直接通过离线的数据密钥在本地实现加解密,有效避免安全隐患,保证了业务加密性能的要求。 签名验签 数字签名技术是非对称加密算法的另一种典型应用。用户可在KMS中创建非对称用户主密钥(CMK),其由一对关联的公钥和私钥构成。公钥可以被分发给任何人,而私钥由KMS确保安全性,不提供任何接口导出非对称密钥的私钥。 使用者仅能通过接口调用私钥进行签名运算。 实际使用时,签名者将验签公钥分发给消息接收者,签名者使用签名私钥,对数据产生签名,签名者将数据以及签名传递给消息接收者,消息接收者获得数据和签名后,使用公钥针对数据验证签名的合法性。
        来自:
        帮助文档
        密钥管理
        产品介绍
        功能特性
      • 创建告警通知主题
        本章节主要介绍创建告警通知主题 操作场景 主题作为发送消息和订阅通知的信道。 在这一部分,您可创建一个属于自己的主题。 创建主题 1. 登录管理控制台。 2. 在服务列表选择“云监控服务”。 3. 在左侧导航栏,选择“告警” > “告警规则”。 点击右上角“创建告警规则”,进入创建告警规则页面。 4. 在创建告警规则页面勾选“发送通知”按钮,点击选项栏右侧“新建主题“,开始创建主题。 此时将显示“创建主题”对话框。 5. 在“名称”框中,输入主题名称,在“通知列表”选择需要添加通知方式,并根据选择的通知方式输入相应的订阅终端地址。 6. 单击“确定”,完成主题创建。完成后,天翼云会向通知列表内的订阅终端发送订阅通知,用户要选择确认订阅,后续才能收到告警信息。
        来自:
        帮助文档
        云监控服务
        用户指南
        使用告警功能
        创建告警通知主题
      • 自建Apache RocketMQ事件目标
        结果验证 1. 触发一次事件,可在对应总线处点击发布事件按钮,生产一个事件。 2. 消费自建集群对应Topic消息,查看是否有对应消息投递。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        自建Apache RocketMQ事件目标
      • DMS助手
        本文介绍DMS助手功能,包括智能问答和对话管理。 功能介绍 DMS助手是一款专为数据库领域定制的智能问答机器人,旨在提供即时、精准的技术支持。它不仅内置了MySQL、PostgreSQL等主流数据库的知识库,还集成了DMS文档资源,能够高效响应您在使用数据库及DMS时可能遇到的各类问题: 数据库知识解答:对于数据库中的基础知识或专业术语,DMS助手能够提供全面而详尽的解释。例如,您可以提问:“数据库事务是什么?” 数据库参数说明:当您想要了解数据库中某项参数的具体详情时,DMS助手可以为您提供相关信息。例如,您可以提问:“MySQL中optimizersearchdepth默认值是什么?” 数据库操作指导:在您进行数据库操作遇到问题或需要指导时,DMS助手可以为您提供相关帮助和建议。例如,您可以提问:“我想创建一张student表,sql怎么写?” DMS使用帮助:当您想要了解DMS的特定功能或概念,或在使用DMS过程中遇到困难时,DMS助手可以为您提供解释和指导。例如,您可以提问:“DMS中的团队是什么意思?” 为了便于您核实答案的准确性,DMS助手在提供解答的同时,会附带官方文档的参考链接。这不仅方便您进行信息核实,也有助于您对相关主题进行更深入的学习和探索。 前提条件 用户已登录数据管理服务。 注意事项 请避免过于频繁发送消息,系统对消息的发送频率有限制。 每个对话允许的消息数量最多为100条。一旦达到上限,您将无法在当前对话中继续发送消息。如需继续提问,请新建一个对话。 您可以保留的历史对话数量上限为500条。如果达到这个限制,您将无法创建新的对话。在这种情况下,请考虑删除一些不再需要的旧对话,以释放空间供新的对话使用。
        来自:
        帮助文档
        数据管理服务
        用户指南
        AI智能
        DMS助手
      • 与其他云服务的关系
        本文主要介绍与其他云服务的关系。 云审计(Cloud Trace Service) 云审计为您提供云服务资源的操作记录,记录内容包括您从管理控制台或者开放API发起的云服务资源操作请求以及每次请求的结果,供您查询、审计和回溯使用。 当前CTS记录的操作,请参考支持云审计的操作列表。 虚拟私有云(Virtual Private Cloud) Kafka实例运行于虚拟私有云,需要使用虚拟私有云创建的IP和带宽。通过虚拟私有云安全组的功能可以增强访问Kafka实例的安全性。 弹性云主机(Elastic Cloud Server) 弹性云主机是由CPU、内存、操作系统、云硬盘组成的基础的计算组件。Kafka实例运行在弹性云主机上,一个代理对应一台弹性云主机。 云硬盘(Elastic Volume Service) 云硬盘为云服务器提供块存储服务,Kafka的所有数据(如消息、元数据和日志等)都保存在云硬盘中。 云监控(Cloud Eye) 云监控是一个开放性的监控平台,提供资源的实时监控、告警、通知等服务。 说明 Kafka实例向CloudEye上报监控数据的更新周期为1分钟。 弹性公网IP(Elastic IP) 弹性公网IP提供独立的公网IP资源,包括公网IP地址与公网出口带宽服务。Kafka实例绑定弹性公网IP后,可以通过公网访问Kafka实例。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        与其他云服务的关系
      • 产品介绍
        绑定云电脑 家庭管理在邀请家人进入家庭管理后,可邀请家庭成员绑定云电脑。 【操作步骤】 1.登录云电脑后,进入家庭管理; 2.点击“绑定云电脑”,可选择家庭成员发起绑定云电脑邀请; 3.邀请后,成员在“翼家消息”“我接收的”,选择对应云电脑同意邀请即可。 查看邀请通知 家庭管理可以前往翼家消息,查看当前账号查看已发起和已接收的家庭邀请通知。 【操作步骤】 1.登录云电脑后,进入家庭管理; 2.点击“翼家消息”,查看已发起和已接收的家庭消息通知。 退出家庭 当家庭成员或管理员不需要家庭管理时,可选择退出家庭操作。 【操作步骤】 1.登录云电脑后,进入家庭管理,点击“更多”“退出家庭”; 2.确认信息,点击“确认”即完成退出家庭申请; 3.待家长在家庭管理”翼家消息“”我接收的“,同意后即可退出家庭。 如需了解更多?可查看下图,秒懂翼家!
        来自:
        帮助文档
        天翼云电脑(公众版)
        翼家云电脑
        产品介绍
      • OpenClaw快速添加并使用息壤模型
        提示“USERRPMRATELIMITING 用户请求RPM超限,请稍后重试” 原因:您当前发起的请求速度过快,每分钟的请求数(RPM, Requests Per Minute)已超过系统阈值。 解决方案: 稍后再试:限流通常会在1分钟内自动解除,您可以稍后再试。 降低发送频率:发送完一条消息后,等出现回复再发送下一条,避免连续快速发送。 减少同时对话:避免并发过高,如果您同时打开了多个聊天窗口,请先集中在一个窗口对话,关闭其他窗口,避免多个对话同时争抢额度。 调整限额:如果您需要更高的流量额度,请联系客户经理或提交工单提升额度。 提示“400 模型id错误,无法与AppKey对应,请联系管理员” 问题:当前使用的模型没有与您在服务接入所创建AppKey对应,导致无法使用。 解决方案: 修改服务组重新添加模型服务:在服务接入页面找到创建的服务组,编辑服务组,勾选您需要在OpenClaw中使用的模型,提交后在OpenClaw进行重试。
        来自:
        帮助文档
        模型推理服务
        最佳实践
        OpenClaw快速添加并使用息壤模型
      • 计费模式
        计费示例 假设您在2023/03/08 15:50:04购买了一个包年/包月云主机备份存储库(存储库容量:100G),购买时长为1个月,并在到期前手动续费1个月,产生的费用:0.2元/GB/月100GB 1月+0.2元/GB/月100GB1月40元 变更配置后对计费的影响 当前包年/包月CBR资源的容量规格不满足您的业务需要时,您可以在云服务备份控制台对存储库发起扩容操作,变更时系统将按照相应规则为您计算变更费用。 到期后影响 购买后,在计费周期内资源正常运行,此阶段为有效期;资源到期而未续费时,将陆续进入冻结期,到期后资源将会释放,请您及时续订。 到期预警 包年/包月CBR资源在到期前,系统将向用户推送到期预警消息。预警消息将通过邮件、短信和站内信的方式通知到天翼云账号的创建者。 到期后影响 当您的包年/包月CBR资源到期未续费,会进入冻结期,资源状态变为“已冻结”。冻结期到期后,若包年/包月CBR资源仍未续费,那么包年、包月资源将被释放,且无法恢复。 按需计费 按需计费是一种先使用再付费的计费模式,适用于无需任何预付款或长期承诺的用户。本文将介绍按需计费CBR资源的计费规则。 适用场景 按需计费适用于具有不能中断的短期、突增或不可预测的应用或服务,例如电商抢购、临时测试、科学计算。
        来自:
        帮助文档
        云服务备份
        计费说明
        计费模式
      • 主子账号
        本章介绍如何使用主子账号体系管理子账号权限 概述 分布式消息服务RocketMQ已接入主子账号体系,可区分两种账号权限,实现主账号对子账号的数据权限管理与功能权限管理,支持系统策略和自定义策略的授权方式。本章介绍如何使用主子账号体系管理子账号权限。 背景 1. 主账号 :用户在天翼云注册后自动创建,该账号对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,由于账号是付费主体为了确保账号安全,建议创建子用户来进行日常管理工作。 2. 子账号 :主账号认证为企业账号后,在天翼云用户中心页面创建出来的账号。子账号的用户名、密码统一由主账号创建管理。子账号同样可以登录访问天翼云控制台,登录入口与主账号相同,受主账号赋予的权限限制。 3. 企业项目: 将云资源、企业成员按项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用项目内云资源的权限受用户组的授权限制。 注意 一个实例只能归属一个企业项目(可变更),一个子账号可以同时在多个企业项目中。 4. 策略: 是描述一组权限集的语言,它可以精确地描述被授权的资源集和操作集,通过策略,用户可以自由搭配需要授予的权限集。通过给用户组授予策略,用户组中的用户就能获得策略中定义的权限。 5. 系统策略: 系统预置的常用权限集,主要针对不同云服务的只读权限或管理员权限,比如对组件的只读权限、普通用户权限和管理员权限等等;系统策略只能用于授权,不能编辑和修改。 6. 数据权限: 看到的数据不一样。主账号看到所有实例,子账号只能看到所属项目中的实例。 7. 功能权限: 主账号可以进行所有控制台操作,子账号对单个组件实例拥有的操作权限由主账号授权。 8. 功能权限授权: 给子账号在企业项目A下增加一个策略,即代表该子账号对企业项目A下的实例拥有了策略中定义的权限,策略以外的操作会被禁止。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        权限管理
        主子账号
      • 创建实例
        本节主要介绍分布式消息服务Kafka的订购流程。 背景信息 Kafka实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占Kafka实例,可根据业务需要可定制相应规格的Kafka实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 前提条件 具备已通过实名认证的天翼云账号 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在管理控制台右上角单击“地域名称”,选择区域。此处请选择与您的应用服务相同的区域。 4. 点击“购买实例”跳转到购买页面,根据页面订购说明进行产品开通。 5. 下载安装工具Eclipse3.6.0以上上版本 或者IntelliJ ,JDK 1.8.111以上版本。 说明 以下订购说明适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3资源池 计费模式:包周期和按需计费 引擎类型:云原生引擎和Kafka引擎。两者差别如下: 云原生引擎:大规模分区性能稳定性更高,扩容无需迁移数据。 Kafka引擎:完全兼容开源Kafka生态,占用更少IO带宽,可应对更高的性能峰值突刺。 部署方式:单可用区和多可用区部署。单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区 自动续期:支持自动续期,支持做选择自动续期时长 节点数:3、5、7、9 主机类型:通用型和计算增强型,不同类型主机规格价格不一样,具体区别见文档弹性云主机实例规格 实例规格:主机节点规格,通用型和计算增强型规格不一致,具体以页面为准。 说明 以下订购说明适用于芜湖2、上海7、重庆2、乌鲁木齐27、石家庄20、内蒙6、北京5 资源池 计费模式:包周期和按需计费 区域:开通实例所在资源池 类型:选择产品规格,包括高级版8核32G与基础版4核16G 节点数:固定3个节点 主机类型:支持通用型主机s2、s3和s6,具体区别见文档弹性云主机实例规格通用型
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建实例
      • 主子账号
        本章介绍如何使用主子账号体系管理子账号权限 概述 分布式消息服务MQTT已接入主子账号体系,可区分两种账号权限,实现主账号对子账号的数据权限管理与功能权限管理,支持系统策略和自定义策略的授权方式。本章介绍如何使用主子账号体系管理子账号权限。 背景 1. 主账号 :用户在天翼云注册后自动创建,该账号对其所拥有的资源具有完全的访问权限,可以重置用户密码、分配用户权限等。如果需要多人共同使用天翼云资源,由于账号是付费主体为了确保账号安全,建议创建子用户来进行日常管理工作。 2. 子账号 :主账号认证为企业账号后,在天翼云用户中心页面创建出来的账号。子账号的用户名、密码统一由主账号创建管理。子账号同样可以登录访问天翼云控制台,登录入口与主账号相同,受主账号赋予的权限限制。 3. 企业项目: 将云资源、企业成员按项目进行管理,通过企业项目将云资源、带有权限的用户组绑定到一起,用户使用项目内云资源的权限受用户组的授权限制。 注意 一个实例只能归属一个企业项目(可变更),一个子账号可以同时在多个企业项目中。 4. 策略: 是描述一组权限集的语言,它可以精确地描述被授权的资源集和操作集,通过策略,用户可以自由搭配需要授予的权限集。通过给用户组授予策略,用户组中的用户就能获得策略中定义的权限。 5. 系统策略: 系统预置的常用权限集,主要针对不同云服务的只读权限或管理员权限,比如对组件的只读权限、普通用户权限和管理员权限等等;系统策略只能用于授权,不能编辑和修改。 6. 数据权限: 看到的数据不一样。主账号看到所有实例,子账号只能看到所属项目中的实例。 7. 功能权限: 主账号可以进行所有控制台操作,子账号对单个组件实例拥有的操作权限由主账号授权。 8. 功能权限授权: 给子账号在企业项目A下增加一个策略,即代表该子账号对企业项目A下的实例拥有了策略中定义的权限,策略以外的操作会被禁止。
        来自:
        帮助文档
        分布式消息服务MQTT
        用户指南
        权限管理
        主子账号
      • 公网IP遭受DDoS攻击为什么会进入封禁状态?
        IP被DDoS封禁后如何通知到我?多长时间解封?我该如何响应封禁事件? 天翼云对IP执行DDoS封禁后会通过EIP所属账户的站内信、短信、邮箱渠道进行通知,告知封禁信息。除了账户所有人,您还可在天翼云控制台消息中心消息订阅消息管理安全消息处配置多个消息接收人,比如将您业务的多位值班或运维人员配置到联系人中,此时安全消息短信会通知多个人。 通知信息中包含封禁时间,一般为24小时,根据相关风险可能会延迟或提前,到期自动解封。IP的DDoS封禁实际生效位置在资源池网络之上的骨干网络,会将去往目的IP的流量丢弃,骨干网络操作需消耗较多网络资源,运营商对此设置了操作次数和操作频率方面的限制,因此封禁时间目前较长,造成不便敬请谅解。同时,DDoS攻击持续时间不定,如果在攻击未停止的情况下解除DDoS封禁,IP的攻击流量会再次影响资源池稳定,因此DDoS封禁时间需设置的较长。 在您接收到DDoS封禁通知后,您可首先评估自身业务,若业务确有因竞争、高价值等原因遭受DDoS大流量攻击的可能性和防护需求。建议您购买配置DDoS高防产品。天翼云和其他云厂商均提供有DDoS高防产品,一般可提供高防IP隐藏业务IP、大流量攻击防护和攻击源分析能力,您可选择天翼云或其他第三方DDoS高防产品防护自身在天翼云的业务IP免受DDoS攻击。以天翼云举例,如天翼云“DDoS高防IP”、天翼云“DDoS高防(边缘云版)”等。客户业务IP被资源池外的高防IP保护后,高防IP代替业务IP暴露在公网上,攻击者仅能探知到高防IP并发起DDoS攻击,DDoS攻击流量经过高防IP过滤清洗,清洗后的正常流量回注到业务IP,该回注流量一般情况下不会远超IP购买带宽,不会超过服务器和网络的承受能力,因此不会触发DDoS基础防护的临时封禁。同时请注意,若业务IP历史存在攻击,可能已被攻击者获知,即使配置DDoS高防,攻击者有可能绕过高防IP对业务IP发起攻击,若攻击流量过大,仍会超过DDoS防护阈值,触发封禁,因此建议在配置高防的同时,同步更换业务IP并限制仅能被高防IP访问,实现业务IP隐藏。具体购买和配置请咨询DDoS高防产品对应产品方。 在您完成购买配置天翼云或其他第三方DDoS高防产品防护自身在天翼云的业务IP免受DDoS攻击后,您可通过天翼云工单系统提单,申请提前解封。
        来自:
        帮助文档
        DDoS基础防护
        常见问题
        公网IP封禁解封类相关问题
        公网IP遭受DDoS攻击为什么会进入封禁状态?
      • 存算分离
        本文为您介绍天翼云云搜索服务的存算分离能力及使用方法。 功能简介 天翼云云搜索服务的OpenSearch和Elasticsearch都支持通过天翼云对象存储ZOS实现存算分离功能,这一功能显著提升了数据管理的灵活性和系统的可扩展性。 存算分离是现代分布式系统中一种重要的架构设计,通过将存储和计算资源解耦,使得数据存储和处理能力可以独立扩展,从而优化资源利用率并降低运营成本。 在传统的分布式搜索引擎架构中,存储和计算通常是紧耦合的,数据存储在同一集群的节点上,并由这些节点负责数据的索引和查询处理。然而,随着数据规模的增长和计算需求的变化,存算耦合的架构可能面临扩展性和成本效益方面的挑战。 通过支持对象存储,搜索引擎允许用户将数据存储在外部的对象存储系统天翼云ZOS中。这种架构下,计算节点主要负责数据的索引和查询处理,而数据存储则由对象存储系统来管理。计算节点可以根据需要动态地从对象存储中拉取数据,进行处理后再将结果返回。 应用场景与优势 弹性扩展 存算分离使得存储和计算资源可以独立扩展。用户可以根据数据量和计算需求的变化分别扩展存储容量和计算节点数量,从而实现灵活的资源管理,避免过度配置带来的浪费。 成本优化 对象存储通常具有较低的成本,尤其适合存储大量不常访问的冷数据。通过将数据存储在对象存储中,用户可以显著降低存储成本,同时只需为需要处理的热数据配置计算资源。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        存算分离
      • 授予服务账号权限
        接口描述 为PostgreSQL服务账号授权。当您在使用PostgreSQL过程中需要技术支持时,您需要授权PostgreSQL服务账号,技术支持人员才可以通过服务账号提供技术支持服务。 首次对实例授权服务账号,会默认创建service账号,请确保实例当前并不存在此账号 请求方法 POST URI /v1/instuser/grantoperator 请求参数 名称 位置 类型 必选 说明 prodInstId body Long 是 实例id expiredTime body String 是 权限过期时间。yyyyMMdd HH:mm:ss。 database body String 是 需要授权访问的数据库名称。 schema body String 否 需要授权访问的模式名称。不指定默认为public privilege body String 是 账号权限,取值: 1.readwrite:读写。拥有指定模式下所有表的select,insert,update,delete,truncate权限 2.readonly:只读。拥有指定模式下所有表的select权限 响应参数 名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 返回结果 示例 请求示例 /v1/instuser/grantOperatorPermission { "database": "test", "expiredTime": " 20220801 16:00:00", "privilege": "readwrite", "prodInstId": "165776586159600008", "schema": "test" } 响应示例 { "message": "SUCCESS", "returnObj": {}, "statusCode": 800 } 错误码 访问ErrorCodes说明文档查看更多错误码。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        授予服务账号权限
      • 产品与使用
        IKEv1和IKEv2的区别 协商过程不同。 IKEv1协商安全联盟主要分为两个阶段,其协议相对复杂、带宽占用较多。IKEv1阶段1的目的是建立IKE SA,它支持两种协商模式:主模式和野蛮模式。主模式用6条ISAKMP消息完成协商。野蛮模式用3条ISAKMP消息完成协商。野蛮模式的优点是建立IKE SA的速度较快。但是由于野蛮模式密钥交换与身份认证一起进行无法提供身份保护。IKEv1阶段2的目的就是建立用来传输数据的IPsec SA,通过快速交换模式(3条ISAKMP消息)完成协商。 IKEv2简化了安全联盟的协商过程。IKEv2正常情况使用2次交换共4条消息就可以完成一个IKE SA和一对IPsec SA,如果要求建立的IPsec SA大于一对时,每一对SA只需额外增加1次交换,也就是2条消息就可以完成。 说明 IKEv1协商,主模式需要6+3,共9个报文;野蛮模式需要3+3,共6个报文。IKEv2协商,只需要2+2,共4个报文。 认证方法不同。 数字信封认证(hssde)仅IKEv1支持(需要安装加密卡),IKEv2不支持。 IKEv2支持EAP身份认证。IKEv2可以借助AAA服务器对远程接入的PC、手机等进行身份认证、分配私网IP地址。IKEv1无法提供此功能,必须借助L2TP来分配私网地址。 IKE SA的完整性算法支持情况不同。IKE SA的完整性算法仅IKEv2支持,IKEv1不支持。 DPD中超时重传实现不同。 retryinterval参数仅IKEv1支持。表示发送DPD报文后,如果超过此时间间隔未收到正确的应答报文,DPD记录失败事件1次。当失败事件达到5次时,删除IKE SA和相应的IPsec SA。直到隧道中有流量时,两端重新协商建立IKE SA。 对于IKEv2方式的IPsec SA,超时重传时间间隔从1到64以指数增长的方式增加。在8次尝试后还未收到对端发过来的报文,则认为对端已经下线,删除IKE SA和相应的IPsec SA。 IKE SA与IPsec SA超时时间手工调整功能支持不同。 IKEv2的IKE SA软超时为硬超时的9/10±一个随机数,所以IKEv2一般不存在两端同时发起重协商的情况,故IKEv2不需要配置软超时时间。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        产品与使用
      • 构造请求
        1.请求的URI 例如:{URIscheme}://{Endpoint}/{resourcepath}?{querystring} 参数 描述 是否必选 ::: URIscheme 用于传输请求的协议,当前所有API均采用HTTPS协议。 是 Endpoint 当前资源池或者通用的域名。 是 resourcepath 资源路径,也即API访问路径。从具体API的URI模块获取,例如“获取用户1信息”API的resourcepath为“/users/1”。 是 querystring 查询参数,是可选部分,并不是每个API都有查询参数。查询参数前面需要带一个“?”,形式为“参数名参数取值”, 例如“?userID1”,表示查询用户ID为1的数据。 否 2.请求方法 方法 说明 :: GET 请求服务器返回指定资源。 PUT 请求服务器更新指定资源。 POST 请求服务器新增资源或执行特殊操作。 DELETE 请求服务器删除指定资源,如删除对象等。 HEAD 请求服务器资源头部。 PATCH 请求服务器更新资源的部分内容。当资源不存在的时候,PATCH可能会去创建一个新的资源。 3.请求消息头 名称 描述 是否必选 示例 ::: ContentType 消息体的类型(格式)。推荐用户使用默认值application/json,有其他取值时会在具体接口中专门说明。 是 application/json .... .... .... ....
        来自:
        帮助文档
        应用加速(文档停止维护)
        API参考
        如何调用API
        构造请求
      • 日志触发器
        配置项 操作 示例 触发器类型 选择日志触发器。 日志触发器 名称 填写自定义的触发器名称。 alstrigger 版本或别名 默认值为 LATEST ,支持选择任意函数版本或函数别名。 LATEST 日志项目 选择目标日志项目。 日志单元 选择目标日志单元。 调用方式 选择函数调用方式。 同步调用 :指触发器消息Event投递到函数是同步调用,会等待函数响应后继续下一个消息投递。 异步调用 :指触发器消息Event投递到函数是异步调用,不会等待函数响应,可以快速消费事件。 同步调用
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        事件总线类触发器
        日志触发器
      • 支持的数据源
        数据源分类 源端数据源 对应的目的端数据源 说明 数据仓库 数据仓库服务( DWS ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 不支持DWS物理机纳管模式。 数据仓库 数据湖探索( DLI ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 无 Hadoop MRS HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop MRS HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop MRS Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 支持本地存储,仅MRS Hive支持存算分离场景。 仅MRS Hive支持Ranger场景。 不支持ZK开启SSL场景。 MRS HDFS建议使用的版本: −2.8.X −3.1.X MRS HBase建议使用的版本: −2.1.X −1.3.X MRS Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop FusionInsight Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) FusionInsight数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 FusionInsight HDFS建议使用的版本: −2.8.X −3.1.X FusionInsight HBase建议使用的版本: −2.1.X −1.3.X FusionInsight Hive建议使用的版本: −1.2.X −3.1.X Hadoop Apache HBase 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X Hadoop Apache Hive 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X Hadoop Apache HDFS 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Apache数据源不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。 不支持ZK开启SSL场景。 Apache HBas建议使用的版本: −2.1.X −1.3.X Apache Hive暂不支持2.x版本,建议使用的版本: −1.2.X −3.1.X Apache HDFS建议使用的版本: −2.8.X −3.1.X 对象存储 对象存储服务( OBS ) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 对象存储服务之间的迁移,推荐使用对象存储迁移服务OMS。 文件系统 FTP 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 文件系统 SFTP 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 文件系统 HTTP Hadoop:MRS HDFS 文件系统不支持作为目的端。 FTP/SFTP到搜索的迁移仅支持如CSV等文本文件,不支持二进制文件。 文件系统到OBS的迁移推荐使用obsutil工具。 关系型数据库 云数据库MySQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 云数据库PostgreSQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 云数据库SQL Server 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 MySQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 PostgreSQL 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 Microsoft SQL Server 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 Oracle 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) OLTP数据库之间的迁移推荐通过数据复制服务DRS进行迁移。 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 关系型数据库 SAP HANA 数据仓库:数据湖探索(DLI) Hadoop:MRS Hive SAP HANA数据源存在如下约束:SAP HANA不支持作为目的端。 仅支持2.00.050.00.1592305219版本。 仅支持Generic Edition。不支持BW/4 FOR HANA。 仅支持英文字母的数据库名、表名与列名,不支持存在空格、符号等特殊字符。 仅支持日期、数字、布尔、字符(除SHORTTEXT) 类型的数据类型,不支持二进制类型等其他数据类型。 迁移时不支持目的端自动建表。 关系型数据库 分库 数据仓库:数据湖探索(DLI) Hadoop:MRS HBase,MRS Hive 搜索:Elasticsearch,云搜索服务(CSS) 对象存储:对象存储服务(OBS) 分库数据源不支持作为目的端。 NoSQL 分布式缓存服务(DCS) Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL Redis Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL 文档数据库服务(DDS) Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL MongoDB Hadoop:MRS HDFS,MRS HBase,MRS Hive 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL 表格存储服务(CloudTable) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 NoSQL Cassandra 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 除了表格存储服务( CloudTable )外,其他 NoSQL 数据源不支持作为目的端。 消息系统 Apache Kafka 搜索:云搜索服务(CSS) 消息系统不支持作为目的端。 消息系统 DMS Kafka 搜索:云搜索服务(CSS) 消息系统不支持作为目的端。 消息系统 MRS Kafka 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) MRS Kafka不支持作为目的端。 仅支持本地存储,不支持存算分离场景。 不支持Ranger场景。不支持ZK开启SSL场景。 搜索 Elasticsearch 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) Elasticsearch仅支持非安全模式。 搜索 云搜索服务(CSS) 数据仓库:数据仓库服务(DWS),数据湖探索(DLI) Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS) 关系型数据库:云数据库 MySQL,云数据库 PostgreSQL,云数据库 SQL Server NoSQL:表格存储服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 导入数据到CSS推荐使用Logstash。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        支持的数据源
      • 自定义自建Apache RocketMQ事件源
        参数 说明 示例 名称 事件源名。 source1 接入点 Apache RocketMQ集群broker接入点,由IP与端口号拼接而成,以逗号分隔。 172.17.0.25:9876,192.17.0.26:9876,172.17.0.27:9876 Topic topic名称。 topic1 Group ID 填入当前Apache Kafka集群中已创建的Group,请不要与已有业务的Group混用,以免影响已有的消息收发。 group1 Tag 用于消息过滤的Tag,非必填。 tag 网络配置 根据业务场景选择对应配置。 专有网络 公网网络 专有网络 VPC 网络配置选择专有网络时必填,选择集群所在的VPC。 vpc 子网 网络配置选择专有网络时必填,选择集群所在的子网。 subnet 认证模式 选择认证模式。 无需配置 ACL 用户名 :填写用户名 密码 :填写密码 无需配置 消费位点 消费消息的位点。 最早位点 最早位点 数据格式 消息value数据编码格式。 JSON Text Binary JSON
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源类型
        自定义自建Apache RocketMQ事件源
      • 切换数据源
        本页介绍天翼云TeleDB数据库切换数据源。 操作场景 切换数据源是指系统根据业务需求动态地选择和使用不同数据库连接。该功能是基于读写分离、负载均衡和故障切换等来优化数据性能,提高系统可用性和扩展性。它通常用于数据迁移、业务解耦、异步通信、缓存消息等场景。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击实例列表。 2. 单击目标实例所在行的详情,进入实例详情页面。 3. 进入实例详情,单击备节点操作列的切换数据源, 弹出切换协调节点数据源对话框。 4. 在切换数据节点数据源对话框中,在数据源节点 和同步类型 下拉框选择节点组 和同步类型。 同步类型包括同步复制和异步复制。 同步复制:是指要求所有操作完成后再返回结果给用户,以此确保数据的完整性和一致性。 异步复制:它允许在操作未完成时即响应用户请求,此操作提高系统响应速度和用户体验。 5. 单击确定完成切换数据源。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        维护管理实例
        切换数据源
      • 云审计服务支持的性能测试服务操作列表
        介绍云审计服务支持的性能测试服务操作列表。 云审计服务(Cloud Trace Service,简称CTS),是安全解决方案中专业的日志审计服务,提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 通过云审计服务,您可以记录与消息通知服务相关的操作事件,便于日后的查询、审计和回溯。 表 支持审计的关键操作列表 servicetype resourcetype resourceid tracename 中文描述 CPTS cptsProject 数据库主键 createCptsProject 创建工程 CPTS cptsProject 数据库主键 deleteCptsProject 删除工程 CPTS cptsProject 数据库主键 modifyCptsProject 修改工程 CPTS cptsTask 数据库主键 createCptsTask 创建任务 CPTS cptsTask 数据库主键 deleteCptsTask 删除任务 CPTS cptsTask 数据库主键 modifyCptsTask 修改任务 CPTS cptsTemp 数据库主键 createCptsTemp 创建事务 CPTS cptsTemp 数据库主键 deleteCptsTemp 删除事务 CPTS cptsTemp 数据库主键 modifyCptsTemp 修改事务 CPTS cptsCase 数据库主键 createCptsCase 创建用例 CPTS cptsCase 数据库主键 deleteCptsCase 删除用例 CPTS cptsCase 数据库主键 modifyCptsCase 修改用例 CPTS cptsVariable 数据库主键 setVaribale 创建变量 CPTS cptsVariable 数据库主键 updateVaribale 修改变量 CPTS cptsVariable 数据库主键 deleteVaribale 删除变量 CPTS cptsTask 数据库主键 tempDebug 任务用例debug CPTS cptsTaskStatus 数据库主键 updateTaskStatus 更新任务状态
        来自:
        帮助文档
        性能测试PTS
        用户指南
        审计
        云审计服务支持的性能测试服务操作列表
      • 1
      • ...
      • 27
      • 28
      • 29
      • 30
      • 31
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      弹性伸缩服务 AS

      模型推理服务

      应用托管

      科研助手

      人脸检测

      人脸实名认证

      人脸属性识别

      人脸活体检测

      推荐文档

      Telnet/SSH/Rlogin访问

      域名管理

      重置

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号