云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务MQTT_相关内容
      • 连接已开启SASL的Kafka专享实例
        创建实例时开启SASLSSL访问,则数据加密传输,安全性更高。 由于安全问题,支持的加密套件为TLSECDHEECDSAWITHAES128CBCSHA256,TLSECDHERSAWITHAES128CBCSHA256和TLSECDHERSAWITHAES128GCMSHA256。 本节介绍如何使用开源的Kafka客户端访问开启SASL的Kafka专享实例的方法。 说明: 使用SASL方式连接Kafka实例时,为了客户端能够快速解析实例的Broker,建议在客户端所在主机的“/etc/hosts”文件中配置host和IP的映射关系。 其中,IP地址必须为实例连接地址(Broker地址),host为每个实例主机的名称(您可以自定义主机的名称,但不能重复)。 例如: 10.154.48.120 server01 10.154.48.121 server02 10.154.48.122 server03 前提条件 已配置正确的安全组。 访问开启SASL的Kafka专享实例时,支持VPC内访问。实例需要配置正确的安全组规则,具体安全组配置要求,请参考表32。 已获取连接Kafka专享版实例的地址。 使用VPC内访问,实例端口为9093,实例连接地址获取如下图。 获取VPC内访问Kafka专享实例的连接地址(实例已开启SASL) Kafka专享实例已创建Topic,否则请提前创建Topic。 已下载client.truststore.jks证书。如果没有,在控制台单击Kafka实例名称,进入实例详情页面,在“基本信息 > 高级配置 > Kafka SASLSSL”所在行,单击 。下载压缩包后解压,获取压缩包中的客户端证书文件:client.truststore.jks。 已下载Kafka命令行工具1.1.0版本或者Kafka命令行工具2.3.0版本,确保Kafka实例版本与命令行工具版本相同。 已在Kafka命令行工具的使用环境中安装Java Development Kit 1.8.111或以上版本,并完成环境变量配置。 命令行模式连接实例 以下操作命令以Linux系统为例进行说明。 解压Kafka命令行工具。 进入文件压缩包所在目录,然后执行以下命令解压文件。 tar zxf [kafkatar] 其中,[kafkatar]表示命令行工具的压缩包名称。 例如: tar zxf kafka2.111.1.0.tgz 修改Kafka命令行工具配置文件。 在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 sasl.jaas.configorg.apache.kafka.common.security.plain.PlainLoginModule required username"" password""; sasl.mechanismPLAIN security.protocolSASLSSL ssl.truststore.location/opt/kafka2.111.1.0/config/client.truststore.jks ssl.truststore.passworddms@kafka ssl.endpoint.identification.algorithm 参数说明: username和password为创建Kafka专享实例过程中开启SASLSSL时填入的用户名和密码。 ssl.trustore.location配置为client.truststore.jks证书的存放路径。注意,Windows系统下证书路径中也必须使用“/”,不能使用Windows系统中拷贝路径时的“”,否则客户端获取证书失败。 ssl.truststore.password为服务器证书密码,不可更改,需要保持为dms@kafka。 ssl.endpoint.identification.algorithm为证书域名校验开关,为空则表示关闭。这里需要保持关闭状态,必须设置为空。 进入Kafka命令行工具的“/bin”目录下。 注意,Windows系统下需要进入“/bin/windows”目录下。 执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist ${连接地址} topic ${Topic名称} producer.config ../config/producer.properties 参数说明如下: 连接地址:从前提条件获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 如下示例,Kafka实例连接地址为“10.xxx.xxx.202:9093,10.xxx.xxx.197:9093,10.xxx.xxx.68:9093”。 执行完命令后,输入需要生产的消息内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin]
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        用户指南
        连接已开启SASL的Kafka专享实例
      • 将历史数据恢复至一个新实例(称为克隆实例)
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 返回结果
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        恢复
        将历史数据恢复至一个新实例(称为克隆实例)
      • 撤销账号对数据库的访问权限
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 返回结果
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        撤销账号对数据库的访问权限
      • 锁定PostgreSQL实例的账号
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 返回结果
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        锁定PostgreSQL实例的账号
      • 创建管理数据库的账号
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 返回结果
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        创建管理数据库的账号
      • 启用Postgresql实例
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 返回结果
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        实例
        启用Postgresql实例
      • 分布式缓存服务Redis
        云日志服务支持采集分布式缓存服务Redis日志,您可在Redis实例控制台中进行开启日志收集,由云日志服务提供存储与采集能力。采集后,您可以在云日志服务控制台对redis日志进行查询、分析或告警配置。 前提条件 已订购分布式缓存服务Redis实例。 已开通云日志服务。 配置步骤 1. 登录分布式缓存服务Redis控制台。 2. 在实例管理列表中,点击目标实例名称,进入实例详情页面。 3. 点击左侧菜单栏“日志管理”“审计日志” 4. 根据页面提示,点击“马上开启”按钮。 5. 稍等片刻后,系统将会自动生成审计日志大盘,展示访问用户数、QPS、响应时间等关键指标信息。 6. 您也可以登录云日志服务控制台,进入“redisaudit”日志项目中,即可查看所有已接入云日志服务的redis实例的日志单元,并进行日志查询、分析或告警配置。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        分布式缓存服务Redis
      • 为什么IP黑名单中的IP仍有访问记录
        本文介绍配置在IP黑名单中的IP仍有访问记录的原因。 客户在CDN控制台配置IP黑名单后,对应IP将无法访问加速域名下的CDN资源,CDN服务器将向对应IP返回403。可在离线日志中看到该访问记录是因为CDN会记录所有加速域名的访问请求,即使因为IP黑名单机制拒绝客户端访问,也仍会有访问记录,相应流量也会统计进计费数据。但因为403仅响应消息头,一般不会造成实质的计费影响。
        来自:
        帮助文档
        CDN加速
        常见问题
        安全相关
        为什么IP黑名单中的IP仍有访问记录
      • 查询实例下可恢复的备份集列表
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj List 备份名称列表
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        恢复
        查询实例下可恢复的备份集列表
      • 如何降低延时
        本文介绍如何降低延时。 背景信息 在视频直播场景下,主播与用户之间延时越短,更容易进行互动。在此背景下,客户通常希望视频直播的分发延时越短越好,如果需要降低直播延时,可参考如下方式进行性能优化。 前提说明 影响直播延时的因素通常包含:GOP大小、主播推流器编码、第一公里传输、CDN加速、视频处理、最后一公里传输、使用协议、播放器buffer、播放器解码渲染等。 优化方式一:GOP设置 GOP(Group Of Picture)是视频的关键帧的间隔,是视频图像编码器和解码器存取的基本单位。GOP由I帧开始,后面跟随着一组B帧和P帧,直到下一个I帧之前的帧为一个GOP。当用户第一次观看的时候,播放器需要找到I帧才能开始播放,一般情况下直播服务器会发送缓存中最新的I帧给播放器。 因此,建议将直播推流端GOP设置为1~2s。缩短GOP的时长,减少播放器加载GOP的耗时来降低直播延时。 优化方式二:选择合适的播放协议 天翼云提供FLV、HLS、RTMP三种播放协议。 1. FLV 由Adobe公司推出,将流媒体数据封装成FLV格式,通过HTTP协议传输给客户端,格式简单,只是在大块的视频帧和音视频头部加入一些标记头信息。支持使用HTTPS加密传输,支持Android移动端和iOS移动端。 示例: 2. RTMP 由Adobe公司推出,传输的过程中消息会被拆分为更小的消息块(Chunk)单元,再将分割后的消息块通过TCP协议传输。由于其复杂的拆包和组包过程,可能导致数据传输不稳定。 示例:rtmp://domain/app/streamname 3. HLS 由Apple公司推出,基于HTTP的流媒体传输协议。将视频分成多个连续的视频小分片,然后用m3u8索引表进行管理。一般播放器会在缓存34个分片后才启动播放,假设一个分片为3s,因此总延时至少约9s~12s。但HLS可以直接在浏览器中播放。 示例: 因此,HTTPFLV和RTMP延时较小,适合低延时播放的场景。HLS延时较大但兼容性好,适合对延时不敏感但需要更多播放终端可以播放的场景。
        来自:
        帮助文档
        视频直播
        最佳实践
        如何降低延时
      • 修改实例的root账户密码
        参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码 800 message String 消息提示 SUCCESS returnObj Array 返回对象 []
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        修改实例的root账户密码
      • 查询PostgreSQL实例的所有版本
        名称 二级节点 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Array 返回结果 pgVersion String pg版本
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        实例
        查询PostgreSQL实例的所有版本
      • 概述
        本章节介绍什么是应用流量防护 流量防护以流量为切入点,从流量控制、熔断降级、系统负载保护等多个维度来保障业务的稳定性,提供更专业稳定的流量防护手段、秒级的流量水位分布分析功能。广泛用于秒杀场景、消息削峰填谷、集群流量控制、实时熔断等场景中。 应用治理是一种多维度的流量保障工具,能够有效避免业务中的流量问题,提供秒级的流量监控和分析功能,有效保障系统的稳定性和可靠性。其中,流量控制、熔断降级、系统负载保护等多个功能模块相互配合,可以有效应对各种流量挑战,为业务的稳定发展提供有力支撑。该系统广泛应用于秒杀场景、消息削峰填谷、集群流量控制、实时熔断等多个场景中,可以有效保障业务的安全性和稳定性。
        来自:
        帮助文档
        微服务引擎
        用户指南
        微服务治理中心
        应用治理
        流量防护
        概述
      • 查询Postgresql实例IP白名单
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj List IP白名单列表
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        安全加密
        查询Postgresql实例IP白名单
      • Python
        本文介绍Python版本的RabbitMQ客户端连接指导,包括RabbitMQ客户端安装,以及生产、消费消息。 使用前请参考收集连接信息收集RabbitMQ所需的连接信息。 准备环境 1. 安装Python3 2. 安装kombu pip3 install kombu 生产消息 SSL认证方式 import ssl import sys from kombu import Connection, Exchange, Producer def Main(argv): cacertfile "certscacertificate.pem" certfile "certsclientrabbitmqcertificate.pem" privatekey "certsclientrabbitmqkey.pem" conn Connection('amqp://XXX:xxx/', loginmethod'EXTERNAL', ssl{ 'cacerts': cacertfile, 'keyfile': privatekey, 'certfile': certfile, 'certreqs': ssl.CERTREQUIRED, 'sslversion': ssl.PROTOCOLTLSv12, }) channel conn.channel() exchange Exchange("exampleexchange", type"direct") producer Producer(exchangeexchange, channelchannel, routingkey"testkey") message "Hello Rabbimtq" producer.publish(message, retryTrue) print('send message: %s' % message) if name 'main': Main(sys.argv) 非SSL认证方式 import sys from kombu import Connection, Exchange, Producer def Main(argv): rabbitmqurl 'amqp://USERNAME:PASSWORD@XXX:xxx/' conn Connection(rabbitmqurl, loginmethod'PLAIN') channel conn.channel() exchange Exchange("exampleexchange", type"direct") producer Producer(exchangeexchange, channelchannel, routingkey"testkey") message "Hello Rabbimtq" producer.publish(message, retryTrue) print('send message: %s' % message) if name 'main': Main(sys.argv) 消费消息 SSL认证方式 import sys import ssl from kombu import Connection, Exchange, Queue, Consumer def Main(argv): cacertfile "certscacertificate.pem" certfile "certsclientrabbitmqcertificate.pem" privatekey "certsclientrabbitmqkey.pem" conn Connection('amqp://XXX:xxx/', loginmethod'EXTERNAL', ssl{ 'cacerts': cacertfile, 'keyfile': privatekey, 'certfile': certfile, 'certreqs': ssl.CERTREQUIRED, 'sslversion': ssl.PROTOCOLTLSv12, }) exchange Exchange("exampleexchange", type"direct") queue Queue(name"examplequeue", exchangeexchange, routingkey"testkey") def processmessage(body, message): print("receive message: %s" % format(body)) message.ack() with Consumer(conn, queuesqueue, callbacks[processmessage], accept["text/plain"]): conn.drainevents(timeout2) if name 'main': Main(sys.argv)
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        开发指南
        Python
      • Go
        消费消息 发送以下命令消费消息。 go run modvendor consumer/consumer.go 消费消息示例代码如下: package main import ( "encoding/json" "fmt" "github.com/confluentinc/confluentkafkago/kafka" "os" "path/filepath" ) type KafkaConfig struct { Topic string json:"topic" Topic2 string json:"topic2" GroupId string json:"group.id" BootstrapServers string json:"bootstrap.servers" SecurityProtocol string json:"security.protocol" } // config should be a pointer to structure, if not, panic func loadJsonConfig() KafkaConfig { workPath, err : os.Getwd() if err ! nil { panic(err) } configPath : filepath.Join(workPath, "conf") fullPath : filepath.Join(configPath, "kafka.json") file, err : os.Open(fullPath); if (err ! nil) { msg : fmt.Sprintf("Can not load config at %s. Error: %v", fullPath, err) panic(msg) } defer file.Close() decoder : json.NewDecoder(file) var config &KafkaConfig{} err decoder.Decode(config); if (err ! nil) { msg : fmt.Sprintf("Decode json fail for config file at %s. Error: %v", fullPath, err) panic(msg) } json.Marshal(config) return config } func doInitConsumer(cfg KafkaConfig) kafka.Consumer { fmt.Print("init kafka consumer, it may take a few seconds to init the connectionn") //common arguments var kafkaconf &kafka.ConfigMap{ "api.version.request": "true", "auto.offset.reset": "latest", "heartbeat.interval.ms": 3000, "session.timeout.ms": 30000, "max.poll.interval.ms": 120000, "fetch.max.bytes": 1024000, "max.partition.fetch.bytes": 256000} kafkaconf.SetKey("bootstrap.servers", cfg.BootstrapServers); kafkaconf.SetKey("group.id", cfg.GroupId) switch cfg.SecurityProtocol { case "PLAINTEXT" : kafkaconf.SetKey("security.protocol", "plaintext"); case "SSL": kafkaconf.SetKey("security.protocol", "ssl"); kafkaconf.SetKey("ssl.ca.location", "/XXX/caRoot.pem") case "SASLSSL": kafkaconf.SetKey("security.protocol", "saslssl"); kafkaconf.SetKey("ssl.ca.location", "/XXX/caRoot.pem"); kafkaconf.SetKey("sasl.username", cfg.SaslUsername); kafkaconf.SetKey("sasl.password", cfg.SaslPassword); kafkaconf.SetKey("sasl.mechanism", cfg.SaslMechanism) case "SASLPLAINTEXT": kafkaconf.SetKey("security.protocol", "saslplaintext"); kafkaconf.SetKey("sasl.username", cfg.SaslUsername); kafkaconf.SetKey("sasl.password", cfg.SaslPassword); kafkaconf.SetKey("sasl.mechanism", cfg.SaslMechanism) default: panic(kafka.NewError(kafka.ErrUnknownProtocol, "unknown protocol", true)) } consumer, err : kafka.NewConsumer(kafkaconf) if err ! nil { panic(err) } fmt.Print("init kafka consumer successn") return consumer; } func main() { // Choose the correct protocol cfg : loadJsonConfig(); consumer : doInitConsumer(cfg) consumer.SubscribeTopics([]string{cfg.Topic, cfg.Topic2}, nil) for { msg, err : consumer.ReadMessage(1) if err nil { fmt.Printf("Message on %s: %sn", msg.TopicPartition, string(msg.Value)) } else { // The client will //automatically try to recover from all errors. fmt.Printf("Consumer error: %v (%v)n", err, msg) } } consumer.Close() }
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        Go
      • 应用场景
        本章节主要介绍翼MapReduce服务在不同场景下的应用。 大数据在人们的生活中无处不在,在IoT、电子商务、金融、制造、医疗、能源和政府部门等行业均可以使用云MRS服务进行大数据处理。 海量数据分析场景 海量数据分析是现代大数据系统中的主要场景。通常企业会包含多种数据源,接入后需要对数据进行ETL(ExtractTransformLoad)处理形成模型化数据,以便提供给各个业务模块进行分析梳理,这类业务通常有以下特点: 对执行实时性要求不高,作业执行时间在数十分钟到小时级别。 数据量巨大。 数据来源和格式多种多样。 数据处理通常由多个任务构成,对资源需要进行详细规划。 例如在环保行业中,可以将天气数据存储在OBS,定期转储到HDFS中进行批量分析,在1小时内MRS可以完成10TB的天气数据分析。 详见下图:环保行业海量数据分析场景 该场景下MRS的优势如下所示。 低成本:利用OBS实现低成本存储。 海量数据分析:利用Hive实现TB/PB级的数据分析。 可视化的导入导出工具:通过可视化导入导出工具Loader,将数据导出到DWS,完成BI分析。 海量数据存储场景 用户拥有大量结构化数据后,通常需要提供基于索引的准实时查询能力,如车联网场景下,根据汽车编号查询汽车维护信息,存储时,汽车信息会基于汽车编号进行索引,以实现该场景下的秒级响应。通常这类数据量比较庞大,用户可能保存1至3年的数据。 例如在车联网行业,某车企将数据储存在HBase中,以支持PB级别的数据存储和毫秒级的数据详单查询。 详见下图:车联网行业海量数据存储场景 该场景下MRS的优势如下所示。 实时:利用Kafka实现海量汽车的消息实时接入。 海量数据存储:利用HBase实现海量数据存储,并实现毫秒级数据查询。 分布式数据查询:利用Spark实现海量数据的分析查询。 实时数据处理 实时数据处理通常用于异常检测、欺诈识别、基于规则告警、业务流程监控等场景,在数据输入系统的过程中,对数据进行处理。 例如在梯联网行业,智能电梯的数据,实时传入到MRS的流式集群中进行实时告警。 详见下图:梯联网行业低时延流式处理场景 该场景下MRS的优势如下所示。 实时数据采集:利用Flume实现实时数据采集,并提供丰富的采集和存储连接方式。 海量的数据源接入:利用Kafka实现万级别的电梯数据的实时接入。
        来自:
        帮助文档
        翼MapReduce
        产品简介
        应用场景
      • 下载审计日志文件
        参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码 800 message String 消息提示 SUCCESS returnObj Object 返回对象
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        日志
        下载审计日志文件
      • 开启或关闭实例的SQL洞察(SQL审计)功能
        参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码 800 message String 消息提示 SUCCESS returnObj Object 返回对象
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        日志
        开启或关闭实例的SQL洞察(SQL审计)功能
      • 查询SQL洞察(SQL审计)状态
        参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码 800 message String 消息提示 SUCCESS returnObj Array 返回对象 List
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        日志
        查询SQL洞察(SQL审计)状态
      • 查询可用于恢复的目标实例列表
        参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码 800 message String 消息提示 SUCCESS returnObj Array 返回对象 [] BackupProdVo
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        恢复
        查询可用于恢复的目标实例列表
      • 设置分布式会话
        本节主要介绍设置分布式会话 传统单实例应用使用本地会话管理,用户请求产生的会话上下文都被存于进程内存中。在加入负载均衡模块后,多实例的会话需要使用分布式存储进行共享。 ServiceStage提供开箱即用的分布式会话功能,使用分布式缓存服务作为会话持久化层,无需代码更改,即可赋予Tomcat应用,使用expresssession的Node.js应用以及使用session handle的PHP应用分布式会话管理能力。 在部署组件过程中,可以在数据库设置中绑定分布式会话,操作步骤如下。 前提条件 设置分布式会话前,需创建分布式会话。 操作步骤 1、部署应用组件时,在“组件配置”界面,“数据库”中勾选“分布式会话”。 2、单击“新增分布式会话”,配置分布式会话参数。 3、“配置方式”选择“新创建”,新创建分布式会话。 部分区域可能不支持“新创建”,仅支持“使用已有”。 4、设置“分布式缓存服务”、“所在子网”及“密码”。 5、其他参数使用默认。 单击“确定”,完成分布式会话配置。
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用管理
        应用高级设置
        设置分布式会话
      • 应用场景
        适用场景 客户在应用托管中部署自研应用/第三方模型,与现有弹性云主机、数据库等云资源联动协同,实现完整复杂业务流程。 产品优势 资源协同,性能高效:共池内网打通,应用托管与弹性云主机、数据库、消息队列等云服务实现低延迟、高带宽内网通信,同时内网访问更具安全保障 业务整合成本低:已有公有云用户可直接复用弹性云主机、数据库等云上资源,无需额外迁移 / 重构,快速搭建完整业务架构,降低整合成本 部署灵活,场景覆盖广:支持自定义模型服务、MCP Server、智能体应用、自定义业务应用等多类型部署,结合丰富的云产品,满足业务的全场景需求 Aone 赋能应用与企业内网网络打通 适用场景 当企业同时使用公有云的应用托管服务和企业内网的各类系统时,需要实现两者之间的安全网络连通 产品优势 网络连通性优势:Aone 打通公有云应用与企业内网网络,保障安全稳定,实现公有云应用本地式访问企业内网资源,破解跨网资源访问壁垒 资源整合优势:整合公有云的应用托管能力和企业内网系统资源,实现资源的高效利用和协同工作,提升企业整体 IT 架构的运行效率:安全性优势 在打通网络的同时,保障了企业内网资源的安全访问,避免了因网络开放带来的安全风险,满足企业对数据和系统安全性的高要求
        来自:
        帮助文档
        应用托管
        产品介绍
        应用场景
      • 压缩或者清理Postgresql实例本地日志
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 所有的返回信息都以JSON形式保存
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        监控
        压缩或者清理Postgresql实例本地日志
      • 重置高权限账号权限
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 所有的返回信息都以JSON形式保存
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        重置高权限账号权限
      • 为指定的Postgresql实例绑定标签
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 所有的返回信息都以JSON形式保存
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        标签
        为指定的Postgresql实例绑定标签
      • 修改Postgresql实例IP白名单
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 所有的返回信息都以JSON形式保存
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        安全加密
        修改Postgresql实例IP白名单
      • 修改Postgresql只读实例的延迟复制时间
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 所有的返回信息都以JSON形式保存
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        只读实例
        修改Postgresql只读实例的延迟复制时间
      • 修改数据库账号描述
        名称 类型 说明 message String 消息提示 statusCode Integer 状态码 returnObj Object 所有的返回信息都以JSON形式保存
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        修改数据库账号描述
      • 典型应用场景
        本文介绍事件总线EventBridge产品中的典型应用场景。 场景一:函数计算触发器 事件总线提供了标准化与中心化的接入方式,支持天翼云应用及自定义应用作为事件源接入。 事件总线EventBridge对事件进行过滤,路由与转换,然后触发事件规则对应的函数,处理对应的业务逻辑。 场景二:多功能数据集成与同步 事件总线EventBridge的事件流模块适用于端到端、实时的过滤与转换流式数据。通过事件流,可轻松实现消息路由与消息同步。 场景三:应用间事件流转 应用产生的事件可以通过事件总线触发,实现应用间的流转,打破应用间的事件孤岛;事件总线EventBridge提供丰富的事件过滤与转换能力。
        来自:
        帮助文档
        事件总线
        产品简介
        典型应用场景
      • 非对称密钥概述
        场景 场景描述 签名验签 数字签名技术是非对称加密算法的另一种典型应用。数字签名分为签名和验证两个过程,消息发送者使用私钥对数据签名,消息接收者使用公钥进行签名验证。 由于签名是使用私钥加密产生,而私钥不公开,这使得签名具有唯一的特征,广泛用于数据防篡改、身份认证等相关技术领域。 数据加解密 非对称密钥加密通信的过程类似于对称加密,区别在于需要使用公钥进行数据加密,使用私钥进行数据解密。 由于密文只有通过私钥才可以解密,而私钥是不公开的,所以即使由于传输介质的安全性比较低而导致信息泄露,拿到密文的人也无法将其破译,从而保证了敏感信息的安全。这种敏感信息传递的方式,被广泛用于各类密钥交换场景。
        来自:
        帮助文档
        密钥管理
        用户指南
        非对称密钥运算
        非对称密钥概述
      • 查询实例pg_hba.conf文件的修改记录
        参数 参数类型 说明 示例 下级对象 statusCode Integer 状态码 800 message String 消息提示 SUCCESS returnObj Array 返回对象 PgHbaHistory表
        来自:
        帮助文档
        关系数据库PostgreSQL版
        API参考
        API
        账号
        查询实例pg_hba.conf文件的修改记录
      • 1
      • ...
      • 33
      • 34
      • 35
      • 36
      • 37
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      模型推理服务

      推荐文档

      文档下载

      手动同步

      新手有礼

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号