云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      事件总线EventBridge_相关内容
      • 自定义事件是否支持批量发送到事件总线EventBridge中?该如何封装?
        支持。事件总线支持以对象数组封装的方式进行批量事件发送,其中数组中每个元素都需要遵循CloudEvents V1.0标准格式要求。 更多详情请参见SDK概述。
        来自:
        帮助文档
        事件总线
        常见问题
        通用类
        自定义事件是否支持批量发送到事件总线EventBridge中?该如何封装?
      • 事件模式
        事件模式是事件总线EventBridge用来过滤相关事件的模式定义。事件总线EventBridge通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。本文介绍事件模式的常用类型。 注意事项 事件模式匹配的注意点如下: 事件必须包含事件模式中列出的所有字段名对应的过滤项。 事件模式是逐个字符精确匹配的 ,需注意大小写,匹配过程中不会对字符串进行任何标准化的操作。 事件模式匹配中,JSON对象的各个属性支持AND 语义,数组中的各元素支持OR语义。 事件模式当前匹配仅支持根据事件的属性进行过滤,暂不支持data数据过滤。 创建事件模式时,某一字段下的匹配字段需符合一定的规则,详见下文。 指定值匹配 您可以指定某个字段的值进行匹配。 例如,以下示例事件模式只匹配source是分布式消息服务Kafka的事件。下表介绍事件从事件源发出经过事件模式过滤的过程。 从事件源接收的事件 事件模式 模式过滤后的事件 plaintext { "id": "f36b49b668914b59b11cbf689xxxx712", "source": "ctyun:kafka", "type": "ctyun:kafka:Topic:Message", "specversion": "1.0", "datacontentype": "application/json; charsetutf8", "subject": "ctyun:kafka:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } } plaintext { "source": [ { "exact" : "ctyun:kafka" } ] } plaintext { "id": "f36b49b668914b59b11cbf689xxxx712", "source": "ctyun:kafka", "type": "ctyun:kafka:Topic:Message", "specversion": "1.0", "datacontentype": "application/json; charsetutf8", "subject": "ctyun:kafka:75dcxx1eb5:topic:source1", "time": "20241203T09:48:00.696Z", "data": { "key": "test2", "value": "test1" } }
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件模式
      • 产品优势
        本文介绍事件总线EventBridge的产品优势。 可用性 支持高吞吐量的事件发布和消费。 支持服务Serverless化和自动弹性伸缩,轻松应对突发流量。 支持无状态实例,节点异常对服务无影响,服务可用性高。 易用性 支持无缝迁移上云,完全兼容CloudEvents 1.0。 支持多种访问方式,包括控制台与CloudEvents SDK。 支持接入多种应用程序,包括天翼云服务和自定义应用。 安全性 对接统一身份认证服务,支持通过天翼云账号向RAM用户授权。 支持HTTP/HTTPS协议。
        来自:
        帮助文档
        事件总线
        产品简介
        产品优势
      • 事件流概述
        随着越来越多的数据源持续、快速地产生数据,此类流式数据急需被系统分析和处理。事件流适用于端到端的流式数据处理场景,对源端产生的事件实时抽取、转换和分析并加载至目标端,帮助您轻松处理流式数据。 事件流总体架构 事件流作为更轻量、实时端到端的流式事件通道,提供轻量流式数据的过滤和转换的能力,在不同的数据仓库之间、数据处理程序之间、数据分析和处理系统之间进行数据同步,连接不同的系统与服务。 如下图所示,事件源与事件目标之间无需定义事件总线,事件通过事件流这个通道在源端和目标端之间进行流转。 事件源:事件的来源,可将天翼云服务如分布式消息Kafka的业务数据作为事件流中的事件提供方。 事件过滤:事件流通过事件模式过滤事件并将事件路由到事件目标,事件模式必须和匹配的事件具有相同的结构。 事件转换:可选择天翼云函数计算作为事件转换器,您可以通过编写函数代码对事件进行更复杂、更加定制化的处理。 事件目标:消费事件消息。 功能优势 实时高效 事件流支持实时从事件源获取、过滤与转换事件,并加载至事件目标。无需定义事件总线,您可以更快地访问事件。 轻量集成 只需在控制台简单创建任务或者一次调用,即可建立实时端到端的流式事件通道,避免了复杂繁琐的操作,便于快速集成。 指标监控 事件流提供多个指标,您可以使用这些指标监控数据流的运行状况,出现异常时及时运维,确保数据流正常运行。 节约成本 按量计费,按照数据量进行计费,不使用则不收费。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件流概述
      • 计费样例
        计费场景 某用户在5月份时创建了3个自定义事件总线bus1,bus2,bus3,创建事件流stream1;自定义事件总线bus1流入事件1000万个;自定义事件总线bus2流入事件500万个;自定义事件总线bus3流入事件300万个;云服务专用事件总线流入事件100万个,那么该用户5月份中事件总线产品共产生多少费用? 计费构成分析 1. 云服务专用事件总线流入事件不收费。 2. 自定义事件总线按流入事件个数按量计费。 3. 创建事件流但无事件流入,不收费。 该用户5月份事件总线产品计费明细如下表: 计费项:事件总线事件数 计费项:事件流事件数 总费用 (1000万个+500万个+300万个) 6.75元/100万次121.5元 0 121.5元 注意 事件总线公测期间,所有资源不收取费用。
        来自:
        帮助文档
        事件总线
        计费说明
        计费样例
      • 欠费说明
        当您天翼云账号的可用额度(费用中心总览)不足以抵扣待结算账单时,您的账号将会立即进入欠费状态;事件总线EventBridge服务将被冻结,不可继续使用。您可以及时为业务续费或清理不再使用的总线资源,确保服务正常可用。 欠费通知 若您的账号发生欠费,系统会以邮件或短信的形式提醒您。请留意来自天翼云的提醒邮件、短信,避免影响业务正常使用。 欠费影响 当您的天翼云账号发生欠费,事件总线平台将会按照下列策略处理: 欠费时间未超过15天 将冻结您的事件总线服务,无法新建事件总线等相关资源 当欠费超过15天 事件总线服务将进行注销,相关资源如事件总线、事件源、事件规则与事件流等将删除且不可恢复 欠费恢复 请在收到欠费通知后,登录天翼云官网费用中心进行充值;稍后事件总线服务将自动解冻,为您恢复服务。
        来自:
        帮助文档
        事件总线
        计费说明
        欠费说明
      • 如果只创建自定义事件总线,但无事件投递,会收费吗?
        不会。事件总线采取按量计费的方式,创建自定义事件总线本身不付费。只有投递的事件进入自定义事件总线,才会产生费用。
        来自:
        帮助文档
        事件总线
        常见问题
        计费类
        如果只创建自定义事件总线,但无事件投递,会收费吗?
      • 云工作流事件目标
        您可以通过事件规则过滤事件,将事件路由到云工作流服务。本文以自定义事件为例介绍将事件路由到云工作流的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 开通云工作流并创建云工作流流程 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,在左侧导航栏,单击事件规则,然后单击添加事件规则。 3. 在添加事件规则页面,完成以下操作。 1. 在配置基本信息配置向导,在名称文本框输入规则名称,在描述文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式配置向导,选择匹配全部事件,然后单击下一步。 3. 在配置事件目标 配置向导,配置事件目标,事件目标服务类型选择云工作流,目标参数描述如下,然后单击创建。 参数说明 参数 说明 示例 流程名称 选择已创建的云工作流流程。 test1 执行名称(ExecutionName) 每次的执行名称,更多内容请参考事件内容转换。 空 执行输入信息(Input) 选择调用到服务的事件内容,更多内容请参考事件内容转换。 完整事件
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        云工作流事件目标
      • 分布式消息服务RocketMQ事件目标
        您可以通过事件规则过滤事件,将事件路由到分布式消息服务RocketMQ。本文以自定义事件为例介绍将事件路由到分布式消息服务RocketMQ的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 开通分布式消息服务RocketMQ,创建实例实例并创建好相应的主题 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,点击事件源 按钮,点击添加事件源按钮,创建一个自定义事件源;填写事件源名,事件提供方可选择自定义应用。 3. 在左侧导航栏,单击事件规则,然后单击创建规则。 4. 在创建规则页面,完成以下操作,如图1所示。 1. 在配置基本信息 配置向导页面中,在名称 文本框输入规则名称,在描述 文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式 配置向导页面中,事件源类型选择自定义事件源,事件源选择对应的自定义事件源,在事件模式内容代码框输入事件模式,这里可选择匹配全部事件,然后单击下一步。 3. 在配置事件目标配置向导页面中,配置事件目标,分布式消息服务RocketMQ目标参数描述如下,然后单击创建。 图1 创建事件规则时选择服务类型为分布式消息服务RocketMQ
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        分布式消息服务RocketMQ事件目标
      • HTTP/HTTPS网络端点事件目标
        您可以通过事件规则过滤事件,将事件路由到HTTP/HTTPS网络端点服务。本文以自定义事件为例介绍将事件路由到HTTP/HTTPS网络端点的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 已部署HTTPS服务 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,在左侧导航栏,单击事件规则,然后单击添加事件规则。 3. 在添加事件规则页面,完成以下操作。 1. 在配置基本信息配置向导,在名称文本框输入规则名称,在描述文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式配置向导,选择匹配全部事件,然后单击下一步。 3. 在配置事件目标配置向导,配置事件目标,事件目标服务类型选择HTTP/HTTPS,目标参数描述如下,然后单击创建。 参数说明 参数 说明 示例 URL 输入HTTP/HTTPS目标的URL地址。 HTTP METHOD 选择HTTP协议请求方式。 POST 消息体 选择调用到服务的事件内容,更多内容请参考事件内容转换。 完整事件 网络类型 选择服务所在的网络环境。 专有网络:选择租户专有网络的VPC和子网。 专有网络 鉴权配置 选择服务的鉴权配置。 无需鉴权:无鉴权、无需配置。 Basic:输入Basic认证的账号密码。 Token:输出Token认证方式的token。 无需鉴权 Header 调用所带上的请求头。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        HTTP/HTTPS网络端点事件目标
      • 函数计算事件目标
        您可以通过事件规则过滤事件,将事件路由到函数计算。本文以自定义事件为例介绍将事件路由到函数计算的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权。 创建自定义总线。 开通函数计算、创建函数。 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,点击事件源 按钮,点击添加事件源按钮,创建一个自定义事件源;填写事件源名,事件提供方可选择自定义应用。 3. 在左侧导航栏,单击事件规则 ,然后单击添加事件规则。 4. 在创建规则页面,完成以下操作。 1. 在配置基本信息 配置向导页面中,在名称 文本框输入规则名称,在描述文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式配置向导页面中,在事件模式内容代码框输入事件模式,此处可选择匹配全部事件,然后单击下一步。如需了解更多信息,请参见事件模式。 3. 配置事件目标,函数计算目标参数描述如参数说明所示,然后单击创建,如图1所示。 图1 创建事件规则时选择服务类型为函数计算 参数说明 参数 说明 示例 函数 选择函数。 funxxx 函数版本与别名 支持指定函数版本或指定函数别名: 如果您选择指定版本,需要选择函数的具体版本。 如果您选择指定别名,需要选择函数的具体别名。 LATEST 执行方式 选择执行函数的方式:同步或异步。 同步 事件 选择调用到函数的事件内容,更多请参考事件内容转换。 完整事件
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        函数计算事件目标
      • 分布式消息服务Kafka事件目标
        您可以通过事件规则过滤事件,将事件路由到分布式消息服务Kafka。本文以自定义事件为例介绍将事件路由到分布式消息服务Kafka的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权。 创建自定义总线服务。 开通分布式消息服务Kafka实例,创建实例并创建相应的主题。 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,点击事件源 按钮,点击添加事件源按钮,创建一个自定义事件源;填写事件源名,事件提供方可选择自定义应用。 3. 在左侧导航栏,单击事件规则 ,然后单击添加事件规则。 4. 在添加事件规则页面,完成以下操作,如图1所示。 1. 在配置基本信息 配置向导页面中,在名称 文本框输入规则名称,在描述 文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式 配置向导页面中,事件源类型选择自定义事件源,事件源选择对应的自定义事件源,在事件模式内容代码框输入事件模式,这里可选择匹配全部事件,然后单击下一步。 3. 在配置事件目标配置向导,配置事件目标,分布式消息服务Kafka目标参数描述如下,然后单击创建。 图1 创建事件规则时服务类型选择分布式消息服务Kafka 参数说明 参数 说明 示例 实例 选择分布式消息服务Kafka实例。 instancexxx Topic 选择分布式消息服务Kafka实例的Topic。 topic1 消息体 选择消息体(Body)的内容,更多信息请参考事件内容转换。 完整事件 消息键值 选择消息键值(Key)的内容,更多信息请参考事件内容转换。 空
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        分布式消息服务Kafka事件目标
      • 自建Apache Kafka事件目标
        您可以通过事件规则过滤事件,将事件路由到自建Apache Kafka服务。本文以自定义事件为例介绍将事件路由到自建Apache Kafka的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,在左侧导航栏,单击事件规则,然后单击添加事件规则。 3. 在添加事件规则页面,完成以下操作。 1. 在配置基本信息配置向导,在名称文本框输入规则名称,在描述文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式配置向导,选择匹配全部事件,然后单击下一步。 3. 在配置事件目标 配置向导,配置事件目标,事件目标服务类型选择自建Apache Kafka,目标参数描述如下,然后单击创建。 参数说明 参数 说明 示例 接入点 Apache Kafka集群broker接入点,由IP与端口号拼接而成,以逗号分隔。 172.17.0.25:9092,192.17.0.26:9092,172.17.0.27:9092 Topic topic名称。 topic1 网络配置 根据业务场景选择对应配置。 专有网络 公网网络 专有网络 VPC 网络配置选择专有网络时必填,选择集群所在的VPC。 vpc 子网 网络配置选择专有网络时必填,选择集群所在的子网。 subnet 认证模式 选择认证模式。 PLAINTEXT SASLPLAINTEXT 用户名:填写SASL用户名 密码:填写SASL密码 SASL鉴权方式:可选PLAIN和SCRAMSHA512 PLAINTEXT 消息体 选择消息体(Body)的内容,更多信息请参考事件内容转换。 完整事件 消息键值 选择消息键值(Key)的内容,更多信息请参考事件内容转换。 空
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        自建Apache Kafka事件目标
      • 分布式消息服务RabbitMQ事件目标
        您可以通过事件规则过滤事件,将事件路由到分布式消息服务RabbitMQ。本文以自定义事件为例介绍将事件路由到函数计算的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 开通分布式消息服务RabbitMQ,创建实例并创建相应的交换器、队列 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,点击事件源按钮,点击创建事件源按钮,创建一个自定义事件源;填写事件源名,事件提供方可选择自定义应用 3. 在左侧导航栏,单击事件规则,然后单击创建规则。 4. 在创建规则页面,完成以下操作,如图1所示。 1. 在配置基本信息 配置向导页面中,在名称 文本框输入规则名称,在描述 文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式 配置向导页面中,事件源类型选择自定义事件源,事件源选择对应的自定义事件源,在事件模式内容代码框输入事件模式,这里可选择匹配全部事件,然后单击下一步。 3. 在配置事件目标配置向导,配置事件目标,分布式消息服务RabbitMQ目标参数描述如下,然后单击创建。 图1 创建事件目标时选择服务类型为分布式消息服务RabbitMQ 参数说明 参数 说明 示例 实例 选择分布式消息服务RabbitMQ实例。 instancexxx Vhost 选择RabbitMQ实例的Vhost。 POST 目标类型 选择发送到RabbitMQ的目标类型。 交换器:通过选择交换器和路由键,事件带上路由键会发送到所选择交换器。 队列:事件会发送到目标队列。 队列 queuexxx 消息体 选择作为消息体的事件内容,更多内容请参考事件内容转换。 完整事件 MessageId 选择MessageId的内容,更多内容请参考事件内容转换。 无 自定义属性 选择自定义属性(Properties)的内容,更多内容请参考事件内容转换。 无
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        分布式消息服务RabbitMQ事件目标
      • 自建Apache RocketMQ事件目标
        您可以通过事件规则过滤事件,将事件路由到自建Apache RocketMQ服务。本文以自定义事件为例介绍将事件路由到自建Apache RocketMQ的前提条件、操作步骤和结果验证。 前提条件 开通事件总线EventBridge并委托授权 创建自定义总线服务 操作步骤 1. 登录事件总线EventBridge控制台,在左侧导航栏,单击事件总线。 2. 选择目标总线,在左侧导航栏,单击事件规则,然后单击添加事件规则。 3. 在添加事件规则页面,完成以下操作。 1. 在配置基本信息配置向导,在名称文本框输入规则名称,在描述文本框输入规则的描述,然后单击下一步。 2. 在配置事件模式配置向导,选择匹配全部事件,然后单击下一步。 3. 在配置事件目标 配置向导,配置事件目标,事件目标服务类型选择自建Apache RocketMQ,目标参数描述如下,然后单击创建。 参数说明 参数 说明 示例 接入点 Apache RocketMQ集群broker接入点,由IP与端口号拼接而成,以逗号分隔。 172.17.0.25:9876,192.17.0.26:9876,172.17.0.27:9876 Topic topic名称。 topic1 网络配置 根据业务场景选择对应配置。 专有网络 公网网络 专有网络 VPC 网络配置选择专有网络时必填,选择集群所在的VPC。 vpc 子网 网络配置选择专有网络时必填,选择集群所在的子网。 subnet 认证模式 选择认证模式。 无需配置 ACL 用户名:填写用户名 密码:填写密码 无需配置 消息体 选择消息体(Body)的内容,更多内容请参考事件内容转换。 全部事件 自定义属性 选择自定义属性(Properties)的内容,更多内容请参考事件内容转换。 空 索引 选择索引(Keys)的内容,更多内容请参考事件内容转换。 空 标签 选择标签(Tags)的内容,更多内容请参考事件内容转换。 空
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件目标
        目标服务类型
        自建Apache RocketMQ事件目标
      • 日志触发器
        前提条件 创建工作流 创建日志单元 【创建事件总线委托】创建事件总线类触发器前,需要先确认开通事件总线对工作流的服务委托,赋予事件总线调用工作流的权限。 操作步骤 1. 登录工作流控制台,点击目标工作流,进入工作流详情详情。 2. 在配置选项卡中,选择左边的 工作流调度 选项卡。 3. 点击 创建工作流调度 ,在弹出的右抽屉中选择 日志触发器,配置参数解释如下表。 配置项 操作 示例 触发器类型 选择日志触发器。 日志触发器 名称 填写自定义的触发器名称。 alstrigger 日志项目 选择目标日志项目。 日志单元 选择目标日志单元。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        事件总线类触发器
        日志触发器
      • 事件总线支持的资源池
        本节主要介绍事件总线产品的API中资源池ID列表。 已支持事件总线服务的资源池列表 资源池 资源池ID(Region ID) 华东1 bb9fdb42056f11eda1610242ac110002 西南1 200000002368
        来自:
        帮助文档
        事件总线
        API参考
        附录
        事件总线支持的资源池
      • 通过SDK发送事件失败,是什么情况导致?
        发送事件失败时,请观察返回的错误信息,可能是以下原因导致: 接入点配置错误。请确保网络已连通,请核对接入点是否已建立对应的网络端点,详见网络端点。 事件总线不存在。请核对填写的总线名是否已在控制台中创建。 权限不足。请核对AK与SK是否有误,是否具有发送事件的权限。
        来自:
        帮助文档
        事件总线
        常见问题
        通用类
        通过SDK发送事件失败,是什么情况导致?
      • 触发器简介
        本文主要介绍触发器。 什么是触发器 触发器是一种机制,用于在特定事件发生时激活函数的执行。在基于事件的计算架构中,事件源负责生成事件,而函数则负责处理这些事件。触发器扮演的角色是提供一个集中化和标准化的方法来协调不同的事件源。当在事件源中发生一个事件,并且这个事件符合触发器设定的条件时,事件源将自动触发并执行与触发器相关联的函数。 触发器类型 按照触发器实现原理的不同,分为以下两类: 内部触发器:仅在函数计算控制台可见,配置第三方组件作为事件源。 事件总线类触发器:基于天翼云默认事件总线的能力,以总线为事件源,通过规则配置的触发器。 注意 所有触发器都支持同步调用,只有部分触发器支持异步调用;所有触发器触发函数都是通过POST方式请求目标函数,请确保您的函数支持POST请求。 内部触发器 触发器名称 调用方式 文档链接 Http触发器 同步调用 Http触发器介绍 定时触发器 同步调用 定时触发器介绍 Kafka触发器 同步/异步调用 Kafka触发器介绍 RocketMQ触发器 同步/异步调用 RocketMQ触发器介绍
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        触发器简介
      • 使用函数计算作为Transform
        本文介绍使用函数计算作为Transform时的背景信息、注意事项及操作步骤。 背景信息 当Transform选择天翼云函数计算时,您可以通过编写函数代码对事件进行更复杂、更加定制化的处理。整体流程如图所示。 1. 源端(Source)拉取事件后,事件会进入Filter阶段。 2. Filter阶段会事件进行判断,决定是否过滤该事件。经过Filter过滤的事件会进入Transform阶段。 3. Transform会对Filter过滤的事件进一步处理,依次调用函数进行处理。 4. Transform调用完函数之后,会将函数返回的内容推送给目标端(Sink)。 前提条件 事件总线EventBridge 开通事件总线EventBridge并委托授权。 函数计算 开通函数计算。 已创建对应函数。 操作步骤 1. 登录事件总线EventBridge控制台。 2. 在左侧导航栏,单击事件流。 3. 在事件流页面,单击创建事件流。 4. 在创建事件流页面,完成以下操作。 1. 在Source(源)配置向导,选择数据提供方及其资源信息,然后单击下一步。更多事件源信息参考事件流事件源。 2. 在Filtering(过滤)配置向导,在事件模式内容代码框输入事件模式,然后单击下一步。 3. 在Transform(转换)配置向导 ,设置事件转换规则,设置选择天翼云服务 为函数计算。 4. 在Sink(目标)配置向导,设置事件目标。更多事件目标信息参考事件流事件目标。 配置方式 参数 说明 绑定现有函数 函数 选择的服务中的函数。 绑定现有函数 版本和别名 选择服务的版本或别名。 5. 创建事件流后,会有30秒~60秒的延迟时间,您可以在事件流页面的状态栏查看启动进度。
        来自:
        帮助文档
        事件总线
        用户指南
        事件流
        事件内容转换
        使用函数计算作为Transform
      • 对象存储触发器
        对象存储与函数计算集成后,对象存储事件能触发相关工作流执行,实现对对象存储中的数据的自定义处理。 背景信息 对象存储和工作流通过对象存储触发器实现无缝集成,可以编排工作流对对象存储事件进行自定义处理,当对象存储捕获到指定类型的事件后,对象存储事件触发相应的工作流执行。例如,可以设置工作流来处理PutObject事件,当上传图片到对象存储后,相关联的工作流会自动被触发来处理该图片。 对象存储和工作流集成后,可以自由地调用各种工作流处理图像或音频数据,再把结果写回到多种存储服务中。整个架构中,只需要专注于工作流逻辑的编写,系统将以实时的、可靠的、大规模并行的方式处理海量的数据。 前提条件 创建事件总线类触发器前,需要先确认开通事件总线对工作流的服务委托,赋予事件总线调用工作流的权限。 对象存储事件定义 当对象存储系统捕获到相关事件后,会将事件信息编码为JSON字符串,传递给事件处理函数。 已支持的对象存储事件定义如下表所示。 事件类型 说明 s3:ObjectCreated:Put 原子上传对象到Bucket。 s3:ObjectCreated:Post Post上传对象到Bucket。 s3:ObjectCreated:CompleteMultipartUpload 分段上传对象到Bucket。 s3:ObjectCreated:Copy 拷贝上传。 s3:ObjectRemoved:Delete 删除Bucket中对象。 s3:ObjectRemoved:DeleteMarkerCreated 不指定版本号删除多版本Bucket中对象。 s3:ObjectRestore:Post 对象解冻。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        事件总线类触发器
        对象存储触发器
      • Java SDK
        您可使用开源CloudEvents Java SDK发布事件。 前提条件 1.您已下载IntelliJ IDEA等Java研发IDE。 2.在pom.xml中加入依赖。 plaintext io.cloudevents cloudeventscore ${cloudevents.version} io.cloudevents cloudeventshttpvertx ${cloudevents.version} io.cloudevents cloudeventsapi ${cloudevents.version} io.cloudevents cloudeventsjsonjackson ${cloudevents.version} 注:cloudevents.version使用最新里程碑版本2.0.0milestone1。 发布事件 结构化示例代码如下: java import java.net.URI; import java.util.UUID; import io.cloudevents.CloudEvent; import io.cloudevents.core.builder.CloudEventBuilder; import io.cloudevents.http.vertx.VertxMessageFactory; import io.cloudevents.jackson.JsonFormat; import io.vertx.core.Vertx; import io.vertx.core.http.HttpClient; import io.vertx.core.http.HttpClientRequest; public class SampleStructuredHTTPClient { // 填写天翼云账号的aksk,确保该账号已授权事件总线的发布权限 private static String accessKeyId System.getenv("CTYUNACCESSKEYID"); private static String accessKeySecret System.getenv("CTYUNACCESSKEYSECRET"); // 在事件总线控制台获取服务接入地址 private static String endpoint " + System.getenv("CTYUNEVENTBRIDGESERVICEHOST") + "/api/v1/putEvents"; public static void main(String[] args) throws Exception { final Vertx vertx Vertx.vertx(); final HttpClient httpClient vertx.createHttpClient(); // 创建一个事件模板来设置基本的CloudEvent属性。 CloudEventBuilder eventTemplate CloudEventBuilder.v1() .withSource(URI.create(" .withType("vertx.example"); // 创建HTTP请求。 final HttpClientRequest request httpClient.postAbs(endpoint) .handler(response > { System.out.println(response.statusMessage()); }) .exceptionHandler(System.err::println); String id UUID.randomUUID() .toString(); String data "{"name":"Eventbridge","number":100}"; // 从模板中创建事件。 final CloudEvent event eventTemplate.newBuilder() .withId(id) .withData("application/json", data.getBytes()) // 确保总线已经创建 .withExtension("ctyuneventbusname", "mybus") .withSource(URI.create(" .withType("vertx.example") .withSubject("ceb:cos:huadong1:1234567:events") .build(); request.putHeader("contenttype", "application/cloudevents+json"); request.putHeader("authorization", "ceb" + ":" + accessKeyId + ":" + SignatureHelper.getSignature(SignatureHelper.getStringToSign(request), accessKeySecret) + ""); VertxMessageFactory.createWriter(request) .writeStructured(event, new JsonFormat()); } } 二进制示例代码如下: java import java.net.URI; import java.util.UUID; import io.cloudevents.CloudEvent; import io.cloudevents.core.builder.CloudEventBuilder; import io.cloudevents.http.vertx.VertxMessageFactory; import io.vertx.core.Vertx; import io.vertx.core.http.HttpClient; import io.vertx.core.http.HttpClientRequest; public class SampleBinaryHTTPClient{ // 填写天翼云账号的aksk,确保该账号已授权事件总线的发布权限 private static String accessKeyId System.getenv("CTYUNACCESSKEYID"); private static String accessKeySecret System.getenv("CTYUNACCESSKEYSECRET"); // 在事件总线控制台获取服务接入地址 private static String endpoint " + System.getenv("CTYUNEVENTBRIDGESERVICEHOST"); + "/api/v1/putEvents"; public static void main(String[] args) throws Exception { final Vertx vertx Vertx.vertx(); final HttpClient httpClient vertx.createHttpClient(); // 创建一个事件模板来设置基本的CloudEvent属性。 CloudEventBuilder eventTemplate CloudEventBuilder.v1() .withSource(URI.create(" .withType("vertx.example"); // 创建HTTP请求。 final HttpClientRequest request httpClient.postAbs(endpoint) .handler(response > { System.out.println(response.toString()); }) .exceptionHandler(e > { System.out.println(e); }); String id UUID.randomUUID() .toString(); String data "{"name":"Eventbridge","number":100}"; // 从模板中创建事件。 final CloudEvent event eventTemplate.newBuilder() .withId(id) .withData("application/json", data.getBytes()) // 确保总线已经创建 .withExtension("ctyuneventbusname", "mybus") .withSource(URI.create(" .withType("vertx.example") .withSubject("ceb:myapp:huadong1:1234567:events") .build(); request.putHeader("contenttype", "application/json"); request.putHeader("authorization", "ceb" + ":" + accessKeyId + ":" + SignatureHelper.getSignature(SignatureHelper.getStringToSign(request), accessKeySecret) + ""); VertxMessageFactory.createWriter(request) .writeBinary(event); } }
        来自:
        帮助文档
        事件总线
        开发参考
        Cloudevents SDK参考
        Java SDK
      • 天翼云官方事件源与用户自定义事件源的区别是什么?
        1:计费方式不同。天翼云官方事件源产生的事件不收费 。用户自定义事件源产生的事件收费。 2:创建对象不同。天翼云官方事件源为天翼云事件总线预设,用户不可创建与删除 。用户可按需自行创建与删除自定义事件源。
        来自:
        帮助文档
        事件总线
        常见问题
        通用类
        天翼云官方事件源与用户自定义事件源的区别是什么?
      • 是否支持将自定义事件发送到事件总线EventBridge中?
        可以。您可以将您定义的符合CloudEvents 1.0格式的事件通过SDK发送到自定义总线 中。您亦可以通过控制台的发布事件功能发送事件,详见自定义事件接入流程。
        来自:
        帮助文档
        事件总线
        常见问题
        通用类
        是否支持将自定义事件发送到事件总线EventBridge中?
      • 自定义事件源参数
        参数 类型 是否必选 示例值 描述 eventBusName String 是 test 事件总线的名称。 eventSourceName String 是 source1 事件源的名称。 desc String 否 test 事件源描述。 type String 是 simple 事件源类型,更多信息请参考下文关于事件源的格式。 eventSourceParams Arrays of Object 是 事件源参数,详见表 EventSourceParams,更多信息请参考下文关于事件源的格式。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件源
        自定义事件源参数
      • 工作流调度简介
        事件总线类触发器 (尚未开放) 触发器名称 调用方式 详细介绍 日志触发器 同步/异步调用 根据云日志的事件类型触发工作流执行 对象存储触发器 同步/异步调用 根据对象存储的事件类型触发工作流执行
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流调度
        工作流调度简介
      • 事件规则参数
        参数 是否必填 参数类型 说明 示例 eventBusName 是 String 事件总线名。 bus1 eventRuleName 是 String 事件规则名。 规则:长度限制为2~63个字符,可以由小写字母、数字或短划线()组成,必须以小写字母开始,事件规则名不可重复。 rule1 desc 否 String 事件规则描述,非必填,限制为须小于256个字符。 test filterPattern 是 String 事件模式。需符合一定的规则,详见 {} eventTargets 是 Array of Objects 事件目标数组,详见下文表EventTargets。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件规则
        事件规则参数
      • 触发器事件消息格式
        参数 类型 示例 描述 id string dc4b3a283688400e8a69a647bafb015b 事件ID。标识事件的唯一值。 source string ctyun.ctlts 事件源。日志触发器固定为ctyun.ctlts。 specversion string 1.0 CloudEvents协议版本。 type string ctlts:unitinsert 事件类型。 subject string 392b21xxe79477 事件主体。这里是日志单元ID。 time string 20240305T13:52:18.374Z 事件产生的时间。 data object 事件内容。JSON对象,内容由发起事件的服务决定。CloudEvents可能包含事件发生时由事件生产者给定的上下文,data中封装了这些信息。 data.beginCurror int 381681168434049700 日志数据起始游标,标识增量日志的开始位置 data.endCursor int 381681168434051100 日志数据结束游标,标识当次上报日志结束为止 data.unitCode string 392b21xxe79477 日志单元ID ctyunaccountid string 5d4ce56a08db4ac19 天翼云账号ID ctyuneventbusname string default 接收事件的事件总线名称,天翼云产品事件为default。 ctyunregion string b342b77ef26b11ecb0 接收事件的地域。
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        触发器事件消息格式
      • 数据投递至Kafka
        Prometheus监控服务支持将Prometheus实例的监控数据导出,以进行自定义业务处理。您可以根据业务需求,选择相应的投递目标。本文介绍如何创建Kafka数据投递任务。 前提条件 已接入Prometheus实例。 已部署目标的分布式消息服务Kafka实例,并创建Topic等资源。 开通事件总线EventBridge服务。 注意 1. 数据投递功能依赖事件总线EventBridge,事件总线EventBridge目前公测中,费用详情请参考计费说明。 2. 仅支持从创建任务开始后的实时数据导出,不支持历史数据的投递。 操作步骤 1. 登录应用性能监控控制台。在左侧菜单栏点击Prometheus监控 数据投递菜单。 2. 进入数据投递页面后,点击左上角【创建任务】按钮。 3. 在对话框中输入任务名称和任务描述后,单击确定。将自动跳转至任务编辑页面。 4. 在任务编辑页面,配置数据源和投递目标: 1. 点击【+ 添加数据源】按钮,配置以下参数,然后单击确定。 配置项 说明 示例 Prometheus实例 Prometheus数据源所在实例。 ccexxxxxx 数据过滤 设置需要过滤的指标标签,黑名单机制代表符合条件的指标将不会被投递。白名单机制代表符合条件的指标才会被投递。 支持正则表达式。多个条件需要换行,条件之间为且的关系。 plaintext name~xxxxx regionIdhuadong1 idixxxxxx 数据打标 设置需要新增的标签,设置后将在投递的指标数据增加对应的label。多个标签需要换行。 plaintext testkey1aaaaa testkey2bbbbb 2. 点击【添加目标】按钮,选择目标类型为分布式消息服务Kafka,并选择目标kafka实例与Topic,点击确定,即可完成任务的创建。 注意 在使用kafka数据投递前,需要先在对应kafka实例安全组中允许VPC内访问Kafka实例服务端口,具体操作请查看操作指引。 5. 投递任务启动后,数据经过2~5分钟的延迟即可到达投递目标。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        控制台操作指南
        数据投递
        数据投递至Kafka
      • 对象存储触发器
        参数 类型 示例值 描述 id String b5771f766cdf48edb1bad15418c 事件ID。标识事件的唯一值。 source String ctyun.zos 事件源。对象存储触发器固定为ctyun.zos。 specversion String 1.0 CloudEvents协议版本。 type String s3:ObjectCreated:Post 事件类型。 subject String ctyun.zos:b342b77ef26:5d4ce56a08d:bucketname:objectname 事件主体。格式为ctyun.zos::::,其中是资源池ID,是天翼云账号ID,是对象存储产生事件的bucket名称,是对象存储产生事件的文件名称。 time Timestamp 20240305T13:52:18.374Z 事件产生的时间。 datacontenttype String application/json;charsetutf8 参数 data 的内容形式。 data Struct {"abc":"1111", "def":"xxxx"} 事件内容。JSON对象,内容由发起事件的服务决定。CloudEvents可能包含事件发生时由事件生产者给定的上下文, data 中封装了这些信息。 ctyunaccountid String 123456789 天翼云账号ID。 ct yun userid String 123456789 天翼云用户ID。 ctyunresourceid String 27aadda4db9411eea6fce8b47009 天翼云资源ID ctyuneventbusname String default 接收事件的事件总线名称,天翼云产品事件为default。 ctyunregion String bb9fdb42056fl1eda161 接收事件的地域。
        来自:
        帮助文档
        函数计算
        用户指南
        事件触发
        事件总线类触发器
        对象存储触发器
      • 审计
        对象存储服务支持对用户操作进行审计,本文介绍相关操作说明。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 审计日志转储:支持将审计日志周期性的转储至对象存储服务(ZOS)下的ZOS桶。 约束与限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。若您使用云审计提供的转储功能,需要开通对象存储服务并支付产生的费用,该费用以对象存储产品的计费为准,参考计费说明对象存储。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作名称 设置用户配额 删除用户配额 设置桶配额 查询自定义域名列表 设置自定义域名 删除自定义域名 设置桶级别用户事件总线开关状态 查询桶可复制区域 设置跨域复制规则 查询跨域复制进度 删除跨域复制规则
        来自:
        帮助文档
        对象存储 ZOS
        用户指南
        监控与日志
        审计
      • 服务内联委托
        可信云服务可以通过IAM委托的方式访问其他云服务的资源。可信实体为天翼云服务的IAM委托,包括普通云服务委托和云服务关联委托。本文介绍函数计算的服务内联委托。 什么是服务内联委托 在某些场景下,函数计算为了完成自身的某个功能,需要获取其他云服务的访问权限,因此,函数计算创建了与云服务内联委托,即服务内联委托CtyunServiceDelegateRoleForFC。函数计算支持CtyunServiceDelegateRoleForFC和FaaS函数的绑定,实现最小授权范围内授予函数访问其他云服务的权限。 使用函数计算时,系统提供的服务内联委托及其包含的系统权限策略如下: 服务内联委托:CtyunServiceDelegateRoleForFC 系统权限策略:CtyunServiceInlineDelegateRolePolicyForFC CtyunServiceDelegateRoleForFC 服务内联委托CtyunServiceDelegateRoleForFC可以获取访函数列表、函数详情、创建函数、删除函数、更新函数以及调用函数的权限。 服务内联委托CtyunServiceDelegateRoleForFC被授予权限策略CtyunServiceInlineDelegateRolePolicyForFC,该权限策略的内容如下。 json { "Version": "1", "Statement": [ { "Action": [ "cf:inst:CreateFunction", "cf:inst:UpdateFunction", "cf:inst:ListFunction", "cf:inst:GetFunction", "cf:inst:InvokeFunction", "cf:inst:DeleteFunction" ], "Resource": "", "Effect": "Allow" } ] } 以下是使用函数计算时,需要创建和使用服务内联委托的场景: 为函数计算配置专有网络VPC、交换机或弹性网卡等,提升数据安全性,实现VPC内的网络互通。 访问容器镜像仓库拉取镜像创建容器镜像函数,能够利用容器镜像资源灵活部署函数。 配置消息队列或事件总线等消息服务的访问权限,使用函数计算监听消息源的事件。当有新的消息或事件产生时,可以直接触发函数执行,实现事件驱动的计算模型。 配置日志服务相关权限,允许自动收集函数执行日志,便于日志的搜索、分析和可视化展示,帮助用户快速定位问题。
        来自:
        帮助文档
        函数计算
        安全与合规
        IAM访问控制
        服务内联委托
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • ...
      • 50
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      模型推理服务

      科研助手

      知识库问答

      推荐文档

      关机

      工单操作

      合作伙伴认证简介

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号