云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式消息服务MQTT_相关内容
      • 连接问题
        是否支持跨Region访问? Kafka可以跨Region访问,但是跨Region目前只能通过公网访问或者拉专线的方式。 Kafka实例是否支持跨VPC访问? Kafka实例支持跨VPC访问,您可以通过以下方式实现跨VPC访问: 创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问。具体步骤请参考《虚拟私有云用户指南》的“VPC对等连接”章节。 Kafka实例是否支持不同的子网? 支持。 客户端与实例在相同VPC内,可以跨子网段访问。同一个VPC内的子网默认可以进行通信。 Kafka是否支持Kerberos认证,如何开启认证? Kafka支持SASL客户端认证、调用接口支持Token和AK/SK两种认证,Kerberos认证目前不支持。 如果使用SASL认证方式,则在开源客户端基础上使用分布式消息服务Kafka提供的证书文件。具体操作参考连接已开启SASL的Kafka实例。 Kafka实例是否支持无密码访问? 支持,连接未开启SASL的Kafka实例时,无需密码。具体操作,请参考连接未开启SASL的Kafka实例。 开启公网访问后,在哪查看公网IP地址? 在Kafka控制台,单击Kafka实例名称,进入实例详情页面。在“基本信息”页签,查看公网IP地址(即“公网连接地址”)。 如果您需要连接Kafka实例,请参考连接Kafka。
        来自:
        帮助文档
        分布式消息服务Kafka
        常见问题
        连接问题
      • 接入概览
        天翼云日志服务支持采集计算、存储、网络安全、数据库等多种天翼云云产品的日志数据。以下介绍具体已支持的云产品以及日志类型。 概述 自动采集机制 当您开通云产品日志采集功能时,系统将自动从云产品中收集相关日志至指定的日志项目与日志单元,部分云产品已支持自动创建目标日志项目与日志单元,具体可见各云产品详细的操作说明。 停止计费的步骤说明 若需停止云产品日志采集的计费,需从数据采集和存储资源两方面操作: 1. 关闭日志采集:进入对应云产品的控制台,关闭日志服务集成功能开关。 2. 清理存储资源:在云日志服务控制台中删除对应云产品的 日志项目与日志单元。 支持的云产品以及日志类型 以下为已对接云日志服务的云产品: 云产品 日志类型 备注 弹性云主机 文本日志 物理机 文本日志 云容器引擎 容器标准输出 容器文件日志 分布式容器云平台CCEONE 容器标准输出 容器文件日志 弹性容器实例ECI 容器实例日志 关系型数据库MySQL版 数据库慢日志、错误日志 当前白名单试用中,如有需求请提交工单反馈。 关系型数据库PostgreSQL版 数据库慢日志、错误日志 当前白名单试用中,如有需求请提交工单反馈。 关系数据库SQL Server 数据库慢日志、错误日志 当前白名单试用中,如有需求请提交工单反馈。 分布式关系型数据库 数据库慢日志、错误日志 当前白名单试用中,如有需求请提交工单反馈。 文档数据库 数据库慢日志、错误日志 当前白名单试用中,如有需求请提交工单反馈。 对象存储 访问日志 分布式缓存Redis 命令审计日志 重平衡日志 应用服务网格 控制面(control plane)、数据面(sidecar)日志以及应用服务网格网关日志 函数计算 函数调用日志 云审计 云服务操作日志 弹性负载均衡ELB 访问日志 NAT网关 会话日志 云搜索 Elasticsearch、OpenSearch、Logstash实例日志,包括运行日志(含错误日志)、GC日志、慢索引日志、慢查询日志、Logstash运行日志 翼MR 集群组件日志 微服务引擎云原生网关 网关访问日志 虚拟私有云VPC 流日志 当前白名单试用中,如有需求请提交工单反馈。 内网DNS DNS解析日志 SDWAN 流日志 当前白名单试用中,如有需求请提交工单反馈。 云安全中心 云堡垒机操作日志; 云防火墙威胁日志; 服务器安全卫士漏洞信息、弱口令、告警日志; 数据库审计日志; Web应用防火墙告警日志; 云等保专区V1.0日志 服务器安全卫士 告警日志 网页防篡改 告警日志
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        接入概览
      • 配置Syslog北向参数
        参数区域 参数名称 参数说明 Syslog协议 服务IP模式 设置对接服务器IP地址模式,可选择“IPV4”或者“IPV6”。 Syslog协议 服务IP 设置对接服务器IP地址。 Syslog协议 服务端口 设置对接端口。 Syslog协议 协议 设置协议类型,可选值: l TCP l UDP Syslog协议 安全级别 设置上报消息的严重程度,取值范围: l Emergency l Alert l Critical l Error l Warning l Notice l Informational(默认值) l Debug 说明 “安全级别”和“Facility”共同组成发出消息的优先级( Priority )。 优先级( Priority ) “Facility” × 8 +“安全级别” “安全级别”和“Facility”各项对应的数值请参考下表:“安全级别”和“Facility”字段数值编码 。 Syslog协议 Facility 设置产生日志的模块。可选项参考下表:“安全级别”和“Facility”字段数值编码 ,推荐使用默认值“local use 0 (local0)”。 Syslog协议 标识符 设置产品标识,默认为“FusionInsight Manager”。 标识符可以包含字母、数字、下划线、 空格、、 $、 {、 }、 点、中划线,并且不能超过256个字符。 报告信息 报文格式 设置告警报告的消息格式,具体要求请参考界面帮助。 报文格式可以包含字母、数字、下划线、 空格、、 $、 {、 }、 点、中划线,并且不能超过1024个字符。 说明 报文格式中信息域的说明请参考下表:报文格式信息域表。 报告信息 报告信息类型 设置需要上报的告警类型。 报告信息 上报消息级别 设置需要上报的告警级别。 未恢复告警上报设置 周期上报未恢复告警 设置是否按指定周期上报未清除的告警。打开开关表示启用此功能,关闭开关表示不启用。开关默认为关闭。 未恢复告警上报设置 间隔时间(分钟) 设置周期上报告警的时间间隔,当“周期上报未恢复告警”开关设置为打开时启用。单位为分钟,默认值为“15”,支持范围为“5”到“1440”(1天)。 心跳设置 上报心跳 设置是否开启周期上报Syslog心跳消息。打开开关表示开启此功能,关闭开关表示不启用。开关默认为关闭。 心跳设置 心跳周期(分钟) 设置周期上报心跳的时间间隔,当“上报心跳”开关设置为打开时启用。单位为分钟,默认值为“15”,支持范围为“1”到“60”。 心跳设置 心跳报文 设置心跳上报的内容,当“上报心跳”开关设置为打开时启用,不能为空。支持数字、字母、下划线、竖线、冒号、空格、英文逗号和句号字符,长度小于等于256。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        系统设置
        对接设置
        配置Syslog北向参数
      • MoquetteBroker监控
        指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 异常(exception,MoquetteBroker调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,MoquetteBroker调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,MoquetteBroker调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,MoquetteBroker调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,MoquetteBroker调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) version 版本 版本 STRING LAST MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) msgSentCount 消息推送次数 总的消息推送次数 INT SUM MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) bytesSent 消息推送字节数 总消息推送字节数 INT SUM MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) msgReceivedCount 消息接收次数 总消息接收次数 INT SUM MoquetteBroker版本(version,MoquetteBroker版本。) MoquetteBroker主题汇总(total,MoquetteBroker主题汇总信息统计。) bytesReceived 消息接收字节数 总消息接收字节数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) topic 主题 主题 ENUM LAST MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) subscribeCount 订阅数 订阅数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) msgSentCount 消息推送次数 消息推送次数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) bytesSent 消息推送字节数 消息推送字节数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) msgReceivedCount 消息接收次数 消息接收次数 INT SUM MoquetteBroker主题维度监控(brokerTopic,MoquetteBroker主题维度监控。) bytesReceived 消息接收字节数 消息接收字节数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        物联网
        MoquetteBroker监控
      • 配置Kafka之间的数据复制
        本节介绍如何配置Kafka之间的数据复制。 本章节介绍如何创建Kafka数据复制的Smart Connect任务,通过Smart Connect任务可以在两个Kafka实例之间,实现数据的单向或双向复制。 源Kafka实例中的数据会实时同步到目标Kafka实例中。 约束与限制 一个实例最多创建18个Smart Connect任务。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 Smart Connect任务创建成功后,不支持修改任务参数。 确保目标Kafka实例Topic的“批处理消息最大值”大于等于524288字节,否则会导致数据无法同步。如果目标Kafka实例没有创建Topic,在数据同步时会自动创建Topic,此Topic的“批处理消息最大值”和源Kafka实例Topic相同,此时需要确保源Kafka实例Topic的“批处理消息最大值”大于等于524288字节。修改“批处理消息最大值”的方法请参考修改Kafka Topic配置。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 配置Kafka间的数据复制 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、单击Kafka实例名称,进入实例详情页面。 5、在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。 6、单击“创建Smart Connect任务”,进入“创建smart connect”页面。 7、在“connect任务名称”中,输入Smart Connect任务的名称,用于区分不同的Smart Connect任务。任务名称需要符合命名规则:长度为4~64个字符,只能由英文字母、数字、中划线、下划线组成。 8、在“预置类型”中,选择“Kafka数据复制”。 9、在“当前kafka”区域,设置实例别名。实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“推送”/“双向”时,当前Kafka实例的别名作为前缀添加到对端Kafka实例的Topic名称前,形成Topic新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 10、在“对端kafka”区域,设置以下参数。 表11 对端Kafka实例参数说明 参数 参数说明 实例别名 设置实例别名,实例别名需要符合命名规则:长度为1~20个字符,只能由英文字母、数字、中划线、下划线组成。 实例别名用于以下两个场景中: 开启“重命名Topic”,且“同步方式”为“拉取”/“双向”时,对端Kafka实例的别名作为前缀添加到当前Kafka实例的Topic名称前,形成Topic新的名称。例如对端Kafka实例别名为B,当前Kafka实例的Topic名称为test01,重命名后的Topic为B.test01。 Kafka数据复制的Smart Connect任务创建成功后,如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 配置类型 支持以下两种配置类型: Kafka地址:输入Kafka实例的连接信息。对端Kafka实例和当前Kafka实例处于不同的VPC下时,请选择此配置类型。 实例名称:选择已创建的Kafka实例。对端Kafka实例和当前Kafka实例处于相同的VPC下时,建议选择此配置类型。 实例名称 “配置类型”为“实例名称”,且对端Kafka实例和当前Kafka实例处于相同的VPC下时,需要设置。 在下拉列表中,选择已创建的Kafka实例。 Kafka地址 “配置类型”为“Kafka地址”时,需要设置。 输入Kafka实例的连接地址和端口号。 使用Kafka数据复制时,两个Kafka实例间只能通过内网连接。如果两个Kafka实例处于不同的VPC中,请先打通网络。 认证方式 支持以下认证方式: SASLSSL:表示实例已开启SASLSSL认证,客户端连接Kafka实例时采用SASL认证,数据通过SSL证书进行加密传输。 SASLPLAINTEXT:表示实例开启SASLPLAINTEXT认证,客户端连接Kafka实例时采用SASL认证,数据通过明文传输。 PLAINTEXT:表示实例未开启认证。 认证机制 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 SCRAMSHA512:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN:一种简单的用户名密码校验机制。 用户名 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的用户名,或者创建用户时设置的用户名。 密码 “认证方式”为“SASLSSL”/“SASLPLAINTEXT”时,需要设置。 首次开启密文接入时设置的密码,或者创建用户时设置的密码。 Smart Connect任务创建成功后,如果您修改了对端实例的认证方式、认证机制或者密码,会导致同步任务失败。 您需要删除当前Smart Connect任务,然后重新创建新的Smart Connect任务。 11、在“规则配置”区域,设置以下参数。 表12 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。 正则表达式:通过正则表达式匹配Topic。 输入/选择:输入Topic名称,如果需要输入多个Topic名称,先输入一个Topic名称,按“Enter”,然后再输入下一个,按“Enter”,依次输入。或者在下拉列表中,选择Topic。最多输入/选择20个Topic。 Topic名称以internal结尾时(例如:topic.internal),此Topic的数据不会被同步。 任务数 数据复制的任务数。默认值为2,建议保持默认值。 如果“同步方式”为“双向”,实际任务数设置的任务数2。 重命名 Topic 在目标Topic名称前添加源端Kafka实例的别名,形成目标Topic新的名称。例如源端实例别名为A,目标Topic名称为test,重命名后的目标Topic为A.test。 两端实例数据双向复制时,开启“重命名Topic”,防止循环复制。 添加来源header 目标Topic接收复制的消息,此消息header中包含消息来源。 两端实例数据双向复制时,默认开启“添加来源header”,防止循环复制。 同步消费进度 开启“同步消费进度”后,将消费者消费进度同步到目标Kafka实例。 开启“同步消费进度”后,您需要注意以下几点: 源端Kafka实例和目标端Kafka实例不能同时消费,否则会导致同步的消费进度异常。 同步消费进度的频率为每分钟一次,因此会导致目标端的消费进度可能会略小于源端,造成部分消息被重复消费,所以需要消费者客户端业务逻辑兼容重复消费的场景。 从源端同步的offset与目标端的offset并非一致关系,而是映射关系,如果消费进度由消费者客户端自行维护,消费者客户端从消费源端Kafka实例变为消费目标端Kafka实例后,不向目标端Kafka实例获取消费进度,可能会导致offset错误或消费进度重置。 副本数 在对端实例中自动创建Topic时,指定Topic的副本数,此参数值不能超过对端实例的代理数。 如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。 启动偏移量 支持两种偏移量: 最早:最小偏移量,即获取最早的数据。 最新:最大偏移量,即获取最新的数据。 压缩算法 复制消息所使用的压缩算法。 topic映射 通过Topic映射,您可以自定义目标端Topic名称。 最多新增20个Topic映射。不能同时设置“重命名Topic”和“topic映射”。 配置复制数据规则时需要注意以下几点: 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。 如果创建两个或以上配置完全相同的任务,即重复创建任务,且任务已开启“同步消费进度”,此时会导致数据重复复制,且目标Topic消费进度异常。 12、(可选)在页面右下角单击“开始检测”,测试两端Kafka实例的连通性。 显示“连通性检测成功”时,表示两端Kafka实例可以正常连接。 13、单击“立即创建”,跳转到Smart Connect任务列表页面,页面右上角显示“创建xxx任务成功”。 Kafka数据复制的Smart Connect任务创建成功后,Kafka会自动创建以下Topic。 当前Kafka实例会自动创建“mm2offsetsyncs. 对端Kafka实例别名 .internal”的Topic。如果Smart Connect任务开启了“同步消费进度”功能,且“同步方式”为“拉取”/“双向”时,当前Kafka实例还会自动创建“ 对端Kafka实例别名 .checkpoints.internal”的Topic。这两个Topic用于存储内部数据,如果删除,会导致同步数据失败。 如果Smart Connect任务开启了“同步消费进度”功能,“同步方式”为“推送”/“双向”时,对端Kafka实例会自动创建“ 当前Kafka实例别名 .checkpoints.internal”的Topic。此Topic用于存储内部数据,如果删除,会导致同步数据失败。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        配置Kafka之间的数据复制
      • Kafka客户端使用规范
        本节主要介绍Kafka客户端使用规范。 consumer使用规范 1、consumer的owner线程需确保不会异常退出,避免客户端无法发起消费请求,阻塞消费。 2、确保处理完消息后再做消息commit,避免业务消息处理失败,无法重新拉取处理失败的消息。 3、consumer不能频繁加入和退出group,频繁加入和退出,会导致consumer频繁做rebalance,阻塞消费。 4、consumer数量不能超过topic分区数,否则会有consumer拉取不到消息。 5、consumer需周期poll,维持和server的心跳,避免心跳超时,导致consumer频繁加入和退出,阻塞消费。 6、consumer拉取的消息本地缓存应有大小限制,避免OOM(Out of Memory)。 7、consumer session设置为30秒,session.timeout.ms30000。 8、Kafka不能保证消费重复的消息,业务侧需保证消息处理的幂等性。 9、消费线程退出要调用consumer的close方法,避免同一个组的其他消费者阻塞sesstion.timeout.ms的时间。 producer使用规范 1、同步复制客户端需要配合使用:acksall 2、配置发送失败重试:retries3 3、发送优化:linger.ms0 4、生产端的JVM内存要足够,避免内存不足导致发送阻塞 topic使用规范 配置要求:推荐3副本,同步复制,最小同步副本数为2,且同步副本数不能等于topic副本数,否则宕机1个副本会导致无法生产消息。 创建方式:支持选择是否开启kafka自动创建Topic的开关。选择开启后,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 单topic最大分区数建议为100。 topic副本数为3(当前版本限制,不可调整)。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka客户端使用规范
      • DMS for Kafka自定义策略
        本文主要介绍 DMS for Kafka自定义策略。 如果系统预置的DMS for Kafka权限,不满足您的授权要求,可以创建自定义策略。 目前云服务平台支持以下两种方式创建自定义策略: 可视化视图创建自定义策略:无需了解策略语法,按可视化视图导航栏选择云服务、操作、资源、条件等策略内容,可自动生成策略。 JSON视图创建自定义策略:可以在选择策略模板后,根据具体需求编辑策略内容;也可以直接在编辑框内编写JSON格式的策略内容。 具体创建步骤请参见:《统一身份认证服务用户指南》的“创建自定义策略”章节。本章为您介绍常用的DMS for Kafka自定义策略样例。 说明 DMS for Kafka的权限与策略基于分布式消息服务DMS,因此在IAM服务中为DMS for Kafka分配用户与权限时,请选择并使用“DMS”的权限与策略。 由于缓存的存在,对用户、用户组以及企业项目授予OBS相关的细粒度策略后,大概需要等待5分钟细粒度策略才能生效。 DMS自定义策略样例 示例1:授权用户删除实例和重启实例 { "Version": "1.1", "Statement": [ { "Effect": "Allow", "Action": [ "dms:instance:modifyStatus", "dms:instance:delete" ] } ] } 示例2:拒绝用户删除实例 拒绝策略需要同时配合其他策略使用,否则没有实际作用。用户被授予的策略中,一个授权项的作用如果同时存在Allow和Deny,则遵循Deny优先。 如果您给用户授予DMS FullAccess的系统策略,但不希望用户拥有DMS FullAccess中定义的删除实例权限,您可以创建一条拒绝删除实例的自定义策略,然后同时将DMS FullAccess和拒绝策略授予用户,根据Deny优先原则,则用户可以对DMS for Kafka执行除了删除实例外的所有操作。拒绝策略示例如下: { "Version": "1.1", "Statement": [ { "Effect": "Deny", "Action": [ "dms:instance:delete" ] } ] }
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        权限管理
        DMS for Kafka自定义策略
      • 日志通知
        配置项 说明 名称 Syslog接收接口的配置名称。 服务器地址 Syslog服务器地址,可为IP或者域名。 端口 Syslog服务器端口,默认为端口为514。 发送协议 选择日志传输的协议类型,支持UDP或TCP。 是否发送消息头 决定是否在日志数据前添加自定义Syslog消息头(含主机名及用户名)。 内容协议格式 定义日志数据的格式,默认为RFC3164。 报文默认主机名 可以指定日志中使用的默认主机名。 报文默认应用名 可以指定日志中使用的默认应用程序名。 程序模块编码 Syslog协议RFC5424 规定,消息中必须包含“程序模块编码”,Syslog服务端使用该编码区分发送消息的程序来源。与服务器端配置保持一致即可。 严重等级 选择向Syslog服务器发送告警所标记的严重等级。等级分为:Emergency、Alert、Critical、Error、Warning、Notice、Informational、Debug。 与服务器端配置保持一致即可。 审计日志模板 发送审计日志信息的模板,可修改默认模板,具体字段请依据填写说明编辑。 告警日志模板 发送告警日志信息的模板,可修改默认模板,具体字段请依据填写说明编辑。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        通知发送
        日志通知
      • 配置DDoS封堵通知渠道(1)
        操作步骤 1.登录天翼云官网,进入管理中心。 2.进入消息中心 3.进入消息订阅,新增消息接收人。 4.进入消息订阅的消息管理,将新增的消息接收人配置到安全消息一行中。
        来自:
      • 修改消费组
        场景描述 在RocketMQ中,修改订阅组的场景可以有以下几种情况: ● 增加或减少消费者:当需要增加或减少订阅组中的消费者数量时,可以通过修改订阅组来实现。例如,当消息量增加时,可以增加消费者数量以提高消费能力;当消费者数量过多时,可以减少消费者数量以降低资源消耗。 ● 修改消费策略:订阅组中的消费者可以采用不同的消费策略,如集群模式或广播模式。集群模式下,每个消息只会被订阅组中的一个消费者消费;广播模式下,每个消息会被订阅组中的所有消费者都消费一次。通过修改订阅组,可以更改消费策略以满足不同的业务需求。 ● 调整消费进度:订阅组中的消费者可以通过消费进度来记录已经消费的消息位置。当需要重新消费某些消息或调整消费的起始位置时,可以修改订阅组中各个消费者的消费进度。 ● 修改消费者参数:订阅组中的消费者可以设置一些参数,如消费线程数、消息拉取策略等。通过修改订阅组,可以对消费者的参数进行调整,以优化消费性能和资源利用。 需要注意的是,修改订阅组时需要确保订阅组的唯一性,避免与其他订阅组冲突。同时,修改订阅组可能会影响消息的分发和消费进度,需要谨慎操作,避免消息丢失或重复消费的问题。 总之,通过修改订阅组,可以灵活调整消费者数量、消费策略、消费进度和消费者参数,以满足不同的业务需求和优化消费性能。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        消费组管理
        修改消费组
      • 使用类
        本节主要介绍使用类问题 如何处理开启了安全认证的微服务引擎专享版开启IPv6后服务注册失败? 创建微服务引擎专享版时,当选择开启了IPv6的VPC网络时,创建引擎支持IPv6网络。当部署服务使用IPv6网段且选择容器部署时,选择的CCE集群需要开启IPv6双栈开关。如果选择的CCE集群资源没有开启IPv6开关,就会导致服务网络不通,报错“java.net.SocketException: Protocol family unavailable”。解决办法: 1、 修改部署了微服务应用的环境,添加开启了“IPv6双栈”开关的CCE集群 2、 重新部署应用 微服务和普通应用有什么不同? 微服务是一种架构模式,其核心是将一个单体应用分成多个部分进行开发。所以微服务架构的应用程序,其本质上是一个分布式应用。 基于微服务架构构建的应用程序,可以让业务变化更快,整体系统可靠性更高。 开源 ServiceComb 与 CSE 是什么关系? CSE Java SDK是ServiceComb的商业版本,其大部分组件来自于开源的ServiceComb,同时提供一些公有云对接的能力、安全、分布式数据一致性等商业能力。这部分开发框架代码可以免费使用但是没有开源。
        来自:
      • 使用Redis实例的发布订阅(pubsub)有哪些注意事项?
        本文介绍Redis实例的发布订阅(pubsub)注意事项 订阅和发布的顺序:在使用 Redis 的发布订阅功能时,订阅者(Subscriber)必须先订阅频道(Channel)才能接收到发布者(Publisher)发送的消息。如果先发布消息而没有订阅者监听该频道,那么消息将会丢失。因此,在使用发布订阅功能时,要确保订阅者在发布者发送消息之前已经成功订阅了频道。 异步处理:Redis 的发布订阅功能是异步的,即发布者发送消息后,订阅者可能不会立即接收到消息。这是因为订阅者与发布者之间存在网络延迟和处理时间。因此,在订阅消息后,订阅者需要以异步方式处理接收到的消息,并考虑可能出现的延迟。 取消订阅:当不再需要接收某个频道的消息时,订阅者应该主动取消订阅,以减少不必要的网络开销和资源消耗。可以使用 UNSUBSCRIBE 命令取消订阅指定频道,或使用 PUNSUBSCRIBE 命令取消订阅所有频道。 频道命名规范:在定义频道名称时,要注意选择有意义且易于区分的名称。频道名称可以是字符串,但最好遵循一定的命名规范,以免产生混淆或错误地订阅了不正确的频道。 安全性考虑:Redis 的发布订阅功能是公开的,任何连接到 Redis 的客户端都可以订阅频道并接收消息。因此,要特别注意在敏感信息传输或涉及安全性的场景中使用发布订阅功能,并考虑适当的安全措施,例如使用认证和加密等方式来保护数据的安全性。
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        网络与连接
        使用Redis实例的发布订阅(pubsub)有哪些注意事项?
      • 配置DDoS封堵通知渠道
        操作步骤 1.登录天翼云官网,进入管理中心。 2.进入消息中心 3.进入消息订阅,新增消息接收人。 4.进入消息订阅的消息管理,将新增的消息接收人配置到安全消息一行中。
        来自:
        帮助文档
        DDoS基础防护
        用户指南
        配置DDoS封堵通知渠道
      • 系统配置
        配置邮件外发 邮件服务器,为改密提示和消息告警等通知提供邮件发送服务。 根据需求设置私有邮箱服务器或是公共邮箱服务器,并可测试所填写服务器信息是否有效。 目前支持两种发送方式,分别为SMTP和Exchange,其中Exchange仅支持Exchange2010版本。 本小节主要介绍如何配置系统邮件外发。 前提条件 已获取“系统”模块管理权限。 操作步骤 1 登录云堡垒机系统。 2 选择“系统 > 系统配置 > 外发配置”,进入系统外发配置管理页面。 外发配置 3 在“邮件配置”区域,单击“编辑”,弹出邮件配置窗口。 分别选择SMTP和Exchange发送方式,并根据界面提示配置邮件发送方式。 4 单击“确认”,返回外发配置页面,即可查看已配置信息。结束 配置短信外发 系统短信外发为手机短信方式登录、重置密码和消息告警等验证或通知,提供短信发送服务。 目前可选择配置“内置”和“自定义”两种类型,其中“自定义”类型还可选择通用“短信网关”和云短信网关。 “内置”由系统的短信网关来提供短信服务。 自定义通用“短信网关”,输入正确的URL地址和API参数后,可测试所填写服务器信息是否有效。 本小节主要介绍如何配置系统短信外发。 约束限制 “内置”短信网关不支持推送系统告警。 自定义通用“短信网关”支持推送系统告警。 自定义云短信网关不支持推送系统告警。云短信网关服务失效后,将自动切换为系统“内置”短信网关。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统管理
        系统配置
      • 功能类
        我在什么场景下使用本地盘? IO 密集型应用 : 大型关系数据库、NoSQL、ElasticSearch 等 IO 密集型应用,对存储延时要求低,可使用云服务器自带的 NVME SSD 本地盘类型,但需注意单点故障风险。 大数据型业务: EMR 等大数据处理业务,本身对延迟不敏感,且上层有数据冗余,可以容忍单点数据故障,可使用云服务器自带的 SATA HDD 本地盘类型。 分布式应用: NoSQL、MPP数据仓库、分布式文件系统等应用。这类应用本身具备分布式数据冗余能力,本地SATA SSD盘能够提供低时延、高随机IO、高吞吐量的IO性能,但需注意单点故障风险。 我在什么场景下使用云硬盘? 如果追求性价比,且要求中等随机读写性能以及高可靠性的云硬盘产品,推荐使用高IO,例如开发与测试业务、企业应用和系统盘等场景; 对IO要求高、超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统、 IO密集型应用、中小型关系数据库和NoSQL数据库等场景,推荐使用超高IO。 云硬盘支持缩容吗? 暂不支持。如需缩容可以考虑适当减少云硬盘数量。 云硬盘支持扩容吗? 支持数据盘和系统盘扩容。可以在ECX控制台云硬盘列表,选择操作更多磁盘扩容操作。
        来自:
        帮助文档
        智能边缘云
        常见问题
        功能类
      • 删除虚拟主机
        介绍分布式消息服务RabbitMQ删除虚拟主机的操作内容。 场景描述 在RabbitMQ中,删除虚拟主机(Virtual Host)的场景描述如下: 应用迁移或清理:当需要迁移应用或进行系统清理时,可能需要删除不再使用的虚拟主机。例如,如果某个应用已经停用或迁移到其他环境,可以删除相关的虚拟主机,以释放资源和减少管理工作。 安全审计和合规性要求:根据安全审计和合规性要求,可能需要删除不再需要的虚拟主机。例如,当某个虚拟主机涉及敏感数据或权限配置存在问题时,可以选择删除该虚拟主机以避免安全风险。 故障处理和恢复:在某些情况下,当虚拟主机发生故障或出现严重问题时,可能需要删除虚拟主机并重新创建。这可以作为一种故障处理和恢复的手段,以解决虚拟主机相关的问题并恢复正常运行。 系统资源管理和优化:如果虚拟主机过多或占用了过多的系统资源,可能需要删除一些不再使用或不需要的虚拟主机。这有助于优化系统资源的利用和提高整体性能。 需要注意的是,在删除虚拟主机之前,务必确保相关的队列、交换机和绑定等对象已经被删除或迁移。否则,删除虚拟主机可能会导致数据丢失或系统异常。 操作步骤 (1)在虚拟主机管理页面,在目标虚拟主机行点击“删除”,即可删除虚拟主机。 注意事项: 删除虚拟主机会删除该虚拟主机内所有数据且不可恢复,请谨慎操作。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        虚拟主机管理
        删除虚拟主机
      • KafkaProducer
        介绍APM监控详情里消息监控中的KafkaProducer相关指标的名称、含义等信息。 KafkaProducer监控指标说明表 指标类别 指标 指标说明 数据类型 异常 exceptionstacktrace 异常产生的堆栈信息 String 异常 exceptiontype 异常类型 String 异常 exceptioncount 错误数 Int Topic (Topic,Kafka的Topic监控数据) id Clientid和IP信息 Enum Topic (Topic,Kafka的Topic监控数据) topic Kafka的Topic名称 Enum Topic (Topic,Kafka的Topic监控数据) kafkaproducerbyterate 每秒发送字节 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerrecorderrorrate 每秒错误数 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerrecordretryrate 每秒重试数 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerrecordsendrate 每秒发送数 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerrecordsendtotal 总发送次数 Int Topic (Topic,Kafka的Topic监控数据) kafkaproducerbytetotal 总发送字节数 Int 汇总(Total,KafkaProducer汇总信息统计) kafkaproducerrecordsendtotal 总发送次数 Int 汇总(Total,KafkaProducer汇总信息统计) kafkaproducerbytetotal 总发送字节数 Int 发送方法(DoSendMethod,发送消息方法监控) topic Kafka的Topic名称 Enum 发送方法(DoSendMethod,发送消息方法监控) errorCount 错误数 Int 发送方法(DoSendMethod,发送消息方法监控) invokeCount 调用次数 Int 发送方法(DoSendMethod,发送消息方法监控) maxTime 最慢时延 Int 发送方法(DoSendMethod,发送消息方法监控) ms0To10Count 010ms次数 Int 发送方法(DoSendMethod,发送消息方法监控) ms10To100Count 10100ms次数 Int 发送方法(DoSendMethod,发送消息方法监控) ms100To500Count 100500ms次数 Int 发送方法(DoSendMethod,发送消息方法监控) ms500To1000Count 5001000ms次数 Int 发送方法(DoSendMethod,发送消息方法监控) ms1000To10000Count 110s次数 Int 发送方法(DoSendMethod,发送消息方法监控) msMorethan10000Count 10s以上次数 Int 发送方法(DoSendMethod,发送消息方法监控) totalTime 调用总耗时 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        消息监控
        KafkaProducer
      • 应用场景
        本文主要介绍应用场景 APM应用广泛,下面介绍APM的典型应用场景,以便您深入了解。 应用异常诊断 业务痛点 分布式微服务架构下的应用,虽然丰富多样且开发效率高,但是给传统运维诊断技术带来了巨大挑战。以电商为例,主要遇到如下问题: 定位问题难 客服人员接到用户反馈商品购买出现问题后,会交由技术人员排查解决。而微服务分布式架构中的一个业务请求通常要经过多个服务/节点后返回结果。一旦请求出现错误,往往要在多台机器上反复翻看日志才能初步定位问题,对简单问题的排查也常常涉及多个团队。 架构梳理难 在业务逻辑变得逐渐复杂以后,很难从代码层面去梳理某个应用依赖了哪些下游服务(数据库、HTTP API、缓存),以及被哪些外部调用所依赖。业务逻辑的梳理、架构的治理和容量的规划(例如促销活动的准备过程中,需要为每个应用准备多少台机器)也变得更加困难。 业务实现 APM提供大型分布式应用异常诊断能力,当应用出现崩溃或请求失败时,通过应用拓扑+调用链下钻能力分钟级完成问题定位。 可视化拓扑:应用拓扑自发现,异常应用实例无处躲藏。 调用链追踪:发现异常应用后,通过调用链一键下钻,代码问题根因清晰可见。 慢SQL分析:提供数据库、SQL语句的调用次数、响应时间、错误次数等关键指标视图,支持异常SQL语句导致的数据库性能问题分析。 应用体验管理
        来自:
        帮助文档
        应用性能管理
        产品介绍
        应用场景
      • 查看实例
        参数 说明 实例名称 RocketMQ实例名称是指在RocketMQ中创建的一个特定实例的名称。它可以用来唯一标识和区分不同的RocketMQ实例。根据RocketMQ的设计,实例名称通常由字母、数字和下划线组成,并且长度通常不超过255个字符。实例名称应该具有描述性,以便在多个RocketMQ实例存在时进行区分和管理。 实例ID RocketMQ实例ID是指在RocketMQ中创建的一个实例的唯一标识符。它是由系统自动生成的,用于区分不同的RocketMQ实例。实例ID可以用来管理和操作RocketMQ实例,例如创建、删除和修改实例等。实例ID通常由一串数字和字母组成,并且在RocketMQ集群中必须保持唯一性。 引擎类型 提供RocketMQ和CTGMQ两类引擎。 磁盘大小 购买实例选择的磁盘大小,通常为100G的整数倍。 磁盘类型 购买实例选择的磁盘类型,默认为SAS,也可选择更高的IO磁盘。 主机规格 购买实例选择的主机规格,主要展示CPU核数和内存大小,更多主机规格请参见产品规格。 broker节点数 RocketMQ的broker节点数是指在一个RocketMQ集群中扮演broker角色的节点数量。每个broker节点负责存储消息、处理消息的传输和消费者的请求等功能。 实例描述 用户根据需要可填写实例备注。 运行状态 实例当前运行状态,各状态描述见上文表格实例状态说明。 付费类型 创建实例时选择的付费类型,有包周期/按需两个选项。 创建时间 实例创建时间。 到期时间 包周期的实例到期时间,按需付费类型不展示。 专用网络 创建实例时绑定的VPC名称,详见订购前准备。 子网 创建实例时绑定的子网名称,详见订购前准备。 安全组 创建实例时绑定的安全组名称,详见订购前准备。 客户端协议 RocketMQ客户端协议是指在使用RocketMQ消息队列的应用程序与RocketMQ服务端之间进行通信和交互的协议规范。 网络 VPC专用网络。 接入点 接入点具体VPC内网IP。 TPS监控 标识该集群所有broker下,所有topic的生产、消费tps(2min)的时间变化曲线 流量监控 标识该集群下,所有topic的消费堆积情况,列表按倒叙排列了堆积量最大的前20个topic的堆积情况。 全局堆积 全局堆积是指消息在整个消息队列系统中的积压情况。 全局消息 标识该集群,所有topic的生产情况,按现有消息量倒叙排列。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        实例管理
        查看实例
      • RabbitMqProducer
        介绍APM监控详情里消息监控中的RabbitMqProducer相关指标的名称、含义等信息。 RabbitMqProducer监控指标说明表 指标类别 指标 指标说明 数据类型 异常 exceptionstacktrace 异常产生的堆栈信息 String 异常 exceptioncount 错误数 Int Exchange监控 messagedestination Exchange名 Enum Exchange监控 messageerrorcount 推送消息的错误次数 Int Exchange监控 messagecount 推送消息数 Int Exchange监控 messagetotalpayload 推送字节数 Int Exchange监控 Max(messagetotalpayload) 单次推送最大字节数 Int Exchange监控 messagemaxcost 推送消息的最大响应时间 Int Exchange监控 sum(messagecost) 推送消息的总响应时间 Int Total监控 messagetotalpayload 推送字节数 Int Total监控 messagecount 推送消息数 Int Total监控 messageerrorcount 推送消息的错误次数 Int Total监控 messagemaxcost 推送消息的最大响应时间 Int Total监控 sum(messagecost) 推送消息的总响应时间 Int Total监控 ms0To10Count 010ms次数 Int Total监控 ms10To100Count 10100ms次数 Int Total监控 ms100To500Count 100500ms次数 Int Total监控 ms500To1000Count 5001000ms次数 Int Total监控 ms1000To10000Count 110s次数 Int Total监控 msMorethan10000Count 10s以上次数 Int
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        消息监控
        RabbitMqProducer
      • 使用LTS触发器
        本章介绍函数工作流如何使用LTS触发器。 前提条件 已经创建函数。 已经创建LTS FullAccess权限的委托,创建过程请参见配置委托权限。 已经创建日志组,此处以LogGroup1为例,创建过程请参见云日志服务用户指南日志管理日志组。 已经创建,此处以LogTopic1为例,创建过程请参见云日志服务用户指南日志管理日志流。 创建LTS触发器 1、登录函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、选择“设置 > 触发器”,单击“创建触发器”,弹出“创建触发器”对话框。 4、设置以下信息。 触发器类型:选择“云日志服务(LTS)”。 日志组:选择已创建的日志组,例如:LogGroup1。 日志流:选择已创建的日志流,例如:LogStream1。 5、单击“确定”,完成LTS触发器的创建。 配置LTS事件触发函数 说明 当原始LTS事件消息超过75KB,会把原始LTS事件消息按照75KB维度拆分为多条消息触发执行函数。 1、返回函数工作流控制台,在左侧的导航栏选择“函数 > 函数列表”。 2、选择待配置的函数,单击进入函数详情页。 3、在函数详情页,选择函数版本。 4、在“代码”页签下,单击“测试”,弹出“配置测试事件”对话框。 5、填写如表所示测试信息后,单击“保存”。 表 测试信息 参数 说明 配置测试事件 可创建新的测试事件也可编辑已有的测试事件。选择默认值:“创建新的测试事件”。 事件模板 选择"ltseventtemplate"模板,使用系统内置LTS事件模板。 事件名称 事件名称必须以大写或小写字母开头,支持字母(大写或小写),数字和下划线“”(或中划线“”),并以字母或数字结尾,长度为125个字符,例如lts123test。 测试事件 自动加载系统内置lts事件模板,本例不做修改。 6、单击“测试”,可以得到函数运行结果,函数会返回输入LTS数据。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        使用LTS触发器
      • 通知外送
        配置项 说明 名称 日志外送接口的名称。必须为中文字符、字母、数字、“”、“.”或“”,长度不超过 64 字符。 Kafka节点地址 Kafka服务器的IP(域名)及端口号。例如:192.168.0.1:9200。 Kafka主题 消息投放到Kafka服务器的主题。 Kafka分区 消息投放到的Kafka服务器的分区。Kafka服务器通过主题(topic)、分区(partition)和消费组(consumergroup)三个概念灵活适应各种消息场合,通过提升硬件资源利用率提高系统吞吐量。 以上Kafka相关配置与服务器端保持一致即可。 审计日志模板 设置发送审计日志的模板,具体字段请依据填写说明编辑。 操作日志模板 设置发送操作日志的模板,具体字段请依据填写说明编辑。 告警日志模板 设置发送告警日志的模板,具体字段请依据填写说明编辑。 流量控制日志模板 设置发送流量控制日志的模板,具体字段请依据填写说明编辑。
        来自:
        帮助文档
        数据安全专区
        用户指南
        API安全网关操作指导
        通知外送
      • 集成简介
        集成类型 集成的服务名称 请求响应(RequestComplete) 等待系统回调(WaitForSystemCallback) 等待任务令牌(WaitForTaskToken) 优化集成 函数计算 yes no yes 优化集成 云工作流(CloudFlow) yes yes yes 优化集成 消息服务robotmsg yes no yes 优化集成 HTTP yes no yes 优化集成 对象存储 ZOS yes no no 普通集成 所有天翼云产品OpenAPI yes no no
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        工作流集成
        集成简介
      • 查看分区状态
        介绍分布式消息服务Kafka查看分区状态功能操作内容。 场景描述 Kafka查看分区状态的场景描述如下: 监控和故障排查:通过查看分区状态,可以了解每个分区的健康状况和数据处理情况。如果某个分区出现延迟或者数据丢失等问题,可以及时发现并进行故障排查和修复。 性能优化:通过查看分区状态,可以了解每个分区的负载情况和数据处理速度。如果某个分区负载过高或者处理速度较慢,可以采取相应的措施进行性能优化,如增加分区数量或者优化消费者的消费能力。 容量规划:通过查看分区状态,可以了解每个分区的数据大小和数据增长趋势。根据分区状态,可以进行容量规划,确保有足够的存储空间来存储数据,并预测未来的数据增长趋势。 数据迁移和重平衡:当需要进行数据迁移或者重平衡时,查看分区状态可以帮助确定合适的迁移方案和平衡策略。通过了解每个分区的状态和负载情况,可以更好地规划和执行数据迁移和重平衡操作。 容错和冗余管理:通过查看分区状态,可以了解每个分区的副本分布情况和数据冗余情况。如果某个分区的副本数量不足或者副本分布不均衡,可以采取相应的措施来提高数据的容错性和冗余能力。 总之,Kafka查看分区状态的场景包括监控和故障排查、性能优化、容量规划、数据迁移和重平衡,以及容错和冗余管理等,以确保系统的稳定性、性能和可靠性。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        查看分区状态
      • 删除Topic
        本节主要介绍分布式消息服务Kafka的删除Topic步骤 场景描述 在以下场景中,可以考虑删除Kafka主题: 主题不再使用:当一个主题不再被使用或者不再需要时,可以选择删除该主题。这可能是因为业务需求变化、数据不再有效或者主题被合并到其他主题中等原因。 数据保留策略变更:Kafka中可以设置数据保留策略,即数据在主题中的保留时间或者大小。当需要更改数据保留策略时,可能需要删除旧的主题并创建一个新的主题来应用新的策略。 清理测试数据:在测试环境中,经常需要清理旧的测试数据,以确保环境的可用空间和性能。当测试数据不再需要时,可以删除相应的主题来释放资源。 主题配置错误:在创建主题时,可能会出现配置错误或者误操作导致主题创建失败或者无法正常使用。在这种情况下,可以删除有问题的主题,并重新创建正确的主题配置。 需要注意的是,在删除主题之前,需要确保主题中的数据已经备份或者不再需要。删除主题将永久删除主题中的所有数据,并且无法恢复。因此,在删除主题之前,建议先进行备份或者确认数据不再需要。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后进入Topic管理页面。 (5)在Topic所在行,点击其右侧的“更多按钮”,再单击“删除”,并选择确定。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        删除Topic
      • 会中聊天
        在会议过程中,参会者可以发送和接收实时消息,支持群聊和一对一私聊。 功能说明 可选择发送消息给会中所有人或指定单个成员。当成员收到聊天消息时,底部工具栏的“聊天”按钮右上角会显示红色气泡提示有未读消息。 聊天窗口仅支持发送文字消息,不支持发送图片或文件。 主持人可管理聊天权限,包括限制部分参会者的聊天发送功能。 操作步骤 1. 进入会议后,点击工具栏中的“聊天”图标,打开右侧聊天窗口。 2. 在聊天窗口顶部的下拉框中选择消息接收对象(所有人或指定成员),也可以在成员列表中选择对应的成员后点击“私聊”。 3. 在输入框输入消息内容,点击发送按钮即可发送消息。 注意事项 请勿在聊天中发送违法或违规内容,保持良好会议秩序。 如果消息发送失败,请检查网络连接并重试。
        来自:
        帮助文档
        AOne会议
        用户指南
        会中聊天
      • 设置事件告警通知
        本节介绍如何在云监控服务开启弹性公网IP事件告警通知。 通过云监控服务,对防护的弹性公网IP启用事件监控,当出现清洗、封堵、解封等事件时进行告警,方便您及时了解防护情况。 开启事件告警通知后,出现相关事件时,即可在云监控服务的事件监控页面查看事件详情。 操作步骤 1. 登录管理控制台。 2. 选择区域。 3. 选择“管理与部署> 云监控服务”。 4. 根据实际选择方式。 方法一:在左侧导航树,单击“事件监控”,进入“事件监控”页面。 方法二:在左侧导航树,选择“告警> 告警规则”,进入“告警规则”页面。 5. 在页面右上方,单击“创建告警规则”,进入“创建告警规则”页面。 6. 配置告警参数。 参数 说明 名称 系统会随机产生一个名称,您也可以进行修改。 描述 告警规则描述。 告警类型 选择“事件”。 事件类型 选择“系统事件”。 事件来源 选择“弹性公网IP”。 监控范围 告警规则适用的资源范围,根据需要选择。 触发规则 选择“自定义创建”。 告警策略 推荐选择“EIP封堵”、“EIP解封”、“EIP开始DDoS清洗”、“EIP结束DDoS清洗”。 7. 根据实际需要,选择是否发送通知。 说明 告警消息由消息通知服务SMN发送,可能产生少量费用。 参数 说明 发送通知 根据实际需要设置。 通知对象 在下拉框选择已有主题,或单击“新建主题”创建新的通知主题。 生效时间 发送通知的生效时间。 触发条件 默认勾选“出现告警”,表示出现告警时,给设置的通知对象发送告警通知。 8. 参数配置完成后,单击“立即创建”。
        来自:
        帮助文档
        Anti-DDoS流量清洗
        用户指南
        设置事件告警通知
      • 步骤二:创建Kafka实例
        本文主要介绍 步骤二:创建Kafka实例。 前提条件 在创建Kafka实例前,需要保证存在可使用的虚拟私有云。创建方法,请参考《虚拟私有云 用户指南》的“创建虚拟私有云和子网”。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 操作步骤 步骤 1 登录分布式消息服务Kafka控制台,单击页面右上方的“购买Kafka实例”。 步骤 2 选择计费模式。 步骤 3 在“区域”下拉列表中,选择靠近您应用程序的区域,可降低网络延时、提高访问速度。 步骤 4 在“项目”下拉列表中,选择项目。 步骤 5 在“可用区”区域,根据实际情况选择1个或者3个及以上可用区。 步骤 6 设置“实例名称”和“企业项目”。 步骤 7 设置实例信息。 1. 版本:Kafka的版本号,支持1.1.0、2.3.0和2.7,根据实际情况选择,推荐使用2.7。 Kafka实例创建后,版本号不支持修改 。 2. CPU架构:支持“x86计算”,保持默认值即可。 3. 在“代理规格”中,请根据业务需求选择相应的代理规格。在“代理数量”中,选择代理个数。 单个代理最大分区数代理个数实例分区数上限。当所有Topic的总分区数大于实例分区数上限时,创建Topic失败。 4. 在“存储空间”区域,您根据实际需要选择存储Kafka数据的磁盘类型和总磁盘大小。 Kafka实例创建后,磁盘类型不支持修改 。 存储空间包含所有副本存储空间总和,建议根据业务消息体积以及副本数量选择存储空间大小。假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 5. 在“容量阈值策略”区域,设置磁盘使用达到容量阈值后的消息处理策略,容量阈值为95%。 自动删除:可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据存在丢失的风险。 生产受限:无法继续生产消息,但可以继续消费消息。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 图 创建Kafka实例 步骤 8 设置实例网络环境信息。 1. 在“虚拟私有云”下拉列表,选择已经创建好的虚拟私有云和子网。 说明 虚拟私有云和子网在Kafka实例创建完成后,不支持修改。 2. 在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对Kafka实例的访问规则的集合。您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 步骤 9 设置登录Kafka Manager的用户名和密码。创建实例后,Kafka Manager用户名无法修改。 Kafka Manager是开源的Kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 步骤 10 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤 11 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 “公网访问”默认为关闭状态,根据业务需求选择是否开启。开启公网访问后,还需要为每个代理设置对应的IPv4弹性IP地址。 图 设置公网访问开关 2. 设置“Kafka SASLSSL”。 客户端连接Kafka实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 “Kafka SASLSSL”默认为关闭状态,您可以选择是否开启。 Kafka实例创建后,Kafka SASLSSL开关不支持修改 ,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您可以选择是否开启“SASL PLAIN 机制”。未开启“SASL PLAIN 机制”时,使用SCRAMSHA512机制传输数据,开启“SASL PLAIN 机制”后,同时支持SCRAMSHA512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。Kafka实例创建后,SASL PLAIN机制开关不支持修改。 什么是SCRAMSHA512机制和PLAIN机制? SCRAMSHA512机制:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN机制:一种简单的用户名密码校验机制。 开启Kafka SASLSSL后,您需要设置连接Kafka实例的用户名和密码。 3. 设置“Kafka自动创建Topic”。 “Kafka自动创建Topic”默认为关闭状态,您可以选择是否开启。 开启“Kafka自动创建Topic”表示生产或消费一个未创建的Topic时,系统会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 4. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击“查看预定义标签”,跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个Kafka实例最多支持设置20个不同标签,标签的命名规格,请参考管理实例标签。 5. 设置实例的描述信息。 步骤 12 填写完上述信息后,单击“立即购买”,进入规格确认页面。 步骤 13 确认实例信息无误后,提交请求。 步骤 14 单击“返回Kafka专享版”,查看Kafka实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤二:创建Kafka实例
      • 在函数中如何访问其他服务?
        函数计算提供了一个统一的执行环境,使得您的函数能够无缝地访问和集成各种云服务和其他资源。 无论是天翼云提供的服务如消息服务、对象存储服务、数据库服务,还是您自建的服务,甚至是调用其他函数计算实例,这些操作在函数内部执行时,与您在本地环境中的操作体验是一致的。 要实现这些服务的访问,您需要确保您的函数代码中包含了必要的依赖库。这些依赖库应当与您的函数代码一起被打包,并上传至函数计算平台。一旦部署完成,您的函数就可以在执行时调用这些依赖库,从而与外部服务进行交互。
        来自:
        帮助文档
        函数计算
        常见问题
        访问其他服务
        在函数中如何访问其他服务?
      • 事件监控
        操作场景 介绍指导用户创建事件监控的告警通知。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击,选择“管理与部署 > 云监控服务”,进入“云监控服务”页面。 3. 在左侧导航栏选择“事件监控”,进入“事件监控”页面。 4. 在事件列表页面,单击页面右上角的“创建告警规则”。 5. 在“创建告警规则”界面,配置参数。 表1 告警内容参数说明 参数 参数说明 名称 系统会随机产生一个名称,用户也可以进行修改。 描述 告警规则描述(此参数非必填项)。 归属企业项目 可选择已有的企业项目,或单击“创建企业项目”进行创建。 告警类型 用于指定告警规则对应的告警类型。 事件类型 用于指定告警规则对应指标的事件类型。 事件来源 事件来源的云服务名称。选择云数据库GeminiDB。 监控范围 创建事件监控针对的资源范围。 选择类型 选择自定义创建。 告警策略 事件名称:用户操作系统资源的动作,如用户登录,用户登出,为一个瞬间的操作动作。事件监控支持的操作事件请参见本章节 事件监控支持的事件说明。用户根据需要选择触发方式、告警级别。 单击开启“发送通知”,生效时间默认为全天,若没有您想要选择的主题,可以单击下一行的“创建主题”进行添加。 表2 发送通知 参数 参数说明 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。 通知对象 需要发送告警通知的对象,可选择“云账号联系人”或主题。 云账号联系人:注册账号时的手机和邮箱。 主题:消息发布或客户端订阅通知的特定事件类型,若此处没有需要的主题,需先创建主题并订阅该主题。 生效时间 该告警规则仅在生效时间内发送通知消息。如生效时间为08:0020:00,则该告警规则仅在08:0020:00发送通知消息。 触发条件 出现告警 6. 配置完成后,单击“立即创建”,完成告警规则的创建。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        监控与告警
        事件监控
      • 使用SASL证书连接
        生产消息 进入Kafka客户端文件的“/bin”目录下,执行如下命令进行生产消息。 ./kafkaconsoleproducer.sh brokerlist ​{连接地址} topic 连接地址−−topic​{Topic名称} producer.config ../config/producer.properties 参数说明如下: 连接地址:从前提条件获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 示例如下,“10.3.196.45:9095,10.78.42.127:9095,10.4.49.103:9095”为Kafka实例连接地址。 执行完命令后,输入需要生产的消息内容,按“Enter”发送消息到Kafka实例,输入的每一行内容都将作为一条消息发送到Kafka实例。 [root@ecskafka bin] ./kafkaconsoleproducer.sh brokerlist 10.3.196.45:9095,10.78.42.127:9095,10.4.49.103:9095 topic topicdemo producer.config ../config/producer.propertiesHello DMS Kafka! ^C[root@ecskafka bin] 如需停止生产使用Ctrl+C命令退出。 消费消息 执行如下命令消费消息。 ./kafkaconsoleconsumer.sh bootstrapserver ​{连接地址} topic 连接地址−−topic​{Topic名称} group ${消费组名称} frombeginning consumer.config ../config/consumer.properties 参数说明如下: 连接地址:从前提条件获取的连接地址。 Topic名称:Kafka实例下创建的Topic名称。 消费组名称:根据您的业务需求,设定消费组名称。 如果已经在配置文件中指定了消费组名称,请确保命令行中的消费组名称与配置文件中的相同,否则可能消费失败 。 消费组名称开头包含特殊字符,例如下划线“”、 号“ ”时,监控数据无法展示。 示例如下: [root@ecskafka bin]
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤四:连接实例生产消费消息
        使用SASL证书连接
      • MRS作业简介
        本章节主要介绍MRS作业。 MRS作业简介 MRS作业是MRS为用户提供的程序执行平台,用于处理和分析用户数据。作业创建完成后,所有的作业列表信息展示在“作业管理”页面中,您可以查看所有的作业列表,也可以创建和管理作业。若集群详情页面不支持“作业管理”页签,请通过后台方式提交作业。 MRS集群处理的数据源来源于OBS或HDFS,HDFS是Hadoop分布式文件系统(Hadoop Distributed File System),OBS即对象存储服务,是一个基于对象的海量存储服务,为客户提供海量、安全、高可靠、低成本的数据存储能力。MRS可以直接处理OBS中的数据,客户可以基于管理控制台Web界面和OBS客户端对数据进行浏览、管理和使用,同时可以通过REST API接口方式单独或集成到业务程序进行管理和访问数据。 用户创建作业前需要将本地数据上传至OBS系统,MRS使用OBS中的数据进行计算分析。当然MRS也支持将OBS中的数据导入至HDFS中,使用HDFS中的数据进行计算分析。数据完成处理和分析后,您可以将数据存储在HDFS中,也可以将集群中的数据导出至OBS系统。需要注意,HDFS和OBS也支持存储压缩格式的数据,目前支持存储bz2、gz压缩格式的数据。 作业分类 目前MRS集群支持创建和管理如下几种类型的作业。如果处于“运行中”状态的集群创建作业失败,请查看集群管理页面中相关组件健康情况。操作方法,请参见查看和定制集群监控指标。 MapReduce:提供快速并行处理大量数据的能力,是一种分布式数据处理模式和执行环境。MRS当前支持提交MapReduce Jar程序。 Spark:基于内存进行计算的分布式计算框架,MRS当前支持提交SparkSubmit、Spark Script和Spark SQL作业。 −SparkSubmit:支持提交Spark Jar和Spark python程序,执行Spark application,计算和处理用户数据。 −SparkScript:支持提交SparkScript脚本,批量执行Spark SQL语句。 −Spark SQL:运用Spark提供的类似SQL的Spark SQL语言,实时查询和分析用户数据。 lHive:建立在Hadoop基础上的开源的数据仓库。MRS当前支持提交HiveScript脚本,和执行Hive SQL语句。 lFlink:提供一个分布式大数据处理引擎,可对有限数据流和无限数据流进行有状态计算。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        MRS作业简介
      • 1
      • ...
      • 24
      • 25
      • 26
      • 27
      • 28
      • ...
      • 531
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      推荐文档

      客户端下载

      产品定义

      概念

      天翼云用户DNS变更指导

      性能瓶颈定界

      Microsoft SQL Server

      修改数据库端口

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号