活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      安全生产_相关内容
      • ACL策略管理
        ACL 策略指为用户自定义的一组权限规则,允许/拒绝用户通过 IP 或网段 生产/消费 Topic 资源。当前提供有2种匹配方式: 1)预设策略:新建策略时不关联到Topic,新建或编辑Topic时可关联到该ACL策略。 2)前缀模糊匹配策略:前缀模糊匹配策略提供了一种高效的批量授权方式,特别适用于对具有相同前缀的多个Topic进行统一授权管理。当生产环境中存在遵循统一命名规范的Topic时(例如:项目相关Topic都以"project"开头,包括project1、projectb等),可以通过前缀模糊匹配策略快速完成授权配置。一次配置即可覆盖所有匹配前缀的Topic,包括后续新增的Topic。 创建ACL策略 (1)登录管理控制台,进入Kafka管理控制台。 (2)在实例列表页操作列,目标实例行单击“管理”>“用户管理”>“创建用户”。 (3)创建用户,输入用户密码后点击确认,完成用户的创建。如果已经创建了则可以跳过此步骤。 (4)单击”ACL策略管理”>“创建策略”进入配置 ACL 策略页面。 (5)选择其中一种匹配方式(预设策略或前缀模糊匹配)。 (6)如选择前缀模糊匹配策略,则输入Topic前缀字符串,将匹配所有以输入内容为前缀的Topic。 "匹配Topic"里展示的是当前已经匹配到的Topic,后面新建的Topic也能自动匹配上。 (7)输入规则名称,单击“添加规则”绑定策略对应的规则。 规则参数说明: 参数 说明 权限 ACL 策略的操作权限分为两类:允许和拒绝。 若只设置允许规则,则除允许的规则外的其他IP或网段都无法连接实例。 若只设置拒绝规则,则除拒绝的规则外的其他IP或网段需要设置了允许规则后才可以连接实例。 若同时设置允许规则和拒绝规则,则只有允许规则中的IP或网段可以连接实例,其他IP或网段都无法连接实例。 用户 选择需要设置权限的用户。 IP或网段 填写需要设置权限的 IP 或网段,用 ; 隔开,若 IP 为空,则默认为全部 IP 添加权限。 操作 选择策略生效的动作,即向 Topic 生产或消费消息。 自动应用后续所有新增topic 开启后,后续页面上创建的Topic会自动关联此规则,多个策略只允许一条策略开启。 (8)单击“确定”,完成 ACL 策略创建。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        ACL策略管理
      • 提交版本并解锁
        本章节主要介绍作业开发的 提交版本并解锁。 提交版本并解锁,涉及到数据开发的版本管理和编辑锁定功能。 版本管理:用于追踪脚本/作业的变更情况,支持版本对比和回滚。系统最多保留最近10条的版本记录,更早的版本记录会被删除。另外,版本管理还可用于区分开发态和生产态,这两种状态隔离,互不影响。 − 开发态:未提交版本的脚本/作业为开发态,仅用于个人调试开发。在开发态下,可以随意编辑、保存、运行脚本/作业,不会影响调度中的脚本/作业;另外在作业关联脚本、配置作业依赖时,被关联的脚本/作业均会读取开发态的配置。 − 生产态:提交后版本的脚本/作业为生产态,用于正式调度。在正式调度中,调用脚本、实例重跑、作业依赖、补数据等场景均是关联脚本/作业最新的已提交版本。 编辑锁定:用于避免多人协同开发脚本/作业时产生的冲突。新建或导入脚本/作业后,默认当前用户锁定脚本/作业,只有当前用户自己锁定的脚本/作业才可以直接编辑、保存或提交,通过“解锁”功能可解除锁定;处于解除锁定或他人锁定状态的脚本/作业,必须通过“抢锁”功能获取锁定后,才能继续编辑、保存或提交。 须知 当前脚本/作业的锁定状态可以通过脚本/作业的目录树查看。 对于已被他人锁定状态的脚本/作业,您需要通过重新打开该脚本/作业,查看最近的保存/提交时的内容。已打开的脚本/作业内容不会实时刷新。 在DataArts Studio更新编辑锁定功能前已经创建的脚本/作业,在更新后默认为解除锁定状态。您需要通过“抢锁”功能获取锁定后,才能继续编辑、保存或提交。 抢锁的操作依赖于软硬锁的处理策略。配置软硬锁的策略请参见配置默认项。 软锁:忽略当前作业或脚本是否被他人锁定,可以进行抢锁或解锁。 硬锁:若作业或脚本被他人锁定,则需锁定的用户解锁之后,当前使用人方可抢锁,空间管理员或DAYU Administrator可以任意抢锁或解锁。 不建议直接抢锁处于他人锁定状态的脚本/作业,这会导致他人的修改丢失。如果您有修改需求,请先联系锁定人将脚本/作业解锁,然后再抢锁。 详见下图:锁定状态转换图
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        提交版本并解锁
      • 提交版本并解锁
        本章节主要介绍脚本开发的提交版本并解锁。 提交版本并解锁,涉及到数据开发的版本管理和编辑锁定功能。 版本管理:用于追踪脚本/作业的变更情况,支持版本对比和回滚。系统最多保留最近10条的版本记录,更早的版本记录会被删除。另外,版本管理还可用于区分开发态和生产态,这两种状态隔离,互不影响。 − 开发态:未提交版本的脚本/作业为开发态,仅用于个人调试开发。在开发态下,可以随意编辑、保存、运行脚本/作业,不会影响调度中的脚本/作业;另外在作业关联脚本、配置作业依赖时,被关联的脚本/作业均会读取开发态的配置。 − 生产态:提交后版本的脚本/作业为生产态,用于正式调度。在正式调度中,调用脚本、实例重跑、作业依赖、补数据等场景均是关联脚本/作业最新的已提交版本。 编辑锁定:用于避免多人协同开发脚本/作业时产生的冲突。新建或导入脚本/作业后,默认当前用户锁定脚本/作业,只有当前用户自己锁定的脚本/作业才可以直接编辑、保存或提交,通过“解锁”功能可解除锁定;处于解除锁定或他人锁定状态的脚本/作业,必须通过“抢锁”功能获取锁定后,才能继续编辑、保存或提交。 须知 当前脚本/作业的锁定状态可以通过脚本/作业的目录树查看。 对于已被他人锁定状态的脚本/作业,您需要通过重新打开该脚本/作业,查看最近的保存/提交时的内容。已打开的脚本/作业内容不会实时刷新。 在DataArts Studio更新编辑锁定功能前已经创建的脚本/作业,在更新后默认为解除锁定状态。您需要通过“抢锁”功能获取锁定后,才能继续编辑、保存或提交。 抢锁的操作依赖于软硬锁的处理策略。配置软硬锁的策略请参见配置默认项。 软锁:忽略当前作业或脚本是否被他人锁定,可以进行抢锁或解锁。 硬锁:若作业或脚本被他人锁定,则需锁定的用户解锁之后,当前使用人方可抢锁,空间管理员或DAYU Administrator可以任意抢锁或解锁。 不建议直接抢锁处于他人锁定状态的脚本/作业,这会导致他人的修改丢失。如果您有修改需求,请先联系锁定人将脚本/作业解锁,然后再抢锁。 详见下图:锁定状态转换图
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        提交版本并解锁
      • OpenClaw(原Clawdbot)支持持久化存储配置
        本文介绍OpenClaw(原Clawdbot)持久化存储配置的内容。 前置说明 1.该文档为介绍通过应用托管应用市场体验OpenClaw 支持持久化存储配置的内容。 2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 概述 OpenClaw持久化存储,用户完成配置后,相关配置信息将持久化保存至存储中,实例重启后配置可完整保留不会丢失。以下为详细操作步骤。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
        来自:
        帮助文档
        应用托管
        最佳实践
        部署OpenClaw(原Clawdbot)
        OpenClaw(原Clawdbot)支持持久化存储配置
      • 安全违规信息类型说明
        危害网络安全类内容 包括但不限于以下违规内容的信息: 利用系统漏洞、捆绑软件、网页挂马、电子邮件、即时聊天工具等途径传播病毒、木马、钓鱼信息等有害程序,可能对用户的正常运行造成损害或中断; 利用网络技术手段或者分享网络技术手段对计算机系统、网络或设备进行破坏、干扰、窃取等违法犯罪行为,包含黑客攻击技术、黑客工具、违规跨境加速或传输服务/软件/教程、违规提供 DNS 解析服务、开展虚拟币“挖矿等违法违规活动。 相关法律法规参考:《中华人民共和国网络安全法》、《计算机信息网络国际互联网安全保护管理办法》、《中国公用计算机互联网国际联网管理办法》、《国际通信出入口局管理办法》、《中华人民共和国刑法》、《关于办理扰乱无线电通讯管理秩序等刑事案件适用法律若干问题的解释》、《中华人民共和国治安管理处罚法》、《关于依法办理非法生产销售使用“伪基站”设备案件的意见》。 违法活动及违禁化学品类 包括但不限于以下违规内容的信息: 发布网络雇凶、网络雇佣追债等违法事件行为。 发布拐卖妇女、儿童、买卖人体器官、提供赴港代孕中介服务、亲子鉴定服务、胎儿鉴定服务等。 发布国家禁止出售的化学品的交易信息,包括但不限于毒品、剧毒化学品、禁止出售的危险化学品、精神类等)。 发布或者存储国家禁止出售的违禁商品/器具类及其相关教程、书籍的交易信息,包括但不限于易燃易爆品、军警服装、管制刀具等)。 相关法律法规参考:《中华人民共和国刑法》、《易制毒化学品管理条例》、《中华人民共和国药品管理法》、《中华人民共和国药品管理法实施条例》、《中华人民共和国禁毒法》、《反兴奋剂条例》、《药品注册管理办法》、《放射性药品管理办法》、《中药品种保护条例》、《麻醉药品和精神药品管理条例》、《互联网药品信息服务管理办法》、《危险品管理条例》等相关法律法规的规定。
        来自:
        帮助文档
        法律声明
        安全管控规则
        安全管控规则
        云平台安全规则细则
        安全违规信息类型说明
      • 消息轨迹
        场景描述 消息轨迹记录了一条消息从生产端到消息队列RocketMQ服务端,再到消费端的整个过程,包括各阶段的时间、执行状态等。 使用说明 客户端SDK默认不开启消息轨迹功能,需要在消息收发时主动开启消息轨迹,以Java为例,如下所示: 生产者启用消息轨迹: DefaultMQProducer producer new DefaultMQProducer("ProducerGroupName",new AclClientRPCHook(new SessionCredentials("控制台角色AK","控制台角色CK")),true,null); 消费者启用消息轨迹: DefaultMQPushConsumer consumer new DefaultMQPushConsumer( "ConsumerGroupName" ,newAclClientRPCHook( new SessionCredentials( "控制台角色AK" ,"控制台角色CK" ) ) ,newAllocateMessageQueueAveragely() ,true ,null); 消息轨迹的查询方式 1. 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2. 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3. 进入实例列表,点击【管理】按钮进入管理菜单。 4. 根据查询结果,查看消息轨迹。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        管理消息
        消息轨迹
      • 生产者实践
        Batch Batch 的基本思路是:把消息缓存在内存中,并进行打包发送。Kafka 通过 Batch 来提高吞吐,但同时也会增加延迟,生产时应该对两者予以权衡。 在构建 Producer 时,需要考虑以下两个参数: batch.size : 发往每个分区(Partition)的消息缓存量(消息内容的字节数之和,不是条数)达到这个数值时,就会触发一次网络请求,然后客户端把消息真正发往服务器; linger.ms : 每条消息待在缓存中的最长时间。若超过这个时间,就会忽略 batch.size 的限制,然后客户端立即把消息发往服务器。 由此可见,Kafka 客户端什么时候把消息真正发往服务器,是通过上面两个参数共同决定的。batch.size 有助于提高吞吐,linger.ms有助于控制延迟。您可以根据具体业务需求进行调整。 OOM 结合 Kafka 的 Batch 设计思路,Kafka 会缓存消息并打包发送,如果缓存太多,则有可能造成 OOM(Out of Memory)。 buffer.memory : 所有缓存消息的总体大小超过这个数值后,就会触发把消息发往服务器。此时会忽略 batch.size 和 linger.ms 的限制。 buffer.memory 的默认数值是 32 MB,对于单个 Producer 来说,可以保证足够的性能。需要注意的是,如果你在同一个 JVM 中启动多个 Producer,那么每个 Producer 都有可能占用 32 MB 缓存空间,此时便有可能触发 OOM。 在生产时,一般没有必要启动多个 Producer;如果特殊情况需要,则需要考虑buffer.memory的大小,避免触发 OOM。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        生产者实践
      • (可选)步骤三:创建Topic
        本文主要介绍步骤三:创建Topic。 Topic,即消息主题。创建Kafka实例成功后,如果没有开启“Kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。如果实例开启了“Kafka自动创建Topic”,则该操作为可选,在进行生产时,会自动创建一个Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 本文主要介绍手动创建Topic的操作,有以下三种方式,您可以根据实际情况选择任意一种方式: 方式1:在控制台创建 方式2:在Kafka Manager创建 方式3:在Kafka客户端上创建 方式1:在控制台创建 步骤 1 登录分布式消息服务Kafka控制台,选择Kafka实例所在的区域。 步骤 2 在“Kafka专享版”页面,单击Kafka实例的名称,进入实例详情页面。 步骤 3 在“Topic管理”页签,单击“创建Topic”,弹出“创建Topic”对话框。 步骤 4 填写Topic名称和配置信息,单击“确定”,完成创建Topic。 方式2:在Kafka Manager创建 登录Kafka Manager后,在页面顶部选择“Topic > Create”,然后按照界面参数填写即可。 注意 Topic名称开头包含特殊字符,例如下划线“”、 号“ ”时,监控数据无法展示。 方式3:在Kafka客户端上创建 仅在Kafka客户端版本为2.2以上 时,支持通过kafkatopics.sh创建Topic,以及管理Topic的各类参数。 注意 Topic名称开头包含特殊字符,例如下划线“”、
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        (可选)步骤三:创建Topic
      • 智算场景NVIDIA GPU镜像组件的安装指南
        5.2 用户升级内核前的准备工作 在生产环境中,建议在进行升级之前进行测试和备份,以确保系统的稳定性和可用性,注意以下几点: ● 备份重要数据:防止意外数据丢失的预防措施。 ● 确保网络连接:下载所需文件和更新。 ● 确认当前系统信息:了解当前内核版本和系统配置。 5.3 用户升级内核方法 使用包管理器APT(Advanced Package Tool)进行内核升级是最简单的方法。进行任何系统更改之前,务必备份重要数据和配置文件,以防意外发生。 查看当前内核版本: uname r 升级步骤如下: (1)更新软件包列表,确保软件包列表是最新的: sudo apt update y (2)升级现有软件包: sudo apt upgrade y (3)搜索可用的内核版本: apt list grep linuximage 查看可用版本 apt list installed grep linuximage 查看已安装版本 (4)安装新内核: sudo apt install linuximage 例如sudo apt install linuximage5.4.0159generic,确保 替换为选择的内核版本号 (5)更新引导加载程序: sudo updategrub 内核升级后需要更新引导加载程序,以便在启动时可以选择新的内核版本。 (6)重新启动系统: 内核升级完成后,重新启动系统,以使更改生效。 reboot (7)验证新内核版本 uname r 5.4 用户升级内核后的注意事项 注意事项: ● 验证内核版本:在重启后,使用 uname r 命令来确保您已经成功切换到了新的内核版本。 ● 检查硬件兼容性:新内核可能会影响硬件兼容性。确保您的硬件(如GPU、网卡等)与新内核兼容。如果您遇到问题,请查看硬件制造商的支持文档。 ● 备份数据:在进行内核升级前,始终备份重要数据。虽然内核升级通常不应影响数据,但出现问题时,数据丢失可能是一种风险。 ● 旧内核保留:通常,旧内核版本不会立即被删除,它们会保留在系统中。这可以用来回滚到旧内核,如果新内核出现问题。 ● 测试系统:在升级后,测试系统以确保所有功能正常工作,特别是与硬件相关的功能。 ● 查阅文档:在执行内核升级之前,查阅官方文档和Ubuntu社区以获取与您特定情况相关的信息和指导。 一些建议: ● 备份配置文件:在升级内核之前,确保备份系统的重要配置文件,例如/etc目录下的文件。这可以帮助您在出现问题时快速还原系统配置。 ● 监控性能:在升级后,监控系统性能,特别是在处理高负载任务时。新内核可能会影响性能,因此及时发现和解决性能问题是重要的。 ● 检查第三方驱动程序:如果您使用第三方硬件驱动程序(如NVIDIA的闭源驱动程序),请确保这些驱动程序与新内核版本兼容。您可能需要更新这些驱动程序以确保它们与新内核一起正常工作。 ● 查看系统日志:定期查看系统日志文件(通常位于/var/log目录下)以获取关于系统健康状况的信息。如果出现与内核相关的错误消息,您可以进一步研究和解决问题。 ● 安全性更新:内核升级通常包括修复安全漏洞的更新。因此,定期升级内核是维护系统安全性的重要一部分。 最重要的是,内核升级应该谨慎进行,特别是在生产环境中。在升级之前,确保您了解新内核版本的特性、改进和潜在问题,并在非关键系统上进行测试,以减小潜在的风险。在升级内核时,持续监控系统,并准备好应对可能出现的问题。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        智算场景NVIDIA GPU镜像组件的安装指南
      • 产品功能
        功能 功能描述 应用 Serverless应用中心提供应用创建和导入功能,支持多种业务场景。您可以根据业务情况选择合适的应用。 环境 环境提供基础设施的管理能力。您可以通过环境隔离服务,例如不同地域、不同VPC间服务隔离,实现生产服务的高可用或者低延迟。 流水线 Serverless应用中心提供基础的流水线功能,允许用户以高自由度编辑并运行流程,以便于将代码部署到Serverless应用中。
        来自:
        帮助文档
        函数计算
        产品介绍
        产品功能
      • 实例类型
        实例类型 简介 使用说明 单机版 采用单个数据库节点部署架构,具有高性价比。 适用于小型应用场景或开发测试环境,成本较低。但存在单点故障的风险,故障恢复方面需要自行负责,无法保障及时恢复。 一主一备 采用一主一备的高可用架构,具备高可靠性,支持故障中断后自动切换。不支持访问备实例。 适用于大中型企业的生产场景,例如企业IT、政府、金融和医疗等行业。
        来自:
        帮助文档
        关系数据库SQL Server版
        产品介绍
        实例说明
        实例类型
      • 权限控制相关
        本小节介绍权限控制相关的常见问题。 客户SSL VPN接入之后,是否能够做到文档权限只能浏览不能下载? VPN Web或者L3VPN接入无法控制应用的内容权限控制。如果客户是出于保密的需求,可以引导使用VDI的桌面云或应用虚拟化技术,所有资源都只能浏览,不能下载。 是否可以做到SSL VPN拨号之后,不允许访问互联网? VPN专线就可以实现,EC和aWork都支持,用户拨号进入VPN之后,不允许访问本地局域网,增强安全性。 SSL VPN与CAS对接认证的场景下,用户角色授权如何实现? CAS认证支持组映射和角色映射。(自M766R1版本开始支持)。 能否限制某个资源只能够从指定IP接入访问? 背景:客户内网有OA和财务系统,OA类的系统在办公网,财务类的系统在生产网,平时访问财务系统都需要切换网线,比较麻烦,打算用VPN统一发布内网业务系统,但要求财务系统通过VPN也只能够在内网使用。 解决方案:维护两套账号,普通账号只能访问OA,不限制接入网络;财务账号可以访问财务系统,但限制接入IP必须是内网。
        来自:
        帮助文档
        SSL VPN
        常见问题
        其他操作类
        权限控制相关
      • 生产消费验证
        本文介绍分布式消息服务RocketMQ入门指引的生产消费验证内容。 背景信息 RocketMQ的生产消费验证是指在使用RocketMQ进行消息生产和消费时的验证过程。具体而言,验证包括以下几个方面: 生产者验证:RocketMQ提供了丰富的生产者API,开发人员可以使用这些API将消息发送到RocketMQ的消息队列中。在验证阶段,可以通过发送消息并检查返回结果来确保消息成功发送到Broker节点。此外,生产者还应该验证消息的顺序性、事务性以及可靠性等方面。 消费者验证:RocketMQ的消费者可以订阅特定的消息主题,从而消费这些主题下的消息。在验证阶段,消费者应该能够正确地从Broker节点拉取消息并进行消费处理。消费者还可以验证消息的顺序性、重试机制以及消息过滤等功能。 操作步骤 1、 天翼云官网点击控制中心,选择产品分布式消息服务RocketMQ。 2、 登录分布式消息服务RocketMQ控制台,点击右上角地域选择对应资源池。 3、 进入实例列表,点击【管理】按钮进入管理菜单。 4、 进入Topic管理菜单,点击【拨测】按钮,进行生产消费的拨测验证,验证开通的消息实例和主题。 1)生产测试拨测: 选择消息类型,默认普通消息。 填写需要产生的测试消息数量,以及每条消息的大小,默认每条消息1KB,建议不超过4MB(4096KB)。 选择已建的消息主题,若无选项,请新增主题,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生测试消息数据,展示消息数据的信息,包括消息ID(messageID)、发送状态、主题名(topic名)、Broker名、队列ID。 拨测功能涉及消息发送状态码,以下是RocketMQ消息发送状态码及其说明: ✧ SENDOK(发送成功):表示消息成功发送到了消息服务器。 ✧ FLUSHDISKTIMEOUT(刷新磁盘超时):表示消息已经成功发送到消息服务器,但是刷新到磁盘上超时。这可能会导致消息服务器在宕机后,尚未持久化到磁盘上的数据丢失。 ✧ FLUSHSLAVETIMEOUT(刷新从服务器超时):表示消息已经成功发送到消息服务器,但是刷新到从服务器上超时。这可能会导致主从同步不一致。 ✧ SLAVENOTAVAILABLE(从服务器不可用):表示消息已经成功发送到消息服务器,但是从服务器不可用。这可能是由于网络故障或从服务器宕机引起的。 ✧ UNKNOWNERROR(未知错误):表示发送消息时遇到了未知的错误。一般情况下建议重试发送消息。 ✧ MESSAGESIZEEXCEEDED(消息大小超过限制):表示消息的大小超过了消息服务器的限制。需要检查消息的大小是否合适。 ✧ PRODUCETHROTTLE(消息生产被限流):表示消息生产者的频率超出了消息服务器的限制。这可能是由于消息发送频率过高引起的。 ✧ SERVICENOTAVAILABLE(服务不可用):表示消息服务器不可用。这可能是由于网络故障或者消息服务器宕机引起的。 请注意,以上状态码仅适用于RocketMQ消息发送阶段,并且不代表消息是否成功被消费者接收。同时,这些状态码也可能因版本变化而有所不同,建议查阅官方文档获取最新信息。 2)消费测试拨测: 选择消息顺序,下拉选择无序/有序,默认选项为无序。 RocketMQ是一种开源的分布式消息中间件,它支持有序消息和无序消息。 ✧ 有序消息是指消息的消费顺序与发送顺序完全一致。在某些业务场景下,消息的处理需要保证顺序性,例如订单的处理或者任务的执行。RocketMQ提供了有序消息的支持,通过指定消息的顺序属性或使用消息队列的分区机制,可以确保消息按照指定的顺序进行消费。 ✧ 无序消息则是指消息的消费顺序与发送顺序无关。无序消息的特点是高吞吐量和低延迟,适用于一些不要求严格顺序的业务场景,如日志收集等。 在RocketMQ中,有序消息和无序消息的实现方式略有不同。有序消息需要借助MessageQueue的分区机制和消费者端的顺序消息消费来实现。而无序消息则是通过消息的发送和接收的并发处理来实现的。 总的来说,RocketMQ既支持有序消息也支持无序消息,根据业务需求选择合适的消息类型来满足业务的要求。 选择消费方式,目前仅提供pull方式。值得注意的是,RocketMQ还提供了推送(push)方式的消费模式,其中消息队列服务器会主动将消息推送给消费者。但在当前仅限于pull方式的消费模式。 填写消费数量。 下拉选择选择已建的消息主题和订阅组,若无选项,请新增主题和订阅组,详见上文创建主题和订阅组。 点击【测试】按钮,按照已填写规格及数量产生消费数据,展示消息数据的信息,包括消息ID(messageID)、主题名称(topicName)、生成时间、存储时间、队列ID、消费状态。 拨测功能涉及消息消费状态码,RocketMQ消费状态码是指在消息消费过程中,对消费结果进行标识的状态码。以下是常见的RocketMQ消费状态码: ✧ CONSUMESUCCESS(消费成功):表示消息成功被消费。 ✧ RECONSUMELATER(稍后重试):表示消费失败,需要稍后再次进行消费。 ✧ CONSUMEFAILURE(消费失败):表示消息消费出现异常或失败。 ✧ SLAVENOTAVAILABLE(从节点不可用):表示消费者无法访问从节点来消费消息。 ✧ NOMATCHEDMESSAGE(无匹配的消息):表示当前没有匹配的消息需要消费。 ✧ OFFSETILLEGAL(偏移量非法):表示消费的偏移量参数不合法。 ✧ BROKERTIMEOUT(Broker超时):表示由于Broker超时导致消费失败。 5、 用户应用按照规范接入RocketMQ,发送、消费消息。 1)生产者示例API 以下适用于南京3、上海7、重庆2、乌鲁木齐27、保定、石家庄20、内蒙6、晋中、北京5节点。 ctgmq引擎版本,SDK下载方式详见环境准备其他工具章节。 package com.ctg.guide; import com.ctg.mq.api.CTGMQFactory; import com.ctg.mq.api.IMQProducer; import com.ctg.mq.api.PropertyKeyConst; import com.ctg.mq.api.bean.MQMessage; import com.ctg.mq.api.bean.MQSendResult; import com.ctg.mq.api.exception.MQException; import com.ctg.mq.api.exception.MQProducerException; import java.util.Properties; / Producer,发送消息 / public class Producer { public static void main(String[] args) throws InterruptedException, MQException { Properties properties new Properties(); properties.setProperty(PropertyKeyConst.ProducerGroupName, "producergroup"); properties.setProperty(PropertyKeyConst.NamesrvAddr, "10.50.208.1:9876;10.50.208.2:9876;10.50.208.3:9876"); properties.setProperty(PropertyKeyConst.NamesrvAuthID, "app4test"); properties.setProperty(PropertyKeyConst.NamesrvAuthPwd, ""); properties.setProperty(PropertyKeyConst.ClusterName, "defaultMQBrokerCluster"); properties.setProperty(PropertyKeyConst.TenantID, "defaultMQTenantID"); IMQProducer producer CTGMQFactory.createProducer(properties);//建议应用启动时创建 int connectResult producer.connect(); if(connectResult ! 0){ return; } for (int i 0; i mqResultList) { //mqResultList 默认为1,可通过批量消费数量设置 for(MQResult result : mqResultList) { //TODO System.out.println(result); } return ConsumerTopicStatus.CONSUMESUCCESS;//对消息批量确认(成功) //return ConsumerTopicStatus.RECONSUMELATER;//对消息批量确认(失败) } }); } } 以下适用于华东1、华北2、西南1、华南2、上海36、青岛20、长沙42、南昌5、武汉41、杭州7、西南2贵州、太原4、郑州5、西安7、呼和浩特3节点。 rocketmq引擎版本,SDK下载方式详见环境准备其他工具章节。 importorg.apache.rocketmq.client.consumer.DefaultMQPushConsumer; importorg.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus; importorg.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently; importorg.apache.rocketmq.client.exception.MQClientException; publicclassPushConsumer{ public static void main(String[] args) throws Exception{ AclClientRPCHook rpcHook newAclClientRPCHook(newSessionCredentials(ACCESSKEY, SECRETKEY)); DefaultMQPushConsumer consumer new DefaultMQPushConsumer(rpcHook); consumer.setConsumerGroup("ConsumerGroupName"); // 填入元数据地址 consumer.setNamesrvAddr("XXX:xxx"); ; //如果需要开启SSL,请增加此行代码 consumer.subscribe("YOUR TOPIC",""); consumer.registerMessageListener((MessageListenerConcurrently)(msgs, context)>{ System.out.printf("%s Receive New Messages: %s %n",Thread.currentThread().getName(), msgs); returnConsumeConcurrentlyStatus.CONSUMESUCCESS; }); consumer.start(); System.out.printf("Consumer Started.%n"); } } 示例参数说明: Namesrv地址 Namesrv地址可从控制台查看,多个地址按分号分隔。 应用用户和密码 这个应用用户和密码就是控制台创建的应用用户和密码。 租户id和集群名 集群名和租户id可以从应用用户管理查询。 订阅组 消费组名需要在控制台提前创建好。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        快速入门
        生产消费验证
      • 消费阻塞以及堆积
        消费端最常见的问题就是消费堆积,最常造成堆积的原因是: 消费速度跟不上生产速度,此时应该提高消费速度,详见下一节《提高消费速度》。 消费端产生了阻塞。 消费端拿到消息后,执行消费逻辑,通常会执行一些远程调用,如果这个时候同步等待结果,则有可能造成一直等待,消费进程无法向前推进。 消费端应该竭力避免堵塞消费线程,如果存在等待调用结果的情况,建议设置等待的超时时间,超时后作消费失败处理。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        消费者实践
        消费阻塞以及堆积
      • Kafka性能调优
        3. 生产者配置优化 以下部分重点介绍一些用于优化 Kafka 生产者性能的最重要通用配置属性。 批大小 Kafka生产者将作为一个单元发送的消息组(称为批)汇编到一起,以将其存储在单个存储分区中。批大小表示在传输该组之前必须达到的字节数。增大 batch.size 参数可以提高吞吐量,因为这可以降低网络和 IO 请求的处理开销。负载较轻时,增大批大小可能会增大 Kafka 发送延迟,因为生产者需要等待某个批准备就绪。负载较重时,建议增大批大小以改善吞吐量和延迟。 生产者确认参数 生产者所需的acks 配置确定在将某个写入请求视为已完成之前,分区领先者所需的确认数目。此设置会影响数据可靠性,其值为 0、1 或 1。值 1 表示必须收到所有副本的确认,才能将写入请求视为已完成。设置 acks 1 能够更可靠地保证数据不会丢失,但同时也会导致延迟增大,吞吐量降低。如果应用场景要求提供较高的吞吐量,请尝试设置 acks 0 或 acks 1。请记住,不确认所有副本可能会降低数据可靠性。 压缩 可将Kafka生产者配置为先压缩消息,然后再将消息发送到代理。compression.type 设置指定要使用的压缩编解码器。支持的压缩编解码器为“gzip”、“snappy”和“lz4”。如果磁盘容量存在限制,则压缩是有利的做法,应予以考虑。 在 gzip 和 snappy 这两个常用的压缩编解码器中,gzip 的压缩率更高,它可以降低磁盘用量,但代价是使 CPU 负载升高。snappy 编解码器的压缩率更低,但造成的 CPU 开销更低。可以根据代理磁盘或生产者的 CPU 限制来决定使用哪个编解码器。gzip 数据压缩率比 snappy 高 5 倍。 使用数据压缩会增加磁盘中可存储的记录数。如果生产者与代理使用的压缩格式不匹配,则数据压缩也会增大CPU开销。因为数据在发送之前必须经过压缩,并在处理之前经过解压缩。 4. 代理设置 以下部分重点介绍一些用于优化 Kafka 代理性能的最重要设置。
        来自:
        帮助文档
        翼MapReduce
        最佳实践
        Kafka性能调优
      • 事件总线概述
        事件总线负责接收事件源生产的事件。 事件总线EventBridge的事件总线包括以下类型: 云服务专用事件总线:一个无需创建与不可修改的内置官方事件总线,用于接收天翼云官方事件源的事件。天翼云官方事件源的事件只能发布到云服务专用事件总线。 自定义事件总线:需自行创建并管理的事件总线,用于接收自定义应用的事件。自定义应用事件只能发布到自定义事件总线。
        来自:
        帮助文档
        事件总线
        用户指南
        事件总线
        事件总线概述
      • 操作类
        消息创建时间在哪设置? 消息创建时间是在生产消息时由生产客户端设置。 RabbitMQ是否支持跨Region部署? 不支持跨Region部署。 如何清空队列数据? (1)进入“分布式消息服务RabbitMQ”控制中心; (2)在“实例列表”页面点击对应的RabbitMQ实例; (3)在“队列管理”页面点击要清空的队列; (4)在“清除消息”页面点击清空队列。 RabbitMQ支持升级CPU和内存吗? RabbitMQ支持扩容规格。 如何设置Message ID? 如需追踪和识别消息,可以在分布式消息服务RabbitMQ的Producer客户端设置Message ID属性,为每条消息设置唯一标识符。 在分布式消息服务RabbitMQ的Producer客户端设置Basic.Properties的messageid属性。示例代码如下: AMQP.BasicProperties props newAMQP.BasicProperties.Builder().messageId("messageid").build(); channel.basicPublish("ExchangeName","RoutingKey",true, props,("消息发送Body").getBytes()); Message ID(消息标识符)是消息的可选属性,类型为String。Message ID在业务上通常被设置为唯一,适用于追踪和识别销售单、工单等需要保证消息唯一的场景。分布式消息服务RabbitMQ服务端不会对消息进行幂等处理。如需实现消息幂等,即如果消息重试多次,消费者端对该重复消息消费多次与消费一次的结果是相同的,并且多次消费没有对系统产生副作用,在为每条消息设置唯一Message ID的基础上,还需要在分布式消息服务RabbitMQ的Consumer客户端对消息进行幂等处理。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        常见问题
        操作类
      • 环境变量
        概述 API分组环境变量用于在不同的环境(生产,测试,开发)中引用同一个环境变量中不同的值,从而可以灵活引用变量。通常用于动态调整配置项,比如数据库连接、外部服务的 URL、认证密钥等。这减少了硬编码,并使得应用程序能够根据部署环境自动适应配置变化。 创建环境变量 1. 进入API托管>分组管理菜单页 2. 点击环境变量管理,进入环境变量管理页,在对应的环境tab页下点击新增环境变量按钮,填写变量名和变量值进行创建。 注意 每个环境下允许最多创建50个变量;创建同名环境变量时会覆盖已有环境变量值。 删除环境变量 用户可以对环境下的环境变量进行删除操作。注意:删除前请先确保该环境变量没有在API定义中使用。 使用环境变量 创建了环境变量后,可以在API定义中在请求Path、入参默认值、后端服务地址部分加入变量,以 变量名 表示,如请求path可以填写“/ version ”。 当该API定义发布到该环境时,API定义中的变量就会取值对应的变量值,即发布过程中变量标识会被相应环境的变量值替换。例如在生产环境中定义了变量version的值为v1,则上述API的请求path会被解析为/v1。 注意 1. 变量名严格区分大小写。 2. 如果在API定义中设置了变量,那么一定要在要发布的环境上配置变量名&变量值,否则变量无赋值,API将无法正常调用。 3. API调试暂不支持进行环境变量解析。
        来自:
        帮助文档
        微服务引擎
        用户指南
        云原生网关
        API托管
        分组管理
        环境变量
      • 通过智能管理面板配置OpenClaw
        本文介通过智能管理面板配置绍OpenClaw的内容。 前置说明 1.该文档为介绍通过应用托管应用市场体验OpenClaw 智能管理面板的内容。 2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 概述 OpenClaw智能管理面板是集网关连接、模型配置、会话交互、日志调试、节点管理于一体的可视化操作界面。面板采用轻量化侧边栏布局,功能模块划分清晰,保障 AI 智能体的高效使用。以下为详细操作步骤。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
        来自:
        帮助文档
        应用托管
        最佳实践
        部署OpenClaw(原Clawdbot)
        通过智能管理面板配置OpenClaw
      • 通过智能管理面板配置OpenClaw(1)
        本文介通过智能管理面板配置绍OpenClaw的内容。 前置说明 1.该文档为介绍通过应用托管应用市场体验OpenClaw 智能管理面板的内容。 2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 概述 OpenClaw智能管理面板是集网关连接、模型配置、会话交互、日志调试、节点管理于一体的可视化操作界面。面板采用轻量化侧边栏布局,功能模块划分清晰,保障 AI 智能体的高效使用。以下为详细操作步骤。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
        来自:
      • 产品咨询
        资产数是什么? 资产数表示云堡垒机管理的虚拟机等设备上运行的资源数,资源数是同一个虚拟机对应的需要运维的协议和应用总数。 受CBH资产版本规格限制,CBH系统管理的资源总数,不能超过当前版本规格的 资产数 。 资产数不以CBH系统所管理虚拟机等设备的数量计算,而是以所管理虚拟机上资源的数量计算,一个虚拟机内可能有多种资源形式,包括不同协议的主机,不同类型的应用等。 例如,目前有一台虚拟机,在云堡垒机中添加这台虚拟机的资源,分别添加了2个RDP、1个TELNET和1个MySQL协议的主机资源,以及1个Chrome浏览器的应用资源,那么当前管理的资产数即为5,而不是1。 并发数是什么? 并发数是指云堡垒机上同一时刻连接的运维协议连接数。 云堡垒机系统对登录用户数没有限制,可无限创建用户。但是同时刻不同用户连接协议总数,不能超过当前版本规格的并发数 。 例如,10个运维人员同时通过云堡垒机运维设备,假设平均每个人产生5条协议连接(例如通过SSH客户端、MySQL客户端进行远程连接),则并发数等于50。 云堡垒机支持统一管理企业ERP上云、SAP上云等业务吗? 支持。 云堡垒机与云上业务网络通畅情况下,可通过安装应用发布服务器,依赖Windows系统的远程桌面服务,接入ERP生产系统、ERP容灾系统、SAP生产系统、SAP开发/测试系统、SAP Router、SAP Hybris等典型场景的应用、数据库或网页,将ERP和SAP上云业务作为一个网页或应用来审计和录屏操作,实现对企业上云业务的统一管理。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        产品咨询
      • 概述
        Kafka实例完全兼容开源Kafka协议,可以直接使用kafka开源客户端连接。如果使用SASL认证方式,则在开源客户端基础上使用云服务提供的证书文件。 本指南主要介绍实例连接信息的收集,如获取实例连接地址、SASL连接使用的证书、公网访问信息等,然后提供Java、Python和Go等语言的连接示例。 本指南的示例仅展示Kafka的API调用,生产与消费的API集,请参考Kafka官网。
        来自:
        帮助文档
        分布式消息服务Kafka
        开发指南
        概述
      • GPU加速型实例安装GRID驱动
        部署和配置License Server 我们以CentOS 7.5操作系统的云主机为例演示部署和配置License Server。 说明 云主机规格不小于2vCPU,内存不小于4GiB。 请提前记录云主机MAC地址。 如用作生产用途,建议采用高可用模式部署,主备高可用模式部署License Server 请参考NVIDIA官方License Server高可用部署文档( licenseserverhighavailability) 。 1. 配置网络: 1. 如使用VPC网络访问License Server:请确保License Server和使用GRID驱动的GPU加速型实例处在同一个VPC子网内。 2. 如使用公网IP访问License Server:请配置License Server所在的安全组,增加入方向规则:TCP 7070和TCP 8080。 2. 安装License Server。 具体过程请参考NVIDIA官方License Server安装文档 ( installingnvidiagridlicenseserver)。 3. 获取License文件 a. 新建页签,登录NVIDIA网站( SERVERS”。 图 选择LICENSE SERVERS b. 单击“CREATE SERVER”. c. 填写Server Name、Description、MAC Address(License服务器的MAC地址)。 d. 选择Feature,在Licenses框中输入需要的license数目,单击“ADD”。 如果是主备部署的情况需要把备服务器的名称填入 Failover License Server,MAC地址填入Failover MAC Address中。 e. 单击“CREATE LICENSE SERVER”。 图 填写LICENSE SERVERS信息 f. 下载license文件 图 下载license文件 4. 在Web浏览器中,根据安装时配置的管理页面链接,访问License Server管理界面的主页。 默认访问链接为: 5. 单击“License Server > License Management”,使用License服务器配置菜单导入,并单击“Upload”上传许可证.bin文件,完成License Server的配置。 图 上传许可证文件
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        安装驱动和工具包(可选)
        GPU加速型实例安装GRID驱动
      • 产品服务协议
        云通信 一键登录产品服务协议 大数据/AI 天翼云超融合服务产品服务协议 翼MapReduce(MRS) 产品服务协议 天翼云人脸识别公测产品服务协议 数据湖探索(DLI)产品服务协议 天翼云数据集成工具产品服务协议 数据仓库服务产品服务协议 云数据库Cassandra版产品服务协议 大数据开发套件(DAYU)服务产品服务协议 天翼云可视化大屏开发工具产品服务协议 AI开发平台(AI创作间)产品服务协议 数据治理中心 DataArts Studio服务产品服务协议 实时计算翼Flink产品服务协议 天翼云AI创作间服务协议 天翼云安全生产服务协议 天翼云内容审核服务协议 天翼云人脸识别服务协议 天翼云印刷文字识别服务协议 天翼云智能视觉生产服务协议 天翼云自然语言处理服务协议 天翼云慧聚一站式智算服务平台模型服务协议 天翼云慧聚一站式智算服务平台用户信息处理规则 大数据管理平台DataWings服务协议
        来自:
        帮助文档
        法律声明
        产品协议
        产品服务协议
      • 安装部署
        vi 1. 源库增加如下内容: logbinmysqlbin serverid1 binlogformatrow 说明: (1)logbin参数的作用是MySQL 会根据这个配置自动设置logbin 为on 状态,自动设置logbinindex 文件为你指定的文件名后跟.index 打开binlog日志。 (2)在生产环境中一般都配置有serverid 值,若该项已有则不做改动,若没有按照上方提供内容添加,且需确保此值为唯一值,不可重复。 (3)仅支持binlog格式级别为row。 1. MySQL 提供一个syncbinlog 参数来控制数据库的binlog 刷到磁盘上去,还需增加如下内容: syncbinlog1 说明: (1)默认syncbinlog0,表示MySQL 不控制binlog 的刷新,由文件系统自己控制它的缓存的刷新。这时候的性能是最好的,但是风险也是最大的。 (2)若syncbinlog>0,表示每syncbinlog 次事务提交,MySQL 调用文件系统的刷新操作将缓存刷下去。最安全的是syncbinlog1,表示每次事务提交,MySQL 都会把binlog刷下去,是最安全但性能损耗最大的设置。 (3)如果是从从库上抽取数据,还需要增加以下的参数值。 logslaveupdates1 根据MySQL 官网介绍,A→B→C。A 作为从B 的master,B 作为从机C 的master。为了使这一点起作用,B 必须既是master 又是slave。必须用log bin 启动A 和B 以启用二进制日志记录,用log slave updates 选项启动B,以便B 将从A 接收的更新记录到其二进制日志中。 2. 修改完以上配置后,重启源库MySQL 服务: systemctl restart mysql 3. 进入到源库MySQL 数据库内,查询并确认binlog 是否开启: mysql> show variables like "log%"; logbin 的value 显示为ON 则表示已开启binlog。 4. 完成MySQL 源机数据库binlog 的开启。 2)源端MySQL 同步DB侧配置 创建远程连接同步用户。 为MySQL 的同步用户的用户名; 为MySQL 的同步用户对应的密码; mysql> create user ' '@'%' identified with mysqlnativepassword by ' '; 2. 赋予源库用户权限: 若授权all privileges 用户权限受阻,则可以参考下发节源MySQL 用户all privileges 权限限制。 mysql> grant all privileges on . to ' '@'%'; 3. 源库刷新权限。 mysql> flush privileges; 4. 可在本机上通过如下命令查看是否可以正常连接: 为源库MySQL 对应的IP 地址。 为源库MySQL 对应的端口号,默认为3306。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        数据库双活
        安装部署
      • 安装部署(1)
        vi 1. 源库增加如下内容: logbinmysqlbin serverid1 binlogformatrow 说明: (1)logbin参数的作用是MySQL 会根据这个配置自动设置logbin 为on 状态,自动设置logbinindex 文件为你指定的文件名后跟.index 打开binlog日志。 (2)在生产环境中一般都配置有serverid 值,若该项已有则不做改动,若没有按照上方提供内容添加,且需确保此值为唯一值,不可重复。 (3)仅支持binlog格式级别为row。 1. MySQL 提供一个syncbinlog 参数来控制数据库的binlog 刷到磁盘上去,还需增加如下内容: syncbinlog1 说明: (1)默认syncbinlog0,表示MySQL 不控制binlog 的刷新,由文件系统自己控制它的缓存的刷新。这时候的性能是最好的,但是风险也是最大的。 (2)若syncbinlog>0,表示每syncbinlog 次事务提交,MySQL 调用文件系统的刷新操作将缓存刷下去。最安全的是syncbinlog1,表示每次事务提交,MySQL 都会把binlog刷下去,是最安全但性能损耗最大的设置。 (3)如果是从从库上抽取数据,还需要增加以下的参数值。 logslaveupdates1 根据MySQL 官网介绍,A→B→C。A 作为从B 的master,B 作为从机C 的master。为了使这一点起作用,B 必须既是master 又是slave。必须用log bin 启动A 和B 以启用二进制日志记录,用log slave updates 选项启动B,以便B 将从A 接收的更新记录到其二进制日志中。 2. 修改完以上配置后,重启源库MySQL 服务: systemctl restart mysql 3. 进入到源库MySQL 数据库内,查询并确认binlog 是否开启: mysql> show variables like "log%"; logbin 的value 显示为ON 则表示已开启binlog。 4. 完成MySQL 源机数据库binlog 的开启。 2)源端MySQL 同步DB侧配置 创建远程连接同步用户。 为MySQL 的同步用户的用户名; 为MySQL 的同步用户对应的密码; mysql> create user ' '@'%' identified with mysqlnativepassword by ' '; 2. 赋予源库用户权限: 若授权all privileges 用户权限受阻,则可以参考下发节源MySQL 用户all privileges 权限限制。 mysql> grant all privileges on . to ' '@'%'; 3. 源库刷新权限。 mysql> flush privileges; 4. 可在本机上通过如下命令查看是否可以正常连接: 为源库MySQL 对应的IP 地址。 为源库MySQL 对应的端口号,默认为3306。
        来自:
      • 故障切换
        故障切换步骤介绍 操作场景 当生产中心可用区内的云主机发生重大故障时,可执行故障切换操作,拉起容灾云主机,以确保业务正常运行。 前提条件 受保护服务器处于“实时复制启动中”、“实时复制中”、“实时复制停止中”、“实时复制停止”状态。 受保护服务器无容灾演练。 故障切换时会创建切换云主机。由于创建云主机,需要在灾备VPC中申请IP,请保证灾备VPC的IP充足,否则可能导致流程失败。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域。 3. 在存储产品中选择“云容灾”,进入云容灾页面。 4. 在云容灾页面,单击“云上容灾”,进入保护组板块展示页面。 5. 在保护组板块展示页面,找到目标保护组,单击目标保护组板块,进入保护组页面。 6. 在保护组页面,在“受保护的服务器”页签,找到目标主机名,在操作列选择“更多>故障切换>故障切换”,进入故障切换页面。 7. 在故障切换页面,根据界面提示,配置故障切换参数。 注意 请根据容灾中心实际业务情况选择容灾云主机的规格,如果容灾云主机规格比生产中心降配太多,切换后可能导致业务无法流畅运行。 参数 说明 容灾云主机名称 请输入切换后的云主机名称。长度为2~15 个字符,只能由英文、数字和特殊字符""组成,且只能以英文开头,以英文或数字结尾。 规格 请选择切换后的云主机规格。 注意:请根据容灾中心实际业务情况选择容灾云主机的规格,如果容灾云主机规格比生产中心降配太多,切换后可能导致业务无法流畅运行。 IP地址 请选择IP地址类型。 两种IP地址类型区别如下: DHCP:动态分配云主机的IP地址。 手动指定:用户可以手动输入指定云主机的IP地址。 磁盘类型 请选择磁盘类型。 恢复点 请选择恢复时间点。默认为当前时间,也可以单击“编辑”选择其他恢复点。 弹性IP 请选择弹性IP。 8. 单击“启动”,进行故障切换,此时切换进度提示“故障切换中”。 9. 故障切换完成后,您可以单击云主机的状态栏下的链接,检查数据和应用。 检查后发现当前时间点应用运行正常,单击“更多”>“确认故障切换”。确认故障切换后,系统会自动清理复影云主机和所有恢复点。 检查后发现当前时间点应用运行不正常,单击“更多”>“更换恢复点”,切换恢复时间点。
        来自:
        帮助文档
        云容灾 CDR
        用户指南
        故障切换
      • 术语解释
        本页为您介绍数据库专家服务产品涉及的相关术语。 数据库专家服务 数据库专家服务是由天翼云数据库专家团队为客户提供的数据库安装部署、健康巡检、应急响应、性能调优、架构规划设计、数据迁移咨询、备份恢复咨询等各类数据库专业服务,解决客户的数据库各类问题,为客户的数据库系统保驾护航。 数据库安装部署 天翼云数据库专家服务团队为客户提供的数据库安装部署服务,具体包含如下内容: 合理安装数据库、中间件软件(其中安装主机、软件安装包需要您提供)。 根据应用系统创建合适的数据库。 根据应用系统的要求分配数据空间。 设置合理的数据库运行参数。 检查和设置数据库用户的安全性和访问的安全性。 设置数据库的监听程序。 提供完善的数据库、中间件安装报告。 根据实际情况提供数据库、中间件的配置调整。 数据库健康巡检 天翼云数据库专家服务团队针对客户数据库和相关组件运行健康状况提供的检查服务,对数据库和中间件系统的性能情况进行深度分析,及时发现生产数据库已经存在的或潜在的问题;根据巡检结果,提交巡检报告和改善建议,并配合完成改善工作。 数据库应急响应 天翼云数据库专家服务团队针对客户数据库紧急故障提供的服务,服务内容包括:对紧急故障进行故障原因分析,制定故障解决方案,并最终排除故障。对于故障处理,遵循记录、分析、处理、解决的闭环处理方法,以找到故障根源、避免或预防二次故障为最终解决的标准。
        来自:
        帮助文档
        数据库专家服务
        产品介绍
        术语解释
      • 我的权限简介
        信息字段 说明 权限信息 该资源的信息,一般格式为:表名@模式名@库名@实例地址【实例名】,根据资源粒度的不同,实际展示的格式有所差异 所属团队 该资源所属实例的所属团队的名称 环境 该资源所属实例的环境类型,分为开发、测试、预发、生产 开通时间 用户拥有该资源的所有权限中,最早的一个权限的开通时间 到期时间 用户拥有该资源的所有权限中,最早的一个权限的到期时间 操作 包括详情按钮,可查看权限详情
        来自:
        帮助文档
        数据管理服务
        用户指南
        个人中心
        我的权限
        我的权限简介
      • 通过消息幂等实现去重
        本节介绍如何处理消息去重。 方案概述 在RocketMQ的业务处理过程中,如果消息重发了多次,消费者端对该重复消息消费多次与消费一次的结果是相同的,多次消费并没有对业务产生负面影响,那么这个消息处理过程是幂等的。消息幂等保证了无论消息被重复投递多少次,最终的处理结果都是一致的,避免了因消息重复而对业务产生影响。 例如在支付场景下,用户购买商品后进行支付,由于网络不稳定导致用户收到多次扣款请求,导致重复扣款。但实际上扣款业务只应进行一次,商家也只应产生一条订单流水。这时候使用消息幂等就可以避免这个问题。 在实际应用中,导致消息重复的原因有网络闪断、客户端故障等,且可能发生在消息生产阶段,也可能发生在消息消费阶段。因此,可以将消息重复的场景分为以下两类: 生产者发送消息时发生消息重复: 生产者发送消息时,消息成功发送至服务端。如果此时发生网络闪断,导致生产者未收到服务端的响应,此时生产者会认为消息发送失败,因此尝试重新发送消息至服务端。当消息重新发送成功后,在服务端中就会存在两条内容相同的消息,最终消费者会消费到两条内容一样的重复消息。 消费者消费消息时发生消息重复: 消费者消费消息时,服务端将消息投递至消费者并完成业务处理。如果此时发生网络闪断,导致服务端未收到消费者的响应,此时服务端会认为消息投递失败。为了保证消息至少被消费一次,服务端会尝试投递之前已被处理过的消息,最终消费者会消费到两条内容一样的重复消息。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        通过消息幂等实现去重
      • RabbitMQ实例规格
        本文主要介绍分布式消息服务RabbitMQ的实例规格。 RabbitMQ实例规格 RabbitMQ实例兼容开源RabbitMQ 3.8.35,实例类型包括单机和集群,实例规格请参考下表。 说明 为了保证稳定性,服务端限制了单条消息的最大长度为50MB,请勿发送大于此长度的消息。 下表中TPS,是指以2KB大小的消息为例的每秒处理消息条数,测试场景为不开启持久化的非镜像队列,实时生产实时消费,队列无积压。此数据仅供参考,生产使用需要以实际压测性能为准。 服务端的性能主要跟以下因素相关:队列数、消息堆积、连接数、channel、消费者数、镜像队列、优先级队列、消息持久化和exchange类型等,在选择实例规格时,请根据业务模型压测结果选择。 一条连接最多可以开启2047个channel。 表1 RabbitMQ实例规格 型号 代理数 存储空间范围 TPS参考值 单个代理最大消费者数 单个代理建议队列数 单个代理最大连接数 rabbitmq.2u4g.single 1 100GB~30000GB 10000 20000 200 3000 rabbitmq.4u8g.single 1 100GB~30000GB 20000 30000 400 4500 rabbitmq.8u16g.single 1 100GB~30000GB 35000 50000 800 7500 rabbitmq.16u32g.single 1 100GB~30000GB 45000 80000 1600 12000 rabbitmq.24u48g.single 1 100GB~30000GB 50000 100000 2400 15000 rabbitmq.2u4g.cluster 3/5/7 3/5/7100GB~30000GB 30000~70000 20000 200 3000 rabbitmq.4u8g.cluster 3/5/7 3/5/7100GB~30000GB 45000~80000 30000 400 4500 rabbitmq.8u16g.cluster 3/5/7 3/5/7100GB~30000GB 85000~120000 50000 800 7500 rabbitmq.12u24g.cluster 3/5/7 3/5/7100GB~30000GB 100000~150000 60000 1200 10000 rabbitmq.16u32g.cluster 3/5/7 3/5/7100GB~30000GB 130000~180000 80000 1600 12000 rabbitmq.24u48g.cluster 3/5/7 3/5/7100GB~30000GB 150000~200000 100000 2400 15000
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        产品简介
        产品规格
        RabbitMQ实例规格
      • 消费者
        实例的创建和销毁 1、使用CTGFactory进行创建实例【强制规范】。 2、Consumer是重量级的实例,每次创建、销毁都会消耗系统资源,建议系统启动的时候创建,系统退出的时候关闭,禁止每次消费消息都创建新的实例【强制规范】。 多消费组消费 一个Topic,可以使用多个消费组消费消息,每个消费组将在服务端独立保存进度。 集群消费意味着多个消费者均衡消费Topic的消息,由于经常不同的程序由多个开发者进行研发和调试,如果使用同一个消费组,在调试过程中存在被其他程序消费者消费的可能,因此应该尽量避免多种类型的应用程序使用同一个消费组。 消费位置设置 消费位置重置可通过控制台进行按时间重置,客户端必须离线。 堆积量 不建议高堆积量的消费,为了预防出现高堆积的情况,建议: 1、边生产边消费,如果消费速度跟不上,增加消费者。 2、消费者一直在线,不要等生产了一段时间再开启消费者,这样会造成消费的堆积。 消费并行度 1. 同一个ConsumerGroup下,可通过增加Consumer 实例数量来提高消费的并行度(注意超过主题队列数的部分Consumer实例因为分配不到队列而无效),从而提升消费吞吐。 2. 增加单个消费节点的线程数,通过修改Consumer的参数consumeThreadMin、consumeThreadMax,增加并发线程个数实现更高的并发度。 3. 批量方式消费,如果业务流程支持批量方式消费处理消息,可设置consumer的consumeMessageBatchMaxSize返回消息个数参数,该参数默认为1,即一次只消费一条消息。通过调大该参数的值,则可以很大程度上提高消费的吞吐量。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        最佳实践
        消费者
      • 1
      • ...
      • 9
      • 10
      • 11
      • 12
      • 13
      • ...
      • 224
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      AI Store

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      应用场景

      如何使用代金券?

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号