活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      等保咨询_相关内容
      • 查询域名回调配置
        接口功能介绍 支持查询指定域名的录制回调、截图回调、审核回调、回调鉴权等回调信息。 接口详情 请求方式:POST 请求路径:/live/notifytemplate/querynotifytemplatedetail 请求JSON参数 参数名 类型 名称 是否必填 说明 :::::::: domain string 域名 是 域名 TemplateType string 模板类型 是 取值:notify Page int 分页页码 否 取值范围≥1, 分页的页数,不传默认为1 PageSize int 分页大小 否 每页模板数值,不传默认为100, NotifyType string 回调类型 是 取值,可设置多个,用英文逗号(,)分隔。 0:录制回调;1:截图回调;2:审核回调;3:回调鉴权 响应JSON参数 参数名 类型 名称 :::::: code int 状态码 message string 描述信息 domain string 域名 Result list 模板详情信息 Result 参数名 类型 名称 TemplateID string 模板ID TemplateName string 模板名 TemplateType string 模板类型 Description string 模板描述 Params string 模板参数 Params 代码 类型 字段名称 RecordNotifyUrl string 录制回调URL SnapshotNotifyUrl string 截图回调URL IdentifyNotifyUrl string 审核回调URL CallbackReqAuth string 回调鉴权开关 示例 请求路径:
        来自:
        帮助文档
        视频直播
        API参考
        API
        回调配置
        查询域名回调配置
      • 账单查询
        本文简述消费账单支持查询的维度和查询方法。 简要说明 天翼云支持用户查询账单概览、流水账单、账单详情及导出记录,详情请见:账单概览。 账单概览 账单概览可以展示不同汇总维度下的应付金额、扣费明细等数据,每个产品只展示一条汇总数据。 流水账单 流水账单可以展示按照不同计费模式下的每一笔订单和每个计费周期维度构成的数据,根据此账单进行扣费和结算,并可导出两种格式(xlsx、csv)的账单,在“导出记录”下载。 账单详情 自定义账单可以通过多维度展示客户账单的详细信息,并可导出两种格式(xlsx、csv)的账单,在“导出记录”下载。 导出记录 用户选择导出后,可以在“导出记录”页面点击下载,也可查看已导出的全部文件记录。 查询步骤 1. 登录天翼云官网,单击右上角【我的】,再单击【费用中心】。 2. 选择左侧导航栏中【账单管理】,分别单击【账单概览】、【流水账单】、【账单详情】、【导出记录】查询不同维度的账单。
        来自:
        帮助文档
        视频直播
        计费说明
        账单查询
      • 版本回滚
        本节介绍了DRDS版本回滚的操作场景、注意事项、操作步骤等内容。 操作场景 DRDS实例升级到新版本后,支持将内核版本回滚至最近一次升级前版本。 注意事项 回滚数据库内核版本会重启DRDS实例,服务可能会出现闪断,请您尽量在业务低峰期执行该操作,或确保您的应用有自动重连机制。 版本回滚只支持回滚至最近一次升级前版本。 实例版本升级后如果进行过节点扩容,需将新扩节点做缩节点处理,再进行版本回滚。 操作步骤 步骤 1 登录分布式关系型数据库控制台。 步骤 2 在“实例管理”页面,选择指定的目标实例,单击实例名称。 步骤 3 在实例基本信息页面,单击“实例信息”模块的“版本回滚”。 步骤 4 在版本回滚弹窗中选单击“立即回滚”。 步骤 5 确认无误后单击“是”进行版本回滚。 步骤 6 版本回滚时,实例状态将变为“回滚中”。 步骤 7 版本回滚完成后,实例状态由“回滚中”变为“运行中”,版本将显示回滚后的版本号。 结束
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        实例管理
        版本回滚
      • 运维用户客户端无法访问用户资产如何处理?
        运维用户客户端无法访问服务器、数据库等用户资产需要排查客户端到云堡垒机以及云堡垒机到运维资产的网络通路,重点排查安全组配置。 注意 请先确认以下配置均已正确配置: 运维终端已正确安装访问插件,并配置访问路径; 用户拥有访问及运维资产的授权。 排查步骤 1. 检查客户端到云堡垒机网络是否能连通。 在您的客户端使用ping命令测试客户端与堡垒机的网络是否连通,如果连接失败,请您登录堡垒机控制台,查看堡垒机EIP是否正常,检查云堡垒机实例安全组策略是否正确配置,确认IP和端口是否正确开放,具体请查阅安全策略配置方法。 2. 检查堡垒机到运维资产网络是否能连通。 检查云堡垒机实例到运维资产的网络和端口是否开放,需要检查运维资产所属安全组的安全端口访问策略限制,是否允许云堡垒机实例访问运维资产。
        来自:
        帮助文档
        云堡垒机(原生版)
        常见问题
        操作类
        运维用户客户端无法访问用户资产如何处理?
      • 查看订单详情
        本文主要介绍了在“我的订单”页面进行查看订单详情的操作步骤。订单详情包含订单号、订单类型、创建时间、支付状态、订单资源和订单金额等信息。 操作步骤 1. 登录天翼云官网,点击“管理中心”进入“费用中心”页面后,点击“订单管理>我的订单”,进入“我的订单”页面。 2. 可通过选择项目名称、输入订单号或设置订单创建时间筛选搜索查看订单,也可通过订单类型、订单状态过滤筛选查看订单。若查看云订单,选中“云订单”页签;若查看网订单,选中“网订单”页签。 3. 在订单页面找到待查看的订单,点击“详情”查看订单详情情况。 当订单状态为“待支付”时,客户可在订单详情页面进行支付或取消订单。 当订单状态为“已完成”时,客户可在订单详情页面查看原订单。
        来自:
        帮助文档
        费用中心
        订单管理
        我的订单
        查看订单详情
      • 数据安全保障机制
        数据库安全保障是指通过一系列安全措施加强对数据库安全进行防护。数据库安全配置核心在对数据库进行访问控制、数据加密、审计、数据脱敏和数据库备份与恢复等安全管理策略,确保数据的完整性、机密性、可用性、可控性和可审查性。 访问控制 TeleDB支持通过设有用户权限控制和强制访问控制,对不同对象有不同的访问来控制权限,确保数据安全。它主要包括自主访问权限控制和强制访问控制。 自主访问控制 :TeleDB支持自主赋予不同用户角色操作控制权限和提供对数据库资源(实例、表、视图等)细粒度权限控制能力。 强制访问控制: 提供更细粒度的访问控制,即行级的访问控制。 自主访问控制具体实施方案请参考《TeleDB安全配置手册》中“自主访问控制”章节。 强制访问控制具体实施方案请参考《TeleDB安全配置手册》中“强制访问控制”章节。 数据加密 TeleDB支持通过数据加密来确保只有授权的用户才能访问敏感信息,防止个人信息泄露。数据加密是一种将原始数据转换成不可读格式的过程。通过数据加密可以确保只有授权的用户才能访问存储在设备或数据库中的敏感信息,防止个人信息泄露。TeleDB支持三种数据加密方式,分别为透明存储加密、通信加密和全密态加密。 透明存储加密方式(Transparent Data Encryption, TDE)是一种保护数据库中静态数据的加密技术,使数据在存储时自动加密,有助于防止未授权访问和数据泄露。透明存储加密的特点是数据在加密和解密过程对应用程序透明,该过程中应用程序无需进行任何修改,从而简化了实施流程。加密操作(函数调用)与业务侧解耦合,业务只负责传递原始数据到数据库内核,后续的加密计算在数据库内部完成,从而业务侧操作上无感知。具体实施方案请参考《TeleDB安全配置手册》中“透明存储加密”章节。 通信加密是指基于传输层SSL(Secure Sockets Layer)协议加密的加密方式。SSL加密是一种安全协议,用于在互联网上建立一个加密的链接,来确保数据传输的安全性。具体实施方案请参考《TeleDB安全配置手册》中“通信加密”章节。 全密态加密是一种数据加密技术,‌旨在确保数据在整个生命周期(‌包括传输、‌运算和存储)‌中始终保持加密状态,‌从而保护数据隐私。‌这种加密技术不仅涉及到数据的存储加密,‌还包括数据在处理过程中的加密,‌确保即使在数据传输和计算过程中,‌攻击者也无法获取有效的数据信息。‌全密态加密技术的实现依赖于特定的密钥管理机制,‌包括客户端主密钥(‌CMK)‌和数据加密密钥(‌CEK)‌的使用,‌其中CMK用于加密CEK,‌而CEK则用于加密用户数据,‌从而形成一个完整的数据加密体系。具体实施方案请参考《TeleDB安全配置手册》中“全密态加密”章节。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        数据安全保障机制
      • 将MySQL分库分表迁移到DRDS
        参数 描述 数据流动方向 选择入云。 入云指目标端数据库为本云数据库。 源数据库引擎 选择MySQL分库分表。 目标数据库引擎 选择DRDS。 网络类型 此处以公网网络为示例。默认为公网网络类型,可按照需求选择VPC网络、公网网络和VPN、专心网络。 VPC网络:适合云上数据库之间的迁移。 公网网络:适合通过公网网络把其他云下或其他平台的数据库迁移到目标数据库,该类型要求目标数据库绑定弹性公网IP(EIP)。 VPN网络:适合通过VPN网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 专线网络:适合通过专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 目标数据库实例 用户所创建的目标数据库实例。 迁移实例所在子网 选择迁移实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。 默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保迁移实例创建成功,仅显示已经开启DHCP的子网。 IP类型 选择迁移实例的IP类型,目前支持选择“IPv4”或“IPv4&IPv6双栈”。只有所选择的VPC及子网都开启了IPv6双栈功能,才能选择IP类型为“IPv4&IPv6双栈”。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程、触发器等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程完成目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 源端数据库实例个数 源端数据库实例个数默认最小值为2,最大值为16,你需要根据源端实际的分片数据库个数设置该值大小。 标签 可选配置,对迁移任务的标识。使用标签可方便管理您的迁移任务。每个任务最多支持10个标签配额。 任务创建成功后,您可以单击任务名称,在“标签”页签下查看对应标签。关于标签的详细操作,请参见标签管理。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        入云
        将MySQL分库分表迁移到DRDS
      • 用户管理优秀实践
        用户信息查询 涉及用户、角色及权限相关的系统视图有ALLUSERS、PGUSER和PGROLES,系统表有PGAUTHID和PGAUTHMEMBERS。 ALLUSERS视图存储记录数据库中所有用户,但不对用户信息进行详细的描述。 PGUSER视图存储用户信息,包含用户ID,是否可以创建数据库以及用户所在资源池等信息。 PGROLES视图存储数据库角色的相关信息。 PGAUTHID系统表存储有关数据库认证标识符(角色)的信息,包含角色是否可以登录,创建数据库等信息。 PGAUTHMEMBERS存储角色的成员关系,即某个角色组包含了哪些其他角色。 1.通过PGUSER可以查看数据库中所有用户的列表,还可以查看用户ID(USESYSID)和用户权限。 SELECT FROM pguser; usename usesysid usecreatedb usesuper usecatupd userepl passwd valbegin valuntil respool parent spacelimit useconfig nodegroup tempspacelimit spillspacelim it +++++++++++++++ Ruby 10 t t t t defaultpool 0 kim 21661 f f f f defaultpool 0 u3 22662 f f f f defaultpool 0 u1 22666 f f f f defaultpool 0 dbadmin 16396 f f f f defaultpool 0 u5 58421 f f f f defaultpool 0 (6 rows) 2.ALLUSERS视图存储记录数据库中所有用户,但不对用户信息进行详细的描述。 SELECT FROM allusers; username userid + Ruby 10 manager 21649 kim 21661 u3 22662 u1 22666 u2 22802 dbadmin 16396 u5 58421 (8 rows) 3.系统表PGROLES存储访问数据库角色的相关信息。 SELECT FROM pgroles; rolname rolsuper rolinherit rolcreaterole rolcreatedb rolcatupdate rolcanlogin rolreplication rolauditadmin rolsystemadmin rolconnlimit rolpassword rolvalidbegin rolv aliduntil rolrespool rolparentid roltabspace rolconfig oid roluseft rolkind nodegroup roltempspace rolspillspace +++++++++++++ ++++++++++ Ruby t t t t t t t t t 1 defaultpool 0 10 t n manager f t f f f f f f f 1 defaultpool 0 21649 f n kim f t f f f t f f f 1 defaultpool 0 21661 f n u3 f t f f f t f f f 1 defaultpool 0 22662 f n u1 f t f f f t f f f 1 defaultpool 0 22666 f n u2 f t f f f f f f f 1 defaultpool 0 22802 f n dbadmin f t f f f t f f t 1 defaultpool 0 16396 f n u5 f t f f f t f f f 1 defaultpool 0 58421 f n (8 rows) 4.要查看用户属性,可查询系统表PGAUTHID,它存储有关数据库认证标识符(角色)的信息。一个集群中只有一份pgauthid,并非每个数据库一份。需要有系统管理员权限才可以访问此系统表。 SELECT FROM pgauthid; rolname rolsuper rolinherit rolcreaterole rolcreatedb rolcatupdate rolcanlogin rolreplication rolauditadmin rolsystemadmin rolconnlimit rolpassword rolvalidbegin rolvaliduntil rolrespool roluseft rolparentid roltabspace rolkind rolnodegroup roltempspace rolspillspace rolexcpdata rolauthinfo +++++++++++++++++++++++ Ruby t t t t t t t t t 1 sha256366f1e665be208e6015bc3c5795d13e4dc297a148dca6c60346018c80e5c04c9ba170384ce44609b31baa741f09a3ea5bedc7dadb906286ca994067c3fbf672dc08c981929e326ca08c005d8df942994e146ed3302af47000b36e9852b50e39dmd585de11aafebd90ec620b201fc36f07a5ecdficefade3a1456ec0aca9a0ee01e3bf2971d1dbafd604e596149e2e2928be4060dec2bd8688776588b4cd8c64fd38f1b0beab1603129fa396556ba8aa4c7d6e137a04623 defaultpool t 0 n 0 sysadmin f t f f f t f f t 1 sha256ecaa7f0ca4436143af43074f16cdd825783ad1a5d659fd94f5e2fa5124e7da44045ecf40bda1a97975fcf5920dca0c8be375be5c71b51cb1eeeba0851fb3648cfa49f55989f83fd9baf1a9d5853ce19125f4fc29a7c709c095ed02d00638410dmd556d6e2dcc41594dc7ad8ee909ef81637ecdficefadefd7d9704ee06affef9581cd6a50a546607f88891198e96a5e84e7e83dccf56c5cd20a500bbc5248e8ea51f0bca70c5a8dcf00953f8b62c7a181368153abce760 defaultpool f 0 n Tom f t f t f t f f f 1 sha256f43c4f52ac51e297bc4dbdbc751fcf05319c15681dbf5a9c5777d2edce45cb592a948b25457a728e99a3e0608592f33b0a4312eba6124936522304ba298caa2002a04578860fecb0286d7c7baec09365eafd049b2b99f74f21a08864dd7d3f2amd515ee49f0b18ef8e7d0cd27d91ce2fa9decdficefade16bab5f05b6d7c86a19ae6406cc59c437506c3f6187bfdf3eefc7a7c7033afa076361b255cc8b6ccb6e19d4767effaec654b3308cc72cebb891d00a4a10362da defaultpool f 0 n (3 rows)
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        数据库管理
        用户管理优秀实践
      • 库表数据恢复:恢复到指定时间点
        本节包含库表数据恢复:恢复到指定时间点的操作场景、约束限制和操作步骤等相关内容。 操作场景 为了保证数据的完整性,以及降低对原实例的性能影响,会进行库表级时间点恢复。库表级恢复是为选择的某个库表恢复到指定时间点。在进行库表级时间点恢复备份时,会从OBS备份空间中选择一个该时间点最近的全量备份下载至临时实例上进行全量恢复,然后在临时实例上重放Binlog到指定时间点,完成之后将对应表的数据回写到原实例的目标表,恢复时长和实例的数据量有关,平均恢复速率为35MB/s。 由于需要对实例的所有数据进行备份及恢复操作,对于数据量较大的实例,所需时间较长,请耐心等待。通过库表级时间点恢复备份,将不会导致实例数据被覆盖,您可以根据需要恢复库表。 使用限制 执行表级恢复时,请谨慎,避免因操作不当导致实例或业务异常。 表级恢复会临时占用2个内网IP。 普通表级时间点恢复或极速表级时间点恢复带外键的表,会将外键表的外键删除,同时更改表结构。 表级时间点恢复,单个实例一次最多恢复2000张表。 库级时间点恢复,单个实例一次最多恢复1000个库,一次最多恢复20000张表。 批量恢复多个实例的库表数据,必须选择同版本RDS for MySQL实例,且实例状态必须为“正常”。 RDS for MySQL库表级时间点恢复期间不允许主备实例和只读实例做规格变更,重启,删除等操作。 进行库表级时间点恢复时,要恢复的库、表信息是在所选时间点前最新一次全量备份中读取的。由于所选时间点可以是恢复时间区间内的任意时间点,所以库表级时间点恢复支持恢复到存在指定库、表信息的最早的一次全量备份时间点。 如果选择恢复的时间点不存在该表,则该表不会被恢复。 表级时间点恢复,不支持恢复视图。建议先恢复出视图所涉及的表,然后重新创建视图。 库级时间点恢复,只恢复库里面的表数据。恢复出来的新库,不包含视图。 如果数据库实例超过2万张表,出于性能考虑,服务不会采集历史时间点的库表元数据信息,会从当前实例查找库表信息进行恢复。如果界面没有显示目标库表,而用户确认指定时间的库表存在,用户可以自行创建同名的空库表再进行库表恢复。 库级恢复中,原库下的表名不能有特殊字符 . 或中文,否则可能导致恢复任务失败。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据恢复
        恢复到云上MySQL数据库
        库表数据恢复:恢复到指定时间点
      • 安装配置Agent
        本章节主要介绍安装配置物理机监控agent。 操作场景 当您购买了一台物理机后,了解其运行状态一定是您的迫切需求,天翼云物理机和云监控服务结合使用,自动收集物理机的CPU、内存、磁盘以及网络使用情况等监控指标,以便您及时了解物理机实例运行状况和性能。本章节指导您如何为物理机服务器安装及配置Agent插件。 前提条件 物理机服务器可以正常使用。 物理机服务器内DNS Server正常工作,配置方法请参考内网DNS与安全组配置。 操作步骤 1. 添加域名解析地址:在物理机“/etc/resolv.conf”文件中添加各区域域名解析地址。 2. 修改子网DNS地址:按物理机所在区域修改子网的DNS服务器地址。 3. 配置安全组:用于下载Telescope包、发送指标数据、采集日志等。 此第三步请参见内网DNS与安全组配置。 4. 下载telescope安装包,访问地址参考云监控服务安装Agent(Linux)。 5. 安装Agent:手动为物理机安装Agent,实现主机监控。 此步请参见安装配置云监控服务安装Agent(Linux)。 6. 配置Agent,使用root账号,登录物理机。 7. 执行以下命令,切换至Agent安装路径的bin下。 cd /usr/local/telescope/bin 8. 修改配置文件conf.json。 a. 执行以下命令,打开配置文件conf.json。 vi conf.json b. 修改文件中的参数,具体参数请参见下表。 { "InstanceId":"xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", "ProjectId": "b5b92ee0xxxxxxxxxxxxxxxxcab92396", "AccessKey": "QZ0XGJXFxxxxxxxxT65R", "SecretKey": "lEv2aXAGwxxxxxxxxxxxxxxxxxxxxF8t0Bf18Tn2", "RegionId": "cnhz1" } 公共配置参数 参数 说明 :: InstanceId 物理机ID,可通过登录管理控制台,在物理机列表中查看。 说明 InstanceId可不用配置,保持"InstanceId":"",即可,若需要配置,请参考下两条。 该资源ID需保证全局唯一性,即同一个RegionID下Agent使用的InstanceId不能相同,否则系统可能会出现异常。 InstanceId必须与实际的物理机资源ID一致,否则云监控界面将看不到对应物理机资源操作系统监控的数据。 ProjectId ProjectId可不用配置,保持"ProjectId": "",即可。若需要配置,请参考已下获取方式。 项目ID,获取方式如下: 1. 登录管理控制台,单击右上角“用户名”,选择“我的凭证”; 2. 在项目列表中,查看物理机资源对应的所属区域的项目ID。 AccessKey/SecretKey 访问密钥,获取方式如下: 登录管理控制台,单击右上角“用户名”,选择“我的凭证>管理访问秘钥”; 如已有访问密钥,查看创建时下载保存的credentials.csv文件中,获取文件中记录的Key值即可; 如未创建,则通过“新增访问密钥”可创建新的访问密钥,妥善保存credentials.csv文件,并获取文件中记录的Key值。 注意 为了安全考虑,建议该用户为IAM用户,并且权限仅为CES Administrator和LTS Administrator。 配置的AccessKey必须在“我的凭证 >管理访问秘钥”列表中,否则将鉴权失败,云监控界面看不到操作系统监控数据 RegionId 区域ID,例如:物理机资源所属区域为“杭州”,则RegionID为“cnhz1”。 9. 修改云监控指标采集模块的配置文件confces.json。 a. 执行以下命令,打开公共配置文件confces.json。 vi confces.json b. 修改文件中的参数,具体参数请参见下表。 { "Endpoint": " } 指标采集模块参数配置 参数 说明 :: Endpoint 物理机资源所属区域的云监控Endpoint URL,例如:物理机资源所属区域为“杭州”,则URL中使用“ces.cnhz1.ctyun.cn”。 说明 Agent插件配置完成后,因监控数据暂未上报,插件状态仍显示“未安装”,等待35分钟,刷新即可。 10. 管理Agent ,查看Agent状态。 11. 登录天翼云物理机服务器,执行以下命令,查看Agent状态。 service telescoped status 当系统返回以下内容,则表示Agent为正常运行状态。 "Telescope process is running well." 启动Agent 执行以下命令,启动Agent。 /usr/local/telescope/telescoped start 重启Agent 执行以下命令,重启Agent。 /usr/local/telescope/telescoped restart 停止Agent 执行以下命令,停止Agent。 service telescoped stop 说明 如果Telescope安装失败,可能会导致无法正常停止Agent,可通过执行以下命令进一步尝试: /usr/local/telescope/telescoped stop 卸载Agent 用户可手动卸载Agent插件,卸载后将不再监控BMS实例监控数据。如需再次使用,请参考安装Agent重新安装。 执行以下命令,即可卸载Agent。 /usr/local/telescope/uninstall.sh 12. 查看监控指标 以上配置完成后,进入控制台界面,选择“管理与部署 > 云监控”,在左侧导航栏选择“主机监控 > 物理机”,列表展示该物理机的名称/ID、主机状态、插件状态等信息。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        物理机监控
        安装配置Agent
      • 权限管理
        本节介绍了云数据库TaurusDB的权限管理。 IAM权限管理 如果帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用TaurusDB的其他功能。 如果您需要对购买的TaurusDB资源,为企业中的员工设置不同的访问权限,为达到不同员工之间的权限隔离,您可以使用统一身份认证服务 (Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制资源的访问。 通过IAM,您可以在帐号中给员工创建IAM用户,并授权控制员工对资源的访问范围。例如您的员工中有负责软件开发的人员,您希望开发人员拥有TaurusDB的使用权限,但是不希望拥有删除TaurusDB等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用TaurusDB,但是不允许删除TaurusDB的权限,控制开发人员对TaurusDB资源的使用范围。 IAM是提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。 TaurusDB权限 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 TaurusDB部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问TaurusDB时,需要先切换至授权区域。 策略:IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对云数据库TaurusDB,管理员能够控制IAM用户仅能对某一类数据库资源进行指定的管理操作。 如下表所示,包括了云数据库TaurusDB的所有系统权限。 表 TaurusDB系统权限 策略名称 描述 类别 GaussDB FullAccess 云数据库TaurusDB服务的所有执行权限。 系统策略 GaussDB ReadOnlyAccess 云数据库TaurusDB服务的只读访问权限。 系统策略 下表列出了云数据库TaurusDB常用操作与系统权限的授权关系,您可以参照该表选择合适的系统权限。 表 常用操作与系统权限的关系 操作 GaussDB FullAccess GaussDB ReadOnlyAccess 创建TaurusDB实例 支持 不支持 删除TaurusDB实例 支持 不支持 查询TaurusDB实例列表 支持 支持 表 常用操作与对应授权项 操作名称 授权项 备注 修改参数模板 gaussdb:param:modify 变更数据库实例的规格 gaussdb:instance:modifySpec 创建数据库实例 gaussdb:instance:create 界面选择VPC、子网、安全组需要配置:vpc:vpcs:listvpc:vpcs:getvpc:subnets:getvpc:securityGroups:get创建加密实例需要在项目上配置KMS Administrator权限。创建包周期实例需要配置CBC权限:bss:renewal:viewbss:renewal:updatebss:balance:viewbss:order:view 创建手动备份 gaussdb:backup:create 查询备份列表 gaussdb:backup:list 查询错误日志 gaussdb:log:list 重启实例 gaussdb:instance:restart 查询数据库实例列表 gaussdb:instance:list 创建参数模板 gaussdb:param:create 删除参数模板 gaussdb:param:delete 修改备份策略 gaussdb:instance:modifyBackupPolicy 查看参数模板 gaussdb:param:list 删除实例 gaussdb:instance:delete 删除手动备份 gaussdb:backup:delete 查询项目标签 gaussdb:tag:list 应用参数模板 gaussdb:param:apply 批量添加删除项目标签 gaussdb:instance:dealTag 变更配额 gaussdb:quota:modify 升级数据库实例版本 gaussdb:instance:upgrade 只读升主 gaussdb:instance:switchover 修改数据库端口 gaussdb:instance:modifyPort 修改实例安全组 gaussdb:instance:modifySecurityGroup 修改读写内网地址 gaussdb:instance:modifyIp 界面选择ip需要配置:vpc:vpcs:listvpc:vpcs:get 开启、关闭SSL gaussdb:instance:modifySSL 修改实例名称 gaussdb:instance:rename 添加只读节点 gaussdb:instance:addNodes 删除只读节点 gaussdb:instance:deleteNodes 修改存储空间 gaussdb:instance:modifyStorageSize 修改数据库实例密码 gaussdb:instance:modifyPassword 绑定公网IP gaussdb:instance:bindPublicIp 界面列出公网IP需要配置:vpc:publicIps:getvpc:publicIps:list 解绑公网IP gaussdb:instance:unbindPublicIp 修改监控策略 gaussdb:instance:modifyMonitorPolicy 修改节点倒换优先级 gaussdb:instance:modifySwitchoverPriority 修改可维护时间窗 gaussdb:instance:modifyMaintenanceWindow 节点隔离 gaussdb:instance:isolateNodes 创建数据库用户 gaussdb:user:create 删除数据库用户 gaussdb:user:delete 修改数据库用户密码 gaussdb:user:modify 查询数据库用户 gaussdb:user:list 数据库用户授权 gaussdb:user:grantPrivilege 回收数据库用户权限 gaussdb:user:revokePrivilege 创建数据库 gaussdb:database:create 删除数据库 gaussdb:database:delete 查询数据库列表 gaussdb:database:list
        来自:
        帮助文档
        云数据库TaurusDB
        产品介绍
        权限管理
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • 通过DMS登录云数据库ClickHouse
        创建云数据库ClickHouse实例后,可以通过登录数据库管理服务DMS对数据库进行数据管理、用户授权、SQL审计、数据可视化等管理操作。本文为您介绍如何通过数据库管理服务DMS登录云数据库ClickHouse。 数据管理服务(Data Management Service,DMS)是异构数据库的一站式、全生命周期管理平台,为企业提供统一数据资产视图、统一数据库开发规范、统一数据安全策略、统一变更管控标准,让数据库的使用更高效、更安全、更规范。更多DMS信息,请参见DMS产品定义。 前提条件 已创建云数据库ClickHouse实例 已创建数据库用户 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 分析型数据库> 云数据库ClickHouse ,进入云数据库ClickHouse产品页面。然后单击管理控制台,进入数据库实例列表。 2. 选择如下一种方式,进入数据库管理服务DMS。 方法一:在实例列表上方,单击进入数据管理服务,进入到DMS管理控制台,然后填写登录数据库的数据库账号和密码,即可登录DMS。 方法二:在实例列表中,找到目标实例,选择操作 列的更多 > 登录数据库,即可进入该实例的DMS登录页面。
        来自:
        帮助文档
        云数据库ClickHouse
        用户指南
        数据库工具
        通过DMS登录云数据库ClickHouse
      • 节点分布
        本文介绍天翼云全站加速产品的节点分布情况。 天翼云全站加速,在中国内地拥有2000+节点,覆盖多运营商和31个省份区域,大量节点位于省会及一二线主要城市。在海外、中国香港、中国澳门和中国台湾拥有800+节点,遍布亚洲、美洲、欧洲、非洲等大洲主要国家和城市。全网业务承载能力达160Tbps。 全球节点具体分布如下: 计费区域 节点分布 中国内地 东北地区:黑龙江、吉林、辽宁。 华北地区:北京、天津、河北、河南、山东、山西、内蒙古。 华东地区:上海、浙江、江苏、江西、安徽。 华中地区:湖北、湖南。 华南地区:广东、广西、海南、福建。 西南地区:四川、云南、贵州、西藏、重庆。 西北地区:甘肃、宁夏、陕西、青海、新疆。 全球(不含中国内地) 北美洲:加拿大、美国。 南美洲:阿根廷、巴西、哥伦比亚、秘鲁、智利。 大洋洲:澳大利亚。 非洲:尼日利亚、埃及、吉布提、马达加斯加、毛里求斯、南非、坦桑尼亚。 欧洲:爱尔兰、奥地利、白俄罗斯、比利时、波兰、德国、俄罗斯、法国、荷兰、罗马尼亚、葡萄牙、瑞典、乌克兰、西班牙、意大利、英国。 亚洲:阿联酋、阿曼、菲律宾、韩国、吉尔吉斯坦、柬埔寨、卡塔尔、科威特、老挝、马来西亚、蒙古、孟加拉、缅甸、约旦、日本、沙特阿拉伯、泰国、土耳其、文莱、新加坡、伊拉克、以色列、印度、印度尼西亚、越南、斯里兰卡、巴基斯坦、中国澳门、中国台湾、中国香港。
        来自:
        帮助文档
        全站加速
        产品介绍
        节点分布
      • NLP大模型快速微调
        本最佳实践主要描述通过训推智算服务平台进行NLP大模型快速微调。 概述 AI发展正在经历一个拐点的跨越,从“预测推断”走向“内容生成”。新的AIGC形态给传统企业的模型训练和调用都提出新的挑战,需要更大的算力和大参数的算法,通过训练在大型文本语料库上学习到的语言模式生成自然语言文本,可以自动生成各类内容,文本、图像、语音、视频、代码中,能广泛应用于新闻、文案、对话、规划、设计创新,才能让企业在这场新的竞争中占据一席之地。 具体来说,新一代的大模型对模型训练的底座和平台都提出了新的要求,支持多个任务、参数1亿以上基于海量多源数据打造的模型,采用Transformer的架构,并且支持预训练。通过单模型做多种任务、更少的数据标注、更优的模型效果等特点来提升模型训练效率,以实现更优的识别、理解、决策、生成效果和更低成本的开发方案。 训推智算服务平台通过开箱即用的平台化产品,为您解决企业数字化、智能化转型中需要解决的AI建模门槛高、流程复杂、人力成本高等问题,有效为企业降本增效,助力企业转型。 本实践主要介绍少量样本对大语言模型进行微调训练,微调训练是大语言模型训练和应用中最常见的一种方式,用性价比的方式让企业快速训练出一个适合于自己业务的对话模型。通过训推智算服务平台来管理数据、标注指令微调、分布式调优任务、任务监控、模型管理、模型评估等全流程的调优步骤,通过交互式操作即可快速微调出属于业务自己的大语言对话模型。 任务特定性能提升:预训练语言模型通过大规模的无监督训练学习了语言的统计模式和语义表示。然而,它在特定任务上的性能可能不如在大规模无监督数据上表现出的性能。通过在任务特定的有标签数据上进行微调,模型可以进一步学习任务相关的特征和模式,从而提高性能。 领域适应性:预训练语言模型可能在不同领域的数据上表现不一致。通过在特定领域的有标签数据上进行微调,可以使模型更好地适应该领域的特殊术语、结构和语义,提高在该领域任务上的效果。 数据稀缺性:某些任务可能受制于数据的稀缺性,很难获得大规模的标签数据。监督微调可以通过使用有限的标签数据来训练模型,从而在数据有限的情况下取得较好的性能。 防止过拟合:在监督微调过程中,通过使用有标签数据进行有监督训练,可以减少模型在特定任务上的过拟合风险。这是因为监督微调过程中的有标签数据可以提供更具体的任务信号,有助于约束模型的学习,避免过多地拟合预训练过程中的无监督信号。
        来自:
        帮助文档
        训推服务
        最佳实践
        NLP大模型快速微调
      • storage-driver(系统资源插件,必装)
        插件简介 storagedriver插件是用于对接块存储、极速文件存储等Iaas存储服务的FlexVolume驱动。 storagedriver是一款云存储驱动插件,北向遵循标准容器平台存储驱动接口。实现Kubernetes Flex Volume标准接口,提供容器使用云硬盘、极速文件存储等IAAS存储的能力。通过安装升级云存储插件可以实现云存储功能的快速安装和更新升级。 该插件为系统资源插件,kubernetes 1.13 及以下版本的集群在创建时默认安装。 说明: v1.15.11r1是Flexvolume fuxi(即storagedriver)和CSI(即Everest(系统资源插件,必装)插件)兼容接管的过渡版本,在v1.17集群中已经去除了对Flexvolume fuxi的支持,请您将Flexvolume fuxi的使用切换CSI Everest上。 CSI Everest兼容接管Flexvolume fuxi后,原有功能保持不变,但请注意不要新建fuxi Flexvolume的存储,否则将导致部分存储功能异常。 当存储功能有升级或者BUG修复时,用户无需升级集群或新建集群来升级存储功能,仅需安装或升级storagedriver插件。 约束与限制 本插件仅支持在v1.13 及以下版本的集群中安装,v1.15及以上版本集群创建时默认必装Everest(系统资源插件,必装)插件。 安装插件 本插件为系统默认安装,若因特殊情况卸载后,可参照如下步骤重新安装。 在云容器引擎CCE中,kubernetes 1.11及以上版本的新建集群,将会默认安装storagedriver插件。 未安装storagedriver插件的集群,可参考如下步骤进行安装: 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件市场”页签下,单击storagedriver插件下的“安装插件”。 步骤 2 在安装插件页面,选择安装的集群和插件版本,单击“下一步:规格配置”。 步骤 3 云存储插件暂未开放可配置参数,直接单击“安装”。 待插件安装完成后,单击“返回”,在“插件实例”页签下,选择对应的集群,可查看到运行中的实例,这表明该插件已在当前集群的各节点中安装。 升级插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击storagedriver下的“升级”。 说明: 如果升级按钮处于冻结状态,则说明当前插件版本是最新的版本,不需要进行升级操作。 升级storagedriver插件时,会替换原先节点上的旧版本的storagedriver插件,安装最新版本的storagedriver插件以实现功能的快速升级。 步骤 2 在基本信息页面选择插件版本,单击“下一步”。 步骤 3 云存储插件暂未开放可配置参数,直接单击“升级”即可升级storagedriver插件。 卸载插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击storagedriver下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        storage-driver(系统资源插件,必装)
      • 设置资源配额及限制
        通过设置命名空间级别的资源配额,实现多团队或多用户在共享集群资源的情况下限制团队、用户可以使用的资源总量,包括限制命名空间下创建某一类型对象的数量以及对象消耗计算资源(CPU、内存)的总量。 前提条件 您已成功创建一个Kubernetes集群,参见购买混合集群。 您已成功创建一个命名空间,参见创建命名空间。 背景信息 默认情况下,运行中的Pod可以无限制的使用Node节点上的CPU和内存,这意味着任意一个Pod都可以无节制地使用集群的计算资源,某个命名空间的Pod可能会耗尽集群的所有资源。 kubernetes在一个物理集群上提供了多个虚拟集群,这些虚拟集群被称为命名空间。命名空间可用于多种工作用途,满足多用户的使用需求,通过为每个命名空间配置资源额度可以有效限制资源滥用,从而保证集群的可靠性。 您可为命名空间配置包括CPU、内存、Pod数量等资源的额度,更多信息请参见Resource Quotas。 其中,不同的集群规模对应的Pod数量推荐值如下: 维度 集群规模 Pod数量推荐值 规格 50节点 2500 Pod实例 规格 200节点 1W Pod实例 规格 1000节点 3W Pod实例 规格 2000节点 5W Pod实例 操作步骤 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 命名空间”。 步骤 2 在“集群”下拉框中,选择命名空间所在的集群。 步骤 3 单击对应命名空间后的“配额管理”,单击“编辑配额”。 系统级别的命名空间kubesystem、kubepublic默认不支持设置资源配额。 步骤 4 设置资源配额,单击“确定”。 CPU(Core):限制命名空间下工作负载实例(Pod)能申请CPU资源的最大值。单位为“核”。 内存(MiB):限制命名空间下工作负载实例能申请内存资源的最大值。单位为MiB。 有状态工作负载(StatefulSet):限制命名空间下能创建有状态负载的最大数量。 无状态工作负载(Deployment):限制命名空间下能创建无状态负载的最大数量。 普通任务(Job):限制命名空间下能创建普通任务的最大数量。 定时任务(CronJob):限制命名空间下能创建定时任务的最大数量。 实例(Pod):限制命名空间下能创建实例的最大数量。 服务(Service):限制命名空间下能创建服务的最大数量。 须知: 命名空间设置了CPU或内存资源配额后,创建工作负载时,必须指定CPU或内存的请求值(request)和约束值(limit),否则CCE将拒绝创建实例。若设置资源配额值为0,则不限制该资源的使用。 配额累计使用量包含CCE系统默认创建的资源,如default命名空间下系统默认创建的kubernetes服务(该服务可通过后端kubectl工具查看)等,故建议命名空间下的资源配额略大于实际期望值以去除系统默认创建资源的影响。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        命名空间
        设置资源配额及限制
      • CC防护
        sectionfe9edbafb41f42e5)。 说明 防护模式只能选择一种,不能同时开启。 配置自定义CC防护策略 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 对象防护配置”,进入防护配置页面。 5. 在“防护配置”页面上方的“防护对象选择”下拉框,切换到要设置的域名。 6. 在“安全防护”页签定位到“CC防护”模块,在防护模式后方点击“前去配置”。 7. 进入CC防护自定义规则列表页,列表会展示已创建规则的相关信息,包括规则状态、规则名称/规则ID、匹配规则、处置动作、限速频率、优先级、更新时间等。 8. 点击列表上方“新建防护规则”,进入规则配置页面,完成以下信息配置。 配置项 说明 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 匹配条件 设置访问请求需要匹配的条件(即特征)。 单击“新增条件”可以设置最多3个条件。存在多个条件时,多个条件必须同时满足才算命中。 关于匹配条件的配置描述,请参见匹配条件字段说明。 频率设置 频率统计在匹配条件检测后生效,需要配置统计对象 及限速频率。 统计对象 为统计请求数量的依据,可选值如下: IP:根据IP区分单个访问者。 SESSION:根据会话区分单个访问者。对于SESSION模式,需要进一步设置SESSION信息。 SESSION位置:可选择GET、POST、COOKIE、HEADER。 SEESION标识:取值标识,通过配置唯一可识别Web访问者的某属性变量名(Key),系统将据此标识匹配到的内容识别访问者。 限速频率 为单个访问者在限速周期内最大可以正常访问的次数,如果超过该访问次数,WAF则将根据配置的处置动作处理。配置项如下: 阈值(次):统计时长内统计对象的允许数量,超过阈值,则触发频率限制。 统计时长(秒):统计周期。 处置动作 定义触发规则后执行的动作,支持“拦截”。 优先级 代表该规则在CC防护模块儿中执行的优先级。 可输入1~100的整数,数字越大,代表这条规则的优先级越高。相同的优先级下,创建/更新时间越晚,优先级越高。 9. 单击“确定”,规则创建成功,成功后规则默认启用。您可以在规则列表中查看该规则。 相关操作: 对于已创建的规则,您可以执行以下操作: 编辑:编辑自定义防护规则的名称、匹配条件、频率限制、处置动作、优先级等。 删除:若不再使用某条规则,可对该规则进行删除。 状态变更:可对每一条规则单独设置启用状态,若临时无须启用某条规则,可禁用该规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        对象防护配置(安全防护)
        CC防护
      • 配置CC攻击防护策略
        section2c6c3a253cf792d9)。 说明 防护模式只能选择一种,不能同时开启。 自定义CC防护策略 1. 登录天翼云控制中心。 2. 单击页面顶部的区域选择框,选择区域。 3. 在产品服务列表页,选择“安全 > Web应用防火墙(原生版)”。 4. 在左侧导航栏,选择“防护配置 > 对象防护配置”,进入防护配置页面。 5. 在“防护配置“页面上方的“防护对象选择”下拉框,切换到要设置的域名。 6. 在“安全防护”页签定位到“CC防护”模块,在防护模式后方点击“前去配置”。 7. 进入CC防护自定义规则列表页,列表会展示已创建规则的相关信息,包括规则状态、规则名称/规则ID、匹配规则、处置动作、限速频率、优先级、更新时间等。 8. 点击列表上方“新建防护规则”,进入规则配置页面,完成以下信息配置。 配置项 说明 规则名称 设置规则的名称。 规则名称用于标识当前防护规则,建议您使用有明确含义的名称。 匹配条件 设置访问请求需要匹配的条件(即特征)。 单击“新增条件”可以设置最多3个条件。存在多个条件时,多个条件必须同时满足才算命中。 关于匹配条件的配置描述,请参见匹配条件字段说明。 频率设置 频率统计在匹配条件检测后生效,需要配置统计对象 及限速频率。 统计对象 为统计请求数量的依据,可选值如下: IP:根据IP区分单个访问者。 SESSION:根据会话区分单个访问者。对于SESSION模式,需要进一步设置SESSION信息。 SESSION位置:可选择GET、POST、COOKIE、HEADER。 SEESION标识:取值标识,通过配置唯一可识别Web访问者的某属性变量名(Key),系统将根据此标识匹配到的内容识别访问者。 限速频率 为单个访问者在限速周期内最大可以正常访问的次数,如果超过该访问次数,WAF将根据配置的处置动作处理。配置项如下: 阈值(次):统计时长内统计对象的允许访问的次数,超过阈值,则触发频率限制。 统计时长(秒):统计周期。 处置动作 定义触发规则后执行的动作,支持“拦截”。 优先级 代表该规则在CC防护模块中执行的优先级。 可输入1~100的整数,数字越大,代表这条规则的优先级越高。相同的优先级下,创建/更新时间越晚,优先级越高。 9. 点击“确认”,规则创建成功,成功后规则默认启用。您可以在规则列表中查看该规则。 相关操作: 对于已创建的规则,您可以执行以下操作: 编辑:编辑自定义防护规则的名称、匹配条件、频率限制、处置动作、优先级等。 删除:若不再使用某条规则,可对该规则进行删除。 状态变更:可对每一条规则单独设置启用状态,若临时无须启用某条规则,可禁用该规则。
        来自:
        帮助文档
        Web应用防火墙(原生版)
        快速入门
        配置CC攻击防护策略
      • 使用Elasticsearch实例向量检索功能增强搜索能力
        本文为您介绍如何使用Elasticsearch实例中的向量检索能力,增强实例的搜索能力。 概述 向量检索(Vector Search)是Elasticsearch的高级功能,允许用户在高维向量空间中进行相似性搜索,超越了传统的关键词匹配方式。通过将文本、图像等数据转换为向量表示,基于向量之间的距离进行搜索,适合自然语言处理、推荐系统和计算机视觉等复杂场景。 天翼云云搜索服务开通的Elasticsearch 支持通过近似最近邻(ANN)搜索算法实现高效的向量索引结构,使得在处理大规模数据集时依然能保持高效的查询速度和准确性。 前提条件 已开通天翼云云搜索服务 Elasticsearch 集群。 Elasticsearch 版本支持KNN向量检索功能(当前版本默认支持)。 本地环境已配置好API访问权限,且能够通过API与集群通信。 操作步骤 1. 创建支持向量检索的索引,需要创建一个支持向量检索的索引。可以使用以下命令为一个包含向量字段的索引启用 KNN 功能。 PUT myknnindex1 { "settings": { "index": { "knn": true, "knn.algoparam.efsearch": 100 } }, "mappings": { "properties": { "category": { "type": "keyword" }, "brand": { "type": "keyword" }, "style": { "type": "keyword" }, "myvector": { "type": "knnvector", "dimension": 3 } } } } knn: 设置为 true 启用向量检索。 dimension: 定义向量的维度,在这个例子中为 3。 2. 插入向量数据,创建索引后,可以插入带有向量字段的数据文档。以下是插入不同类型商品的向量示例: PUT myknnindex1/doc/1 { "category": "electronics", "brand": "brandA", "style": "modern", "myvector": [0.5, 0.8, 0.3] } PUT myknnindex1/doc/2 { "category": "furniture", "brand": "brandB", "style": "vintage", "myvector": [0.2, 0.4, 0.7] } PUT myknnindex1/doc/3 { "category": "clothing", "brand": "brandC", "style": "casual", "myvector": [0.9, 0.1, 0.6] } 3. 执行向量检索查询,插入数据后,用户可以通过查询指定的向量来查找与之相似的数据。以下示例将基于向量 [0.5, 0.8, 0.3] 进行KNN检索,返回与之最相似的2条记录。 POST myknnindex1/search { "size": 10, "query": { "knn": { "myvector": { "vector": [0.5, 0.8, 0.3], "k": 2 } } } } vector: 查询的向量值。 k: 返回与查询向量最相似的k个结果,此处为2。 4. 查询返回示例,返回结果中将包含与查询向量最相似的文档及其相似度得分(score): { "took" : 654, "timedout" : false, "shards" : { "total" : 1, "successful" : 1, "skipped" : 0, "failed" : 0 }, "hits" : { "total" : { "value" : 3, "relation" : "eq" }, "maxscore" : 1.0, "hits" : [ { "index" : "myknnindex1", "id" : "1", "score" : 1.0, "source" : { "category" : "electronics", "brand" : "brandA", "style" : "modern", "myvector" : [0.5, 0.8, 0.3] } }, { "index" : "myknnindex1", "id" : "2", "score" : 0.7092199, "source" : { "category" : "furniture", "brand" : "brandB", "style" : "vintage", "myvector" : [0.2, 0.4, 0.7] } } ] } } 通过这些步骤,用户可以在Elasticsearch集群上实现基于向量的高效相似性搜索,支持从多维数据中快速找到最相似的结果,从而提升搜索体验和智能化水平。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        使用Elasticsearch实例搜索数据
        使用Elasticsearch实例向量检索功能增强搜索能力
      • 基于Ingress实现服务发布
        应用场景 场景一:基于用户请求将匹配的业务流量切分到新版本 假设在当前线上环境中,您已经有一套服务Service v1对外提供7层服务,此时开发了一些新的功能,现需发布新版本Service v2服务。但又不想直接替换Service v1服务,而是希望将请求头包含 “foobar” 或者Cookie包含 “foobar” 的客户端请求转发到Service v2服务中,验证一下新版本功能是否正常,待稳定运行后,再逐步全量切到Service v2服务,平滑下线Service v1服务。示意图如下: 场景二:基于服务权重将业务流量切分到新版本 假设当前线上环境,您已经有一套服务Service v1对外提供7层服务,此时修复了一些问题,需要发布上线一个新的版本Service v2。但又不想将所有客户端流量切换到新版本Service v2中,而是希望将20%的流量灰度到Service v2,待稳定运行后,逐步全量切到Service v2,平滑下线Service v1。示意图如下: 操作步骤 场景一:基于用户请求将匹配的业务流量切分到新版本 步骤一:部署旧版本Service v1和常规Ingress 这里使用Ingress作为service v1应用服务,并且为方便观测流量切分的效果,将nginx欢迎页设置为“v1”。 1. 创建配置configmap,key为index.html,value为v1。 2. 创建nginx工作负载,配置数据卷为刚才创建的configmap;配置镜像和挂载卷,挂载容器路径为:/usr/share/nginx/html;配置访问设置,选择虚拟集群IP类型,容器端口80,服务端口30080。 3. 创建旧版本service v1的常规ingress。灰度ingress一栏选择否,在域名路径规则一栏填写域名,指定服务名称以及端口等。 4. 检查通过Ingress域名能正常访问旧版本service v1服务。 步骤二:部署新版本Service v2 这里同样使用Ingress作为service v2应用服务,并且为方便观测流量切分的效果,将nginx欢迎页设置为“v2”。 1. 创建配置configmap,key为index.html,value为v2。 2. 创建Ingress工作负载,配置数据卷为刚才创建的configmap;配置镜像和挂载卷,挂载容器路径为:/usr/share/nginx/html;配置访问设置,选择虚拟集群IP类型,容器端口80,服务端口30081。 步骤三:创建灰度ingress,在灰度发布新版本 1. 基于Header创建新版本service v2的Ingress。 2. 在灰度Ingress一栏选择是;在生产ingress一栏选择旧版本service v1的常规Ingress;在流量切换方式一栏选择灰度,基于Header的区分方式,填写Header key为foo,Header value为bar,精确匹配;在域名路径规则一栏填写域名,指定服务名称和端口等。 执行命令进行访问测试, 为Nginx Ingress对外暴露的IP:
        来自:
        帮助文档
        云容器引擎 Serverless版
        最佳实践
        基于Ingress实现服务发布
      • 资源统计
        日志资源统计是对日志进行分类统计及日志数据的可视化展示,主要分类有读写流量、索引流量和存储量。统计日志资源的数据量仅供参考。 读写流量:读写流量根据传输的流量计算,传输流量为压缩后的日志大小,日志一般有5倍压缩率。 索引流量:原始日志数据默认都会建立全文索引,创建索引(对日志分词处理)后,才能搜索日志。 存储量:日志存储量为压缩后的日志数据、索引数据、副本数据之和,这些空间约等于原始日志数据大小。 昨日资源统计 昨日资源统计主要展示LTS昨日的日志资源数据、环比前日值和每小时的数据。 统计昨日的读写流量、索引流量和存储量。 显示昨日与前日的环比值,查看变化趋势。 按照小时显示昨日一天的流量(或存储量)数据趋势图。趋势图每1小时一个点,趋势图每一个点的值表示1小时内的数据统计,单位为KB、MB和GB,根据实际情况进行统计。 资源详情 资源详情按照读写流量、索引流量和最新存储量三种方式,分别展示其Top100的日志组/日志流,默认按照最新存储量的Top100显示,单位为GB。您可根据自己的实际情况,选择读写流量、索引流量或最新存储量任一方式,进行Top100的日志组/日志流资源统计。 新创建的日志组/日志流,需间隔至少1小时才能进行资源统计。 单击Top100中的日志组名称,可查询该日志组下的日志流资源统计。 单击按钮,可下载日志组资源统计和日志流资源统计。 说明 下载的日志组资源统计和日志流资源统计文件为.CSV格式。 资源详情可选择时间范围统计。 时间范围有三种方式,分别是相对时间、整点时间和自定义时间。您可以根据自己的实际需求,选择时间范围。 说明 相对时间:表示查询距离当前时间1分钟、5分钟、15分钟等时间区间的日志数据。例如当前时间为19:20:31,设置相对时间1小时,表示查询18:20:31~19:20:31的日志数据。 整点时间:表示查询最近整点1分钟、15分钟等时间区间的日志数据。例如当前时间为19:20:31,设置整点时间1小时,表示查询18:00:00~19:00:00的日志数据。 自定义时间:表示查询指定时间范围的日志数据。 根据选择的时间范围,展示每日存储量(GB)、每日索引流量(GB)和每日读写流量(GB)的数据。 有两种展示方式: 表格 柱状图
        来自:
        帮助文档
        云日志服务
        用户指南
        日志管理
        资源统计
      • 必须配置的监控告警
        本文主要介绍必须配置的监控告警。 本章节主要介绍部分监控指标的告警策略,以及配置操作。在实际业务中,建议按照以下告警策略,配置监控指标的告警规则。 表 Kafka实例配置告警的指标 指标ID 指标名称 告警策略 指标说明 告警处理建议 brokerdiskusage 磁盘容量使用率 告警阈值:原始值>80%连续触发次数:1告警级别:紧急 该指标为从Kafka节点虚拟机层面采集的磁盘容量使用率。 出现该告警时,需要修改实例存储空间 。具体操作,请参考变更实例规格。 brokercpucoreload CPU核均负载 告警阈值:原始值>2连续触发次数:3告警级别:重要 该指标为从Kafka节点虚拟机层面采集的CPU每个核的平均负载。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例基准带宽/代理个数,即扩节点。具体操作,请参考。 brokermemoryusage 内存使用率 告警阈值:原始值>90%连续触发次数:3告警级别:紧急 该指标为Kafka节点虚拟机层面采集的内存使用率。 出现该告警时,需要修改实例基准带宽/代理个数,即扩节点。具体操作,请参考。 currentpartitions 分区数 告警阈值:原始值>分区数上限的90%,不同实例规格分区数上限不同,具体参考产品规格。连续触发次数:1告警级别:重要 该指标用于统计Kafka实例中已经使用的分区数量。 出现该告警时,如果业务后续还需要新增Topic,则需要修改实例基准带宽/代理个数或将业务拆分至多个实例。修改实例基准带宽/代理个数的具体操作,请参考。 brokercpuusage CPU使用率 告警阈值:原始值>90%连续触发次数:3告警级别:重要 统计Kafka节点虚拟机的CPU使用率。 出现该告警时,先检查该监控是否长期处于接近或超过告警阈值状态,如果是,需要修改实例基准带宽/代理个数,即扩节点。具体操作,请参考。 groupmsgs 堆积消息数 告警阈值:原始值>积压上限的90%,积压上限由您根据业务实际情况设定连续触发次数:1告警级别:重要 该指标用于统计Kafka实例中所有消费组中总堆积消息数。 出现该告警时,首先排查是否有闲置消费组,如果有,则删除。其次,可以考虑加快消费速度,例如增加组内消费者数量等。 topicmessagesremained 队列可消费消息数 告警阈值:原始值>积压上限的90%,积压上限由您根据业务实际情况设定连续触发次数:1告警级别:重要 该指标用于统计消费组指定队列可以消费的消息个数。 出现该告警时,首先排查消费者代码逻辑是否有误,例如消费者出现了异常不再消费等。其次,可以考虑加快消息的消费,例如增加队列消费者,并确保分区数大于或等于消费者数。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        监控
        必须配置的监控告警
      • 注入保密信息
        将单个键注入容器 选择已创建的保密字典名称和该字典中的键,并输入挂载路径。挂载路径是注入的文件在容器环境中的绝对路径(含文件名)。如果路径不存在将自动创建 。如果路径下存在同名文件,则注入的文件会覆盖原有文件。注入的文件在容器中是只读的。 将全部建注入容器 选择已创建的保密字典名称,从键下拉列表选择全部,并输入挂载路径。挂载路径是注入的文件在容器环境中的绝对路径(不含文件名,且不能以/结尾),注入的文件以键名作为文件名。如果路径不存在将自动创建 。如果路径下存在同名文件,则注入的文件会覆盖原有文件。注入的文件在容器中是只读的。 卸载保密信息 若需要卸载保密信息,可在区域中找到需要卸载的保密字典,点击右侧操作列的删除按钮,重新部署应用即可 注意 若应用在运行过程中重新部署,该应用将会被重启。为避免业务中断等不可预知的错误,请在业务低峰期执行部署操作。
        来自:
        帮助文档
        云应用引擎
        用户指南
        应用管理
        应用配置
        注入保密信息
      • 使用限制
        本文为您介绍分布式消息服务MQTT各功能项使用限制。 功能信息项 限制值 说明 实例名称 长度4~40个字符,大小写字母开头,只能包含大小写字母、数字及分隔符() 实例名称不可重复。 Topic 长度 64 个字符 Topic 长度不得超过该限制,否则会导致无法发送或者订阅。 Topic 和 Client ID 可用字符 仅限数字 09,字母 az 或 AZ,和符号“”、“” Client ID 和MQTT 的 Topic 不允许使用“/”、“:”、“,”、“%”等其他非常规字符,否则可能导致无法连接和收发消息。 Client ID 长度 64 个字符 使用微消息队列 MQTT 收发消息时,Client ID 长度不得超过该限制,否则会导致连接被断开。 消息大小 64 KB 字节 消息负载不得超过该限制,否则消息会被丢弃。 单个设备订阅Topic 数量 30 个 每个客户端最多允许同时订阅 30 个 Topic,超过该限制会导致无法新增新的订阅关系。 每个持久化会话离线消息存储数量 1,000,条 服务端会限制每个持久化会话的离线消息数量。超过该限制后,服务端会从最早的消息开始清理。因此,请合理使用持久化订阅模式,以免产生很多无用的离线消息。
        来自:
        帮助文档
        分布式消息服务MQTT
        产品介绍
        使用限制
      • 安装部署
        ps ef grep iahelper 3)进程列表 以MySQL为例,Oracle、PostgreSQL等具体配置项参考 数据库双活用户操作手册。 mysql→mysql链路的将会运行的进程如下表: 链路进程 iahelper iamonitor iawork iatrack iaback IaDumper IaLoader MysqlReplication MySQL同构 √ √ NA √ NA √ √ √ Iahelper启动后,其他进程会在创建规则时自动拉起,无需手动启动。 说明: IaLoader进程和IaDumup进程启动时默认需要占用8GB系统内存,如内存不足则无法启动。如内存分配不足,需先修改进程配置文件,调小进程占用内存后启动。 IaLoader进程:i2stream路径路径下/bin/startialoader.sh修改Xms、Xmx值大小。 IaDumup进程: i2stream路径下/dumperpluginmiscdb/bin/startiadumper.sh 修改Xms、Xmx值大小。 步骤三:源端MySQL 同步配置 1)源端MySQL 同步OS侧配置 开启binlog 配置: 需要开启源库MySQL 的binlog 模式,具体操作步骤如下: 1. 源库修改MySQL 的配置文件my.cnf,通过以下命令查询my.cnf 的路径位置 : find / name my.cnf
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        数据库双活
        安装部署
      • 会中本地录制
        AOne会议的本地录制功能支持将会议内容(包括音视频、屏幕共享等内容)录制后存储至本地,方便会后回放与分享。 开启本地录制 1. 入会后,主持人或联席主持人在底部工具栏点击“录制”按钮。 2. 在弹出的菜单中选择“本地录制”。 3. 本地录制开启后,会弹窗通知所有参会者。同时所有参会者的人员列表中的录制人员一行会显示本地录制小图标。 结束本地录制 1. 录制开始后,底部工具栏的“录制”按钮会切换为“结束录制”。 2. 会议进行中,可通过底部工具栏点击“结束录制”按钮停止录制,或将鼠标悬浮在窗口左上角的本地录制小图标上,再点击下拉窗口的“结束录制”按钮停止录制。 本地录制文件查看和管理 1. 会议录制者可在会议客户端首页的“设置”>“录制”>“本地录制”找到本地录制存储路径,查看和管理本地录制视频。 注意事项 支持主持人/联席主持人停止某个用户的本地录制。 本地录制的权限由主持人(含联席主持人)通过"安全模块"进行控制。 同一个人,无法同时开启本地录制、云录制。
        来自:
        帮助文档
        AOne会议
        用户指南
        会中本地录制
      • 创建桶
        本文帮助您了解对象存储创建桶的操作场景及方法。 操作场景 桶是对象存储(简称ZOS)中存储对象的容器。您需要先创建一个桶,然后才能在ZOS中存储数据。您可以通过ZOS控制台、API、SDK等方式创建桶。 约束与限制 存储桶一旦创建成功,名称和所处地域不能修改且不支持重命名。创建时,请设置合适的桶名称和地域。 桶名称全局唯一,在任何集群,都不能与已有的任何桶名称重复,包括其他用户创建的桶。 用户在每个资源池的默认配额为100个桶。完成升级的资源池新创建的桶无对象/文件数量限制,未升级的资源池单桶可承载的对象/文件数量为4亿,详情可见产品使用限制。 创建桶的方法 访问方式 创建桶方法 控制台 通过控制台创建桶 SDK 具体可参考开发者文档 API 具体可参考创建桶
        来自:
        帮助文档
        对象存储 ZOS
        快速入门
        创建桶
      • 查看命令执行结果
        在控制台执行云助手命令与您登录实例后运行命令一样,只有满足所需条件后,命令才会运行成功。建议您在执行命令后查看命令执行结果与状态,确保目标操作已完成。如果执行失败,可以根据返回的错误信息定位并修复问题。 背景信息 当出现实例缺乏相关依赖、网络异常、命令语义错误、脚本调试失败或者实例状态异常等情况时,命令会呈现不同的执行状态与执行结果。您可以通过控制台或API查看执行结果中的错误信息、诊断并修复问题。 操作步骤 1. 登录 弹性云主机控制台 或 物理机控制台 ,选择左侧导航栏中的运维工具。 2. 展开运维工具下云助手标签页,选择执行记录标签页,如下图所示: 3. 选择需要查看的命令执行结果,点击右侧查看按钮,可查看执行列表、执行信息,如下图所示: 4. 点击实例名称左侧的箭头可以查看命令执行的输出信息或命令执行失败的报错信息。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        运维
        云助手
        查看命令执行结果
      • 创建快照(公测)
        本节介绍了创建快照的操作场景、约束与限制等内容。 操作场景 通过云硬盘可以创建快照,从而保存指定时刻的云硬盘数据。 了解更多云硬盘快照的原理和使用场景,请参见云硬盘快照(公测)。 约束与限制 ● 单个云硬盘最多支持创建7个快照。 ● 系统盘和数据盘都支持创建快照。 ● 快照的企业项目与源云硬盘的企业项目保持一致。 在快照页面创建 步骤 1 登录管理控制台。 步骤 2 选择“存储>云硬盘”。 进入“云硬盘”页面。 步骤 3 在左侧导航栏,选择“云硬盘 > 快照”。 在“快照”页面,单击“创建快照”。 根据界面提示,配置快照基本信息,如下表所示。 表 参数说明 参数 参数说明 取值样例 ::: 区域 必选参数。 选择区域后,会显示对应区域的云硬盘列表,供您创建快照时选择。 cnjssz1 快照名称 必选参数。 最大支持64个字符。 snapshot01 选择磁盘 必选参数。 在云硬盘列表,选择创建快照的云硬盘。 volume01 步骤 4 单击“立即创建”。 步骤 5 返回“快照”主页面,查看快照创建情况。 当快照状态为“可用”时,表示创建成功。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        普通快照(公测)
        创建快照(公测)
      • 查询指标并为Grafana配置数据源
        Prometheus监控提供了多场景的指标数据查询方式,以下将介绍通过控制台查询数据的场景。 前提条件 已通过Prometheus接入组件。具体操作,请参见接入组件管理。 通过控制台查询数据 1. 登录应用性能监控APM控制台,点击左侧菜单栏Prometheus监控。 2. 在Prometheus监控菜单下,单击接入管理。 3. 在已接入环境页签下,点击目标环境名称,进入环境详情页面。 4. 在环境详情页面,点击上方的指标探索页签,进入环境级别的指标探索页面。 5. 在Explore区域中,输入Metric名称并在Labels文本框添加键值对,然后单击页面右上角运行按钮进行查询。 说明 1. 在区域可以选择查询的时间范围,默认查询一小时内的数据。 2. 单击+ Operations,可以添加PromQL内置函数,例如sum()、irate()、absent()等。使用方法,请参见开源版Prometheus官方文档。 3. 单击Code可以切换至PromQL语句输入模式,PromQL语法请参见开源版Prometheus官方文档。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        控制台操作指南
        大盘可视化
        查询指标并为Grafana配置数据源
      • 昇腾 910B 物理机使用Galaxy镜像嵌入式模型部署指南
        在当今数字化浪潮中,人工智能与高性能计算的融合正驱动着各行业的创新变革。随着数据量的爆炸式增长以及复杂算法的不断涌现,对计算资源的高效利用和模型部署的灵活性、高性能提出了严格要求。昇腾 910B 物理机,作为前沿计算领域的佼佼者,凭借其卓越的算力与强大的并行处理能力,为各类复杂任务提供了坚实的硬件支撑。通过嵌入式模型的部署,能够将先进的人工智能技术深度融入各类设备与系统,实现智能化的精准赋能。 本指南将详细阐述如何依托昇腾 910B 物理机及其镜像,顺利完成嵌入式模型部署工作。从前期依托 Galaxy 镜像构建 Slurm 集群并部署 DS 服务的环境搭建,到精准下载 BGEM3 等关键模型并巧妙配置启动脚本,再到运用 TEIATB 容器镜像灵活管理服务,每一个环节都紧密相扣。旨在帮助技术人员、科研工作者以及相关领域从业者,全面掌握基于昇腾 910B 的嵌入式模型部署技巧,充分释放硬件潜能,推动人工智能应用在各场景中的高效落地,助力行业迈向智能化发展的新高度。 一、环境准备
        来自:
        帮助文档
        物理机 DPS
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU物理机:物理机搭建DeepSeek指南
        昇腾 910B 物理机使用Galaxy镜像嵌入式模型部署指南
      • 1
      • ...
      • 186
      • 187
      • 188
      • 189
      • 190
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      科研助手

      推荐文档

      消费者(Push)

      基本功能

      天翼云进阶之路⑤:修改Linux远程登录用户并授权,禁止roo

      文档下载

      天翼云进阶之路②:Centos更改MySQL数据库目录位置

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号