活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      应用加速_相关内容
      • 双机旁挂动态路由上云
        操作场景 某企业已经在地域A创建了天翼云VPC并在其中部署了应用服务,该企业购买两台设备,采用单机双臂旁挂组网方式接入天翼云,并配置OSPF动态路由主备,实现本地机构和云上资源互通,同时提高可用性。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经在地域A创建了VPC,具体操作,请参见创建虚拟私有云VPC。 您已经完成云间高速(标准版)的创建,具体操作,请参见创建云间高速(标准版)实例。 您已经将地域A的VPC加载到同一云间高速(标准版)实例中,请参见加载网络实例。 操作步骤 步骤一:购买两台智能网关 您可以通过天翼云官网自行购买智能网关实例,也可以联系客户经理购买智能网关实例。通过天翼云官网自行下单,操作步骤如下: 1. 登录天翼云SDWAN控制台,选择“智能网关”,在“智能网关”页面单击“创建智能网关”,选择“创建智能网关”。 2. 根据页面提示配置参数,部分参数信息可参考如下: 参数 描述 实例名称 智能网关实例名称,长度为164字符,以大小写字母或中文开头,可包含数字、“.”、 “”、“”。 区域 选择设备接入的区域。 基础带宽 该分支接入SDWAN骨干网的带宽大小。 是否购买设备 表示是否需要从天翼云购买设备。选择“是”,则天翼云会为您准备一台设备;选择“否”,则需要用户自备设备。 网关形态 可选择硬件版、软件版,这里我们选择硬件版。 设备类型 购买设备时,需要选择设备的型号。可以选择经济版、标准版、企业版、企业增强版。 使用方式 表示设备的使用方式。这里选择“双机”。 地址信息 表示设备的装机地址。请准确填写地址信息。 购买数量 默认为1。如果您购买的两台设备配置相同,则可以将数量修改为2;如果两台设备的配置不相同,则需要分成两次下单,且购买数量均填写为1。 3. 单击“提交订单”。确认订单信息无误后,勾选“我已阅读并同意相关协议《天翼云SDWAN产品服务协议》”,单击“确认下单”。 4. 订单支付成功后,完成购买。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        双机旁挂动态路由上云
      • 产品功能
        功能分类 功能项 功能描述 防护功能 DDoS网络层防护 支持TCP、UDP、ICMP网络协议防护,如SYN Flood ,ACK Flood,空连接等。 防护功能 畸形报文防护 支持对Ping of Death、Tear Drop、LAND、Fraggle等畸形报文进行过滤,判断报文合法性,丢弃异常请求。 防护功能 CC防护 CC防护根据访问者的URL,频率,行为等访问特征,智能识别CC攻击,避免源站资源耗尽,保证企业网站的正常访问。 防护功能 访问控制 可针对IP,IP段,IP端口,URI,METHOD,请求地区,请求参数,请求头部,请求协议等维度进行组合,设置白名单和黑名单,对请求进行拦截和放行,保证客户网站不受未知访问。 防护功能 频率控制 支持针对特定报文(十余种粒度组合),选择URL、ARGS、Header、Cookie、UA、IP其中一个或两个粒度进行频率统计,并设置对应的处理动作,以对高频请求进行控制。 告警策略 应用层CC告警 支持自定义CC攻击告警策略,对持续时长、QPS峰值、攻击次数进行监控和告警。 告警策略 网络层告警 支持自定义网络层攻击告警策略,对持续时长、pps峰值、bps峰值进行监控和告警。 告警策略 告警勿扰时间 支持设置勿扰时间,在特定时间内不进行告警。 业务接入 域名接入 支持HTTP、HTTPS、HTTP2协议的域名进行自助接入配置。 支持自定义回源HTTP请求头。 支持多个源站或域名回源,并对源站设置层级和权重。 支持指定回源协议或配置跟随协议。 支持请求强制跳转,即将请求的HTTP强制302跳转至HTTPS进行请求。 业务接入 端口接入 支持UDP、TCP协议协议的域名进行自助接入配置。 支持配置转发端口或转发端口段。 支持多个源站或域名回源。 安全分析 安全报表 支持查看CC安全报表、网络层安全报表,通过攻击趋势、攻击源TOP分析、攻击目标TOP分析等,掌握攻击态势。 安全分析 攻击事件 支持查看、导出CC攻击事件、网络层攻击事件。 业务分析 日志下载 支持下载业务请求全量日志,以对业务情况进行深入分析,为攻击排查,业务决策提供输入信息。 业务分析 业务用量 支持查看流量、带宽、请求次数、QPS、连接数、并发连接数、响应状态码的趋势,以掌握业务运行情况。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        产品介绍
        产品功能
      • 主机资产
        此小节介绍云堡垒机资产管理。 云堡垒机具备集中资源管理功能,将已有资源和资源账户添加到系统,可实现对资源账户全生命周期管理,单点登录资源,管理或运维无缝切换。 资源类型纳管资源类型丰富,包括Windows、Linux、Mac等主机资源,MySQL、PostgreSQL、Oracle等数据库资源以及Windows应用程序资源。 前提条件 仅“管理角色”支持资产相关的操作。 新增单个资产 1.使用“管理角色”账户登录云堡垒机(原生版)控制台。 2.在左侧导航栏选择“资产管理 > 资产”,进入“资产”页面。 3.单击“新增”按钮,弹出“新增资产”对话框,并填写相关内容。 参数 参数说明 取值样例 资产名称 自定义新增的资产名称。 Test 资产类型 选择新增的资产类型,可选Windows服务器、Unix/Linux服务器或数据库。 当您选择Windows服务器 或Unix/Linux服务器 时,可填写SSH登录指令/目录和Telnet登录指令/目录。 具体支持的资产类型可参考:使用限制章节。 Windows服务器 IP地址 填写待纳管资产的IP地址。 0.0.0.0 资产组 选择新增资产所在的资产组,资产组相关操作请参照:资产组章节。 资产描述 填写资产的描述。 协议 选择资产的协议类型: 当资产类型 选择Windows服务器 或Unix/Linux服务器 时支持选择:SSH、TELNET、SFTP、FTP、X11、RDP。 当资产类型 选择数据库 时支持选择:Oracle、DB2、MySQL、PostgreSQL、达梦。 协议选择完成后,需填写“端口”,若您选择的是数据库资产,还需再填写“服务器名称”。 SSH、80 账号 (可选)添加可访问资产的账号: 账号名:填写可正常访问资产的账号名。 密码:输入账户名对应的密码。 私钥:若选择该项,需要上传有效的RSA证书。 使用协议:选择账户对应的协议。 状态:选择账号状态。 您也可以在资产账号模块添加。 访问信息 选择资产系统编码,可选“UTF8”或“GBK”。 GBK 4.填写完成后,单击“连通性测试”按钮测试云堡垒机是否可以正常连接新增的资产。 5.若结果为正常,则单击“提交”完成资产新增。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        资产管理
        主机资产
      • 恢复备份到新实例
        恢复副本集备份到新实例 文档数据库服务支持使用已有的自动备份或手动备份恢复实例数据到新建实例,恢复后的数据与该备份生成时的实例数据一致。 选择通过备份文件恢复到实例上,会从OBS备份空间中将该备份文件下载到实例上进行全量恢复,恢复时长和实例的数据量有关,平均恢复速率为40MB/s。 使用须知 账户余额大于等于0元,才可恢复到新实例。新实例将作为用户新创建的实例进行收费。收费详情请参见计费说明。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的副本集实例,单击实例名称。在左侧导航树中选择“备份恢复”,选择需要恢复的备份,单击“恢复”。 恢复副本集备份 您也可以在“实例管理”页面,选择左侧导航树中的“备份管理”。在“备份管理”页面,选择“副本集”页签下需要恢复的备份,单击“恢复”。 恢复副本集备份 步骤 5 在恢复实例弹框中选择恢复到“新实例”,单击“确定”。 恢复副本集备份到新实例 步骤 6 跳转到“恢复到新实例”的服务选型页面,为用户重新创建一个和该备份数据相同的实例。恢复成功的新实例是一个独立的实例,与原有实例没有关联。 创建新实例时选择与原实例不同的可用区,保障应用程序不受单一位置故障的影响,提高数据的可靠性。 版本类型、实例类型、兼容MongoDB版本、存储引擎以及存储类型,与原实例相同,不可修改。 存储空间默认和原实例相同,可修改,但只可增加不可减小。 其他参数默认,用户需设置。 新实例创建成功后,系统会自动执行一次全量备份。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到新实例
      • 套餐概述
        套餐额度刷新重置规则 套餐额度在时间周期内耗尽后,需要等待下一个周期自动恢复额度,不会消耗其他资源包或账户余额。 每 5 小时可用量:滚动动态刷新,可用量在请求消耗 5 小时后刷新重置 每周可用量:自下单时开启,以 7 天为一个周期可用量刷新重置 每月可用量:下一个月可用量刷新重置 用量消耗进展查看暂不支持,如有需要请提交工单。 说明 受限于资源紧张,建议大家错峰使用。 GLM5.1、GLM5、GLM5Turbo作为高阶模型,对标Claude Opus,调用时将按照 “高峰期3倍,非高峰期2倍”系数消耗额度;我们推荐您在复杂任务上切换至GLM5.1处理,普通任务上继续使用GLM4.7,以避免套餐用量额度消耗过快。(作为限时福利,GLM5.1、GLM5Turbo将在非高峰期仅作为1倍抵扣,持续到4月底) 注:高峰期为每日的 14:00~18:00 套餐使用须知 严谨API调用:编码套餐额度仅在 AI 编程工具中生效,不可用于 API 调用的形式用于自动化脚本、自定义应用程序后端或任何非交互式批量调用场景。在非 AI 编程工具中使用编码套餐权益对应的 Base URL 和 APP Key 有可能被识别为滥用/违规,会导致停用或账号封禁。 账号购买限制:每个天翼云用户同时只能购买一个编码套餐(不区分包月/包年的Lite、Pro、Max),目前仅支持主账号发起购买。 账号使用规范:套餐为购买人专享使用,禁止共享。账号共享可能导致权益受限,甚至导致停用或账号封禁。 套餐并发限制:并发数限制与套餐等级相关,平台会根据资源进行动态调整,基本原则 Max> Pro > Lite。每个项目开发可使用 Subagent 等方式并发模型调用,我们的推荐使用项目数量如下: Lite : 建议同时进行单个项目的开发 Pro : 建议同时进行 12 个项目的开发 Max :建议同时进行 2+ 个项目的开发 说明 套餐用户在低峰期将享有更高的并发权益(动态提升),能够支撑更高数量的项目开发。 套餐升级/续费:即将支持,敬请期待。套餐过期后支持手动再次购买。 套餐退款规则:编码套餐一经购买成功即视为确认,不支持退订/退款。即使末使用套餐,费用也无法退回。建议根据使用需求选择合适的编码套餐和时间周期。
        来自:
        帮助文档
        模型推理服务
        用户指南
        编码套餐
        套餐概述
      • 套餐概述(1)
        套餐额度刷新重置规则 套餐额度在时间周期内耗尽后,需要等待下一个周期自动恢复额度,不会消耗其他资源包或账户余额。 每 5 小时可用量:滚动动态刷新,可用量在请求消耗 5 小时后刷新重置 每周可用量:自下单时开启,以 7 天为一个周期可用量刷新重置 每月可用量:下一个月可用量刷新重置 用量消耗进展查看暂不支持,如有需要请提交工单。 说明 受限于资源紧张,建议大家错峰使用。 GLM5、GLM5Turbo 作为高阶模型,调用时将按照 “高峰期 3 倍,非高峰期 2 倍” 系数消耗额度; 推荐在复杂任务上切换至 GLM5 处理,普通任务上继续使用 GLM4.7,以避免套餐用量额度消耗过快。(作为限时福利,GLM5.1、GLM5Turbo 将在非高峰期仅作为 1 倍抵扣,持续到 4 月底) 注:高峰期为每日的 14:00~18:00 套餐使用须知 严谨API调用:编码套餐额度仅在 AI 编程工具中生效,不可用于 API 调用的形式用于自动化脚本、自定义应用程序后端或任何非交互式批量调用场景。在非 AI 编程工具中使用编码套餐权益对应的 Base URL 和 APP Key 有可能被识别为滥用/违规,会导致停用或账号封禁。 账号购买限制:每个天翼云用户同时只能购买一个编码套餐(不区分包月/包年的Lite、Pro、Max),目前仅支持主账号发起购买。 账号使用规范:套餐为购买人专享使用,禁止共享。账号共享可能导致权益受限,甚至导致停用或账号封禁。 套餐并发限制:并发数限制与套餐等级相关,平台会根据资源进行动态调整,基本原则 Max> Pro > Lite。每个项目开发可使用 Subagent 等方式并发模型调用,我们的推荐使用项目数量如下: Lite : 建议同时进行单个项目的开发 Pro : 建议同时进行 12 个项目的开发 Max :建议同时进行 2+ 个项目的开发 说明 套餐用户在低峰期将享有更高的并发权益(动态提升),能够支撑更高数量的项目开发。 套餐升级/续费:即将支持,敬请期待。套餐过期后支持手动再次购买。 套餐退款规则:编码套餐一经购买成功即视为确认,不支持退订/退款。即使末使用套餐,费用也无法退回。建议根据使用需求选择合适的编码套餐和时间周期。
        来自:
      • 添加A类型记录集
        本节为您介绍如何添加A类型记录集。 操作场景 当您想要直接使用域名访问网站、Web应用程序或者云主机时,可以通过为域名增加A类型记录集实现。 更多关于记录集类型的介绍,请参见支持记录集类型。 约束与限制 已经完成网站或云主机的搭建,并获取IPv4格式的IP地址。 操作步骤 1. 登录到内网DNS控制中心页面。 2. 可以看到已创建好的域名记录,在目标记录行“操作”列单击“管理记录集”。 3. 进入解析记录界面,单击“添加记录集”。 4. 出现“添加记录集”弹窗,根据需求进行配置。 表1 添加A类型记录集参数说明 参数 说明 取值样例 主机记录 非必填,可以为空。同一记录类型的主机记录集是唯一的,不允许重复。 例:example.com 的www。 A类型记录值可以是多个:192.168.1.1 192.168.1.2,但是www.example.com的A类型记录集唯一。 填写限制:由多个以点分隔的字符串组成,可包含字母、数字、中划线,中划线不能在开头或末尾,单个字符串不超过63个字符,域名总长度不超过254个字符。字母不区分大小写,不支持特殊字符。 www 类型 记录集的类型,此处为A类型。添加记录集时,如果提示解析记录集已经存在,说明待添加的记录集与已有的记录集存在限制关系或者冲突。详细请参见支持记录集类型。 A – 将域名指向IPv4地址 TTL 必填项,默认选择5分钟。 TTL规格共四种:5分钟、1小时、12小时、1天(24小时),对应TTL值为5分钟(300s),1小时(3600s),12小时(43200s),1天(86400s)TTL指解析记录在本地DNS服务器的缓存时间。如果您的服务地址经常更换,建议TTL值设置相对小些,反之,建议设置相对大些。 300 值 填写IPv4地址,最多可以输入8个不重复地址,每行一个。 192.168.1.1 描述 选填字段,最多支持输入100个字符。 5. 填写完成后,点击“确定”完成A类型记录集创建。 6. 在“解析记录”页面,可以看到创建成功的解析记录。
        来自:
        帮助文档
        内网DNS
        用户指南
        解析记录管理
        创建解析记录
        添加A类型记录集
      • 快照与备份
        CCE通过云硬盘为您提供快照功能,云硬盘快照简称快照,指云硬盘数据在某个时刻的完整拷贝或镜像,是一种重要的数据容灾手段,当数据丢失时,可通过快照将数据完整的恢复到快照时间点。 您可以创建快照,从而快速保存指定时刻云硬盘的数据。同时,您还可以通过快照创建新的云硬盘,这样云硬盘在初始状态就具有快照中的数据。 使用须知 快照功能仅支持 v1.15 及以上版本的集群,且需要安装基于CSI的Everest插件才可以使用。 基于快照创建的云硬盘,其子类型(普通IO/高IO/超高IO)、磁盘模式(VBD/SCSI)、共享性(非共享/共享)、容量等都要与快照关联母盘保持一致,这些属性查询和设置出来后不能够修改。 使用场景 快照功能可以帮助您实现以下需求: 日常备份数据 通过对云硬盘定期创建快照,实现数据的日常备份,可以应对由于误操作、病毒以及黑客攻击等导致数据丢失或不一致的情况。 快速恢复数据 更换操作系统、应用软件升级或业务数据迁移等重大操作前,您可以创建一份或多份快照,一旦升级或迁移过程中出现问题,可以通过快照及时将业务恢复到快照创建点的数据状态。 例如,当由于云服务器 A的系统盘 A发生故障而无法正常开机时,由于系统盘 A已经故障,因此也无法将快照数据回滚至系统盘A。此时您可以使用系统盘 A已有的快照新创建一块云硬盘 B并挂载至正常运行的云服务器 B上,从而云服务器 B能够通过云硬盘 B读取原系统盘 A的数据。 说明:当前CCE提供的快照能力与K8S社区CSI快照功能一致:只支持基于快照创建新云硬盘,不支持将快照回滚到源云硬盘。 快速部署多个业务 通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。例如数据挖掘、报表查询和开发测试等业务。这种方式既保护了原始数据,又能通过快照创建的新云硬盘快速部署其他业务,满足企业对业务数据的多元化需求。 操作概览 1. 您可以创建快照.docx
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        存储管理
        快照与备份
      • 版本说明书
        本页简要介绍分布式数据库V2.0.0版本更新说明。 版本说明 V2.0.0版本说明 组件名称 版本号 发布时间 TeleDBXCore 2.0 2021年 07 月 新增和优化特性: 1. 新增软件包管理模块,包括查看软件包列表、上传软件包、删除软件包、搜索软件包和增加对软件包进行md5校验。 2. 新增主机管理模块,包括添加服务器、查看服务器列表、删除服务器列表、测试服务器连通性、检测服务器状态接口、编辑服务器信息和根据IP地址搜索服务器。 3. 新增资源模版管理,包括新建资源模版、查看模版列表、编辑资源模版、删除资源模版、检测模版是否被使用和根据模版名称搜索模版。 4. 新增服务器指标,包括服务器CPU使用率、服务器CPU负载、服务器内存占用率、服务器平均每次设备I/O操作服务时间、服务器平均设备I/O队列、服务器设备I/O操作等待时间、服务器入流量、服务器出流量、服务器TCP连接数、服务器数据库文件句柄数和服务器进程数。 5. 新增实例管理模块,包括实例操作、节点操作和健康检查。 6. 支持用户登录和退出数据库管理平台。 7. 新增参数管理和鉴权配置,包括查看数据库参数、自定义配置数据库参数、支持批量修改数据库参数、查看鉴权配置、修改鉴权配置、增加鉴权配置和删除鉴权配置。 8. 新增监控模块,包括集群预览、集群监控和节点监控。 9. 支持任务管理、用户管理和租户管理。 10. 新增备份恢复模块,包括备份策略、备份管理和恢复管理。 11. 新增分布式数据库能力,包括引入TeleDB分布式数据库内核和优化Oracle兼容性。 12. 优化Oracle兼容性。 修复漏洞 CVE20181115 漏洞名称:TeleDB:Quest DR Series Disk Backup软件操作系统命令注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20181058 漏洞名称:TeleDB:PostgreSQL 提权漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE202132029 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201810915 漏洞名称:TeleDB:PostgreSQL SQL注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201910208 漏洞名称:TeleDB:Postgresql PostgreSQL SQL注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201712172 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201715098 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201715099 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20201720 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201910130 漏洞名称:TeleDB:PostgreSQL 访问控制错误漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20181052 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 修复缺陷 1. 在indexonly场景下,修复删除数据脱敏列功能不生效的问题。 2. 修复在聚合操作(带有去重)下添加一个排序节点的操作。 3. 在cn上vacuum表时,有cn计算frozenxid,保证集群范围内的统一xid回卷。 4. 修复因为释放的指针未置空导致coredump;优化过程中不能正确获取表的行数导致执行计划不准确的问题。 5. squeue故障时,consuer退出,CN回滚事务时,置空连接状态,避免无限的嵌套循环。 6. 修复查询串格式化时可能导致coredump的问题。 7. 修复等待轻量级锁(lwlock)的进程不进入pgstaterror处理的问题。 8. 修复分布式事务prepare时,未持久化2pc的上下文信息,导致pgclean无法清理一些二阶段事务问题。 9. 考虑空值和已删除的列,将已删除的属性、空值(NULL)以及缺失的值设置为NULL值。 10. 修复没有删除列的之间映射的bug。 11. 在pgsubscriptiontable中同步修改的bug。 12. 逻辑复制在master上新加入的表的数据变更到消费端直接被丢弃。 13. 逻辑复制ALTER SUBSCRIPTION xxx REFRESH PUBLICATION相关BUG。 14. 去掉Pooler调试过程无必要的sleep逻辑。 15. 确保在连接到连接池之前进行事务处理,并确保当前的事务状态是正确的。 16. 删除子表回归测例缺失。 17. 使用GCC版本7.3时遇到编译器错误。 18. 数据节点上通过VACUUM分区表产生的错误的索引信息。 19. 为gtm的 synchronousstandbynames 修正警告信息的if条件。 20. 修复TOAST表相关问题。 21. 修复空指针导致的core dump。 22. 修复一条日志"skip delete portal resowner"打印的if条件。 23. 修复一个在处理Gather 节点的左子树时,未能正确将目标(target)添加到其目标列表(targetlist)中的问题。 24. 在rtables(关系表列表)中搜索之前,没有正确检查变量的层级(level)的bug。如果变量是分布式列,并且其层级正确,那么函数返回 true。 25. 在构建初始快照时,避免recovery时的重复XIDs。 26. 在子事务precommit时使用独立的memorycontext,避免类似plpsql场景下因为子事务导致OOM。 27. 在cn节点调用pgclearnodecoldaccess函数会产生coredump。 28. 在poolerasyncbuildconnection中,在建立连接前检查管道中空间的bug。 29. 增加一条LOG信息,用于记录关于逻辑复制应用在特定数据库和表上的错误或问题的详细信息。 30. 支持在聚合算子下面增加sort算子。 31. 指针和数据的使用不当。 32. 指针和数据的释放函数使用不当。 33. copy tuple时置分片id相关问题。 34. FlushXlogTrack的coredump。 35. 修复GTM备机每次收到主机的时间戳位置都进行持久化的问题。 36. 修复GUC中的coordinatorlxid参数由于超出INTMAX的范围而导致的溢出问题。 37. 修复MergeAppend/Append算子下推时,如果有一个子算子下推到所有DN(nodes为NULL),在通过并集计算之后反而会丢失部分DN节点,从而导致查询结果不完整的问题。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        版本说明书
      • 设计预案阶段
        本文为您介绍设计预案阶段的具体操作。 使用条件 若预案阶段设计需要脚本任务,需要预先在脚本库中新建脚本并发布。 操作场景 在您创建预案阶段后,可以通过多活容灾服务控制台进行预案阶段中任务的编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案阶段”,进入预案阶段列表页。 5. 在列表上方下拉菜单中选择需要进行预案阶段操作的命名空间。 6. 点击预案阶段列表中的“预案阶段设计”按钮。 1. 若当前预案阶段状态为草稿,直接进入预案阶段设计页面。 2. 若当前预案阶段状态为已启用,且未被预案关联,直接进入预案阶段设计页面。 3. 若当前预案阶段状态为已启用,且存在被草稿/已启用/已停用状态关联的预案,弹出预案阶段设计提示弹窗,用户确认已知晓相关信息后,点击确认按钮后,进入预案阶段设计页面。不同状态的预案与预案阶段的关联情况如下: 1. 若当前预案阶段已被草稿状态的预案关联,对预案阶段重新设计后,对应预案将自动关联最新的预案阶段。 2. 若当前预案阶段已被启用状态的预案关联,对预案阶段重新设计后,对应预案状态将更新为“待重新启用”,需重新启用预案。 3. 若当前预案阶段已被停用状态的预案关联,对预案阶段重新设计后,对应预案状态不改变,启用预案时自动关联最新预案。 7. 在预案阶段设计页面,用户可拖拽普通任务、条件任务、开始节点和结束节点至画布中,同时可点击任务节点进行任务配置。 流程绘制说明如下: 1. 普通任务:通过关联自定义脚本或平台内置能力对单个资源执行预期操作。 2. 条件任务:在普通任务基础上支持根据条件任务的执行结果(正常/异常)分别配置后续工作,配置条件任务在配置自身任务信息外,需对后面的箭线配置执行条件,条件任务后只能有2条箭线。 3. 任务并行编排通过任务间的箭线决定,一条箭线两端的任务为串行执行顺序,一个任务后有多条普通箭线(非条件判断箭线)代表此任务执行完成后需并行执行其后的任务。 8. 用户拖拽普通任务至画布后,点击“普通任务”,弹出编辑任务弹窗,可对普通任务进行任务编辑。任务类型分为脚本任务、人工任务、内置任务。 1. 当任务类型为脚本任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为脚本任务。任务类型可选脚本任务、人工任务、内置任务。 脚本名称 √ 选择脚本名称,下拉数据源为脚本库中“已发布”状态脚本的脚本名称。 目标资源 √ 选择容灾管理中心,下拉数据源为当前命名空间下所有运行的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源。其中: 若所选脚本的资源类型为“主机”:下拉数据源为对应操作系统类型的开启了远程连接的非天翼云主机。 若所选脚本的资源类型为“数据库”:下拉数据源为对应数据库类型的配置连接信息的数据库实例。 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为自定义时,由用户自定义设置参数值。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 失败重试次数 √ 填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 2. 当任务类型为人工任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 目标资源 × 选择容灾管理中心,下拉数据源为当前命名空间下容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下资源类型的资源实例。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 描述 × 填写预案阶段描述。 长度为0100个字符。 3. 当任务类型为内置任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 任务目的 √ 选择任务目的,可选资源操作、流程控制。 操作名称 √ 选择操作名称。 任务目的为资源操作时:可选云主机关机、云主机重启、云主机开机、MySQL/Redis/PostgreSQL/MongoDB主备切换、ELB流量切换、ELB流量调节、ELB流量回切。 任务目的为流程控制时:可选等待。 等待时长 √ 仅任务目的为流程控制时可见,填写等待时长时间(单位:s)。 取值范围为17200s。 目标资源 √ 选择容灾管理中心: 1. 任务为非流量配置相关的任务时:可选当前命名空间下所有运行中的容灾管理中心。 2. 任务为流量配置相关的任务时:可选当前命名空间下配置了ELB的运行中的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源: 1. 主机相关任务:资源所选容灾管理中心下的云上云主机 2. 数据库相关任务:资源为所选容灾管理中心下的云上数据库 3. 流量相关任务:资源为所选容灾管理中心下接入成功的且流量配比进行过初始配置的应用 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 任务目的为资源操作时:填写预计耗时时间(单位:s)。 任务目的为流程控制时:与等待时长一致,不可编辑。 失败重试次数 √ 仅任务目的为资源操作时可见,填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 9. 编辑任务完毕后,点击弹窗底部“确定”按钮。若存在参数引用的相关配置,用户确认知晓提示内容后,点击“已确认”。 10. 条件任务按上方基础任务配置后,需对后面的箭线配置执行条件。点击箭线后,弹出条件配置弹窗。条件判定可选择正常或异常,选择完毕后,点击“确认”按钮,完成条件配置,配置结果显示在箭线上。 11. 整体预案阶段设计完毕后,检查是否符合预案阶段设计流程规则,如下: 1. 有且必须有一个开始节点; 2. 有且必须有一个结束节点; 3. 至少有一个普通任务或条件任务节点,且所有任务节点均不能为空; 4. 所有节点必须通过箭线连接; 5. 条件任务节点后必须跟2条箭线,且箭线上需配置判定条件,同时两条箭线的判定条件不能相同; 6. 两个节点间只能有1条箭线(不区分箭头方向); 7. 开始节点不能有入方向箭线,结束节点不能有出方向箭线。 12. 确认符合规则后,点击画布上方“保存”按钮,保存当前预案阶段设计。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案阶段
        设计预案阶段
      • 步骤1:创建初始表并加装样例数据
        本章节主要介绍创建初始表并加装样例数据的最佳实践。 创建一组不设置存储方式,无分布键、分布方式和压缩方式的表。然后,为这些表加载样例数据。 1.(可选)创建集群。 如果已经有可供使用的集群,则可跳过这一步。创建集群的操作,请按中的步骤操作。同时请使用SQL客户端连接到集群并测试连接。 本实践所使用的是8节点集群。也可以使用4节点集群进行测试。 2.使用最少的属性创建SS(StoreSales)测试表。 说明 如果SS表在当前数据库中已存在,需要先删除这些表。删除表使用DROP TABLE命令。如下示例表示删除表storesales。 DROP TABLE storesales; 考虑到本实践的目的,首次创建表时,没有设置存储方式、分布键、分布方式和压缩方式。 执行CREATE TABLE命令创建上图"TPCDS Store Sales ERDiagram"中的11张表。限于篇幅,这里仅附storesales的创建语法。请从附录初始表创建中拷贝所有建表语法进行创建。 CREATE TABLE storesales ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) ; 3.为这些表加载样例数据。 OBS存储桶中提供了本次实践的样例数据。该存储桶向所有经过身份验证的云用户提供了读取权限。请按照下面的步骤加载这些样例数据: a.为每个表创建对应的外表。 DWS应用Postgres提供的外部数据封装器FDW(Foreign Data Wrapper)进行数据并行导入。因此需要先创建FDW表,又称外表。限于篇幅,此处仅给出“storesales”表对应的外表“obsfromstoresales001”的创建语法。请从附录外表创建拷贝其他外表的语法进行创建。 说明 l 注意,以下语句中的代表OBS桶名,仅支持部分区域。DWS集群不支持跨区域访问OBS桶数据。 l 外表字段需与即将注入数据的普通表字段保持一致。例如此处storesales表及其对应的外表obsfromstoresales001,他们的字段是一致的。 l 这些外表语法能够帮助您获取OBS存储桶中为本次实践所提供的样例数据。如果您需要加载其他样例数据,需进行SERVER gsmppserver OPTIONS的调整。 CREATE FOREIGN TABLE obsfromstoresales001 ( sssolddatesk integer , sssoldtimesk integer , ssitemsk integer not null, sscustomersk integer , sscdemosk integer , sshdemosk integer , ssaddrsk integer , ssstoresk integer , sspromosk integer , ssticketnumber bigint not null, ssquantity integer , sswholesalecost decimal(7,2) , sslistprice decimal(7,2) , sssalesprice decimal(7,2) , ssextdiscountamt decimal(7,2) , ssextsalesprice decimal(7,2) , ssextwholesalecost decimal(7,2) , ssextlistprice decimal(7,2) , ssexttax decimal(7,2) , sscouponamt decimal(7,2) , ssnetpaid decimal(7,2) , ssnetpaidinctax decimal(7,2) , ssnetprofit decimal(7,2) ) Configure OBS server information and data format details. SERVER gsmppserver OPTIONS ( LOCATION '/tpcds/storesales', FORMAT 'text', DELIMITER '', ENCODING 'utf8', NOESCAPING 'true', ACCESSKEY 'accesskeyvaluetobereplaced', SECRETACCESSKEY 'secretaccesskeyvaluetobereplaced', REJECTLIMIT 'unlimited', CHUNKSIZE '64' ) If create foreign table failed,record error message WITH errobsfromstoresales001; b.将创建外表语句中的参数ACCESSKEY和SECRETACCESSKEY替换为实际值,然后在客户端工具中执行替换后的语句创建外表。 ACCESSKEY和SECRETACCESSKEY的值,请参见“常见问题通用问题”中的“如何获取Access Key ID(AK)和 Secret Access Key(SK)”。 c.执行数据导入。 创建包含如下语句的insert.sql脚本文件,并执行.sql脚本文件。 timing on parallel on 4 INSERT INTO storesales SELECT FROM obsfromstoresales001; INSERT INTO datedim SELECT FROM obsfromdatedim001; INSERT INTO store SELECT FROM obsfromstore001; INSERT INTO item SELECT FROM obsfromitem001; INSERT INTO timedim SELECT FROM obsfromtimedim001; INSERT INTO promotion SELECT FROM obsfrompromotion001; INSERT INTO customerdemographics SELECT from obsfromcustomerdemographics001 ; INSERT INTO customeraddress SELECT FROM obsfromcustomeraddress001 ; INSERT INTO householddemographics SELECT FROM obsfromhouseholddemographics001; INSERT INTO customer SELECT FROM obsfromcustomer001; INSERT INTO incomeband SELECT FROM obsfromincomeband001; parallel off 结果应该类似如下: SET Timing is on. SET Time: 2.831 ms Parallel is on with scale 4. Parallel is off. INSERT 0 402 Time: 1820.909 ms INSERT 0 73049 Time: 2715.275 ms INSERT 0 86400 Time: 2377.056 ms INSERT 0 1000 Time: 4037.155 ms INSERT 0 204000 Time: 7124.190 ms INSERT 0 7200 Time: 2227.776 ms INSERT 0 1920800 Time: 8672.647 ms INSERT 0 20 Time: 2273.501 ms INSERT 0 1000000 Time: 11430.991 ms INSERT 0 1981703 Time: 20270.750 ms INSERT 0 287997024 Time: 341395.680 ms total time: 341584 ms d.计算所有11张表的总执行时间。该数字将作为加载时间记录在下一小节步骤步骤1中的基准表内。 e.执行以下命令,验证每个表是否都已正确加载并将行数记录到表中。 SELECT COUNT() FROM storesales; SELECT COUNT() FROM datedim; SELECT COUNT() FROM store; SELECT COUNT() FROM item; SELECT COUNT() FROM timedim; SELECT COUNT() FROM promotion; SELECT COUNT() FROM customerdemographics; SELECT COUNT() FROM customeraddress; SELECT COUNT() FROM householddemographics; SELECT COUNT() FROM customer; SELECT COUNT() FROM incomeband; 以下显示每个SS表的行数: 表名称 行数 StoreSales 287997024 DateDim 73049 Store 402 Item 204000 TimeDim 86400 Promotion 1000 CustomerDemographics 1920800 CustomerAddress 1000000 HouseholdDemographics 7200 Customer 1981703 IncomeBand 20 4.执行ANALYZE更新统计信息。 ANALYZE; 返回ANALYZE后,表示执行成功。 ANALYZE ANALYZE语句可收集数据库中与表内容相关的统计信息,统计结果存储在系统表PGSTATISTIC中。查询优化器会使用这些统计数据,以生成最有效的执行计划。 建议在执行了大批量插入/删除操作后,例行对表或全库执行ANALYZE语句更新统计信息。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        步骤1:创建初始表并加装样例数据
      • 控制台功能概述
        功能 说明 桶基本操作 指定region(不同服务区域)创建不同存储类别的桶、删除桶、修改桶的存储类别、复制桶的配置信息等。 对象基本操作 管理对象,包括上传(含多段上传功能)、下载、删除、修改对象的存储类别、恢复归档存储对象等。 服务端加密 用户可根据需要对对象进行服务端加密,使对象更安全的存储在OBS中。 对象元数据 根据用户需要为对象设置属性。 碎片管理 碎片管理功能可以清除由于对象上传失败而产生的碎片。 多版本控制 管理桶的多版本状态,允许桶内同一个对象存在多个版本。 日志记录 支持对桶的访问请求创建并保存访问日志记录,可用于进行请求分析或日志审计。 权限控制 支持通过IAM策略、桶策略&对象策略和桶/对象ACL对OBS进行访问控制。 生命周期管理 支持设置桶的生命周期管理策略,实现定时删除桶中的对象或者定时转换对象的存储类别。 跨区域复制 跨区域复制是指通过创建跨区域复制规则,在同一个帐号下,将一个桶(源桶)中的数据自动、异步地复制到不同区域的另外一个桶(目标桶)中。跨区域复制能够为用户提供跨区域数据容灾的能力,满足用户数据复制到异地进行备份的需求。 标签 用于对OBS中的桶进行标识和分类。 静态网站托管 支持设置桶的网站属性,实现静态网站托管;也可设置网页重定向,访问桶资源可以重定向至指定的主机。 防盗链 提供防盗链功能,防止OBS中的对象链接被其他网站盗用。 跨域资源共享 跨域资源共享(CORS)是由W3C标准化组织提出的一种网络浏览器的规范机制,定义了一个域中加载的客户端Web应用程序与另一个域中的资源交互的方式。而在通常的网页请求中,由于同源安全策略(Same Origin Policy,SOP)的存在,不同域之间的网站脚本和内容是无法进行交互的。 归档数据直读 您可以为桶开启归档数据直读,开启后存储类别为归档存储的对象可以直接下载,无需提前恢复。归档数据直读会收取相应的费用。 桶清单 桶清单功能可以定期生成桶内对象的相关信息,保存在CSV格式的文件中,并上传到您指定的桶中。
        来自:
        帮助文档
        对象存储 OBS
        用户指南
        控制台功能概述
      • OPA策略
        本章节介绍OPA策略 概述 OPA(Open Policy Agent)是一个通用的策略引擎,通过声明式的Rego语言实现丰富的授权策略。应用服务网格提供一键集成OPA引擎功能,整体架构如下: 其中OPA控制面包括: 1,OPA webhook服务,用于实现OPA sidecar的注入; 2,OpaPolicy controller监听OPA策略CRD,用于实现OPA策略分发; 业务pod内除了业务容器和istioproxy之外还会注入OPA sidecar,外部请求pod时流量被istioproxy拦截,根据定义的授权策略请求OPA sidecar,实现对请求的授权。 注意 注意:OPA sidecar当前使用8181端口管理OPA策略,使用9191端口提供外部鉴权服务,业务pod注意避开这两个端口。 开启OPA功能 使用OPA功能时首先要在打开开关,进入服务网格控制台,选择网格管理 > 自定义配置,勾选启用OPA 即可。 关闭OPA功能 进入服务网格控制台,选择网格管理> 自定义配置,取消勾选 启用OPA即可。 进入服务网格控制台,选择网格管理> OPA开关,关闭即可。 OPA策略管理 CSM服务网格采用自定义CRD(OpaPolicy)方式管理OPA策略,主要包括OPA策略生效的工作负载选择以及OPA策略(Rego),下面的配置对default命名空间下标签包含version: v1的工作负载生效,策略中定义了guest和admin两个角色,分别给两个角色定义了访问权限,同时还定义了两个用户bob和alice,分别赋予了特定角色;策略执行时会从请求中解析出用户,结合用户的权限和请求信息对访问进行鉴权。 apiVersion: istio.ctyun.cn/v1beta1 kind: OpaPolicy metadata: name: objectpolicy namespace: default spec: policy: package istio.authz import input.attributes.request.http as httprequest import input.parsedpath allow { rolesforuser[r] requiredroles[r] } rolesforuser[r] { r : userroles[username][] } requiredroles[r] { perm : roleperms[r][] perm.method httprequest.method perm.path httprequest.path } username parsed { [, encoded] : split(httprequest.headers.authorization, " ") [parsed, ] : split(base64url.decode(encoded), ":") } userroles { "alice": ["guest"], "bob": ["admin"] } roleperms { "guest": [ {"method": "GET", "path": "/productpage"}, ], "admin": [ {"method": "GET", "path": "/productpage"}, {"method": "GET", "path": "/api/v1/products"}, ], } workloadSelector: labels: version: v1
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格安全中心
        OPA策略
      • 设置SSL数据加密
        本页介绍了关系数据库MySQL版如何设置SSL数据加密。 关系数据库MySQL版设置SSL数据加密指引如下。 操作场景 SSL(Secure Socket Layer,安全套接层),位于可靠的面向连接的网络层协议和应用层协议之间的一种协议层。SSL通过互相认证、使用数字签名确保完整性、使用加密确保私密性,以实现客户端和服务器之间的安全通讯。 认证用户和服务器,确保数据发送到正确的客户端和服务器。 加密数据以防止数据中途被窃取。 维护数据的完整性,确保数据在传输过程中不被改变。 前提条件 只有数据库状态为运行中的实例才可以执行设置SSL数据加密。 操作步骤 开启SSL加密 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入TeleDB数据库概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入实例基本信息页面。 4. 选择数据安全 二级目录,选择SSL加密页签,点击SSL设置按钮。 若开关关闭,单击图标,在提示框中,单击确定,开启SSL加密。 5. 单击服务器证书右侧的下载证书,下载ca.pem。 6. 将根证书(ca.pem)上传到ECS(弹性云主机)或本地机器。 7. 在ECS或本地机器上执行以下命令连接MySQL实例。 a. mysql h P u p sslca 参数 说明 1.如果在关系数据库MySQL版同资源池同vpc下开通了ECS主机,通过ECS主机连接数据库,则hostName为连接地址。 2.如果在关系数据库MySQL版同个资源池下未开通ECS主机,则需要绑定弹性IP,hostName为目标实例的弹性公网IP。 目标实例的数据库端口。 用户名,即关系型数据库帐号(默认管理员帐号为root)。 相应的SSL证书文件名,该文件需放在执行该命令的路径下。 b. 使用root用户SSL连接数据库实例,示例如下: mysql h P 13049 u root p sslcaca.pem 8. 出现如下提示时,输入数据库帐号对应的密码: Enter password:
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        账号与安全
        设置SSL数据加密
      • ALM-13003 ZooKeeper进程垃圾回收(GC)时间超过阈值
        本章节主要介绍ALM13003 ZooKeeper进程垃圾回收(GC)时间超过阈值。 告警解释 系统每60秒周期性检测ZooKeeper进程的垃圾回收(GC)占用时间,当检测到ZooKeeper进程的垃圾回收(GC)时间超出阈值(默认12秒)时,产生该告警。 垃圾回收(GC)时间小于阈值时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 13003 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 ZooKeeper进程的垃圾回收时间过长,可能影响该ZooKeeper进程正常提供服务。 可能原因 该节点ZooKeeper实例堆内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 1. 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,单击告警“ZooKeeper进程垃圾回收(GC)时间超过阈值”所在行的下拉菜单。查看告警上报的实例的IP地址。 2. 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 >ZooKeeper > 实例 >quorumpeer”。单击图表区域右上角的下拉菜单,选择“定制 > GC”,勾选“ZooKeeper垃圾回收(GC)时间”,单击“确定”,查看ZooKeeper每分钟的垃圾回收时间统计情况。 3. 查看ZooKeeper每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行步骤 4。 否,执行步骤 8。 4. 请先排查应用程序是否存在内存泄露等问题。 5. 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 >ZooKeeper > 配置 > 全部配置 > quorumpeer > 系统”。将“GCOPTS”参数值根据实际情况调大。 说明 Xmx一般配置为ZooKeeper数据容量的2倍,如果ZooKeeper容量达到2GB,则GCOPTS建议配置为: Xms4G Xmx4G XX:NewSize512M XX:MaxNewSize512M XX:MetaspaceSize64M XX:MaxMetaspaceSize64M XX:CMSFullGCsBeforeCompaction1 6. 保存配置,并重启ZooKeeper服务。 7. 观察界面告警是否清除。 是,处理完毕。 否,执行步骤 8。 收集故障信息 8. 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 9. 在“服务”中勾选待操作集群的“ZooKeeper”。 10. 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 11. 请联系运维人员,并发送已收集的故障日志信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-13003 ZooKeeper进程垃圾回收(GC)时间超过阈值
      • 知识库检索(1)
        接口描述 检索知识库内容,支持丰富的检索策略。 请求方法 POST 接口要求 无 URI /openapi/v1/index/retrieve 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String json格式 application/json tenantId 是 String 租户ID 562b89493b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪 33dfa732b27b464fb15a21ed6845afd5 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 20211221T163014Z host 是 String 终端节点域名,固定字段 kqaglobal.ctapi.ctyun.cn EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、平台应用的appkey(非必须),用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求体Body参数 参数 是否必填 参数类型 说明 示例 下级对象 origin 是 Array[Object] 对话历史内容 注意:当前仅支持传入两轮对话上下文 [ { "role": "user", "content": "deepseek什么时候发布的" }, { "role": "assistant", "content": "2025年1月份" }, { "role": "user", "content": "它是由哪家公司研发的?" } ] Chat对象 searchType 是 String 搜索策略设置,有以下三种取值: HYBRIDSEARCH:混合检索; DENSESEARCH: 向量检索; SPARSESEARCH:稀疏/关键字检索; 注意:当指定某一检索模式后,下方params参数中仅该模式对应的配置项会生效,其余模式的参数将被忽略。 "DENSESEARCH" hybridParams 否 Object 混合检索专属配置参数,仅当 searchType 取值为 HYBRIDSEARCH 时生效; 若未传入该参数,系统将使用混合检索的默认配置 { "hybridTopK": 15, "denseWeight": 0.7, "sparseWeight": 0.3 } HybridParams对象 denseParams 否 Object 向量检索专属配置参数,仅当 searchType 取值为 DENSESEARCH 时生效; 若未传入该参数,系统将使用向量检索的默认配置 { "denseSimilarityTopK": 25 } DenseParams对象 sparseParams 否 Object 稀疏/关键词检索参数,仅当 searchType 取值为 SPARSESEARCH 时生效; 若未传入该参数,系统将使用稀疏 / 关键字检索的默认配置数 { "sparseSimilarityTopK":15 } SparseParams对象 searchScope 是 Array[Object] 指定检索的知识库范围,系统仅在该范围內执行检索操作 [ { "infoBaseId": "302", "fileIds": [ 1107, 1108 ] } ] SearchScope对象 enableRewrite 是 Boolean 是否开启历史对话补全改写。 开启后,系统会基于 origin 中的完整对话历史,将最后一轮用户问题补全为语义完整、可独立检索的查询语句,并使用改写后的 query 执行检索 true rerankParams 否 Object 检索结果重排等特殊策略的配置参数; 若未传入,系统将使用结果重排的默认规则 RerankParams对象 Chat对象 参数 是否必填 参数类型 说明 示例 下级对象 role 是 String 角色 user/assistant/system content 是 String 内容 你是谁 HybridParams对象 参数 是否必填 参数类型 说明 示例 下级对象 hybridTopK 否 Int 混合检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1,100] 默认值:15 30 denseWeight 否 float 混合检索中,向量检索结果在最终评分计算时的权重占比。 取值范围:[0,1] 默认值:0.8 注意:denseWeight和sparseWeight之和必须为1 0.8 sparseWeight 否 float 混合检索中,关键字检索结果在最终评分计算时的权重占比。 取值范围:[0,1] 默认值:0.2 注意:denseWeight和sparseWeight之和必须为1 0.2 DenseParams对象 参数 是否必填 参数类型 说明 示例 下级对象 denseSimilarityTopK 否 Int 向量检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1, 100] 默认值:30 30 SparseParams对象 参数 是否必填 参数类型 说明 示例 下级对象 sparseSimilarityTopK 否 Int 关键词检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1,100] 默认值:30 30 SearchScope对象 参数 是否必填 参数类型 说明 示例 下级对象 infobaseId 是 String 知识库ID 600 fileIds 否 Array[Int] 文档ID列表。 fileIds为空时默认检索知识库ID下所有文档 [11,71] RerankParams对象 参数 是否必填 参数类型 说明 示例 下级对象 enableReranking 是 boolean 是否开启检索结果重排功能,开启后系统将对召回的文本切片执行重排策略 true rerankMinScore 否 float 重排阶段文本切片的相似度筛选阈值; 仅 Rank 模型返回的相似度分数大于等于该值的文本切片会被保留召回; 取值范围: [0.01, 1.00] 默认值:0.1 0.5 rerankTopN 否 integer 重排完成后最终返回的文本切片数量(Top N)。 取值范围:[120] 默认值为:5 30 请求代码示例 plaintext Curl X POST " H "ContentType: application/json" H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" data '{ "origin": [ { "role": "user", "content": "deepseek什么时候发布的" }, { "role": "assistant", "content": "2025年1月份" }, { "role": "user", "content": "它是由哪家公司研发的?" } ], "searchType": "SPARSESEARCH", "hybridParams": { "hybridTopK": 15, "denseWeight": 0.7, "sparseWeight": 0.3 }, "denseParams": { "denseSimilarityTopK": 25 }, "sparseParams": { "sparseSimilarityTopK": 15 }, "searchScope": [ { "infoBaseId": "302", "fileIds": [ 1107, 1108 ] }, { "infoBaseId": "304", "fileIds": [] } ], "enableRewrite": true, "rerankParams": { "enableReranking": true, "rerankMinScore": 0.5, "rerankTopN": 5 } } 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回状态,返回200表示成功 200 message String 返回Success Success returnObj Object 接口返回结果 returnObj表 returnObj表 参数 参数类型 说明 示例 下级对象 matchList Array[Object] 检索到的匹配文本片段列表 MatchListObject对象 count Integer 列表长度 3 MatchListObject表 参数 是否必填 参数类型 说明 示例 下级对象 FileID 是 Long 文件id FileName 是 String 文件名 KnowledgeID 是 Long 知识ID ChunkID 是 Long 文档片段ID ChunkText 是 String 文档片段文本 ContentID 是 Long 内容ID ContentText 是 String 内容文本 SubTitle 是 String 文档摘要 DocTitle 是 String 内容摘要 Score 是 Float 匹配得分 UserName 是 String 用户名 DbName 是 String 知识库名 From 是 String 来源,可以取值(Knowledge/PPT/Image/Excel) QAID 否 Long 问答对id Question 否 String 问题文本 Answer 否 String 答案文本 ScreenShot 是 String PPT截图 ImageShot 是 String 图片截图 HostLogo 否 String 联网搜索的logo地址 Order 否 Long 顺序 Url 否 String 联网搜索的地址 FileType 是 String 文档类型 FileID 是 Long 文件id FileName 是 String 文件名 KnowledgeID 是 Long 知识ID 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 1.请求成功返回值示例 plaintext { "statusCode": 200, "error": null, "message": "Success", "returnObj": { "count": 2, "matchList": [ { "FileID": 1108, "FileName": "知识库API.docx", "KnowledgeID": 461419421572632289, "ChunkID": 1, "ChunkText": "知识库API.docx...", "ContentID": 14, "ContentText": "1.请求成功返回值示例...", "SubTitle": "三、 API", "DocTitle": "知识库API.docxn天翼云StateCloud", "Score": 0.064522564, "UserName": "155535", "DbName": "302", "From": "Knowledge", "QAID": null, "Question": null, "Answer": null, "ScreenShot": null, "ImageShot": null, "HostLogo": null, "Order": null, "Url": null, "FileType": "doc" }, { "FileID": 1108, "FileName": "知识库API.docx", "KnowledgeID": 461419421572632275, "ChunkID": 1, "ChunkText": "知识库API.docxn...", "ContentID": 7, "ContentText": "需要在httpclient 的请求头部中加上...", "SubTitle": "二、 如何调用APIn3.拿kAk 作为密钥,eopdate 的年月日值作为数据,算出kdate。", "DocTitle": "知识库API.docxn天翼云StateCloud", "Score": 0.014622092, "UserName": "155535", "DbName": "302", "From": "Knowledge", "QAID": null, "Question": null, "Answer": null, "ScreenShot": null, "ImageShot": null, "HostLogo": null, "Order": null, "Url": null, "FileType": "doc" } ] } } 2.请求失败返回值示例 plaintext { "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 错误码 错误信息 错误描述 40004 业务异常 业务异常,详情见message 40005 知识库不存在
        来自:
      • 知识库检索
        接口描述 检索知识库内容,支持丰富的检索策略。 请求方法 POST 接口要求 无 URI /openapi/v1/index/retrieve 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 ContentType 是 String json格式 application/json tenantId 是 String 租户ID 562b89493b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪 33dfa732b27b464fb15a21ed6845afd5 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 20211221T163014Z host 是 String 终端节点域名,固定字段 kqaglobal.ctapi.ctyun.cn EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、平台应用的appkey(非必须),用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求体Body参数 参数 是否必填 参数类型 说明 示例 下级对象 origin 是 Array[Object] 对话历史内容 注意:当前仅支持传入两轮对话上下文 [ { "role": "user", "content": "deepseek什么时候发布的" }, { "role": "assistant", "content": "2025年1月份" }, { "role": "user", "content": "它是由哪家公司研发的?" } ] Chat对象 searchType 是 String 搜索策略设置,有以下三种取值: HYBRIDSEARCH:混合检索; DENSESEARCH: 向量检索; SPARSESEARCH:稀疏/关键字检索; 注意:当指定某一检索模式后,下方params参数中仅该模式对应的配置项会生效,其余模式的参数将被忽略。 "DENSESEARCH" hybridParams 否 Object 混合检索专属配置参数,仅当 searchType 取值为 HYBRIDSEARCH 时生效; 若未传入该参数,系统将使用混合检索的默认配置 { "hybridTopK": 15, "denseWeight": 0.7, "sparseWeight": 0.3 } HybridParams对象 denseParams 否 Object 向量检索专属配置参数,仅当 searchType 取值为 DENSESEARCH 时生效; 若未传入该参数,系统将使用向量检索的默认配置 { "denseSimilarityTopK": 25 } DenseParams对象 sparseParams 否 Object 稀疏/关键词检索参数,仅当 searchType 取值为 SPARSESEARCH 时生效; 若未传入该参数,系统将使用稀疏 / 关键字检索的默认配置数 { "sparseSimilarityTopK":15 } SparseParams对象 searchScope 是 Array[Object] 指定检索的知识库范围,系统仅在该范围內执行检索操作 [ { "infoBaseId": "302", "fileIds": [ 1107, 1108 ] } ] SearchScope对象 enableRewrite 是 Boolean 是否开启历史对话补全改写。 开启后,系统会基于 origin 中的完整对话历史,将最后一轮用户问题补全为语义完整、可独立检索的查询语句,并使用改写后的 query 执行检索 true rerankParams 否 Object 检索结果重排等特殊策略的配置参数; 若未传入,系统将使用结果重排的默认规则 RerankParams对象 Chat对象 参数 是否必填 参数类型 说明 示例 下级对象 role 是 String 角色 user/assistant/system content 是 String 内容 你是谁 HybridParams对象 参数 是否必填 参数类型 说明 示例 下级对象 hybridTopK 否 Int 混合检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1,100] 默认值:15 30 denseWeight 否 float 混合检索中,向量检索结果在最终评分计算时的权重占比。 取值范围:[0,1] 默认值:0.8 注意:denseWeight和sparseWeight之和必须为1 0.8 sparseWeight 否 float 混合检索中,关键字检索结果在最终评分计算时的权重占比。 取值范围:[0,1] 默认值:0.2 注意:denseWeight和sparseWeight之和必须为1 0.2 DenseParams对象 参数 是否必填 参数类型 说明 示例 下级对象 denseSimilarityTopK 否 Int 向量检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1, 100] 默认值:30 30 SparseParams对象 参数 是否必填 参数类型 说明 示例 下级对象 sparseSimilarityTopK 否 Int 关键词检索阶段召回结果的 TopK 数量; 当 NeedReRankfalse(未开启重排)时,该值即为最终返回给用户的结果数量 取值范围:[1,100] 默认值:30 30 SearchScope对象 参数 是否必填 参数类型 说明 示例 下级对象 infobaseId 是 String 知识库ID 600 fileIds 否 Array[Int] 文档ID列表。 fileIds为空时默认检索知识库ID下所有文档 [11,71] RerankParams对象 参数 是否必填 参数类型 说明 示例 下级对象 enableReranking 是 boolean 是否开启检索结果重排功能,开启后系统将对召回的文本切片执行重排策略 true rerankMinScore 否 float 重排阶段文本切片的相似度筛选阈值; 仅 Rank 模型返回的相似度分数大于等于该值的文本切片会被保留召回; 取值范围: [0.01, 1.00] 默认值:0.1 0.5 rerankTopN 否 integer 重排完成后最终返回的文本切片数量(Top N)。 取值范围:[120] 默认值为:5 30 请求代码示例 plaintext Curl X POST " H "ContentType: application/json" H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" data '{ "origin": [ { "role": "user", "content": "deepseek什么时候发布的" }, { "role": "assistant", "content": "2025年1月份" }, { "role": "user", "content": "它是由哪家公司研发的?" } ], "searchType": "SPARSESEARCH", "hybridParams": { "hybridTopK": 15, "denseWeight": 0.7, "sparseWeight": 0.3 }, "denseParams": { "denseSimilarityTopK": 25 }, "sparseParams": { "sparseSimilarityTopK": 15 }, "searchScope": [ { "infoBaseId": "302", "fileIds": [ 1107, 1108 ] }, { "infoBaseId": "304", "fileIds": [] } ], "enableRewrite": true, "rerankParams": { "enableReranking": true, "rerankMinScore": 0.5, "rerankTopN": 5 } } 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 返回状态,返回200表示成功 200 message String 返回Success Success returnObj Object 接口返回结果 returnObj表 returnObj表 参数 参数类型 说明 示例 下级对象 matchList Array[Object] 检索到的匹配文本片段列表 MatchListObject对象 count Integer 列表长度 3 MatchListObject表 参数 是否必填 参数类型 说明 示例 下级对象 FileID 是 Long 文件id FileName 是 String 文件名 KnowledgeID 是 Long 知识ID ChunkID 是 Long 文档片段ID ChunkText 是 String 文档片段文本 ContentID 是 Long 内容ID ContentText 是 String 内容文本 SubTitle 是 String 文档摘要 DocTitle 是 String 内容摘要 Score 是 Float 匹配得分 UserName 是 String 用户名 DbName 是 String 知识库名 From 是 String 来源,可以取值(Knowledge/PPT/Image/Excel) QAID 否 Long 问答对id Question 否 String 问题文本 Answer 否 String 答案文本 ScreenShot 是 String PPT截图 ImageShot 是 String 图片截图 HostLogo 否 String 联网搜索的logo地址 Order 否 Long 顺序 Url 否 String 联网搜索的地址 FileType 是 String 文档类型 FileID 是 Long 文件id FileName 是 String 文件名 KnowledgeID 是 Long 知识ID 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 1.请求成功返回值示例 plaintext { "statusCode": 200, "error": null, "message": "Success", "returnObj": { "count": 2, "matchList": [ { "FileID": 1108, "FileName": "知识库API.docx", "KnowledgeID": 461419421572632289, "ChunkID": 1, "ChunkText": "知识库API.docx...", "ContentID": 14, "ContentText": "1.请求成功返回值示例...", "SubTitle": "三、 API", "DocTitle": "知识库API.docxn天翼云StateCloud", "Score": 0.064522564, "UserName": "155535", "DbName": "302", "From": "Knowledge", "QAID": null, "Question": null, "Answer": null, "ScreenShot": null, "ImageShot": null, "HostLogo": null, "Order": null, "Url": null, "FileType": "doc" }, { "FileID": 1108, "FileName": "知识库API.docx", "KnowledgeID": 461419421572632275, "ChunkID": 1, "ChunkText": "知识库API.docxn...", "ContentID": 7, "ContentText": "需要在httpclient 的请求头部中加上...", "SubTitle": "二、 如何调用APIn3.拿kAk 作为密钥,eopdate 的年月日值作为数据,算出kdate。", "DocTitle": "知识库API.docxn天翼云StateCloud", "Score": 0.014622092, "UserName": "155535", "DbName": "302", "From": "Knowledge", "QAID": null, "Question": null, "Answer": null, "ScreenShot": null, "ImageShot": null, "HostLogo": null, "Order": null, "Url": null, "FileType": "doc" } ] } } 2.请求失败返回值示例 plaintext { "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 错误码 错误信息 错误描述 40004 业务异常 业务异常,详情见message 40005 知识库不存在
        来自:
        帮助文档
        知识库问答
        API参考
        API
        知识库检索
      • 添加UDP监听器
        本文帮助您快速熟悉负载均衡服务UDP监听器的添加。 添加UDP监听器 操作场景 UDP协议适用于对实时性要求较高,对可靠性要求相对不高的业务,如语音、视频、证券行情实时推送等。 前提条件 您已经创建了弹性负载均衡实例。具体操作参考创建弹性负载均衡器。 约束与限制 UDP监听器不支持分片包。 UDP监听器的前端端口当前不支持4789。若使用会造成监听器的流量不通。 UDP监听器支持的最大MTU为1500,请确保与ELB通信的网卡的MTU不大于1500(有些应用程序需要根据此MTU值同步修改其配置文件),否则数据包可能会因过大被丢弃。 操作步骤 步骤一:创建监听器 1. 登录弹性负载均衡控制台。 2. 在顶部右侧选择负载均衡所属区域,本文选择华东华东1。 3. 选择以下一种方法打开监听器配置向导。 在负载均衡器列表页面,找到目标实例,在操作列单击“监听器配置向导”。 在ip类型/监听器端口/健康检查/服务器组列下方单击“开始配置”。 在负载均衡器列表页面,找到目标实例,单击实例名称进入实例详情页,单击“添加监听器”。 4. 在协议&监听配置向导参考UDP监听器配置说明,完成相关配置,然后点击“下一步”。 UDP监听器配置说明 监听配置 说明 名称 设置监听器的名称,名称应为232位,英文开头,支持大小写英文和数字。 负载均衡器协议/端口 下拉列表选择UDP协议,输入监听端口 描述 可选,填写监听器描述 新建连接限速(CPS限速) 开启新建连接限速,可设置此监听服务的新建连接速度,减轻高访问量服务切换过程中后端服务器压力。输入范围10~500000,单位连接数/秒,缺省 1000。仅集群模式资源池支持设置新建连接限速,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 访问控制 选择是否开启访问控制。开启访问控制后,选择一种访问控制方式:黑名单、白名单。并设置访问策略组作为该监听器的白名单或黑名单。 白名单:允许特定IP访问负载均衡,仅转发来自所选访问策略组中设置的IP地址或地址段的请求,白名单适用于只允许特定IP访问的场景。 黑名单:禁止特定IP访问负载均衡,不转发来自所选访问策略组中的IP或地址段,黑名单适用于只限制特定IP访问的场景
        来自:
      • 云下MySQL数据迁移至DRDS实例方案
        导出数据 1. 通过mysqldump工具导出云下MySQL数据。导出时针对每一个需要导出的库导出一个单独的SQL文件(也可以每个表单独一个文件),避免覆盖。 导出命令: mysqldump h {DBIP} P {DBPORT} u {DBUSER} p singletransaction hexblob completeinsert setgtidpurgedOFF quick nocreateinfo skipcomments skipaddlocks addlocksfalse skiptzutc [where""] {DBNAME} {TABLENAME} > {mysqltabledata.sql} 参数解释如下: 参数 说明 备注 DBIP 待导出数据的MySQL数据库IP。 必填。 DBPORT 待导出数据的MySQL数据库端口。 必填。 DBUSER 待导出数据的MySQL数据库用户名。 必填。 DBNAME 数据库名称。 必填。 TABLENAME 表名。 可选。本场景不需要该参数,即一次导出一个库的所有表。如有必要,可以多个同类型的表,用空格隔开。建议只导出与业务相关的表。 mysqltabledata.sql 生成的表数据文件名。 必填。请确保每次导出的文件名不同,建议以“逻辑库名”+“”+“逻辑表名”+“ ”+“data”格式命名,以免数据被覆盖。建议后缀为.sql completeinsert 使用完整的insert语句(包含列名称)。 本场景保留。 singletransaction 该选项在导出数据之前提交一个BEGIN SQL语句,BEGIN 不会阻塞任何应用程序且能保证导出时数据库的一致性状态。它只适用于多版本存储引擎,仅InnoDB。 本场景保留。 quick 不缓冲查询,直接导出到标准输出。避免大数据情况内存爆涨。 本场景保留。 hexblob 使用十六进制格式导出二进制字符串字段。如果有二进制数据就必须使用该选项。 本场景保留。 nocreateinfo 只导出数据,而不添加CREATE TABLE 语句。导出数据时使用。 本场景保留。 skipcomments 关闭附加注释信息。 本场景保留。 skiplocktables 在不锁表的情况下导出数据。某些参数会默认开启加锁声明,因此建议在数据导出语句末尾增加此参数。 本场景保留。 addlocksfalse 导出的数据文件中不加锁表的声明。 本场景保留。 skipaddlocks 在导出数据时,控制加锁动作,以避免因耗能引起的性能问题。 本场景保留。 setgtidpurgedOFF 若使用的MySQL版本为8.0或5.7,则需要配置该参数。若5.6及以下,不用该参数。 本场景保留。 where 只转储给定的WHERE条件选择的记录。 可选。 2. 针对上述导出的SQL文件,需要去掉不必要的信息,保持文件中尽量只包括insert语句。去掉的信息包括:不必要的注释。
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        云下MySQL数据迁移至DRDS实例方案
      • 导出DRDS实例数据
        参数 参数说明 备注 DBPROXYIP 待导出的DRDS的VIP。 必填。 DBPROXYPORT 待导出的DRDS的端口。 必填。 DPROXYUSER 待导出的DRDS的用户名。 必填。 DBNAME 逻辑schema名称。 必填。 TABLENAME 表名。 可选。如有必要,可以多个同类型的表,用空格隔开。建议只导出与业务相关的表。 drdstabledata.sql 生成的表数据文件名。 必填。请确保每次导出的文件名不同,建议以“逻辑库名”+“”+“逻辑表名”+“ ”+“data”格式命名,以免数据被覆盖。建议后缀为.sql completeinsert 使用完整的insert语句(包含列名称)。 本场景保留。 singletransaction 该选项在导出数据之前提交一个BEGIN SQL语句,BEGIN 不会阻塞任何应用程序且能保证导出时数据库的一致性状态。它只适用于多版本存储引擎,仅InnoDB。 本场景保留。 skiptzutc 跳过与时区相关的设置。 防止导出时处理时区信息,尤其是与 UTC 有关的设置。 本场景保留。 notablespaces 禁用与表空间相关的查询。避免查询 INFORMATIONSCHEMA.FILES 等表空间相关的表。 本场景保留。 quick 不缓冲查询,直接导出到标准输出。避免大数据情况内存爆涨。 本场景保留。 hexblob 使用十六进制格式导出二进制字符串字段。如果有二进制数据就必须使用该选项。 本场景保留。 nocreateinfo 只导出数据,而不添加CREATE TABLE 语句。导出数据时使用。 可选。如不需要导出表结构,可添加此参数。 nodata 不导出数据。 可选。如不不需要导出数据,可添加此参数。 skipcomments 关闭附加注释信息。 本场景保留。 skiplocktables 在不锁表的情况下导出数据。某些参数会默认开启加锁声明,因此建议在数据导出语句末尾增加此参数。 本场景保留。 addlocksfalse 导出的数据文件中不加锁表的声明。 本场景保留。 skipaddlocks 在导出数据时,控制加锁动作,以避免因耗能引起的性能问题。 本场景保留。 setgtidpurgedOFF 若使用的MySQL版本为8.0或5.7,则需要配置该参数。若5.6及以下,不用该参数。 本场景保留。 ignoretable{DBNAME}. sysglobalsequence 避免导出不需要的系统表, sysglobalsequence 是一个系统表,用于管理数据库内部的序列或状态数据,这些数据通常不需要备份或迁移。如不需要导出,可通过使用 ignoretable 选项来避免导出这些表。 本场景保留。 where 只转储给定的WHERE条件选择的记录。 可选。
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        导出DRDS实例数据
      • 快照与备份
        本文主要介绍 快照与备份。 CCE通过云硬盘EVS服务为您提供快照功能,云硬盘快照简称快照,指云硬盘数据在某个时刻的完整拷贝或镜像,是一种重要的数据容灾手段,当数据丢失时,可通过快照将数据完整的恢复到快照时间点。 您可以创建快照,从而快速保存指定时刻云硬盘的数据。同时,您还可以通过快照创建新的云硬盘,这样云硬盘在初始状态就具有快照中的数据。 使用须知 快照功能仅支持v1.15及以上版本的集群,且需要安装基于CSI的Everest插件才可以使用。 基于快照创建的云硬盘,其子类型(普通IO/高IO/超高IO)、是否加密、磁盘模式(VBD/SCSI)、共享性(非共享/共享)、容量等都要与快照关联母盘保持一致,这些属性查询和设置出来后不能够修改。 只有可用或正在使用状态,且存储格式为CSI的磁盘才能创建快照。快照免费试用期间,单个磁盘最大支持创建7个快照。 加密磁盘的快照数据以加密方式存放,非加密磁盘的快照数据以非加密方式存放。 使用场景 快照功能可以帮助您实现以下需求: 日常备份数据 通过对云硬盘定期创建快照,实现数据的日常备份,可以应对由于误操作、病毒以及黑客攻击等导致数据丢失或不一致的情况。 快速恢复数据 更换操作系统、应用软件升级或业务数据迁移等重大操作前,您可以创建一份或多份快照,一旦升级或迁移过程中出现问题,可以通过快照及时将业务恢复到快照创建点的数据状态。 例如,当由于云主机A的系统盘 A发生故障而无法正常开机时,由于系统盘 A已经故障,因此也无法将快照数据回滚至系统盘A。此时您可以使用系统盘 A已有的快照新创建一块云硬盘 B并挂载至正常运行的云主机 B上,从而云主机 B能够通过云硬盘 B读取原系统盘 A的数据。 说明 当前CCE提供的快照能力与K8S社区CSI快照功能一致:只支持基于快照创建新云硬盘,不支持将快照回滚到源云硬盘。 快速部署多个业务 通过同一个快照可以快速创建出多个具有相同数据的云硬盘,从而可以同时为多种业务提供数据资源。例如数据挖掘、报表查询和开发测试等业务。这种方式既保护了原始数据,又能通过快照创建的新云硬盘快速部署其他业务,满足企业对业务数据的多元化需求。
        来自:
        帮助文档
        云容器引擎
        用户指南
        存储管理
        快照与备份
      • 下载根证书
        本文介绍如何下载根证书。 如果您的业务用户通过Java等客户端访问Web业务,您需要下载与服务端证书类型一致的根证书,并手动安装到对应的客户端,确保客户端与服务端建立HTTPS安全连接。 背景概述 根证书是建立信任链的基础。一旦客户端安装了根证书,它即可验证由该根证书签发的所有证书。这使得客户端可以信任与该根证书相关的所有服务器和应用程序,从而建立起一个完整的信任链。 如果您的业务用户通过浏览器访问您的Web业务,则您无需关注根证书和中间证书,因为根证书和中间证书已经内置在浏览器,您只需在Web服务器安装经CA签发的SSL证书,即可实现客户端与服务端的HTTPS通信。如何获取SSL证书(服务端证书),请参见购买SSL证书。 如果业务用户通过Java等客户端访问您的Web业务,由于客户端没有内置根证书和中间证书,您可能需要在对应客户端或者系统默认信任库手动安装根证书和中间证书,保证客户端能够校验服务端的加密信息。例如,服务端安装了标准版SSL证书,则客户端需要有标准版OV型根证书,才能实现客户端与服务端的HTTPS通信。 下载根证书 证书分类 下载根证书 标准版 国密标准:国密版本根证书.zip 标准版 国际标准: 2025年4月3日之后签发:国际版本根证书(20250403后).zip 2025年1月14日2025年4月3日之间签发:国际版本根证书(2025011420250403).zip 2025年1月14日前签发:国际版本根证书(旧).zip SecureSite GeoTrust TrustAsia ECC算法:DigiCertGlobalRootG3root.rar SecureSite GeoTrust TrustAsia RSA算法:DigiCertGlobalRootG2root.rar GlobalSign OV证书、EV证书:GlobalSign Root CA R3.zip GlobalSign DV证书:GlobalSign Root CA R6.zip CFCA 国密标准:CFCA CS SM2 CA.zip CFCA 国际标准:CFCA EV ROOT.zip 个人证书 国密标准:个人证书根证书.zip
        来自:
        帮助文档
        证书管理服务
        用户指南
        SSL证书
        安装SSL证书
        安装SSL证书至服务器
        下载根证书
      • 环境准备
        本文主要介绍分布式消息服务RabbitMQ所需的环境准备。 创建RabbitMQ实例前,您需要提前准备相关依赖资源,包括虚拟私有云(Virtual Private Cloud,以下简称VPC)、子网和安全组,并配置安全组策略。每个RabbitMQ实例都部署在某个VPC中,并绑定具体的子网和安全组,通过这样的方式为RabbitMQ提供一个隔离的、用户自主配置和管理的虚拟网络环境以及安全保护策略,提升实例的安全性。 如果用户已有VPC,可重复使用,不需要多次创建。 创建VPC 1、登录管理控制台。 2、在管理控制台右上角单击,选择区域。 说明 此处请选择与您的应用服务相同的区域。 3、在管理控制台左上角单击,选择“网络 > 虚拟私有云”。 4、单击“创建虚拟私有云”,进入“创建虚拟私有云”界面。 5、根据界面提示创建虚拟私有云。如无特殊需求,界面参数均可保持默认。关于创建VPC的详细信息可以参考《虚拟私有云用户指南》。 创建虚拟私有云时,会同时创建子网,若需要额外创建子网,请参考6。如果不需要额外创建子网,请执行7。 6、在左侧导航栏,单击“子网”,进入“子网”界面。单击“创建子网”。根据界面提示创建子网。如无特殊需求,界面参数均可保持默认。 关于创建子网的详细信息可以参考《虚拟私有云用户指南》。 7、在左侧导航栏,选择“访问控制 > 安全组”,进入“安全组”界面。根据界面提示创建安全组。如无特殊需求,界面参数均可保持默认。 关于创建安全组的详细信息可以参考《虚拟私有云用户指南》。 使用RabbitMQ实例前,添加表1所示安全组规则,其他规则请根据实际需要添加。 说明 创建安全组后,系统默认添加入方向“允许安全组内的弹性云主机彼此通信”规则和出方向“放通全部流量”规则,此时使用内网通过同一个VPC访问RabbitMQ实例,无需添加表1的规则。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 5672 0.0.0.0/0 访问RabbitMQ实例(关闭SSL) 入方向 TCP 5671 0.0.0.0/0 访问RabbitMQ实例(开启SSL) 入方向 TCP 15672 0.0.0.0/0 访问Web界面UI地址(关闭SSL加密) 入方向 TCP 15671 0.0.0.0/0 访问Web界面UI地址(开启SSL加密)
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        环境准备
      • TeleDB内核架构
        本页介绍天翼云TeleDB数据库的内核架构。 分布式数据库方案架构如图所示。 Global Transaction Manager(简称 GTM),是全局事务管理器,负责全局事务管理,包括管理分布式事务和管理全局对象。GTM 上不存储业务数据。 管理分布式事务‌:GTM负责协调和管理分布式环境中的事务,确保事务的原子性、一致性、隔离性和持久性(ACID属性),从而保证数据的一致性和完整性。 管理全局对象‌:除了管理分布式事务本身,GTM还负责管理全局对象,如序列等,这些对象在分布式环境中需要跨多个节点进行协调和管理。 Coordinator(简称 CN)是协调节点,主要负责数据的分发和查询规划。协调节点需对外提供接口,确保高效处理和分发数据。协调节点是分布式系统中的一个组件,通过任务调度和数据分发来协调整个数据处理流程,提高处理速度和可靠性。它们还负责监控工作节点的状态和进度,确保数据的高效处理和分析。在大数据处理中,协调节点作为主节点,分配任务给工作节点,确保负载均衡和系统的容错能力。 任务调度‌:协调节点负责将任务分配给可用的工作节点,根据负载均衡策略和节点的可用性确定任务的分配方式。 数据分发‌:协调节点将输入数据分发给工作节点,实现数据并行处理,提高处理速度。 状态监控‌:协调节点监控工作节点的状态和进度,及时检测节点故障或任务失败,并采取相应的措施,如重新分配任务或启动备用节点。‌ Datanode(简称 DN)是数据节点,主要负责存储数据,执行协调节点分发的业务请求。‌它包含数据库的实际数据文件和索引文件,并接收来自应用程序或其他节点的数据读写请求,负责执行实际的数据存储和检索操作。数据节点以分布式方式组织,每个节点存储部分数据,通过分片(Sharding)技术来实现数据的水平扩展和负载均衡。这样的设计使得分布式数据库系统能够支持大规模的数据存储和高可用性,同时确保数据的均匀分布,避免单个节点成为瓶颈,从而提高系统的整体性能和可靠性。 说明 各个数据节点可以部署在不同的物理机上,也支持同物理机部署多个数据节点,注意互为主备数据节点不建议部署在同物理主机上。数据节点存储空间彼此之间独立、隔离,是标准的无共享存储拓扑结构。并且数据节点之间可以相互通信,互相交换数据。‌ TeleDB管控资源全生命周期管理。 说明 在接口上,TeleDB 支持 JDBC、ODBC、shell、C、Python、PHP、.NET 等大多数语言的 API。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        方案简介
        TeleDB内核架构
      • 设置SSL数据加密
        本节主要介绍设置SSL数据加密 SSL(Secure Socket Layer,安全套接层),位于可靠的面向连接的网络层协议和应用层协议之间的一种协议层。SSL通过互相认证、使用数字签名确保完整性、使用加密确保私密性,以实现客户端和服务器之间的安全通讯。 认证用户和服务器,确保数据发送到正确的客户端和服务器。 加密数据以防止数据中途被窃取。 维护数据的完整性,确保数据在传输过程中不被改变。 SSL连接开启后,可以通过SSL方式连接实例,提高数据安全性。 使用须知 开启或关闭SSL会导致实例重启,请谨慎操作。 开启SSL,可以通过SSL方式连接数据库,具有更高的安全性。 目前已禁用不安全的加密算法,支持的安全加密算法对应的加密套件参考如下。 版本 支持的TLS版本 支持的加密算法套件 3.4 TLS 1.2 AES256GCMSHA384 AES128GCMSHA256 4.0 TLS 1.2 DHERSAAES256GCMSHA384 DHERSAAES128GCMSHA256 用户的客户端所在服务器需要支持对应的TLS版本以及对应的加密算法套件,否则会连接失败。 关闭SSL,可以采用非SSL方式连接数据库。 开启SSL连接 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上方的,选择区域和项目。 步骤 3 在页面左上角单击,选择“数据库 > 文档数据库服务 DDS”,进入文档数据库服务信息页面。 步骤 4 在“实例管理”页面,选择指定的数据库实例,单击实例名称。 步骤 5 在“基本信息”页面的“数据库信息”区域,单击SSL处的。 开启SSL 您也可以在左侧导航树,单击“连接管理”。在“基本信息”区域的“SSL”处,单击。 开启SSL安全连接 步骤 6 在弹出框中,单击“是”,开启SSL连接。 步骤 7 稍后可在“基本信息”区域,查看到SSL已开启。 SSL开启成功 步骤 8 SSL连接开启后,可以单击SSL处的,下载SSL证书,用于连接实例时使用。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据安全性
        设置SSL数据加密
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • 使用V2签名时的HttpURLConnection开发
        本节主要介绍使用V2签名时的HttpURLConnection开发。 应用场景 V2签名下,使用HttpURLConnection开发。 前提条件 已开通对象存储(经典版)Ⅰ型服务。 具体操作 可以参考下列示例进行HttpURLConnection开发。 import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.io.OutputStream; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.URL; import java.net.URLEncoder; import java.nio.charset.StandardCharsets; import java.text.SimpleDateFormat; import java.util.Arrays; import java.util.Base64; import java.util.Date; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Locale; import java.util.Map; import java.util.SortedMap; import java.util.TimeZone; import java.util.TreeMap; import javax.crypto.Mac; import javax.crypto.spec.SecretKeySpec; public class OOSDemoForV2Signer { private static final String DATESTR "EEE, d MMM yyyy HH:mm:ss 'GMT'"; private static final SimpleDateFormat DATEFMT new SimpleDateFormat(DATESTR, Locale.ENGLISH); static { TimeZone gmt TimeZone.getTimeZone("GMT"); DATEFMT.setTimeZone(gmt); } private static final String OOSACCESSKEY "your ak"; private static final String OOSSECRETKEY "your sk"; private static final String OOSENDPOINT "ooscn.ctyunapi.cn"; private static final String OOSOBJECTCONTENT "yourobjectcontent"; private static final int CONNTIMEOUT 30000; private static final int READTIMEOUT 30000; public void putObject(String bucket, String objectKey) { try { Map headers new HashMap<>(); headers.put("ContentType", "text/plain"); headers.put("xamzdate", "xxxx"); HttpURLConnection connection generateConnection("PUT", bucket, objectKey, headers); connection.setFixedLengthStreamingMode(OOSOBJECTCONTENT.length()); connection.setDoOutput(true); connection.connect(); byte[] requestBody OOSOBJECTCONTENT.getBytes(); try (OutputStream outputStream connection.getOutputStream()) { outputStream.write(requestBody); } int responseCode connection.getResponseCode(); if (responseCode 200) { System.out.println("put object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { e.printStackTrace(); } } public void getObject(String bucket, String objectKey) { try { HttpURLConnection connection generateConnection("GET", bucket, objectKey, null); connection.connect(); int responseCode connection.getResponseCode(); // 在responseCode为200 的情况下, 可将connection.getInputStream()的对象数据读出。 if (responseCode 200) { System.out.println("get object success"); } try (InputStream inputStream responseCode 200 ? connection.getInputStream() : connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } public void deleteObject(String bucket, String objectKey) { try { HttpURLConnection connection generateConnection("DELETE", bucket, objectKey, null); connection.connect(); int responseCode connection.getResponseCode(); if (responseCode 204) { System.out.println("delete object success"); } else { try (InputStream inputStream connection.getErrorStream()) { BufferedReader reader new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line reader.readLine()) ! null) { System.out.println(line); } } } } catch (Exception e) { // 异常可选择抛出或者处理掉。 e.printStackTrace(); } } / 1 并不是headers里的所有头域,都参与计算签名。详情请参照 3.1.1章节StringToSign的构成说明 2 任何头以xamzmeta这个前缀开始都会被认为是用户的元数据,当用户检索时,它将会和对象一起被存储并返回。 PUT请求头大小限制为8KiB。在PUT请求头中,用户定义的元数据大小限制为2KiB。 例:headers.put("xamzmetatest", "oos"); / private HttpURLConnection generateConnection(String method, String bucket, String objectKey, Map headers) throws Exception { if (headers null) { headers new TreeMap<>(); } if (!headers.containsKey("Date")) { String date DATEFMT.format(new Date()); headers.put("Date", date); } Map querys new HashMap<>(32); // 设置查询参数示例,可按需选择是否在请求url上设置查询参数。更多接口参数请参考《OOS开发者文档v6》 querys.put("responsecontenttype", "application/octetstream"); String authorization v2Sign(method, bucket, objectKey, headers, querys); String requestUrl " + bucket + "." + OOSENDPOINT + "/" + urlEncode(objectKey, false); if (querys.size() ! 0) { requestUrl + "?" + encodeParameters(querys); } URL url new URL(requestUrl); HttpURLConnection connection (HttpURLConnection)url.openConnection(); connection.setRequestProperty("Authorization", authorization); connection.setConnectTimeout(CONNTIMEOUT); connection.setReadTimeout(READTIMEOUT); connection.setRequestMethod(method); if (null ! headers) { headers.forEach(connection::setRequestProperty); } return connection; } private String encodeParameters(Map querys) { StringBuilder builder new StringBuilder(); Iterator > pairs querys.entrySet().iterator(); while (pairs.hasNext()) { Map.Entry pair pairs.next(); builder.append(urlEncode(pair.getKey(), false)); builder.append(""); builder.append(urlEncode(pair.getValue(), false)); if (pairs.hasNext()) { builder.append("&"); } } return builder.toString(); } // 以下是签名计算相关方法 / The set of request parameters which must be included in the canonical string to sign. / private static final List SIGNEDPARAMETERS Arrays.asList("acl", "torrent", "logging", "location", "policy", "requestPayment", "versioning", "versions", "versionId", "notification", "uploadId", "uploads", "partNumber", "website", "delete", "lifecycle", "tagging", "cors", "restore", "responsecachecontrol", "responsecontentdisposition", "responsecontentencoding", "responsecontentlanguage", "responsecontenttype", "responseexpires"); private String v2Sign(String method, String bucket, String objectKey, Map headers, Map querys) throws Exception { String canonicalString getCanonicalString(method, toResourcePath(bucket, objectKey), headers, querys); String signature sign(canonicalString); return "AWS " + OOSACCESSKEY + ":" + signature; } private String sign(String data) throws Exception { try { Mac mac Mac.getInstance("HmacSHA1"); mac.init(new SecretKeySpec(OOSSECRETKEY.getBytes(StandardCharsets.UTF8), "HmacSHA1")); byte[] bs mac.doFinal(data.getBytes(StandardCharsets.UTF8)); return Base64.getEncoder().encodeToString(bs); } catch (Exception e) { throw new Exception("Unable to calculate a request signature: " + e.getMessage(), e); } } / Calculate the canonical string for a REST/HTTP request to OOS. When expires is nonnull, it will be used instead of the Date header. / private String getCanonicalString(String method, String resource, Map headers, Map querys) { StringBuilder buf new StringBuilder(); buf.append(method).append("n"); SortedMap interestingHeaders new TreeMap<>(); if (headers ! null && headers.size() > 0) { for (Map.Entry entry : headers.entrySet()) { String key entry.getKey(); String value entry.getValue(); if (key null) { continue; } String lk key.toLowerCase(Locale.getDefault()); if ("contenttype".equals(lk) "contentmd5".equals(lk) "date".equals(lk) lk.startsWith("xamz")) { interestingHeaders.put(lk, value); } } } // Remove default date timestamp if "xamzdate" is set. if (interestingHeaders.containsKey("xamzdate")) { interestingHeaders.put("date", ""); } // These headers require that we still put a new line in after them, // even if they don't exist. if (!interestingHeaders.containsKey("contenttype")) { interestingHeaders.put("contenttype", ""); } if (!interestingHeaders.containsKey("contentmd5")) { interestingHeaders.put("contentmd5", ""); } // Any parameters that are prefixed with "xamz" need to be included // in the headers section of the canonical string to sign if (querys ! null) { for (Map.Entry parameter : querys.entrySet()) { if (parameter.getKey().toLowerCase().startsWith("xamz")) { interestingHeaders.put(parameter.getKey().toLowerCase(), parameter.getValue()); } } } for (Map.Entry entry : interestingHeaders.entrySet()) { String key entry.getKey(); Object value entry.getValue(); if (key.toLowerCase().startsWith("xamz")) { buf.append(key).append(':').append(value); } else { buf.append(value); } buf.append("n"); } buf.append(resource); if (querys ! null) { String[] parameterNames querys.keySet().toArray(new String[0]); Arrays.sort(parameterNames); char separator '?'; for (String parameterName : parameterNames) { // Skip any parameters that aren't part of the canonical signed string if (!SIGNEDPARAMETERS.contains(parameterName)) { continue; } buf.append(separator); buf.append(parameterName); String parameterValue querys.get(parameterName); if (parameterValue ! null && !"".equals(parameterValue)) { buf.append("").append(parameterValue); } separator '&'; } } return buf.toString(); } private String toResourcePath(String bucket, String objectKey) { String resourcePath "/" + ((bucket ! null && !"".equals(bucket)) ? bucket : "") + ((objectKey ! null) ? "/" + objectKey : ""); return urlEncode(resourcePath, true); } / @param keepPathSlash 实际上,根据RFC 3986规范,url中的 '/'和'~' 可以不用转译,URLEncoder做了转译,但是为了兼容浏览器解析文件名,要求 '/'和'~'不能做转译。 @param url 客户请求的url,也就是object key @return 转译后的url / private String urlEncode(String url, boolean keepPathSlash) { String encoded; try { encoded URLEncoder.encode(url, StandardCharsets.UTF8.toString()); } catch (UnsupportedEncodingException e) { throw new RuntimeException("UTF8 encoding is not supported.", e); } if (keepPathSlash) { // Web browsers do not always handle '+' characters well, use the wellsupported '%20' instead. encoded encoded.replaceAll("+", "%20"); // Change all "%2F" back to "/", so that when users download a file in a virtual folder by the presigned // URL, // the web browsers won't mess up the filename. (e.g. 'folder1folder2filename' instead of 'filename') encoded encoded.replace("%2F", "/"); encoded encoded.replace("%7E", "~"); } return encoded; } public static void main(String[] args) { String bucket "your bucket"; String objectKey "your object key"; OOSDemoForV2Signer v2 new OOSDemoForV2Signer(); v2.putObject(bucket, objectKey); v2.getObject(bucket, objectKey); v2.deleteObject(bucket, objectKey); } }
        来自:
        帮助文档
        对象存储(经典版)I型
        最佳实践
        使用HttpURLConnection开发
        使用V2签名时的HttpURLConnection开发
      • 整机镜像跨可用区迁移
        本章节介绍如何通过云主机备份,完成整机镜像的跨可用区迁移。 场景描述 云主机备份支持将弹性云主机的备份创建为镜像,可利用镜像发放弹性云主机,达到快速恢复业务运行环境的目的。使用云主机备份创建的镜像,在region内的其他可用区,快速创建相同配置的弹性云主机。 方案优势 跨可用区,快速共享并创建相同配置的弹性云主机,快速实现云主机迁移。 通过云主机备份创建的系统镜像包含操作系统、应用软件,以及用户的业务数据。 使用该镜像创建新的云主机,会包含已配置的自定义项,大大节省客户业务重复配置的时间。 前提条件 在进行本文操作之前,您需要完成以下准备工作: 请确保弹性云主机在备份前已完成如下操作: Linux弹性云主机优化并安装Cloudinit工具 Windows弹性云主机优化并安装Cloudbaseinit工具 创建镜像前备份的状态必须为“可用”,或者状态为“创建中”并在备份状态列显示“可用于创建镜像”时,才允许执行创建镜像操作。 操作步骤 步骤1:创建云主机备份 1、参照云主机备份操作指导章节,完成云主机备份的创建。 2、执行备份成功后,在“备份副本”页签,查看产生的备份状态为“可用”,表示当前备份任务执行成功。 步骤2:通过云主机备份创建整机镜像 1、登录天翼云管理控制台。选择“计算 > 镜像服务”。进入镜像服务页面。 2、单击右上角的“创建私有镜像”,进入创建私有镜像页面。在“镜像类型和来源”区域,选择镜像的创建方式为“整机镜像”。镜像源选择“云主机备份”,从列表中选择相应的云主机备份。 3、在“配置信息”区域,填写镜像的基本信息。例如,镜像的名称和镜像描述。单击“立即创建”。 4、根据界面提示,确认镜像参数。阅读并勾选协议,单击“提交申请”。返回私有镜像界面查询创建的整机镜像的状态。 5、当镜像的状态为“正常”时,表示创建完成。 步骤3:使用整机镜像创建云主机 1、登录天翼云管理控制台。选择“计算 > 镜像服务”。进入镜像服务页面。 2、在“私有镜像”页签下,选中创建成功的整机镜像,单击操作列“申请主机”,进入创建云主机的向导页面。 3、参考《弹性云主机用户指南》,在目的可用区完成弹性云主机的创建。使用整机镜像创建弹性云主机,如果整机镜像中包含了一块或多块数据盘,系统会自动设置好数据盘参数。
        来自:
        帮助文档
        云主机备份 CSBS
        最佳实践
        整机镜像跨可用区迁移
      • 数据库参数
        本页介绍了文档数据库服务参数。 能否调整实例的时区设定 鉴于无法调整文档数据库服务的时区设置,您可以通过在应用程序中获取当前时间并将其插入到表中的方式来处理。 用户需要关注实例的哪些参数 storage.engine 这个参数用于指定 MongoDB 使用的存储引擎,默认为 WiredTiger。可以根据需求选择其他存储引擎,如 InMemory 引擎或 MMAPv1 引擎。 storage.wiredTiger.engineConfig.cacheSizeGB 对于使用 WiredTiger 存储引擎的 MongoDB,这个参数用于配置缓存大小,即存储引擎使用的内存量。根据数据量和可用内存设置合适的值。 net.maxIncomingConnections 这个参数限制 MongoDB 实例可以同时处理的连接数。通过适当设置这个参数,可以控制 MongoDB 的并发连接数量。 security.authorization 使用这个参数可以启用或禁用 MongoDB 的访问控制功能。设置为 true 时,需要进行身份验证才能访问 MongoDB。 MapReduce提示不支持JavaScript MapReduce是一种用于对大型数据集进行处理和分析的功能强大的工具。然而,从安全性和性能方面考虑,在某些情况下可能会限制使用JavaScript代码,包括在MapReduce中执行JavaScript代码。 这种限制的目的是为了减少潜在的安全风险,避免不当的代码执行以及提高执行效率。JavaScript代码的执行可能会引起一些潜在的问题,例如代码注入攻击和性能下降。 为了安全考虑,mongodb默认限制了JavaScript脚本的执行。 文档数据库服务数据一致性策略:writeConcern与readConcern的运用与限制 MongoDB的写入和读取是数据库操作中重要的两个方面。为了确保数据的可靠性和一致性,MongoDB提供了writeConcern和readConcern这两个机制。 当我们谈论writeConcern时,实际上是在谈论写入操作的策略。通过配置writeConcern,我们可以控制数据写入的行为。例如,当我们将writeConcern设置为"majority"级别时,MongoDB会确保数据被写入到大多数节点上,从而降低了数据丢失的风险。这意味着,即使部分节点发生故障,大多数节点仍然保存着相同的数据,保障了数据的可靠性。 而readConcern则是与读取操作相关的策略。当我们设置readConcern为"majority"级别时,MongoDB会确保所读取的数据已经被写入到了大多数节点上。这就消除了因为读取操作而引起的脏读问题,因为我们可以确信读取到的数据已经经过大多数节点的确认。 然而,需要注意的是,目前文档数据库服务并不直接支持设置readConcern为"majority"级别。但这并不妨碍我们保障数据的一致性。通过设置writeConcern为"majority",我们可以将数据写入到大多数节点,从而实现了大多数节点数据的一致性。随后,通过读取单个节点的数据,仍然可以保证读取到的内容是已经经过多数节点确认的,避免了脏读的问题。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        数据库参数
      • 管理数据库连接
        本章节主要介绍如何管理数据库连接。 操作场景 数据库默认支持一定数量的连接,管理员用户可以通过管理数据库的连接,了解当前数据库的连接性能,或增加连接限制使更多用户或应用程序可以同时连接到数据库。 支持的连接数规格 集群支持的连接数与集群节点规格有关: 支持连接数规格表 参数 节点规格 CN连接数 DN连接数 maxconnections vCPUs 16 && < 32 1024 CN连接数 2 maxconnections other 2048 CN连接数 2 说明 commmaxstream,poolsize,maxpreparedtransactions策略同maxconnections 。 查看最大连接数 1. 使用SQL客户端工具连接集群中的数据库。 2. 执行以下命令: SHOW maxconnections; 界面显示的结果与以下信息类似,表示数据库默认支持的最大连接数为200。 maxconnections 200 (1 row) 查看已使用的连接数 1. 使用SQL客户端工具连接集群中的数据库。 2. 支持查看如下表所示的连接数场景。 须知 除了创建的时候用双引号引起的数据库和用户名称外,以下命令中用到的数据库名称和用户名称,其中包含的英文字母必须使用小写。 查看连接数介绍表 描述 命令 查看指定用户的会话连接数上限。 执行如下命令查看连接到指定用户dbadmin 的会话连接数上限。 SELECT ROLNAME,ROLCONNLIMIT FROM PGROLES WHERE ROLNAME'dbadmin'; 查询结果类似如下信息,其中“1”表示没有对用户dbadmin 设置连接数的限制。 rolname rolconnlimit + dwsadmin 1 (1 row) 查看指定用户已使用的会话连接数。 执行如下命令查看指定用户dbadmin 已使用的会话连接数。 SELECT COUNT() FROM V$SESSION WHERE USERNAME'dbadmin'; 查询结果类似如下信息,其中,“1”表示dbadmin 已使用的会话连接数。 count 1 (1 row) 查看指定数据库的会话连接数上限。 执行如下命令查看连接到指定数据库postgres的会话连接数上限。 SELECT DATNAME,DATCONNLIMIT FROM PGDATABASE WHERE DATNAME'postgres'; 查询结果类似如下信息,其中“1”表示没有对数据库postgres设置连接数的限制。 datname datconnlimit + postgres 1 (1 row) 查看指定数据库已使用的会话连接数。 执行如下命令查看指定数据库postgres上已使用的会话连接数。 SELECT COUNT() FROM PGSTATACTIVITY WHERE DATNAME'postgres'; 查询结果类似如下信息,其中,“1”表示数据库postgres上已使用的会话连接数。 count 1 (1 row) 查看所有用户已使用会话连接数。 执行如下命令查看所有用户已使用的会话连接数。 SELECT COUNT() FROM PGSTATACTIVITY; count 10 (1 row)
        来自:
        帮助文档
        数据仓库服务
        用户指南
        连接集群
        管理数据库连接
      • Linux操作系统云主机磁盘分区提示空间不足怎么办
        当您出现Linux操作系统云主机磁盘分区提示空间不足问题时可参考本文。 问题描述 云主机使用过程数据持续增长,容易导致磁盘空间不足的问题,相应的对系统运行造成影响,如系统性能下降、应用程序无法正常运行、系统崩溃等。 问题定位与解决方案 1. 查看磁盘空间占用情况 首先您需要了解当前磁盘下各个目录的空间占用情况,以便能够有针对性地进行优化。 执行 df h 命令查看磁盘空间的占用情况。 执行后可见系统上所有分区与挂载点的空间使用情况,可以判断哪个目录占用了大量的磁盘空间。 2. 清理临时文件 在Linux系统中,临时文件如果长时间不处理,将可能占用大量磁盘空间。您可以通过定期清理临时文件来释放磁盘空间。 以下是一些常见的临时文件所在的目录。 /tmp目录是存放临时文件的默认目录,您可以执行 rm rf /tmp/命令清理该目录下的全部临时文件,或者执行 rm rf /tmp/(文件名)命令清理该目录下的指定临时文件。 /var/tmp目录也是存放临时文件的目录,您可以执行 rm rf /var/tmp/命令清理该目录下的全部临时文件,或者执行 rm rf /var/tmp/(文件名)命令清理该目录下的指定临时文件。 3. 清理日志文件 在Linux系统中,日志文件如果长时间不处理,也可能占用大量磁盘空间。您可以通过清理不必要的日志文件来释放磁盘空间。 以下是一些常见的日志文件所在的目录: /var/log目录存放系统日志文件,您可以执行 rm rf /var/log/命令清理该目录下的全部日志文件,或者执行 rm rf /var/log/(文件名)命令清理该目录下指定日志文件。 因为Linux系统支持日志轮转策略,即日志文件保留一定时长后自动清理的策略,所以您可以通过调整日志轮转策略,即调整日志文件自动保留时间,达到日志文件常规管理的目的。 您可以编辑 /etc/logrotate.conf文件来调整系统日志轮转策略。 4. 压缩低频大文件 您可以通过临时压缩使用频率较低的大文件,释放部分磁盘空间。Linux系统中常用的压缩工具有gzip、bzip2以及zip等。 5. 删除不必要的软件和文件 如果您的系统中存在不使用或非必要的软件,或者无须留存的其它文件,可以通过清理它们来释放磁盘空间。 执行命令 sudo aptget remove (软件包名) 清理软件。 执行命令 rm rf (文件路径)/(文件名)清理指定文件。 6. 扩容磁盘空间 如果以上方法无法帮助您释放出足够的磁盘空间,请您考虑扩容已有云硬盘或添加新的云硬盘,实现存储空间扩容。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        磁盘空间管理
        Linux操作系统云主机磁盘分区提示空间不足怎么办
      • 更改时区
        本节介绍了更改时区的操作场景、更改Linux弹性云主机的时区、更改Windows弹性云主机的时区。 操作场景 弹性云主机默认设置的时区,是您制作镜像时选择的时区。如需修改,请参见本节内容,将其更改为所需的本地时间或网络中的其他时区。 弹性云主机登录成功后,如果发现弹性云主机系统时间与本地时间不一致,建议更改时区,将弹性云主机系统时间与本地时间进行同步。 更改Linux弹性云主机的时区 针对不同的Linux操作系统,更改时区的操作略有不同。本节以CentOS 6.x 64bit为例,介绍更改Linux弹性云主机时区的操作方法。 1. 登录弹性云主机。 2. 执行以下命令,切换至root帐号。 su root 3. 执行以下命令,查询支持使用的时区。 ls /usr/share/zoneinfo/ 其中,“/user/share/zoneinfo”目录显示了时区数据文件的目录结构。您可以通过该目录结构,查找您所需时区的文件。 “/user/share/zoneinfo”目录中显示的信息,部分为时区,部分为目录。其中,目录包含了针对特定城市的时区文件,您可以在此目录查找要用于弹性云主机的所在城市时区。 示例如下: − 假设您需要使用中国上海所在的时区,则需先执行命令ls /usr/share/zoneinfo/Asia打开目录。 其时区文件目录为“/usr/share/zoneinfo/Asia/Shanghai” − 假设您需要使用法国巴黎所在的时区,则需先执行命令ls /usr/share/zoneinfo/Europe打开目录,其时区文件目录为“/usr/share/zoneinfo/Europe/Paris”。 4. 设置新时区。 a. 执行以命令,打开“/etc/sysconfig/clock”文件。 vim /etc/sysconfig/clock b. 查找ZONE条目,将其更改为所需的时区文件名称。 示例如下: 假设更改为中国上海所在时区,需将ZONE条目更改为: ZONE"Asia/Shanghai" 假设更改为法国巴黎所在时区,需将ZONE条目更改为: ZONE"Europe/Paris" 5. 按“ESC”,执行以下命令,保存并退出文件。 :wq 6. 执行以下命令,查询弹性云主机中是否已经存在“/etc/localtime”文件。 ls /etc/localtime − 是,执行7。 − 否,跳转8。 7. 执行以下命令,删除已有的“/etc/localtime”文件。 rm /etc/localtime 8. 执行以下命令,在“/etc/localtime”与时区文件之间创建一个符号链接,使得弹性云主机在引用本地时间信息时找到此时区文件。 ln sf /usr/share/zoneinfo/Asia/Shanghai /etc/localtime 9. 执行以下命令,重启系统,使得所有服务和应用程序接受新时区信息。 reboot 10. 重新登录弹性云主机,使用root帐号执行以下命令,查询弹性云主机的时区,确认是否更改成功。 ls lh /etc/localtime 回显信息如下所示: ls lh /etc/localtime lrwxrwxrwx 1 root root 33 Nov 27 11:01 /etc/localtime > /usr/share/zoneinfo/Asia/Shanghai
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        实例
        管理弹性云主机
        更改时区
      • 1
      • ...
      • 205
      • 206
      • 207
      • 208
      • 209
      • ...
      • 231
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      训推服务

      AI Store

      公共算力服务

      一站式智算服务平台

      知识库问答

      推荐文档

      云间高速的优势

      云安备信息查看

      天翼云最佳实践①:Linux实例搭建FTP站点

      JAVA API

      产品功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号