活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      全局事务服务 GTS_相关内容
      • 退订企业版实例
        本节介绍了退订企业版实例的用户指南。 容器镜像服务支持从订单管理中心发起实例退订,不支持从控制台发起退订。 退订步骤 1. 进入天翼云控制中心 2. 导航至 "订单管理" "退订管理"。 3. 选择CRS实例,点击退订,跳转退订申请界面。 4. 选择可以关联删除的VPC终端节点,核对配置和退款金额是否正确。 5. 点击退订后,控制台实例状态为已停用。
        来自:
        帮助文档
        容器镜像服务
        用户指南
        实例管理
        退订企业版实例
      • 集群信息
        本文向您介绍裸金属集群详情信息,帮助您了解裸金属集群的基本情况。 使用前提 已创建裸金属集群。 操作步骤 1. 登录公共算力服务控制台,单击左侧导航栏中的【集群>裸金属集群】,进入集群列表页。 2. 单击列表页中集群名称,进入集群详情页面。 3. 在裸金属集群详情页,可以查看基本信息、业务节点信息、集群控制面板实例信息,并进行相关操作。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        裸金属集群
        集群详情
        集群信息
      • 节点解绑
        本文向您介绍息壤智算集群节点解绑,帮助您了解息壤智算集群的基本情况。 使用前提 节点已绑定集群,状态为“绑定失败”、“已绑定异常”、“已绑定锁定”。 操作步骤 1. 登录公共算力服务控制台,单击左侧导航栏中的【息壤智算集群】,进入集群列表页。选择具体集群进入集群详情页。 2. 在具体节点行对应的操作,点击【解绑集群】。 3. 确认信息后点击【确定】。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        息壤智算集群
        集群详情
        节点解绑
      • 类型转换函数
        云日志服务支持单位转换函数。 函数列表 函数名称 语法 说明 cast cast(x, type) 用于转换x的数据类型。 cast函数 用于转换x的数据类型。 语法 cast(x, type) 参数说明 参数名称 说明 类型 是否必选 x 参数值可以为任意类型。 是 type SQL数据类型,可选值为bigint、varchar、double、boolean、datetime string 是 返回值类型 string 示例 类型 示例 统计分析语句 select cast('1', 'bigint') 返回结果
        来自:
        帮助文档
        云日志服务
        用户指南
        查询与分析
        SQL统计分析
        SQL函数
        类型转换函数
      • 重启实例
        前提条件 只有当实例状态为“运行中”时才可以进行重启操作。 注意:重启过程中,实例将会有短暂时间停止服务。 操作步骤 1. 登录管理控制台。 2. 进入Kafka管理控制台。 3. 在实例列表页的操作列,目标实例行点击“更多”按钮。 4. 在下拉框内点击“重启”按钮。 5. 点击弹框内的“确认”按钮完成操作,实例状态变为“重启中”。 6. 等待一段时间后,重启成功实例恢复运行状态,否则状态为“重启失败”。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        实例管理
        重启实例
      • 【通知】云原生引擎调整为白名单特性
        分布式消息服务RabbitMQ引擎类型云原生引擎调整为白名单特性,更多了解请查看快速入门购买实例引擎类型说明。 调整时间 2024年7月5日 影响范围 所有区域 调整影响 新用户默认不开放云原生引擎订购开通,如需要该特性,请联系技术支持开通后使用。 已购买云原生引擎实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        服务公告
        2024年
        【通知】云原生引擎调整为白名单特性
      • 心跳检测
        本章节主要介绍分布式消息服务RabbitMQ的心跳检测特性。 RabbitMQ实例提供了心跳功能,以确保应用程序层及时发现中断的连接和完全无响应的对端。心跳还可以防止某些网络设备在一段时间内由于没有活动而中断TCP连接。 心跳超时时间 心跳超时时间定义了对等TCP连接在多长时间后被服务端和客户端视为关闭。 在RabbitMQ服务端和客户端分别设置心跳超时时间,服务端和客户端会对配置的心跳超时时间进行协商,客户端必须配置该值来发送心跳。RabbitMQ官方团队维护的3个客户端(Java、.NET、Erlang语言)的心跳超时时间协商逻辑如下: 服务端和客户端设置的心跳超时时间都不为0时,两者间较小的值生效。 服务端和客户端任意一端设置的心跳超时时间为0,另一端不为0时,非0的值生效。 服务端和客户端的心跳超时时间都设置为0时,表示禁用心跳。 更多关于心跳检测的说明,请参考Detecting Dead TCP Connections with Heartbeats and TCP Keepalives。 心跳帧 心跳帧发送时间间隔为心跳超时时间/2,该值有时也被称为心跳间隔。客户端在两次错过心跳后,会被认为是不可达的。不同的客户端会以不同的方式显示这一点,但TCP连接将被关闭。当客户端检测到服务端由于心跳而无法访问时,需要重新连接。 任何流量(如协议操作、消息发布、消息确认、心跳帧等)都会被认为是有效的心跳。如果连接上有其他流量,客户端可以选择发送心跳帧,也可以选择不发送。如果连接上没有其他流量,客户端必须发送心跳帧。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        用户指南
        高级特性
        心跳检测
      • 开箱即用OpenClaw,AI云电脑秒变您的小时全能AI助理
        常见问题 如何将OpenClaw的Skills迁移至其他云电脑? Windows 系统迁移步骤:进入路径 C:UsersAdministrator.openclawskills,将该目录下所有文件夹完整复制。将复制的文件夹导入至目标云电脑,存放至路径 C:UsersAdministrator.openclawskills;若目标路径不存在,可手动创建该目录。 Ubuntu/妙逸系统迁移步骤:进入路径 /home/ctyun/.openclaw/skills,将该目录下所有文件夹完整复制。将复制的文件夹导入至目标云电脑,存放至路径 /home/ctyun/.openclaw/skills;若目标路径不存在,可手动创建该目录。 云电脑 OpenClaw 免费的 Tokens 额度是多少?消耗完是否支持购买 Tokens? 订购云电脑免费赠送 2500 万 Tokens,超出部分支持购买 Tokens 套餐,满足您 “轻度体验” 到 “重度使用” 的场景需求。 OpenClaw 云电脑开机后一直停留在黑色页面,没有进度。 这个黑框是后台服务,不要关闭,请点击桌面的 “OpenClaw 进入应用” 打开聊天页面。 OpenClaw 的后台服务打开后闪退 OpenClaw 执行指令时误删除了系统文件,如无重要数据建议重装系统恢复。 如果云电脑是内网,不能访问外网可以用吗? 不可以,必须要能访问公网。 云电脑 OpenClaw 默认打开谷歌浏览器,这个默认浏览器可以修改吗? OpenClaw 只是打开系统的默认浏览器,将您需要的浏览器设置为默认浏览器即可。
        来自:
        帮助文档
        天翼云电脑(公众版)
        最佳实践
        开箱即用OpenClaw,AI云电脑秒变您的小时全能AI助理
      • 添加签名
        短信服务支持根据用户需求创建符合要求的签名,一般建议将签名设置为账号主体所在机构的全称或简称。发送短信时,短信平台会将已审核通过的短信签名添加到短信内容中,再发送给短信接收方。本文将为您介绍个人用户如何添加签名。 前提条件 已开通短信服务。 当前登录账号已实名认证。 注意:个人认证用户和企业认证用户权限不同,具体区别,请参见 认证模式。 注意事项 用户短信签名名称已上线App名称、已在工信部备案的网站名称的,建议先用企业名称作为签名,待品未上线建议上线后再申请新的签名。 添加签名 1. 登录云通信控制台。 2. 在左侧导航栏中,单击签名管理 。 3. 在签名管理 页面左侧单击创建签名 。 4. 填写签名用途 、签名名称、签名类型等必填信息。 5. 填写场景说明 ,此信息是签名审核的参考信息之一,请详细描述签名的用途、场景等信息。信息完善的申请说明会提高签名的审核效率。 6. 单击提交,提交审核。审核流程,请参见流程签名审核。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        用户指南
        签名
        添加签名
      • 查看审计总览信息
        此小节介绍数据库安全查看审计信息。 添加的数据库连接到数据库安全审计实例后,您可以查看数据库的审计总览信息,包括数据库的总体审计情况、风险分布、会话统计以及SQL分布情况。 前提条件 已成功购买数据库安全审计实例,且实例的状态为“运行中”。 已成功添加数据库并开启审计功能。 已成功添加并安装Agent。 操作步骤 1. 登录管理控制台。 2. 单击管理控制台上方的“服务列表”,选择“安全 > 数据库安全服务”,进入数据库安全防护实例列表界面。 3. 进入总览界面,操作步骤如下图所示。 4. 查看数据库的总体审计情况,以及数据库的风险分布、会话统计和SQL分布信息,在“选择数据库”下拉列表框中,选择“全部数据库”或指定的数据库,可以查看实例中所有的数据库或指定的某个数据库的总览信息。选择审计的时间(“近30分钟”、“近1小时”、“近24小时”、“近7天”或“近30天”);或者单击按钮,选择开始时间和结束时间,查看指定的时间段的总览信息。 会话统计 SQL分布
        来自:
        帮助文档
        数据库安全
        用户指南
        查看审计结果
        查看审计总览信息
      • 创建密钥
        本节指导用户通过密钥管理界面创建自定义密钥。 约束条件 用户最多可创建20个自定义密钥,不包含默认密钥。 创建的对称密钥使用的是AES256加解密算法,密钥长度为256bit,可用于小量数据的加解密或用于加解密数据密钥。 创建的非对称密钥使用的是RSA密钥或ECC密钥,RSA密钥可用于加解密、数字签名及验签,ECC密钥仅用于数字签名及验签。 因为默认密钥的别名后缀为“/default”,所以用户创建的密钥别名后缀不能为“/default”。 数据加密服务不限定主密钥的调用次数。 应用场景 对象存储服务中对象的服务端加密。 云硬盘中数据的加密。 私有镜像的加密。 自定义密钥直接加解密小数据。 用户应用程序的DEK加解密。 非对称密钥可用于数字签名及验签。 创建密钥 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角,选择区域。 步骤 3 单击“服务列表”,选择“安全> 数据加密服务”,默认进入“密钥管理”界面。 步骤 4 单击界面右上角“创建密钥”。 步骤 5 在弹出的“创建密钥”对话框中,填写密钥参数。 别名:待创建密钥的别名。 说明 输入字符支持数字、字母、“”、“”、“:”和“/”。 支持长度为1 ~ 255个字符。 密钥算法:选择密钥算法。KMS支持的密钥算法说明如下表所示。 密钥类型 算法类型 密钥规格 说明 用途 对称密钥 AES AES256 AES对称密钥 小量数据的加解密或用于加解密数据密钥。 对称密钥 SM4 SM4 国密SM4对称密钥 小量数据的加解密或用于加解密数据密钥。 非对称密钥 RSA RSA2048、RSA3072、RSA4096 RSA非对称密钥 小量数据的加解密或数字签名。 非对称密钥 ECC ECP256、ECP384 椭圆曲线密码,使用NIST推荐的椭圆曲线 数字签名 非对称密钥 SM2 SM2 国密SM2非对称密钥 小量数据的加解密或数字签名。 密钥用途:可选择“SIGNVERIFY”或“ENCRYPTDECRYPT”。 对于对称密钥,默认值“ENCRYPTDECRYPT”。 对于RSA非对称密钥,可选择“ENCRYPTDECRYPT”或“SIGNVERIFY”,省略参数为默认值“SIGNVERIFY”。 对于ECC非对称密钥,默认值“SIGNVERIFY”。 对于SM2非对称密钥,可选择“ENCRYPTDECRYPT”或“SIGNVERIFY”,省略参数为默认值“SIGNVERIFY”。 说明 创建密钥时请选择“密钥用途”,密钥创建后不可修改。 (可选)描述:可根据自己的需要为自定义密钥添加描述。 企业项目:该参数针对企业用户使用。 如果您是企业用户,且已创建企业项目,则请从下拉列表中为密钥选择需要绑定的企业项目,默认项目为“default” 未开通企业管理的用户页面则没有“企业项目”参数项,无需进行配置。 步骤 6 (可选)用户可根据自己的需要为自定义密钥添加标签,输入“标签键”和“标签值”。 说明 当用户在创建密钥时,没有为该自定义密钥添加标签。若用户需要为该自定义密钥添加标签,可单击该自定义密钥的别名,进入密钥详情页面,单击“标签”,为该自定义密钥添加标签。 同一个自定义密钥下,一个标签键只能对应一个标签值;不同的自定义密钥下可以使用相同的标签键。 用户最多可以给单个自定义密钥添加20个标签。 当同时添加多个标签,需要删除其中一个待添加的标签时,可单击该标签所在行的“删除”,删除标签。 步骤 7 单击“确定”,在页面右上角弹出“创建密钥成功”,则说明密钥创建完成。 用户可在密钥列表上查看已完成创建的密钥,密钥默认状态为“启用”。
        来自:
        帮助文档
        数据加密
        用户指南
        密钥管理
        创建密钥
      • 导入API
        导入到已有分组注意事项 将API定义导入到一个已有的分组,导入过程中不会删除分组中已有的API,只是将新增的API导入分组。 适用于将一个新的API或者一个修改后的API导入到已有的分组。 导入API前,请注意以下事项: API网关中API的配额满足需求。 导入的API定义与已有的API定义冲突时,您可以选择使用导入的API定义覆盖已有的API定义,或者保留已有的API定义,此时导入的API定义会显示导入失败。 如果选择扩展覆盖,当导入API的扩展定义项名称与已有策略(ACL,流量控制等)名称相同时,则会覆盖已有策略(ACL,流量控制等)。 导入的API不会自动发布到环境,导入时可以选择“立即发布”或者“稍后发布”,您可以自行选择策略。 操作步骤 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API列表”。 步骤 4 单击导入API。 您也可以参考以下示例导入API到API网关: 导入HTTP类型后端服务API示例 导入HTTP VPC类型后端服务API示例 导入MOCK类型后端服务API示例 导入HTTP类型后端服务API示例 包含IAM认证和请求参数编排的GET方法API定义,后端服务类型为HTTP。 Swagger示例: swagger: "2.0" info: title: "importHttpEndpoint10" description: "import apis" version: "1.0" host: "api.account.com" paths: '/http/{userId}': get: operationId: "getUser3" description: "get user by userId" security: apigauthiam: [] schemes: https parameters: name: "test" description: "authorization token" type: "string" in: "header" required: true name: "userId" description: "user id" type: "string" in: "path" required: true responses: "200": description: "user information" xapigatewayrequesttype: "public" xapigatewaycors: true xapigatewaymatchmode: "NORMAL" xapigatewaybackend: type: "HTTP" parameters: name: "userId" value: "userId" in: "query" origin: "REQUEST" description: "user id" name: "XInvokeUser" value: "apigateway" in: "header" origin: "CONSTANT" description: "invoke user" httpEndpoints: address: "example.com" scheme: "http" method: "GET" path: "/users" timeout: 30000 securityDefinitions: apigauthapp: in: header name: Authorization type: apiKey xapigatewayauthtype: AppSigv1 apigauthiam: in: header name: unused type: apiKey xapigatewayauthtype: IAM OpenAPI示例: openapi: 3.0.0 info: title: importHttpEndpoint10 version: '1.0' servers: url: > url: > paths: '/http/{userId}': get: description: get user by userId operationId: getUser3 parameters: description: authorization token example: '' in: header name: test required: true schema: maxLength: 0 maximum: 0 minimum: 0 type: string xapigatewaypassthrough: always description: user id example: '' in: path name: userId required: true schema: maxLength: 0 maximum: 0 minimum: 0 type: string xapigatewaypassthrough: always responses: defaultcors: description: response example xapigatewayresultfailuresample: '' xapigatewayresultnormalsample: '' security: apigauthiam: [] servers: url: > xapigatewaybackend: httpEndpoints: address: example.com description: '' enableClientSsl: false method: GET path: /users retryCount: '1' scheme: http timeout: 30000 parameters: description: invoke user in: HEADER name: XInvokeUser origin: CONSTANT value: apigateway description: user id in: QUERY name: userId origin: REQUEST value: userId type: HTTP xapigatewaycors: true xapigatewaymatchmode: NORMAL xapigatewayrequesttype: public xapigatewayresponse: default components: responses: defaultcors: description: response example headers: AccessControlAllowOrigin: schema: default: '' type: string securitySchemes: apigauthapp: in: header name: Authorization type: apiKey xapigatewayauthtype: AppSigv1 apigauthappheader: in: header name: Authorization type: apiKey xapigatewayauthopt: appcodeauthtype: header xapigatewayauthtype: AppSigv1 apigauthiam: in: header name: unused type: apiKey xapigatewayauthtype: IAM xapigatewayresponses: default: {}
        来自:
        帮助文档
        API网关
        开放API网关
        API管理
        导入API
      • 远程连接Linux云主机报错:Disconnected: No supported authentication methods available
        本文主要介绍远程连接Linux云主机报错:Disconnected: No supported authentication methods available如何处理。 问题现象 远程连接Linux云主机报错:Disconnected: No supported authentication methods available. 图 No supported authentication methods available 可能原因 SSH服务端配置了禁止密码验证登录的策略。 处理方法 1.编辑 /etc/ssh/sshdconfig 文件,检查如下设置 vi /etc/ssh/sshdconfig 2.修改如下配置项: 把PasswordAuthentication no 改为 PasswordAuthentication yes 或去掉PasswordAuthentication yes 前面的注释掉。 3.重启SSH 服务。 −CentOS 6 service sshd restart −CentOS 7 systemctl restart sshd
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        Linux远程登录报错类
        远程连接Linux云主机报错:Disconnected: No supported authentication methods available
      • 删除主机
        该任务指导用户通过漏洞扫描服务删除已添加的主机。 操作场景 删除主机后,该主机的所有扫描历史报告将会被删除,请谨慎操作。 前提条件 已获取管理控制台的登录账号和密码。 已添加主机。 操作步骤 1. 登录管理控制台。 2. 选择“安全 > 漏洞扫描(专业版)”,进入漏洞扫描服务管理控制台。 3. 在左侧导航栏,选择“资产列表 > 主机”,进入主机列表入口。 4. 在目标主机的“操作”列,单击“删除”,在弹出的对话框中,单击“确定”。 说明 用户可以同时删除多个主机。选中多个主机后,单击“批量操作 > 删除”,在弹出的对话框单击“确定”,批量删除主机。
        来自:
        帮助文档
        漏洞扫描(专业版)
        用户指南
        主机扫描
        其他操作
        删除主机
      • 域名接入视频直播之后,如何绑定CNAME
        本文介绍如何绑定CNAME。 要启用视频直播服务,需要您将加速域名的DNS解析指向我们提供的CNAME,这样访问加速域名的请求才能转发到直播节点上,达到加速效果。 当您在天翼云直播控制台添加加速域名后,系统会为您分配一个天翼云CDN的CNAME域名,例如 .ctdns.cn。 您需要在您的DNS解析服务商添加CNAME记录,将自己的加速域名指向 .ctdns.cn的CNAME域名,这样该域名所有的请求才会转向天翼云视频直播的节点,实现加速的目的。 具体操作步骤请参考:配置CNAME。
        来自:
        帮助文档
        视频直播
        常见问题
        域名接入类
        域名接入视频直播之后,如何绑定CNAME
      • (停止维护)CCE发布Kubernetes 1.9及之前版本说明
        Kubernetes版本(CCE增强版) 版本说明 v1.9.10r2 主要特性: ELB负载均衡支持源IP跟后端服务会话保持 v1.9.10r1 主要特性: 支持对接SFS存储 支持Service自动创建二代ELB 支持公网二代ELB透传源IP 支持设置节点最大实例数maxPods v1.9.10r0 主要特性: kubernetes对接ELB/Ingress,新增流控机制 Kubernetes同步社区1.9.10版本 支持Kubernetes RBAC能力授权 问题修复: 修复操作系统cgroup内核BUG导致概率出现的节点内存泄漏问题 v1.9.7r1 主要特性: 增强PVC和PV事件的上报机制,PVC详情页支持查看事件 支持对接第三方认证系统l 集群支持纳管EulerOS2.3的物理机 数据盘支持用户自定义分配比例 物理机场景支持对接EVS云硬盘存储 物理机场景下支持IB网卡 物理机场景支持通过CMv3接口创建节点 v1.9.7r0 主要特性: 新建集群的Docker版本升级到1706 支持DNS级联 支持插件化管理 Kubernetes同步社区1.9.7版本 支持7层ingress的https功能 有状态工作负载支持迁移调度更新升级 v1.9.2r3 主要特性: 集群支持创建/纳管CentOS7.4操作系统的节点 kubernetes的Service支持对接DNAT网关服务 NetworkPolicy能力开放 增强型ELB支持Service配置多个端口 问题修复: 修复kubernetes资源回收过程中连不上kubeapiserver导致pod残留的问题 修复节点弹性扩容数据不准确的问题 v1.9.2r2 主要特性: 经典型ELB支持自定义健康检查端口 经典型ELB性能优化 ELB四层负载均衡支持修改Service的端口 问题修复: 修复网络插件防止健康检查概率死锁问题 修复高可用集群haproxy连接数限制问题 v1.9.2r1 主要特性: Kubernetes同步社区1.9.2版本 集群节点支持CentOS 7.1操作系统 支持GPU节点,支持GPU资源限制 支持webterminal插件 v1.7.3r13 主要特性: 新建集群的Docker版本升级到1706 支持DNS级联 支持插件化管理 增强PVC和PV事件的上报机制 物理机场景支持对接OBS对象存储 v1.7.3r12 主要特性: 集群支持创建/纳管CentOS7.4操作系统的节点 kubernetes的Service支持对接DNAT网关服务 NetworkPolicy能力开放 增强型ELB支持Service配置多个端口 问题修复: 修复kubernetes资源回收过程中连不上kubeapiserver导致pod残留的问题 修复节点弹性扩容数据不准确的问题 事件老化周期提示修正:集群老化周期为1小时 v1.7.3r11 主要特性: 经典型ELB支持自定义健康检查端口 经典型ELB性能优化 ELB四层负载均衡支持修改Service的端口 支持删除命名空间 支持EVS云硬盘存储解绑 支持配置迁移策略 问题修复: 修复网络插件防止健康检查概率死锁问题 修复高可用集群haproxy连接数限制问题 v1.7.3r10 主要特性: 容器网络支持Overlay L2模式 集群节点支持GPU类型虚机 集群节点支持CentOS 7.1操作系统,支持操作系统选择 Windows集群支持对接二代ELBl 支持弹性文件服务SFS导入 物理机场景支持对接SFS文件存储、OBS对象存储 v1.7.3r9 主要特性: 工作负载支持跨AZ部署 容器存储支持OBS对象存储服务 支持ELB L7负载均衡 Windows集群支持EVS存储 物理机场景支持devicemapper directlvm模式 v1.7.3r8 主要特性: 集群支持节点弹性扩容 v1.7.3r7 主要特性: 容器隧道网络集群支持纳管SUSE 12sp2节点 docker支持directlvm模式挂载devicemapper 集群支持安装dashboard 支持创建Windows集群 v1.7.3r6 主要特性: 集群存储对接原生EVS接口 v1.7.3r5 主要特性: 支持创建HA高可靠集群 问题修复: 节点重启后容器网络不通 v1.7.3r4 主要特性: 集群性能优化 物理机场景支持对接ELB v1.7.3r3 主要特性: 容器存储支持KVM虚拟机挂载 v1.7.3r2 主要特性: 容器存储支持SFS文件存储 工作负载支持自定义应用日志 开放工作负载优雅缩容 问题修复: 修复容器存储AK/SK会过期的问题 v1.7.3r1 主要特性: kubedns支持外部域名解析 v1.7.3r0 主要特性: Kubernetes同步社区1.7.3版本 支持ELB负载均衡 容器存储支持XEN虚拟机挂载 容器存储支持EVS云硬盘存储
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.9及之前版本说明
      • 时序图
        本文主要介绍云日志服务的时序图。 时序(折线)图是一种用于趋势分析的图表,通常用于展示一组数据在有序数据类别(通常是连续时间间隔)上的变化趋势。它能够直观地显示数据的变化趋势。在线图中,可以清晰地观察到数据在特定周期内的波动情况,主要体现在: 递增性、递减性 增减速率情况 增减规律(如周期变化) 峰值、谷值 因此,时序图是分析数据随时间变化趋势的最佳工具选择。 前提条件 已完成日志采集配置,并成功采集到日志。 操作步骤 1. 登录云日志服务控制台。 2. 在日志管理页面的日志项目列表中,点击已创建的日志单元名称,进入日志单元详情页面。 3. 在日志单元详情页面中,即可查看当前日志单元中的日志数据。 4. 在语句搜索模式下,输入查询语句与SQL分析语句,具体语法请参考SQL统计分析章节。 5. 点击【查询】按钮,结果将默认以表格形式呈现。右侧图表类型选择点击时序图。 6. 结果将以时序图的形式展示,x轴默认为表格模式下的第一列数据,y轴默认为表格模式下的第二列数据。 配置参数 图表配置参数如下: 查询分析配置 参数 说明 图表名称 自定义图表名称 X轴字段 在下拉框中选择字段数据作为X轴,仅可选择一个字符数据 Y轴字段 在下拉框中选择字段数据作为Y轴,可选择一个或多个字段数据
        来自:
        帮助文档
        云日志服务
        用户指南
        日志可视化
        统计图表
        时序图
      • 半托管迁移模式简介
        本文为您介绍半托管迁移模式的使用场景和流程。 什么是半托管模式 对象存储迁移服务(ZMS,全称ZOS Migration Service)支持用户在本地设备上部署代理软件(zmsagent) ,来执行迁移任务。半托管模式具有如下特点和优势: 靠近源端部署 :可部署在靠近源端的环境中,代理程序通过从源端内网下载数据,通过公网传输至ZOS目的端,减少源端对象存储数据流出费用。 可选分布式部署 :采用主从架构,可部署多设备,提供分布式迁移能力。 多任务并行迁移 :支持多个迁移任务同时执行。 控制台管控 :支持通过天翼云官网迁移服务控制台对迁移任务进行控制。 功能丰富 :兼容全托管模式迁移的所有功能,包括断点续传。 半托管模式的使用场景 靠近源端迁移 :通过将代理软件和机器部署在源端内网中,实现从源端内网下载对象,节省对象流出费用。 迁移资源独享 :相较于全托管模式的资源共享,半托管模式可高效利用部署代理的设备的网络与计算资源,实现资源独享,帮助用户快速进行对象存储数据迁移。 半托管模式的使用流程 使用半托管模式进行迁移需要您在对象存储迁移控制台和您的部署设备上分别进行操作,您可按照如下流程进行操作: 1. 创建代理:在控制台上创建代理。 2. 部署代理:在您的设备上部署代理。 3. 管理代理:在控制台上管理已部署的代理。 4. 创建半托管模式的迁移任务:在控制台上进行半托管模式迁移任务的创建与管理。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        如何使用半托管模式进行迁移
        半托管迁移模式简介
      • 容器镜像版本保留
        本节介绍了容器镜像版本保留的用户指南。 概述 容器镜像服务支持设置镜像版本保留规则,让用户自定义需要保留的镜像版本,并删除保留规则之外的镜像版本。 操作步骤 创建版本保留规则 1. 进入容器镜像服务控制台。 2. 点击已开通实例名称。左侧导航栏点击”容器镜像” “版本保留” 。在版本保留页面右上角选择命名空间,然后点击创建规则按钮。 3. 填写规则生效的仓库和Tag,以及需要保留最近推送的Tag数目。仓库和Tag的匹配规则如下: 参数 说明 key 精确匹配名称为key的仓库或Tag key 匹配前缀为key的仓库或Tag 匹配所有仓库或Tag {key1,key2,key3} 匹配多个仓库或Tag 4. 选择保留条件,并填写相应数量或时间。可选择的保留条件如下: 保留最近推送N个镜像 保留最近D天推送镜像 保留最近拉取N个镜像 保留最近D天拉取镜像 编辑执行方式 1. 创建完版本保留规则后,可在版本保留页面编辑规则的执行方式。 2. 点击执行方式右侧的编辑按钮,可选择手动执行或定时执行。默认为手动执行。 3. 若选择手动执行规则,版本保留任务只能由手动触发。 4. 若选择定时执行,可在控件中编辑执行周期: 每天:将在每天任一空闲时间执行 每周:将在每周任一空闲时间执行 5. 点击保存,在弹出的提示框中勾选“ 我已检查所有规则,确认执行“,点击确定,即可完成编辑。
        来自:
        帮助文档
        容器镜像服务
        用户指南
        命名空间与镜像仓库
        容器镜像版本保留
      • 免密拉取镜像
        本节介绍了免密拉取镜像的用户指南。 概述 安装免密拉取插件cubecredentialhelper,可以使云容器引擎集群免密拉取容器镜像服务企业版和个人版的私有镜像,简化工作负载的发布流程。 安装步骤 1. 登陆云容器引擎控制台。 2. 左侧导航栏点击"集群"。 3. 在集群管理页面点击已有集群名称进入集群信息页面。 4. 左侧导航栏点击"插件" "插件市场",在页面中找到cubecredentialhelper插件并安装。 使用步骤 前置条件 已创建容器镜像服务实例。 配置参数 namespaces和serviceAccounts参数指定插件生效的命名空间和serviceAccount。 plaintext 使免密拉取插件作用于集群指定的Namespace 默认值为"default"。当取值为""时,表示期望所有Namespace均能免密拉取。如需配置多个Namespace时,以英文半角逗号(,)分隔。 namespaces: "default" 使免密拉取插件作用于集群指定的ServiceAccount 默认值为"default"。当取值为""时, 表示支持指定命名空间下的所有ServiceAccount。如需配置多个ServiceAccount时,以英文半角逗号(,)分隔。 serviceAccounts: "default" credentials参数指定镜像拉取凭证,注意需要填写实际的CRS实例的内网地址、用户名和密码,否则免密拉取插件不生效。 plaintext 镜像拉取凭证,支持配置多个。需要将以下样例中的CRS实例的内网地址、用户名和密码替换为实际值。 credentials: registry: "registryhuadong1.crsinternal.ctyun.cn" CRS实例的内网地址 username: "username" CRS实例的用户名 password: "password" CRS实例的密码
        来自:
        帮助文档
        容器镜像服务
        用户指南
        授权管理
        免密拉取镜像
      • 编辑用户
        本章节介绍了如何编辑分布式消息服务RocketMQ实例的用户。 操作场景 用户创建成功后,您可以根据业务需要修改以下用户信息:IP白名单、管理员、默认Topic权限、默认消费组权限和密钥。 操作步骤 1. 登录分布式消息服务RocketMQ控制台。 2. 单击RocketMQ实例的名称,进入实例详情页面。 3. 在左侧导航栏,单击“用户管理”,进入“用户管理”页面。 4. 在待修改的用户所在行,单击“编辑”,弹出“编辑用户”对话框。 5. 根据业务需要,修改如表1所示信息。 表1 用户参数说明 参数 说明 IP白名单 如果请求的来源IP为IP白名单中的地址,不需要校验用户密钥是否正确,且具有所有Topic和消费组的发布+订阅权限。IP白名单可以配置为具体的IP地址,也可以配置为网段。如:192.168.1.2,192.168.2.3或者192. . . 管理员 开启管理员时,具有所有Topic和消费组的发布+订阅权限。 默认Topic权限 默认的Topic权限。 如果为指定Topic设置特殊权限,特殊权限会覆盖默认权限,此Topic的实际权限为特殊权限。例如:默认权限为订阅,指定Topic的特殊权限为发布+订阅,则此Topic实际权限为发布+订阅。 默认消费组权限 默认的消费组权限。 如果为指定消费组设置特殊权限,特殊权限会覆盖默认权限,此消费组的实际权限为特殊权限。例如:默认权限为订阅,指定消费组的权限为发布+订阅,则此消费组实际权限为发布+订阅。 密钥 设置用户的密钥。 6. 单击“确定”,完成用户的修改。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        用户指南
        用户管理
        编辑用户
      • 副本集实例
        本页介绍了文档数据库服务副本集的产品资费。 说明 天翼云文档数据库服务DDS对Ⅰ类型资源池和Ⅱ类型资源池的价格有所区分。 部分Ⅰ类型资源池已加载国产化处理器,相关价格见下方说明。 具体资源池类型请见 三节点副本集价格 三节点副本集等同于一主两从实例类型。 实例类型 CPU(核) 内存(G) 标准资费(元/月) 按需标准资费(元/小时) : 三节点副本集 1 4 380 0.79 三节点副本集 2 4 550 1.146 三节点副本集 2 8 760 1.583 三节点副本集 2 16 900 1.88 三节点副本集 4 8 1100 2.292 三节点副本集 4 16 2050 4.27 三节点副本集 4 32 2100 4.38 三节点副本集 8 16 2200 4.583 三节点副本集 8 32 4100 8.54 三节点副本集 8 64 6300 13.13 三节点副本集 16 32 7040 14.67 三节点副本集 16 64 8200 17.08 三节点副本集 16 128 12600 26.25 三节点副本集 32 64 14080 29.33 三节点副本集 32 128 19680 40.992 三节点副本集 32 256 25200 52.5 三节点副本集 64 128 28160 58.67 三节点副本集 64 256 39360 81.984 三节点副本集 64 512 50400 105 三节点副本集实例类型包年预付费可享受一年85折、两年7折、三年5折的优惠政策。
        来自:
        帮助文档
        文档数据库服务
        计费说明
        产品资费
        副本集实例
      • Cluster主备
        本文介绍分布式缓存服务Redis Cluster主备 分布式缓存Redis Cluster集群实例,为直连集群版,兼容开源Redis的Cluster,基于去中心化集群部署架构,Cluster中每一个节点存储一部分数据。 Redis Cluster集群实例的特点如下: 支持智能客户端JedisCluster的使用方式。 对比主备规格,整体性能与Redis分片数近乎线性增长。 架构示意图 Cluster集群的去中心化架构中,数据存储和处理负载不再由单一中心节点来管理,而是由多个节点共同参与。这种架构设计旨在提高系统的可伸缩性、可用性和容错性。 数据分布在多个节点上,从而实现更好的性能和可靠性。 数据分片 在Cluster集群中,数据分片是指将整个数据集划分为多个片段,并分别存储在不同的节点上。这种分片机制带来了一系列好处,包括横向扩展性、负载均衡和提高系统性能。Cluster会预先分配16384个slot,每个Redis的server存储所有slot与redis server的映射关系。 特点 数据同步 通过增量数据同步的方式,保持缓存实例主备节点的数据一致性。 主备秒级自动切换 当主节点出现故障不可用,系统会自动在30秒内切换至备节点,备节点升级为主节点,接管业务数据访问。 多可用区部署 开通实例时支持多可用区部署,主备节点可部署在不同的AZ内,节点间电力与网络均物理隔离,当一个可用区不可用时,其他可用区中的节点可以继续提供服务,避免单点故障,进一步提高数据可靠性。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        实例类型
        Cluster主备
      • 过期KEY扫描
        本文介绍Redis过期key扫描 在开源Redis中支持两种过期key删除机制: 惰性删除:在对key读写命令执行之前进行检查,如果过期,则删除该键;未过期则不做操作,继续执行原有的命令。 定期删除:由Redis的定时任务实现,该任务每次运行时从键空间中随机取出一定数量的Key进行检查,并删除其中的过期键。 分布式缓存服务提供了过期key扫描能力, 过期key扫描会对键空间进行Redis的scan扫描,释放内存中已过期但是由于惰性删除机制而没有释放的内存空间。 说明 过期key扫描支持手动触发和定时触发。 过期key扫描在主节点上执行,会对实例性能有一定的影响。 过期key扫描会消耗CPU,建议在业务低峰时段执行。 前提条件 已成功开通分布式缓存服务Redis实例,且实例处于运行中状态。 操作步骤 1.登录 Redis管理控制台。 2.在管理控制台左上角选择实例所在的区域。 3.在实例列表页,单击目标实例名称进入实例详情页面。 4.点击左侧菜单CloudDBA>过期KEY扫描,进入过期KEY扫描界面。 5.可选择立即扫描或自动扫描。 立即扫描:单击“立即扫描”,可进行过期key扫描,扫描完成后会在页面展示扫描记录。 自动扫描,勾选“自动扫描”,在自动扫描设置页面设置首次扫描时间、扫描间隔、扫描超时、迭代扫描key数量后,点击保存即可触发自动扫描任务。 6.当过期key扫描任务提交后,可在任务列表查看提交的任务。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例诊断分析
        过期KEY扫描
      • 冷热数据存储
        本章节主要介绍云搜索服务如何操作冷热数据存储。 云搜索服务提供了冷数据节点供企业选择,企业可以将部分现查要求秒级返回的数据放在高性能机器上面,对于历史数据要求分钟级别返回的数据放在大容量低规格节点。 说明 创建集群时,数据节点为必选,只有当选择了冷数据节点后,数据节点才会变成热节点。 选择冷数据节点的同时,支持独立选择Master和Client节点。 冷数据节点支持节点和磁盘扩容,前提是冷节点规格支持(本地盘不支持磁盘扩容)。 冷热数据切换 选择冷数据节点后,冷数据节点将会打上“cold”标签,用来表示冷节点。同时,数据节点将会上升为热节点,会被打上“hot”标签。用户可以通过配置指定索引,将数据分配到冷热节点。 通过设置template,可以通过模板将相应的index存储到指定冷热节点。 如下,登录集群的Kibana Console页面,配置myindex开头的索引,储存在冷节点上面。 这样可以通过模板在创建的时候把myindex的数据存储在冷数据节点上面。 PUT template/test { "order": 1, "template": "myindex", "settings": { "index": { "refreshinterval": "30s", "numberofshards": "3", "numberofreplicas": "1", "routing.allocation.require.boxtype": "cold" } } } 同时也可以单独对已经创建好的索引进行操作。 PUT myindex/settings { "index.routing.allocation.require.boxtype": "cold" } 也可以去掉冷热数据配置,不受冷热数据标签影响。 PUT myindex/settings { "index.routing.allocation.require.boxtype": null }
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        管理Elasticsearch类型集群
        冷热数据存储
      • 备份原理及方案
        本节主要介绍备份原理及方案 DDS实例支持自动备份和手动备份,您可以定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份文件恢复数据库,从而保证数据可靠性。 备份原理 集群实例 集群实例由Mongos(路由)、Config(配置)和Shard(分片)组件构成。其中,Config主要用于存储集群实例的配置信息,Shard节点主要用于存储集群实例的数据信息。所以集群实例在备份时,需要分别备份Config节点和Shard节点上的数据,且Config节点和Shard节点是分开进行备份的。如下图所示,集群实例的备份是由Config节点和Shard节点分别在各自的Hidden节点上进行,备份过程会占用Hidden节点一定的CPU内存资源。因此,在备份期间,实例的Hidden节点的CPU使用率、内存使用率、主备延时指标会有一点升高,属于正常现象。但最终的备份文件将以压缩包的形式存储在对象存储服务(OBS)中,不会占用实例的磁盘空间。 集群备份原理图 副本集实例 如下图所示,副本集实例的备份在Hidden节点上进行。备份过程会占用Hidden节点一定的CPU内存资源。因此,在备份期间,实例的Hidden节点的CPU使用率、内存使用率、主备延时指标会有一点升高,属于正常现象。但最终的备份文件将以压缩包的形式存储在对象存储服务(OBS)中,不会占用实例的磁盘空间。 副本集备份原理图
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据备份
        备份原理及方案
      • 托管证书
        本章节为您介绍证书托管的相关功能。 证书托管功能支持您自动替换天翼云上云产品证书的能力。 约束限制 仅支持一键部署“证书管理服务签发的证书”至天翼云服务的证书使用此功能。 一年期证书需开启自动续费功能才可使用托管功能。 多年期证书需要自动续期次数≥1 次才可使用托管功能,若剩余续期次数为0 则需要开启自动续费功能。 操作步骤 1. 登录证书管理服务控制台。 2. 选择需要进行托管的证书,选择“操作”列的“更多 > 证书托管”。 3. 在“证书托管”窗口,选择需要托管的服务及证书,将开关调整至开启状态,即表示已经开启了证书托管能力。
        来自:
        帮助文档
        证书管理服务
        用户指南
        SSL证书
        管理SSL证书
        托管证书
      • 配置监控面板
        本节主要介绍配置监控面板。 监控面板为您提供自定义查看监控数据的功能,将您关注的监控指标集中呈现在一张监控面板里,为您定制一个立体化的监控平台。 页面主要介绍如何为GeminiDB Redis配置监控面板的方法。 操作步骤 1、登录管理控制台。 2、在服务列表中,单击“云监控服务CES”,进入云监控服务页面。 3、 创建监控面板。 1. 在“总览 > 监控面板”区域右侧,单击“创建监控面板”。 2. 在“创建监控面板”弹出框中配置参数。 表参数说明 参数名称 说明 名称 表示监控面板名称,该参数只能由中文、英文字母、数字、下划线、中划线组成,且长度不超过128。 企业项目 将监控面板关联给到某个企业项目时,只有拥有该企业项目权限的用户才可以查看和管理该监控面板。 说明 企业项目仅在部分区域上线。 3. 单击“确定”,完成创建监控面板。 4、为监控面板添加监控视图。 在完成监控面板的创建后,您就可以添加监控视图对GeminiDB Redis实例进行监控。 1. 选择“总览 > 监控面板”,切换到需要添加监控视图的监控面板,然后单击“添加监控视图”。 2. 在“添加监控视图”界面,参照表完成参数配置。 表参数说明 参数名称 说明 标题 自定义关注指标组件的标题名称,该名称只能由中文、英文字母、数字、下划线、中划线组成,长度限制为128字节。例如:CPU利用率 企业项目 监控视图关联的企业项目,只有有企业项目的权限,才有权查看此监控视图的监控数据。 资源类型 所关注指标对应的服务名称。此处请选择“云数据库GeminiDB”。 维度 所关注指标的维度名称。此处请选择“RedisRedis节点”。 监控对象 所关注指标对应的监控对象。此处建议勾选需要监控的GeminiDB Redis实例下的所有节点。 监控指标 所关注指标的名称。此处推荐设置如下常用监控指标: 磁盘利用率(整个实例级) 用于监控GeminiDB Redis实例容量使用情况。如果磁盘利用率>80%时,建议及时进行扩容磁盘。 CPU、内存利用率(节点级) 用于监控GeminiDB Redis实例各节点计算资源的使用情况。如果CPU利用率或者内存利用率>80%时,建议及时添加节点或变更实例的CPU和内存规格。 proxy执行所有命令的速率(节点级) 用于监控GeminiDB Redis实例各节点执行命令的QPS。 proxy执行所有命令的平均、p99时延(节点级) 用于监控GeminiDB Redis实例各节点执行命令的平均时延、p99时延。更多监控指标信息请参见 GeminiDB Redis支持的监控指标。 注意 添加监控视图时,建议每次仅添加一个监控指标,这样每个监控指标就可以独立生成一个监控视图,方便您观察和分析监控数据。如果您需要添加多个监控指标,可通过多次添加监控视图来添加对应监控指标。 3. 单击“下一步:配置图例名称”。 图例名称是显示在监控视图指标变化曲线上的名称,您可以自定义图例名称。 您可以选择不配置图例名称,那么系统默认展示:监控对象(资源类型) 监控指标: 数据。 4. 单击“确定”,完成监控视图的添加。 在所选的监控面板上可以查看新添加监控视图的监控走势图,单击,可放大查看详细的指标对比数据。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        监控与告警
        配置监控面板
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 弹性云主机的应用场景
        本节描述了云主机的网站应用、企业电商、图形渲染、高性能计算的应用场景。 网站应用 对CPU、内存、硬盘空间和带宽无特殊要求,对安全性、可靠性要求高,服务一般只需要部署在一台或少量的服务器上,一次投入成本少,后期维护成本低的场景。例如网站开发测试环境、小型数据库应用。 推荐使用通用型弹性云主机,主要提供均衡的计算、内存和网络资源,适用于业务负载压力适中的应用场景,满足企业或个人普通业务搬迁上云需求。 企业电商 对内存要求高、数据量大并且数据访问量大、要求快速的数据交换和处理的场景。例如广告精准营销、电商、移动APP。 推荐使用内存优化型弹性云主机,主要提供高内存实例,同时可以配置超高IO的云硬盘和合适的带宽。 图形渲染 对图像视频质量要求高、大内存,大量数据处理,I/O并发能力。可以完成快速的数据处理交换以及大量的GPU计算能力的场景。例如图形渲染、工程制图。 推荐使用GPU图形加速型弹性云主机,G1型弹性云主机基于NVIDIA Tesla M60硬件虚拟化技术,提供较为经济的图形加速能力。能够支持DirectX、OpenGL,可以提供最大显存1GiB、分辨率为4096×2160的图形图像处理能力。 高性能计算 高计算能力、高吞吐量的场景。例如科学计算、基因工程、游戏动画、生物制药计算和存储系统。 推荐使用高性能计算型弹性云主机,主要使用在受计算限制的高性能处理器的应用程序上,适合要求提供海量并行计算资源、高性能的基础设施服务,需要达到高性能计算和海量存储,对渲染的效率有一定保障的场景。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        弹性云主机的应用场景
      • 配置HSTS
        本文简述HSTS功能和配置方法。 功能介绍 HSTS(HTTP Strict Transport Security,HTTP 严格传输安全),是一种网站用来声明他们只能使用安全连接(HTTPS)访问的方法。网站可通过声明HSTS,来强制客户端(如浏览器)只能使用HTTPS与服务器连接,拒绝所有的HTTP连接并阻止用户接受不安全的SSL证书,降低第一次访问请求被拦截的风险。 例如: 未启用HSTS时,当您的域名在边缘安全加速平台安全与加速服务配置HTTPS时,在浏览器中输入HTTP协议的URL,用户访问到天翼云边缘节点时,如果配置了HTTP强制跳转HTTPS的功能,边缘节点会将该HTTP请求强制跳转到HTTPS,如果用户首次以HTTP协议访问边缘节点,HTTP请求可能会被拦截或者篡改,存在安全隐患。 启用HSTS后,当您的域名在边缘安全加速平台安全与加速服务配置HTTPS时,在浏览器中输入HTTP协议的URL,用户访问到天翼云边缘节点时,如果配置了HTTP强制跳转HTTPS的功能,边缘节点节点会将该HTTP请求强制跳转到HTTPS,此时边缘节点会响应一个强制HSTS的头给客户端,告诉客户端只能使用HTTPS协议访问边缘节点,此后浏览器将直接使用HTTPS协议访问边缘节点,不再需要HTTP协议强制跳转HTTPS协议了。 注意事项 配置HSTS功能前,请确保已成功配置HTTPS证书,操作方法请参见新增证书。 在HSTS生效前,可配置强制跳转功能,使用户首次以HTTP协议访问时,能够强制跳转到HTTPS协议发起访问。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        HTTPS相关配置
        配置HSTS
      • 配置脱敏规则
        加密脱敏 通过加密算法和加密主密钥生成一种加密配置,达到数据脱敏的效果。加密脱敏的结果中,初始向量IV为加密字符串的前16个字节,剩余部分是加密的密文。 1. 参照操作步骤进入“脱敏规则”页面。 2. 选择“加密脱敏”页签,进入“加密脱敏”页面。 “加密算法”:在下拉框中选择加密算法,DSC提供了AES128、AES192和AES256三种加密算法供您选择。 “加密主密钥”:如果您已在天翼云其他云服务里创建了主密钥,可在下拉框里直接选择已创建的主密钥。如果您还未创建主密钥,可单击“创建KMS主密钥”,跳转到数据加密服务里创建主密钥,具体的操作可参见创建密钥。 3. 配置完成后,单击“生成加密配置”。 如果您需要删除已配置的加密脱敏规则,可在目标规则所在列的“操作”列,单击“删除”。 字符掩盖 使用指定字符“”或随机字符,按照指定方式遮盖部分内容。 支持“保留前n后m”、“保留自x至y”、“遮盖前n后m”、“遮盖自x至y”、“特殊字符前遮盖”和“特殊字符后遮盖”六种字符掩盖的方式。 1. 参照操作步骤进入“脱敏规则”页面。 2. 选择“字符掩盖”页签,进入“字符掩盖”页面。 3. 单击“添加”,配置字符脱敏规则。 4. 输入“原始数据”,单击“测试”,在“脱敏结果”文本框中展示已完成脱敏的数据。 5. 测试确认无误后,单击“保存”。 说明 数据安全中心服务中已预置多种字符脱敏规则。内置的脱敏规则不支持删除,自定义的规则可以在规则列表的“操作”列,单击“删除”,删除规则。 所有的规则都支持编辑,在规则列表的“操作”列,单击“编辑测试”,修改规则。
        来自:
        帮助文档
        数据安全中心
        用户指南
        数据隐私保护
        数据脱敏
        配置脱敏规则
      • 1
      • ...
      • 240
      • 241
      • 242
      • 243
      • 244
      • ...
      • 483
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      公共算力服务

      应用托管

      科研助手

      推荐文档

      云课堂 第三课:四大功能告诉你使用负载均衡的意义

      启动会议

      产品优势

      CDN快速入门

      绑定和解绑弹性IP

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号