活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云云服务平台_相关内容
      • 计费概述
        计费区域 天翼云全站加速的计费区域分为:中国内地、全球(不含中国内地)、全球。 全球节点分布信息,详见:节点分布。 注意事项 订购流量包之前需要先订购按量按流量计费方式,流量包的优先级高于按流量计费,即优先抵扣流量包用量,超出流量包抵扣额度的用量,会自动转按流量计费,即会产生后付费账单。若希望一直采用流量包的计费模式,需及时根据所需服务、业务量,购买适合业务额度的流量包。 购买流量包前,如已订购相关产品的按量计费,需确保按量的计费方式为【流量】,如果计费方式为【带宽】,已购的流量包会被冻结,域名如果有在使用加速服务,则实际是按带宽峰值计费的方式扣款,并没有使用到流量包的用量。直至按量计费方式切回至【流量】并生效后,流量包方可继续使用。 如有采购大额流量包的诉求,可通过提交工单或拨打4008109889热线电话联系客服进行咨询,申请优惠券。优惠券仅适用于流量包套餐,每一个订购单仅可使用一张优惠券,按量计费不可使用。
        来自:
        帮助文档
        全站加速
        计费说明
        计费概述
      • 安装与卸载补丁
        本章节主要介绍 补丁操作指导 。 当您通过如下途径获知集群版本补丁信息,请根据您的实际需求进行补丁升级操作。 通过消息中心服务推送的消息获知MapReduce服务发布了补丁信息。 进入现有集群,查看“补丁信息”页面,呈现补丁信息。 安装补丁前准备 请参见执行健康检查检查集群状态,确认集群健康状态正常后再安装补丁。 您根据“补丁内容”中的补丁信息描述,确认将要安装的目标补丁。 安装补丁 登录MRS管理控制台。 1. 选择“集群列表 > 现有集群”,选中一集群并单击集群名,进入集群基本信息页面。 2. 进入“补丁信息”页面,在操作列表中单击“安装”,安装目标补丁。 说明 滚动补丁操作请参见 对于集群中被隔离的主机节点,请参见 卸载补丁 登录MRS管理控制台。 1. 选择“集群列表 > 现有集群”,选中一集群并单击集群名,进入集群基本信息页面。 2. 进入“补丁信息”页面,在操作列表中单击“卸载”,卸载目标补丁。 说明 滚动补丁操作请参见 对于集群中被隔离的主机节点,请参见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        补丁操作指导
        安装与卸载补丁
      • 日志配置管理
        本节介绍了日志配置管理的相关内容。 操作场景 配置访问日志后,RDS实例新生成的日志记录会上传到云日志服务(Log Tank Service,简称LTS)进行管理。 前提条件 确保与RDS实例相同region下的LTS服务已有日志组和日志流。 约束限制 错误日志和慢日志不能使用同一个日志流。 日志流如果已绑定结构化模板(MySQL慢日志模板、MySQL错误日志模板),配置日志流时需要满足模板类型与日志类型一致。例如日志流如果绑定了错误日志模板,就不能配置给慢日志。 批量配置访问日志 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在左侧导航栏选择“日志配置管理”。 步骤 5 选择一个或多个实例,单击“配置访问日志”。 步骤 6 在下拉框分别选择LTS日志组和日志流,单击“确定”。 说明 错误日志和慢日志不能使用同一个日志流。 配置完成后不会立即生效,存在10分钟左右的时延,请知悉。 步骤 7 如需解除LTS配置,选择一个或多个实例,单击“解除配置”。 步骤 8 在弹框中,单击“确定”。 结束
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        日志管理
        日志配置管理
      • 通过备份文件恢复数据(SQL Server)
        本章节介绍如何通过备份文件恢复数据。 操作场景 您可根据业务需要,通过备份文件进行本地存储备份或者数据恢复。可以使用SSMS连接ECS自建数据库或本地数据库进行恢复数据。本章以使用SSMS工具通过备份文件在用户本地数据库上恢复数据为例。 说明 在恢复数据之前,请确保ECS中已安装和备份文件对应的RDS SQL Server同版本或更高版本的数据库服务。 操作步骤 步骤 1下载SSMS客户端安装程序,并上传到ECS进行安装。在网站下载文件“SSMS 18.0(GA)”, 并上传到ECS上。 步骤 2 在ECS上解压已下载的RDS全量备份文件。 步骤 3 启动SSMS客户端。 步骤 4 在SSMS客户端上,登录本地数据库服务。 步骤 5 在SSMS客户端的对象资源管理器中,选定数据库,单击右键选择“还原数据库”。 步骤 6 在“还原数据库”弹出窗口中选择“设备”,在“选择备份设备”弹出框中,指定还原操作的备份介质及其位置,单击“确定”,完成数据还原。 设置“备份介质类型”为“文件”。 单击“添加”,添加已解压至本地的备份文件(.bak文件),根据需要设置相关选项。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        备份与恢复
        通过备份文件恢复数据(SQL Server)
      • 导入API
        导入到已有分组注意事项 将API定义导入到一个已有的分组,导入过程中不会删除分组中已有的API,只是将新增的API导入分组。 适用于将一个新的API或者一个修改后的API导入到已有的分组。 导入API前,请注意以下事项: API网关中API的配额满足需求。 导入的API定义与已有的API定义冲突时,您可以选择使用导入的API定义覆盖已有的API定义,或者保留已有的API定义,此时导入的API定义会显示导入失败。 如果选择扩展覆盖,当导入API的扩展定义项名称与已有策略(ACL,流量控制等)名称相同时,则会覆盖已有策略(ACL,流量控制等)。 导入的API不会自动发布到环境,导入时可以选择“立即发布”或者“稍后发布”,您可以自行选择策略。 操作步骤 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API列表”。 步骤 4 单击导入API。 您也可以参考以下示例导入API到API网关: 导入HTTP类型后端服务API示例 导入HTTP VPC类型后端服务API示例 导入MOCK类型后端服务API示例 导入HTTP类型后端服务API示例 包含IAM认证和请求参数编排的GET方法API定义,后端服务类型为HTTP。 Swagger示例: swagger: "2.0" info: title: "importHttpEndpoint10" description: "import apis" version: "1.0" host: "api.account.com" paths: '/http/{userId}': get: operationId: "getUser3" description: "get user by userId" security: apigauthiam: [] schemes: https parameters: name: "test" description: "authorization token" type: "string" in: "header" required: true name: "userId" description: "user id" type: "string" in: "path" required: true responses: "200": description: "user information" xapigatewayrequesttype: "public" xapigatewaycors: true xapigatewaymatchmode: "NORMAL" xapigatewaybackend: type: "HTTP" parameters: name: "userId" value: "userId" in: "query" origin: "REQUEST" description: "user id" name: "XInvokeUser" value: "apigateway" in: "header" origin: "CONSTANT" description: "invoke user" httpEndpoints: address: "example.com" scheme: "http" method: "GET" path: "/users" timeout: 30000 securityDefinitions: apigauthapp: in: header name: Authorization type: apiKey xapigatewayauthtype: AppSigv1 apigauthiam: in: header name: unused type: apiKey xapigatewayauthtype: IAM OpenAPI示例: openapi: 3.0.0 info: title: importHttpEndpoint10 version: '1.0' servers: url: > url: > paths: '/http/{userId}': get: description: get user by userId operationId: getUser3 parameters: description: authorization token example: '' in: header name: test required: true schema: maxLength: 0 maximum: 0 minimum: 0 type: string xapigatewaypassthrough: always description: user id example: '' in: path name: userId required: true schema: maxLength: 0 maximum: 0 minimum: 0 type: string xapigatewaypassthrough: always responses: defaultcors: description: response example xapigatewayresultfailuresample: '' xapigatewayresultnormalsample: '' security: apigauthiam: [] servers: url: > xapigatewaybackend: httpEndpoints: address: example.com description: '' enableClientSsl: false method: GET path: /users retryCount: '1' scheme: http timeout: 30000 parameters: description: invoke user in: HEADER name: XInvokeUser origin: CONSTANT value: apigateway description: user id in: QUERY name: userId origin: REQUEST value: userId type: HTTP xapigatewaycors: true xapigatewaymatchmode: NORMAL xapigatewayrequesttype: public xapigatewayresponse: default components: responses: defaultcors: description: response example headers: AccessControlAllowOrigin: schema: default: '' type: string securitySchemes: apigauthapp: in: header name: Authorization type: apiKey xapigatewayauthtype: AppSigv1 apigauthappheader: in: header name: Authorization type: apiKey xapigatewayauthopt: appcodeauthtype: header xapigatewayauthtype: AppSigv1 apigauthiam: in: header name: unused type: apiKey xapigatewayauthtype: IAM xapigatewayresponses: default: {}
        来自:
        帮助文档
        API网关
        开放API网关
        API管理
        导入API
      • OPA策略
        本章节介绍OPA策略 概述 OPA(Open Policy Agent)是一个通用的策略引擎,通过声明式的Rego语言实现丰富的授权策略。应用服务网格提供一键集成OPA引擎功能,整体架构如下: 其中OPA控制面包括: 1,OPA webhook服务,用于实现OPA sidecar的注入; 2,OpaPolicy controller监听OPA策略CRD,用于实现OPA策略分发; 业务pod内除了业务容器和istioproxy之外还会注入OPA sidecar,外部请求pod时流量被istioproxy拦截,根据定义的授权策略请求OPA sidecar,实现对请求的授权。 注意 注意:OPA sidecar当前使用8181端口管理OPA策略,使用9191端口提供外部鉴权服务,业务pod注意避开这两个端口。 开启OPA功能 使用OPA功能时首先要在打开开关,进入服务网格控制台,选择网格管理 > 自定义配置,勾选启用OPA 即可。 关闭OPA功能 进入服务网格控制台,选择网格管理> 自定义配置,取消勾选 启用OPA即可。 进入服务网格控制台,选择网格管理> OPA开关,关闭即可。 OPA策略管理 CSM服务网格采用自定义CRD(OpaPolicy)方式管理OPA策略,主要包括OPA策略生效的工作负载选择以及OPA策略(Rego),下面的配置对default命名空间下标签包含version: v1的工作负载生效,策略中定义了guest和admin两个角色,分别给两个角色定义了访问权限,同时还定义了两个用户bob和alice,分别赋予了特定角色;策略执行时会从请求中解析出用户,结合用户的权限和请求信息对访问进行鉴权。 apiVersion: istio.ctyun.cn/v1beta1 kind: OpaPolicy metadata: name: objectpolicy namespace: default spec: policy: package istio.authz import input.attributes.request.http as httprequest import input.parsedpath allow { rolesforuser[r] requiredroles[r] } rolesforuser[r] { r : userroles[username][] } requiredroles[r] { perm : roleperms[r][] perm.method httprequest.method perm.path httprequest.path } username parsed { [, encoded] : split(httprequest.headers.authorization, " ") [parsed, ] : split(base64url.decode(encoded), ":") } userroles { "alice": ["guest"], "bob": ["admin"] } roleperms { "guest": [ {"method": "GET", "path": "/productpage"}, ], "admin": [ {"method": "GET", "path": "/productpage"}, {"method": "GET", "path": "/api/v1/products"}, ], } workloadSelector: labels: version: v1
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格安全中心
        OPA策略
      • 钓鱼检测服务
        本文主要介绍钓鱼检测服务的相关功能。 背景 天翼云AOneMail的钓鱼检测机制是其安全体系的重要组成部分,旨在为企业用户提供高安全性的邮件通信服务。通过邮件正文检测、云端检测、AI检测等多种技术手段,AOneMail能够有效识别和拦截钓鱼邮件,保护企业用户免受钓鱼攻击的侵害。 操作步骤 1. 登录边缘安全加速控制台,选择控制台【云邮箱】; 2. 在左侧导航栏,选择【设置】,进入钓鱼能力开关页面; 3. 钓鱼能力分为五个模块,您可以通过编辑对应的卡片来处理对应的列表。 检测总开关 点击开启则进行钓鱼邮件检测,是否进行其他检测看后续开关,点击关闭则不进行任何钓鱼邮件检测。 邮件正文检测 默认开启。点击开启进行邮件正文内容检测;点击关闭则只检测发件人邮箱和主题。对本地检测、云端情报库检测和AI检测有控制是否检测正文。 云端检测开关 默认开启。点击开启则进行云端黑白情报库检测;点击关闭则只进行客户端本地引擎检测(本地规则引擎+客户端本地过黑白名单情报库)。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        混合办公服务
        AOneMail
        钓鱼检测服务
      • 教程:使用GDS从远端服务器导入数据
        本章节主要介绍使用GDS从远端服务器导入数据的最佳实践。 教程指引 本教程旨在演示使用GDS(General Data Service)工具将远端服务器上的数据导入DWS中的办法,帮助您学习如何通过GDS进行数据导入的方法。 在本教程中,您将: 生成本教程需要使用的CSV格式的数据源文件。 将数据源文件上传到数据服务器。 创建外表,用于对接GDS和DWS,及将数据服务器上的数据引流到DWS集群中。 启动DWS并创建数据库表后,将数据导入到表中。 根据错误表中的提示诊断加载错误并更正这些错误。 准备ECS作为GDS服务器 创建Linux弹性云主机的操作步骤,请参见《弹性云主机用户指南》中的“创建弹性云主机”。创建后,请参见《弹性云主机用户指南》中的“登录Linux弹性云主机”章节进行登录。 说明 l ECS操作系统必须是GDS工具包所支持的操作系统。 l ECS与DWS处于同一区域、同一虚拟私有云和子网。 l ECS安全组规则需放通DWS集群的访问,即安全组入规则: l 协议:TCP l 端口范围:5000 l 源地址:选择“IP地址”,输入DWS 集群地址,例如“192.168.0.10/32”。 l ECS内部如果启用了防火墙,需要保证防火墙打开了GDS服务的监听端口: iptables I INPUT p tcp m tcp dport j ACCEPT
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        导入导出
        教程:使用GDS从远端服务器导入数据
      • 解绑节点
        本文向您介绍裸金属集群解绑节点,帮助您了解裸金属集群的基本情况。 使用前提 节点已绑定集群,状态为“绑定失败”、“已绑定异常”。 操作步骤 1. 登录公共算力服务控制台,单击左侧导航栏中的【集群>裸金属集群】,进入集群列表页。选择具体集群进入集群详情页。 2. 在具体节点行对应的操作,点击【解绑集群】。 3. 确认信息后点击【确定】。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        裸金属集群
        集群详情
        解绑节点
      • 退订说明
        本章介绍弹性文件服务的退订说明。 如果您有退订文件系统的需求,可以进行登录天翼云订单管理中心 或产品控制台 进行退订操作。天翼云目前支持7天无理由全额退订和非七天无理由退订以及其他退订,详细规则请参考退订规则说明 。 操作流程可参考删除按量付费文件系统和退订包年包月文件系统。
        来自:
        帮助文档
        弹性文件服务 SFS
        计费说明
        退订说明
      • 电子缩放
        本节主要介绍如何在智能视图服务控制台使用电子缩放功能。 用户点击视频画面下方工具栏的电子缩放功能图标,该图标高亮显示即代表电子缩放功能已开启,用户可以在视频画面内通过鼠标进行电子缩放操作。 鼠标滑轮滚动:可以滚动鼠标滑轮来放大/缩小视频画面。 鼠标左键拖动:可以拖拽视频画面来查看局部细节信息。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        实时预览
        电子缩放
      • 【通知】云原生引擎调整为白名单特性
        分布式消息服务Kafka引擎类型云原生引擎调整为白名单特性,更多了解请查看快速入门创建实例引擎类型说明。 调整时间 2024年7月5日 影响范围 所有区域 调整影响 新用户默认不开放云原生引擎订购开通,如需要该特性,请联系技术支持开通后使用。 已购买云原生引擎实例的用户,原实例仍可正常使用,续费、扩容等操作不受影响。
        来自:
        帮助文档
        分布式消息服务Kafka
        服务公告
        2024年
        【通知】云原生引擎调整为白名单特性
      • 实例CPU使用率高问题排查
        分析服务能力 经过前面数据库正在执行的请求和慢请求的分析和优化,所有的请求都使用了合理的索引,CPU的使用率相对趋于稳定。如果经过前面的分析排查,CPU使用率仍然居高不下,则可能是因为当前实例已达到性能瓶颈,不能满足业务需要,此时您可以通过如下方法解决。 6. 通过查看监控信息分析实例资源的使用情况,请查看监控指标。 7. 对DDS进行规格变更或者添加分片数量。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        实例CPU使用率高问题排查
      • 使用类
        本章节主要介绍使用类问题 导出的数据库结果集显示乱码时如何处理 从DAS服务中导出的CSV文件的编码方式为UTF8,而EXCEL是ANSI编码,出现乱码情况是由于编码方式不一致导致的。 请您先将CSV用txt记事本打开,然后选择ANSI编码方式另存,重新打开。 DAS连接第三方客户端使用注意事项 第三方客户端操作数据库后的内容,请您刷新数据管理服务控制台主页进行查看。 数据管理服务的用户名及密码是什么 新增数据库登录时需要输入用户名和密码。所输入的用户名和密码是指所连接数据库实例的用户名和密码。 如何处理获取表超时问题 当前情况,可能是由于实例负载较大,导致DAS采集表信息数据超时。建议您kill掉一个线程,然后重新操作。
        来自:
        帮助文档
        数据管理服务
        常见问题
        使用类
      • 查看我的凭证和项目信息
        我的凭证是将用户的安全凭证信息进行集中展示与管理的服务,安全凭证包括IAM用户ID、账号ID等。 项目ID是IAM用户的云服务所在区域(资源池)ID,您在调用云服务API接口进行云资源管理(如创建VPC)时,需要提供项目名称和项目ID。 我的凭证信息和项目信息可以在“我的凭证”中查看。 操作步骤 步骤 1 用户使用天翼云帐号或IAM子用户登录天翼云官网。 步骤 2 单击天翼云首页顶部右侧“控制中心”,资源池选择二类节点。 步骤 3 在控制中心首页顶部右侧,单击用户名,弹出下拉菜单。 步骤 4 单击“我的凭证”,进入凭证详情页,查看IAM用户ID、账号ID、项目ID等信息。
        来自:
        帮助文档
        统一身份认证(二类节点)
        用户指南
        用户凭证
        查看我的凭证和项目信息
      • 云硬盘备份的用户场景
        本章节介绍云硬盘备份的应用场景:数据备份恢复和业务快速迁移部署。 云硬盘备份可为多种资源提供备份保护服务,有效保障用户数据的安全性和正确性,确保业务安全。云硬盘备份适用于数据备份和恢复以及业务快速迁移和部署的场景。 数据备份和恢复 云硬盘备份在以下场景中,均可快速恢复数据,保障业务安全可靠。 受黑客攻击或病毒入侵 通过云硬盘备份,可立即恢复到最近一次没有受黑客攻击或病毒入侵的备份时间点。 数据被误删 通过云硬盘备份,可立即恢复到删除前的备份时间点,找回被删除的数据。 应用程序更新出错 通过云硬盘备份,可立即恢复到应用程序更新前的备份时间点,使系统正常运行。 云主机宕机 通过云硬盘备份,可立即恢复到宕机之前的备份时间点,使服务器能再次正常启动。 业务快速迁移&部署 为云服务器的系统盘创建镜像、数据盘创建备份,利用镜像和备份,可快速复制一个或多个与现有云服务器相同配置的云服务器。
        来自:
        帮助文档
        云硬盘备份 VBS
        产品简介
        云硬盘备份的用户场景
      • 防火墙配置示例
        场景举例 如果您在轻量型云主机上部署了网站,即轻量型云主机作Web服务器用,希望用户能通过HTTP或HTTPS服务访问到您的网站,您需要给轻量型云主机添加以下防火墙规则。 防火墙配置方法 方向 协议 / 应用 端口 源地址 入方向 HTTP(80) 80 0.0.0.0/0 入方向 HTTPS(443) 443 0.0.0.0/0 轻量型云主机作DNS服务器 场景举例 如果您将轻量型云主机设置为DNS服务器,则必须确保TCP和UDP数据可通过53端口访问您的DNS服务器。您需要给轻量型云主机添加以下防火墙规则。 安全组配置方法 方向 协议 / 应用 端口 源地址 入方向 TCP 53 0.0.0.0/0 入方向 UDP 53 0.0.0.0/0 使用FTP上传或下载文件 场景举例 如果您需要使用FTP软件向轻量型云主机上传或下载文件,您需要添加防火墙规则。 防火墙配置方法 方向 协议 / 应用 端口 源地址 入方向 TCP 2021 0.0.0.0/0
        来自:
        帮助文档
        轻量型云主机
        用户指南
        管理防火墙
        防火墙配置示例
      • istio资源管理
        本章节主要介绍istio资源管理 网格中服务关联的istio资源(如VirtualService、DestinationRule)如需修改,可以在“istio资源管理”中以YAML或JSON格式进行编辑。同时,还支持创建新的istio资源。 编辑已有istio资源 步骤 1 登录应用服务网格控制台,单击服务网格的名称,进入网格详情页面。 步骤 2 在左侧导航栏选择“网格配置”,单击“istio资源管理”页签。 步骤 3 在搜索框中选择istio资源类型(如“istio资源:virtualservices”),以及资源所属命名空间。 步骤 4 单击操作列的“编辑”,在右侧页面修改相关配置后单击“确定”保存。 支持以YAML或JSON格式显示,同时可以将配置文件下载到本地。 创建新的istio资源 步骤 1 登录应用服务网格控制台,单击服务网格的名称,进入网格详情页面。 步骤 2 在左侧导航栏选择“网格配置”,单击“istio资源管理”页签。 步骤 3 单击列表左上方的“创建”。 步骤 4 在右侧页面直接输入内容,或者单击“导入文件”,将本地编辑好的YAML或JSON文件上传上来。 步骤 5 确认信息无误后,单击“确定”。
        来自:
        帮助文档
        应用服务网格
        用户指南
        网格配置
        istio资源管理
      • 如何排查404/502/504错误?
        原因三 原因:源站性能问题。 解决办法: 排查网站问题并联系您的网站负责人进行解决。 504 Gateway Timeout 现象:完成WAF域名接入配置之后,业务正常,但当业务量增加时,发生504错误的概率增加,直接访问源站IP也有一定概率出现504的返回码。 可能有以下几个原因: 原因一 原因:后端服务器性能问题(连接数,CPU内存占用过大等)。 解决办法: 1. 优化服务器的相关配置,包括TCP网络参数的优化配置,ulimit相关参数设置等。 2. 为了支撑业务量的大量增长,可按照方法一 或者方法二进行处理。 方法一 :在ELB上增加后端服务器组。 方法二 :创建新的ELB,并参照以下方法将ELB的EIP作为服务器的IP地址,接入WAF。 1. 登录管理控制台,单击页面上方的“服务列表”,选择“安全 > Web应用防火墙(独享版)”,进入Web应用防火墙控制界面。 2. 在左侧导航树中选择“网站设置”,进入“网站设置”页面。 3. 在目标域名所在行的“防护网站”列中,单击目标域名,进入域名基本信息页面。 4. 在“服务器信息”栏中,单击,进入“修改服务器信息”页面,单击“添加”,新增后端服务器。 3. 如果客户端协议即“对外协议”是HTTPS协议,可考虑在WAF设置HTTPS转发,回源走HTTP协议即“源站协议”设置为HTTP,降低后端服务器的计算压力。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        常见问题
        业务中断排查
        如何排查404/502/504错误?
      • 实例连接方式介绍
        本章节介绍天翼云关系型数据库支持的实例连接方式。 关系型数据库服务提供使用内网、公网的连接方式。 表 RDS连接方式 连接方式 IP地址 使用场景 说明 内网连接 内网IP地址 系统默认提供内网IP地址。 当应用部署在弹性云服务器上,且该弹性云服务器与关系型数据库实例处于同一区域,同一VPC时,建议单独使用内网IP连接弹性云服务器与关系型数据库实例。 安全性高,可实现RDS的较好性能。 推荐使用内网连接。 公网连接 弹性公网IP 不能通过内网IP地址访问RDS实例时,使用公网访问,建议单独绑定弹性公网IP连接弹性云服务器(或公网主机)与关系型数据库实例。 降低安全性。 为了获得更快的传输速率和更高的安全性,建议您将应用迁移到与您的RDS实例在同一子网的,使用内网连接。 说明 VPC:虚拟私有云(Virtual Private Cloud,简称VPC)。 ECS:弹性云服务器(Elastic Cloud Server,简称ECS)。 若弹性云服务器和关系型数据库实例处于同一个虚拟私有云的子网内,则无需申请外网地址。 图 实例内网和公网连接
        来自:
        帮助文档
        关系数据库SQL Server版
        快速入门
        实例连接方式介绍
      • 负载均衡器概述
        本文帮助您快速了解负载均衡器功能作用及天翼云不同类型的负载均衡器。 负载均衡器是弹性负载均衡中分配和管理网络流量的关键组件,是承载业务的负载均衡服务实例,其作用是根据预先设定的规则,接收来自客户端的请求流量,并将流量分配到一个或多个可用的后端主机,以确保系统的稳定性和高可用性。创建负载均衡器后,您还需要添加监听器和后端主机,然后才能使用负载均衡服务提供的功能。 性能保障型和经典型负载均衡器 依据不同产品性能,天翼云提供性能保障型负载均衡器和经典型负载均衡器,您可以根据实际需求选择适合的配置。 性能保障型负载均衡 性能保障型负载均衡适用于对性能有较高要求的应用场景,能够提供更强大的性能和扩展能力。性能保障型负载均衡为收费产品,为集群模式部署,支持经典型升级为性能保障型,支持规格升级、降级。 经典型负载均衡 经典型负载均衡适用于访问量较小,应用模型简单的web业务,可满足大部分应用程序的负载均衡需求,具备基本的流量分发和健康检查功能。经典型负载均衡为免费规格,同VPC内多实例性能共享,为主备模式部署。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        负载均衡器
        负载均衡器概述
      • IP地址组
        修改IP地址组 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“IP地址组”界面,需要修改的IP地址组所在行,单击“修改”。 5. 修改IP地址组参数。 IP地址组参数说明表 参数 说明 样例 名称 IP地址组的名称。 ipGroup01 IP地址 需要通过白名单或黑名单进行访问控制的IP地址。每行一个IP地址或一个网段,以回车结束; 每个IP地址或者网段都可以用“”分隔添加备注,如“192.168.10.10丨ECS01”, 备注长度范围是0到255字符,不能包含<>;每个IP地址组最多可添加300个IP地址和网段。 说明:如果IP地址组未包含任何IP地址,当访问控制选择白名单时,则对应的负载均衡监听器禁止任何IP地址访问。 10.168.2.24 10.168.16.0/24 描述 IP地址组相关信息的描述说明。 6. 确认参数配置,单击“确定”。 删除IP地址组 如果IP地址组已经关联了监听器,则不允许删除。 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“IP地址组”界面,需要删除的IP地址组所在行,单击“删除”。 5. 确认需要删除的IP地址组,单击“是”。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        IP地址组
      • 修改/删除监听器
        本文主要介绍如何修改/删除监听器。 操作场景 如果您已创建监听器,您可以根据实际业务需求,可以修改或者删除监听器。 监听器被删除后无法恢复,请谨慎操作。 说明 目前暂不支持修改“前端协议/端口”和“后端协议”,如果要修改监听器的协议或端口,请重新创建监听器。 修改监听器 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“负载均衡器”界面,单击需要修改监听器的负载均衡名称。 5. 切换到“监听器”页签,单击需要修改的监听器名称右侧“修改”入口。 6. 修改参数,单击“完成”。 删除监听器 1. 登录管理控制台。 2. 在管理控制台上方选择区域和项目。 3. 选择“服务列表 > 网络 > 弹性负载均衡”。 4. 在“负载均衡器”界面,单击需要删除监听器的负载均衡名称。 说明 如果该监听器下有后端云主机,删除监听器之前需移除云主机。 如果HTTP设置了重定向至HTTPS,删除HTTPS监听器之前需删除HTTPS重定向规则。 如果监听器包含了转发策略,删除监听器之前需先删除转发策略。 删除监听器后会同时删除所绑定的后端主机组。 5. 切换到“监听器”页签,单击需要删除的监听器名称右侧的 。 6. 单击“是”。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        修改/删除监听器
      • 入门概述
        本节内容为您介绍快捷开通并使用天翼云手机的流程,帮助您快速上手。 本节内容为您提供快捷开通并使用天翼云手机(政企版)的流程。 准备工作: 使用天翼云手机前,请确保您已经开通了天翼云账号并完成实名认证。相关操作参考如下: 注册天翼云账号 实名认证 使用流程: 下面以控制台订购天翼云手机(政企版)为例,介绍天翼云手机的开通使用流程,帮助您快速上手。使用的流程如下。 1、开通云手机服务(可选) 在创建并管理云手机之前,需由管理员首先开通云手机服务。 2、订购云手机 根据需求选择云手机配置,并把云手机分配到个人用户,支付成功则完成云手机的快速订购。 3、用户账号激活 完成开通云手机后,用户邮箱会收到天翼云手机政企版开通提醒邮件,根据流程激活账户即可。 4、登录连接云手机 下载并安装客户端后,您可以使用云手机账号登录客户端,然后连接使用云手机。
        来自:
        帮助文档
        天翼云手机
        快速入门
        入门概述
      • 推流地址生成规则
        本文介绍视频直播加速服务中推流地址的生成规则。 前提条件 已开通视频直播服务。 已添加推流域名,详细信息请参见添加加速域名。 已配置CNAME。 推流地址生成规则 生成规则 天翼云视频直播支持RTMP(S)格式的直播推流,对应推流地址的生成规则如下所示: RTMP(S)格式:rtmp(s)://推流域名/AppName/StreamName 字段 说明 推流域名 在直播控制台添加的推流域名。 AppName 发布点,即直播的应用名,是指直播流媒体文件的存放路径。默认为“live”,可根据实际需要自定义。AppName支持大小写字母、数字、下划线和中划线。 StreamName 流名,通常与域名和发布点一起唯一标识一路流。StreamName支持大小写字母、数字、下划线和中划线。 示例 假设推流域名为"push.ctyun.cn"、AppName为"live"、StreamName为"ctyun1",则推流地址为:rtmp(s)://push.ctyun.cn/live/ctyun1 说明 如果需要在推流URL中携带相应的鉴权参数,请参见URL鉴权。 您可以在地址生成器中生成URL示例,详细信息请参见地址生成器。
        来自:
        帮助文档
        视频直播
        快速入门
        推流地址生成规则
      • 退订
        本文为您介绍分布式消息服务MQTT退订内容。 针对天翼云分布式消息服务MQTT退订操作,具体请参考退订流程。 退订规则说明 客户(天翼云用户)可根据需要,在符合天翼云退订规则的前提下,灵活退订资源。目前退订包含七天无理由全额退订和非七天无理由退订以及其他退订。 七天无理由全额退订。新购资源实例(不包含进行了续订、规格升级、扩容、操作系统变更、按需计费转包周期等操作的资源)在满足以下全部条件的前提下,享受七天无理由全额退订: 在资源开通的7天内发起退订; 发起退订操作的账号(“退订账号”)七天无理由全额退订次数不超过3次(每账号享有3次七天无理由全额退订次数); 同一用户累计使用的七天无理由全额退订次数不超过15次。其中,同一用户是指:根据不同天翼云账号在注册、登录、使用中的关联信息,关联信息相同天翼云判断其实际为同一用户。关联信息举例:同一名称、同一邮箱、同一负责人证件、同一手机号、同一设备、同一IP地址等(包括已注销的账号)。 客户同意天翼云使用上述信息核查同一用户情况 。 成套资源退订属于退订一个资源实例,记为1次退订。 注意 七天无理由退订仅限于新购资源的情形,若新购资源在7天内进行了续订或变更(包含但不限于规格升级、扩容、操作系统变更、按需计费转包周期),退订时按非七天无理由退订处理,需要收取相应的使用费用和退订手续费,且不退还代金券及优惠券。 参与活动购买的云产品,如若本退订规则与活动规则冲突,以活动规则为准;活动中说明“不支持退订”的云服务资源不支持退订。 执行退订操作前,请确保退订的资源数据已完成备份或迁移,退订完成后的资源将被完全删除,且不可恢复,请谨慎操作。
        来自:
        帮助文档
        分布式消息服务MQTT
        计费说明
        退订
      • 产品优势
        本节主要介绍OBS的产品优势。 OBS与自建存储服务器对比 在信息时代,企业数据直线增长,自建存储服务器存在诸多劣势,已无法满足企业日益强烈的存储需求。下表向您详细展示了OBS与自建存储服务器的优劣势对比。 对比项 OBS 自建存储服务器 数据存储量 提供海量的存储服务,所有业务、存储节点采用分布式集群方式部署,各节点、集群都可以独立扩容,用户永远不必担心存储容量不够。 数据存储量受限于搭建存储服务器时使用的硬件设备,存储量不够时需要重新购买存储硬盘,进行人工扩容。 安全性 支持HTTPS/SSL安全协议。同时OBS通过访问密钥(AK/SK)对访问用户的身份进行鉴权,结合IAM策略、桶策略、ACL、防盗链等多种方式和技术确保数据传输与访问的安全。 需自行承担网络信息安全、技术漏洞、误操作等各方面的数据安全风险。 成本 即开即用,免去了自建存储服务器前期的资金、时间以及人力成本的投入,后期设备的维护交由OBS处理。 前期安装难、设备成本高、初始投资大、自建周期长、后期运维成本高,无法匹配快速变更的企业业务,安全保障的费用还需额外考虑。
        来自:
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 修改OpenSearch配置文件默认参数
        云搜索服务支持您在控制台修改OpenSearch.yml文件中的部分参数。 云搜索服务支持您在控制台修改OpenSearch.yml文件中的部分参数。 操作步骤 1. 登录云搜索服务管理控制台,在左侧导航栏,选择对应的实例类型,进入管理列表页面。 2. 点击实例名称进入对应实例详情,并选择“配置管理”。 3. 点击“修改配置”进入编辑状态,对所需的参数进行修改,修改时请关注填写规则和样例。 4. 修改完成后,点击“提交”,并在弹出的窗口中核对修改信息,需要知晓并勾选重启过程中可能会导致服务短暂不可用,确认后等待对应参数修改记录变为成功,即为已生效。若为失败,则未成功修改,参数仍为改前值。 5. 可在下方参数修改记录中查看近10次的修改记录和状态。 6. 如果有需要修改的参数不在列表内,请提报工单申请,由工程师为您修改。 指标分类 参数名称 填写说明 跨域访问 http.cors.enabled true表示启用跨域资源访问,false表示不启用 跨域访问 http.cors.alloworigin 支持 host/IP 和 port 组合、域名或号,例如node1:9200,127.0.0.1:9200,限制1100个,逗号隔开;号表示全部放开 跨域访问 http.cors.maxage 浏览器默认缓存时间。如果超过设置的时间后,缓存将自动清除。数值,取值范围[01728000],单位秒 跨域访问 http.cors.allowcredentials 响应中是否允许返回allowcredentials取值true/false 跨域访问 http.cors.allowheaders 跨域访问允许的headers,XRequestedWith,ContentType,ContentLength中的任意一个或多个 跨域访问 http.cors.allowmethods 跨域访问允许的方法OPTIONS,HEAD,GET,POST,PUT,DELETE中的任意一个或多个 审计日志 plugins.security.audit.type 审计日志,默认关闭,开启后,系统会记录OpenSearch实例对应的操作产生的日志 Reindex索引迁移 reindex.remote.whitelist 添加远程集群的访问地址白名单,支持host/IP 和 port 组合,例如 node1:9200,127.0.0.1:9200,port必填。限制1100个,逗号隔开 索引自动创建、通配删除 action.destructiverequiresname 删除索引是否需要声明完整索引名 true:需要声明完整索引名 false:不需要声明完整索引名 自定义查询缓存 action.autocreateindex 是否允许自动根据文档创建索引 线程池 threadpool.forcemerge.size forcemerge场景下队列的大小 流量控制 flowcontrol.search.qps 每秒查询请求数,超过设定值,响应查询API则熔断 读写集群的线程池设置 threadpool.write.queuesize 写阈值线程池大小,整数类型,取值范围1100000 读写集群的线程池设置 threadpool.search.queuesize 读阈值线程池大小,整数类型,取值范围1100000 fielddata的堆内cache indices.fielddata.cache.size fielddata的cache size,百分比,取值范围1%39% 查询相关限制 indices.query.bool.maxclausecount 查询的bool语句允许的子语句大小,整数类型,取值范围11024
        来自:
        帮助文档
        云搜索服务
        用户指南
        OpenSearch实例创建及使用
        管理实例
        修改OpenSearch配置文件默认参数
      • 通过云主机创建整机镜像
        操作步骤 1、登录IMS控制台。 a.登录控制台。 b.选择“镜像服务”。 进入镜像服务页面。 2、创建整机镜像。 a.单击右上角的“创建私有镜像”,进入创建私有镜像页面。 b.创建方式选择“创建私有镜像”。 c.镜像类型选择“整机镜像”,镜像源选择“云主机”,从列表中选择相应的云主机。 图 使用云主机创建整机镜像 d.选择“云主机备份存储库”,用于存放备份。 创建的整机镜像及中间产物备份副本会默认存放在备份存储库中,因此必须选择一个云主机备份存储库。 如果没有可用的存储库,请单击“新建云主机备份存储库”进行创建,注意“保护类型”需选择“备份”。 e.在“配置信息”区域,填写镜像的基本信息。例如,镜像的名称和镜像描述。 f.单击“立即创建”。 g.根据界面提示,确认镜像参数。阅读并勾选协议,单击“提交”。 3、返回私有镜像列表,查询创建的整机镜像的状态。 当镜像的状态为“正常”时,表示创建完成。 整机镜像状态为“可用区x可用”(可用区x表示镜像源云主机所在的可用区)时:表示云主机备份还未创建成功,只是创建好磁盘快照。 此时,这个整机镜像只能在该可用区中发放云主机。如果需要在区域内发放云主机,需要等云主机备份完全创建好,并且整机镜像状态为“正常”,该过程大概需要10分钟,具体由云主机的数据量决定,数据量越大,时间越长。 图 整机镜像状态
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        通过云主机创建整机镜像
      • 伸缩组内实例管理类
        本文汇总了管理伸缩组内实例过程中会遇到的管理类问题。 怎样查看通过弹性伸缩创建的主机实例密码并进行登录? 系统无法获取您设置的密码内容,请您在创建伸缩配置时,妥善保管相关内容。 通过弹性伸缩创建的云主机实例,与伸缩组关联的伸缩配置中设置的登录方式和密码保持一致。 自动创建的云主机 实例密码是否与主机私有镜像中的密码一致? 不一致。 为了确保安全,所有自动创建的云主机实例密码都建议采用SSH密钥对。在自动创建云主机实例时,通常不会采用自定义镜像的密码来作为登录密码。 通过伸缩组扩容自动创建的弹性云主机实例如何部署应用? 通过伸缩组扩容自动创建的弹性云主机实例,可通过 “私有镜像 + 用户数据” 实现应用自动部署。具体为:创建包含应用程序软件及开机自启动设置的私有镜像,并配合用户数据注入开机后自动执行的脚本,即可实现应用自动部署。 弹性伸缩场中,云主机健康检查与负载均衡健康检查有什么区别? 云主机健康检查 :聚焦云主机实例本身状态。当检测到实例处于 “错误” 等异常状态时,会将其移出伸缩组,同时自动创建新的健康实例,确保伸缩组实例数量符合预设配置。 负载均衡健康检查 :需先为伸缩组关联负载均衡器才可启用,检查云主机实例上指定服务的端口响应状态。若伸缩组关联多台负载均衡器,需所有负载均衡器均判定实例 “健康”,才认为其正常;只要有一台检测到端口服务异常,实例就会被移出伸缩组。
        来自:
        帮助文档
        弹性伸缩服务 AS
        常见问题
        伸缩组内实例管理类
      • 计费概述
        本文介绍了并行文件服务HPFS的计费模式、计费项、计费周期、计费公式以及产品定价等相关内容。 计费模式 并行文件服务HPFS会根据存储类型、配置容量大小和时长进行计费。当前仅提供HPC性能型存储类型,以及按需计费的计费模式。 按需计费(后付费):按照创建文件系统时配置容量结算费用,先使用,后付费,适用于业务用量经常有变化的场景。 计费项 根据存储类型和规格,按照创建文件系统时配置的容量大小计费,并非按照上传文件的使用量。 在使用HPFS过程中,除并行文件系统配置容量的计费项费用之外,还可能涉及以下费用: 弹性IP费用 当您使用文件系统上传或下载数据、将本地数据迁移至HPFS时,通过将文件系统挂载至一台连接公网的物理机上实现数据上传和下载。如您占用弹性IP提供的公网带宽,具体费用信息,请参考弹性IP计费说明。 计费周期 HPFS按小时为周期统计,即每小时结算一次,须保证您的账户余额充足,避免可能因欠费影响业务。 计费公式 存储空间费用 存储类型单价(元/GB/小时) 文件系统配置容量大小(GB) 使用时长(小时)。 产品定价 HPFS按需计费定价,请参见HPFS产品价格。 卡券管理 优惠券使用规则请参见天翼云帮助中心费用中心优惠券使用。 代金券使用规则请参见天翼云帮助中心费用中心代金券使用。
        来自:
        帮助文档
        并行文件服务 HPFS
        计费说明
        计费概述
      • 1
      • ...
      • 261
      • 262
      • 263
      • 264
      • 265
      • ...
      • 506
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      轻量型云主机

      弹性伸缩服务 AS

      AI Store

      应用托管

      智算一体机

      知识库问答

      人脸检测

      推荐文档

      网页防篡改集中管理中心安装

      客户端下载安装

      启动即时会议

      工单操作

      安装控制

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号