活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云翼视捷_相关内容
      • 对象存储访问日志
        本文主要介绍如何接入对象存储访问日志。 云日志服务支持导入对象存储访问日志。出于分析或审计等目的,您可以在对象存储中开启日志管理功能,并导入云日志服务中。通过访问日志记录,桶的拥有者可以深入分析访问该桶的用户请求性质、类型或趋势。 前置条件 已开通对象存储服务。 注意 1. 接入对象存储访问日志,云日志服务侧将产生相关存储费用与流量费用,详情请查看云日志服务计费说明。 2. 开启访问日志转储,会产生对象存储服务费用,相关费用信息请参考对象存储服务文档。 配置流程 1. 登录对象存储ZOS控制台。 2. 选择指定的Bucket名称桶,进入"概览"页面。 3. 点击"日志管理"标签,在日志管理界面下点击"设置"按钮。 4. 选择"开启日志存储",按照日志管理配置规则,选择日志存储位置与日志前缀,单击"保存"开启日志存储功能。 5. 进入云日志服务控制台,在左侧菜单栏点击“日志接入”,选择“对象存储访问日志”。 6. 选择需要存储日志数据的日志项目与日志单元。点击下一步进入日志配置页面。 7. 在日志配置页面中,选择上述第四步已配置的ZOS存储桶以及目录前缀,点击“下一步”,即可完成配置
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        对象存储访问日志
      • 边边网络概述
        本节主要介绍边边网络的组成、产品优势、应用场景和使用限制。 针对处于相同或者不同边缘云地域下的多VPC之间内网互通场景,边边网络EEN(Edge to Edge Network)提供多VPC内网互通服务,其可以快速构建安全、稳定、灵活的边边互通网络。 边边网络提供路由控制功能,当VPC加入边边网络实例时,系统会自动将VPC下所有子网的路由自动添加到边边网络实例的路由表,添加后路由默认不开启,需手动开启;当VPC和边边网络实例解除关联后,对应的路由会自动删除。若关联的多个VPC下的子网CIDR有重叠冲突或者包含冲突时,当两个子网路由均需开启时,后开启的路由将因冲突不能开启。 应用场景 同地域多VPC内网互通组网 针对ECX同一地域下的两个以上的VPC之间内网互通组网需求,建议使用EEN关联多个VPC的方式实现内网互通,该方式可以代替传统的VPC对等连接功能,简化多VPC之间内网互通的网络结构和配置,同时还保留后续跨边缘云地域的内网组网能力。 跨地域多VPC内网互通组网 针对ECX边缘云不同地域下的多个VPC之间的内网互通组网需求,建议使用EEN关联多个VPC的方式实现内网互通,该方式代替传统的VPN和专线方案快速实现跨边缘云地域多VPC内网组网,可以简化配置和成本,同时提供安全、优质、稳定的网络质量。 同一边边网络实例可以同时支持ECX边缘云同地域多VPC内网互通和跨地域多VPC内网互通需求。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘网络
        边边网络
        边边网络概述
      • 系统维护
        系统网络诊断 当用户登录主机失败时,可通过网络诊断来判断云堡垒机系统与主机网络是否可达。 对主机地址进行ping诊断,判断云堡垒机系统与主机的ICMP协议是否可通信。 对主机地址进行路由追踪,判断云堡垒机系统与主机之间路由是否可达。 对主机地址进行TCP端口诊断,判断云堡垒机系统与主机之间的TCP协议端口是否可达。 说明 如果网络不可达,需先解决主机网络连接问题; 如果网络连通性正常,则需判断系统添加的主机用户名、密码、端口是否输入正确。 本小节主要介绍如何测试系统网络连通性。 前提条件 已获取“系统”模块管理权限。 操作步骤 1 登录云堡垒机系统。 2 选择“系统 > 系统维护 > 网络诊断”,进入系统网络诊断页面。 3 通过ping主机地址,检测网络连通性。 信息类型选择“ping”。 输入主机地址,单击“执行”,查看连通性测试结果。 判断系统与主机的ICMP协议是否可通信。 4 通过路由追踪主机地址,检测网络连通性。 信息类型选择“路由追踪”。 输入主机地址,单击“执行”,查看连通性测试结果。 判断系统与主机之间路由是否可达。 5 通过TCP端口检测,检测网络连通性。 信息类型选择“路由追踪”。 输入主机地址和端口号,单击“执行”,查看连通性测试结果。 判断系统与主机之间的TCP协议端口是否可达。 系统诊断 通过系统诊断可获取当前系统相关信息,包括综合信息、系统负载、内核信息、内存信息、网卡信息、磁盘使用信息、路由信息、ARP信息。 本小节主要介绍如何进行系统诊断,获取系统后台信息。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        系统管理
        系统维护
      • 通过CRD采集应用日志
        本文介绍如何通过CRD采集应用日志。 本文介绍如何在Serverless集群中配置CRD并进行应用日志采集管理。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 确保kubectl工具已经连接目标集群。 注意事项 通过云日志服务CRD开启日志采集仅对后续创建的ECI Pod生效。如果想要采集存量Pod的日志,需要对存量Pod进行一次滚动发布。 操作步骤 您需要先在集群内安装ctglogoperator插件,再通过日志采集配置CRD来配置应用日志采集。 步骤一:安装ctglogoperator日志插件 1. 登录云容器引擎管理控制台,在左侧导航栏选择“集群列表”。 2. 在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择“插件” > “插件市场”。 3. 在插件市场页面,在插件列表中选择要安装的ctglogoperator插件,点击“安装”按钮。 等待ctglogoperator插件安装完成。 步骤二:创建日志采集配置 1. 编写日志采集配置CRD的YAML配置文件。 说明 创建日志采集配置的 CRD 资源后,您可以在云日志服务控制台查看相应的日志项目和采集配置。请注意,直接在云日志服务控制台上修改这些通过 CRD 创建的配置,其更改不会同步回 CRD 资源本身。因此,若您后续需要更新配置,请直接编辑并应用 CRD 资源,避免在云日志服务控制台进行操作,以防止配置出现不一致的情况。 CtyunLogConfig CRD 配置文件,logstdout.yaml示例如下: shell apiVersion: sce.ctyun.cn/v1 kind: CtyunLogConfig metadata: name: simplestdoutexample
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        日志
        通过CRD采集应用日志
      • 回源概述
        本文介绍天翼云CDN回源相关的功能和配置。 概述 回源配置模块主要介绍CDN回源相关的功能和配置。部分能力支持但暂不支持客户自助的功能,可通过提交工单给天翼云客服人工操作开启。 回源功能简介 回源相关功能及说明如下: 功能 说明 源站配置 支持IP或域名,最多可添加60个。 回源协议 设置CDN在回源时遵循的协议类型,如:HTTP、HTTPS或跟随。 回源加密算法 回源协议为HTTPS协议时,默认使用国际标准加密算法回源,也可以选择使用国密加密算法回源或者跟随客户端加密算法回源;未选择默认使用国际加密算法回源。 回源端口 设置CDN在回源时使用的端口。 默认回源HOST 当您的源站的同一个IP地址上绑定多个域名或站点时配置回源HOST,CDN在回源时根据HOST信息去对应站点获取资源。 回源HOST带端口 当源站绑定了多个域名,且源站服务运行在非80/443端口(比如8080)时,开启回源host带端口功能,回源时可以在回源host中带上具体的端口(如test.ctyun.cn:8080),精准找到源站服务。 指定源站回源HOST 当您的加速域名配置多个回源站点,且回源站点与加速域名不同时,您可以使用指定源站回源HOST功能,为不同的源站配置不同的回源HOST,天翼云CDN在回源时会根据配置的回源HOST信息去访问不同站点的资源。 回源SNI 如果一个源站IP地址绑定多个域名,且CDN加速使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源URI改写 改写回源请求中的URI。 回源302/301跟随 开启回源302/301跟随功能后,CDN节点会代替用户去处理源站给出的302/301状态码内容,即CDN节点会直接跳转到源站302/301响应中的Location地址请求资源,不会直接把源站响应的302/301跳转地址直接返回给用户。 区分IPv4/IPv6回源 域名既有IPv4源站,又有IPv6源站,可以配置区分IPv4/IPv6协议回源,实现跟随客户端V4/V6协议回源效果,即:IPv4协议的客户端回IPv4的源站,IPv6协议的客户端回IPv6的源站。 分区域分运营商回源 域名有多个源站,且希望通过CDN加速实现多个源站之间负载均衡,可以按照区域或者运营商划分源站,让不同区域或者运营商的客户端IP回不同的源,从而实现同运营商回源,或者就近回源。 回源参数改写 改写回源请求URL的查询参数,既问号后的参数值。 Common Name白名单 开启Common Name白名单功能后,CDN节点以HTTPS协议与源站建连时,将会对请求的SNI和源站返回证书的Common Name进行校验。 私有Bucket回源 若客户使用媒体存储/对象存储作为源站,在新建Bucket权限选择【私有】之后,需要配置私有Bucket回源功能。 高级回源 当客户希望CDN基于某些特殊场景回不同源站时,例如需要根据请求的不同文件后缀名、不同目录回不同的源站时,可以使用天翼云高级回源功能。 回源超时时间设置 回源超时时间可配置回源连接超时时间跟回源请求超时时间。 回源超时时间设置(新) “回源超时时间设置(新)”与“回源超时时间设置”的区别:新的回源连接超时时间和回源请求超时时间具备内部链路超时时间从回源层往边缘层逐层递增的能力,默认递增1s。可促进回源重试,降低访问异常的概率。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源概述
      • 缓存过期时间
        本文介绍缓存过期时间设置方法。 功能介绍 缓存过期时间指源站资源在全站加速节点缓存的时长,在缓存未过期前,对应资源会直接从全站加速节点响应给用户;达到预设缓存过期时间后,资源将会被全站加速节点标记为缓存过期。此时如果客户端向全站加速节点请求该资源,全站加速会携带IfModifiedSince请求头或IfNoneMatch请求头回源站校验内容是否有更新,如有更新则获取最新资源并缓存到全站加速节点,如无更新则继续使用原有缓存文件。您可以根据业务需求,按指定路径或文件名后缀等方式配置静态资源的缓存过期时间。 注意事项 1. 您可基于天翼云默认推荐的缓存设置,按需进行调整后,直接使用,当前默认推荐配置如下: 2. 如您删除了上述默认推荐设置,且未添加其他任何设置情况下,全局默认不缓存走动态加速回源。 3. 如果加速域名下的文件访问热度过低(指同个文件在一段时间内被访问的频次过低),则很可能在过期时间到来之前被其他热度更高的文件覆盖。即:即使某个文件配置的缓存时间较长,如1个月,仍有可能在1个月内重复回源。 4. 天翼云全站加速节点的缓存时间,最长可以设置为3年,即1095天。 配置说明 1. 登录客户控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【缓存配置】。 5. 在【缓存过期时间】下方单击【增加规则】,弹出的对话框中,配置缓存时间规则,并单击【确定】。 (1)选择【类型】,如后缀名、目录、首页、全部文件、全路径文件,并配置相应的内容。 后缀名:指文件后缀名,可单击选择后缀名,如jpg,png。若后缀名不在选择清单内,可在【其他文件】框输入其他后缀名。 目录:指具体目录,例如值为:/a/,表示目录前缀为/a/的文件。 首页:指域名首页,值固定为/。 全部文件:指对应域名下的所有文件,值固定为/。 全路径文件:指对应URI的文件,例如值为:/a/b.js,则表示请求url中位于/a/目录下的b.js文件的缓存规则(无论是否携带问号后参数)。 (2)选择【缓存规则】,默认为强制缓存。 如选择强制缓存,则即使源站返回CacheControl:nocache/nostore/private等不缓存头或类似CacheControl:maxagen (n>0) 的缓存头时,全站加速节点仍将按照预设的规则及时间缓存文件。 注意 如选择强制缓存,且过期时间设置为0,则无论源站如何响应,全站加速节点均不缓存该文件。 如选择优先遵循源站,则源站如果返回CacheControl:nocache/nostore/private等不缓存头或CacheControl:maxagen (n>0)、Expires响应头时,优先按照源站响应头对应的缓存时间生效。 如选择不缓存,则无论源站返回任何缓存相关响应头,全站加速节点均不缓存。 (3)选择【过期时间】单位,如秒、分钟、小时、天,再填写对应的过期时间。 (4)【缓存参数】默认忽略参数,如需要带问号后参数缓存,请选择不忽略参数。 注意 对于可缓存的文件,全站加速节点通常会设置缓存key(缓存key为文件在全站加速节点上缓存的唯一ID)。默认情况下,全站加速节点会将问号后参数去掉的内容作为缓存key,以提升缓存命中率,降低回源量。如果原始URL中携带问号后参数,且参数不同时源站指向不同文件,则选择不忽略参数,避免缓存错误。 (5)填写【权重】。权重即优先级,支持自定义,数字越大则越优先生效。如果同个URL满足不同的缓存规则设置,例如该URL既属于某个文件后缀,又属于某个目录下,此时具体遵循哪条缓存规则,取决于二者的权重设置,最终按权重数字大的生效。 6. 单击【保存】,完成配置。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        缓存配置
        缓存过期时间
      • 使用HTTP API地址对接Grafana或自建应用中接入Prometheus数据
        天翼云Prometheus监控服务提供了HTTP API地址,您可以在自建的Grafana中接入Prometheus监控数据,或在二次开发过程中通过Prometheus API获取监控数据。 前提条件 已创建Prometheus 实例。 客户端网络已经与暴露接口打通。 操作指南 步骤一:获取用户的AccessKey和AccessKey Secret 如果您已创建Prometheus实例,且您需要使用AccessKey和AccessKey Secret进行远程读写,则需要先为获取用户的AccessKey ID和AccessKey Secret。 1. 通过实名认证的账号登录天翼云。 2. 进入天翼云账号中心。 3. 点击【安全设置】进入安全设置中心 4. 在用户AccessKey模块,可创建AKSK,或直接查看已生成的AKSK。 步骤二:获取HTTP API地址 1. 登录应用性能监控控制台,左侧菜单选择Prometheus监控,进入实例列表页面。 2. 单击目标实例名称。 3. 在设置页签上,复制HTTP API地址。 4. 可以单击生成token,获取Prometheus实例的鉴权Token。 注意 生成Token后,可在Grafana中添加数据源时配置Token,否则必须配置用户的AccessKey和AccessKey Secret。 步骤三:接入自建Grafana(token接入) 1. 配置Grafana数据源。 1. 以管理员账号登录本地Grafana系统。 2. 点击页面左上角的图标。 3. 在左侧导航栏中选择Configuration > Data Sources。说明:仅管理员可以看到此菜单。 4. 在Data Sources页签上单击+ Add new data source。 5. 在Add data source页面上单击Prometheus。 6. 在Settings页签的Name字段中输入自定义的名称,在Prometheus server URL字段中粘贴上文【步骤一:获取HTTP API地址】中获得的HTTP API地址。 7. 单击+ Add header,在Custom HTTP Headers区域单击+Add header,设置Header为Authorization,设置Value为【步骤二:获取HTTP API地址】中获取的鉴权Token。 8. 单击页签底部的Save & Test。 2. 验证结果。 1. 登录本地Grafana系统。 2. 点击页面左上角的图标,然后在左侧导航栏中单击Dashboards, 3. 点击Dashboards页面右侧的New,然后在下拉菜单中单击New dashboard。 4. 点击+ Add visualization, 5. 在Select data source页面选择您创建的数据源。 6. 在Edit Panel页面的Query页签下的A区域的Metrics字段和Label filters字段中输入指标名称和值,单击Run queries进行查询。 如果能显示出相应指标的图表,则说明操作成功。否则请检查填写的接口地址或Token是否正确,以及数据源是否有Prometheus的监控数据。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        Prometheus监控
        控制台操作指南
        实例管理
        数据访问
        使用HTTP API地址对接Grafana或自建应用中接入Prometheus数据
      • 创建计划
        本节为您介绍云迁移服务CMS迁移计划创建。 云迁移服务CMS平台提供2种方式创建迁移计划,其一在迁移组创建完成后提供创建迁移计划,详细操作步骤详见资源规划中迁移计划的创建。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        资源规划
        迁移组
        创建计划
      • 如何修改弹性云主机(Windows)的SID
        本文向您介绍如何修改弹性云主机(Windows)的SID。 操作场景 Windows操作系统是通过安全标识符(SID)对计算机和用户的识别。由于基于同一镜像生产的云服务器实例 SID 相同,会引起无法入域的问题。如果您需要搭建 Windows 域环境,则需要通过修改 SID 以达到入域的目的。本文档以 Windows Server 2012 操作系统云服务器为例,介绍如何使用系统自带sysprep 以及 sidchg 工具修改 SID。 注意 本说明仅适用于 Windows Server 2008 R2 、Windows Server 2012 以及Windows Server 2016及更高版本。 如果有批量修改 SID 的需求,可通过制作自定义镜像(选择 “执行 sysprep 制作镜像”)解决。 修改云主机SID可能导致数据丢失或系统损坏,建议您提前做好数据备份。 操作步骤 使用sysprep修改SID 注意 1. 使用 sysprep 修改 SID 后,系统参数很多都被重新设置,包括 IP 配置信息等,您必须手动重新设置。 2. 使用 sysprep 修改 SID 后,C:UsersAdministrator 将会被重置,系统盘部分数据将被清理,请注意做好数据备份。 1. 使用远程登录方式登录云主机。 2. 在操作系统界面,点击运行,输入cmd,按Enter,打开管理员命令行工具。 在管理员命令行工具中,执行以下命令,保存当前网络配置。 ipconfig /all 3. 以管理员身份使用 PowerShell 执行以下命令。 $unattendContent @" true Work 3 true true "@ $unattendContent OutFile FilePath C:WindowsSystem32Sysprepunattend.xml Encoding UTF8 Force C:WindowsSystem32Sysprepsysprep.exe /generalize /oobe /shutdown /unattend:C:WindowsSystem32Sysprepunattend.xml 4. 执行完成后,系统会自动关机。此时,您可在云平台制作私有镜像。 5. 启动云主机进入操作系统后执行下方命令,验证SID是否已修改,返回类似如下信息,则表示SID已完成修改。 whoami /user 6. 根据步骤2保存的网络配置信息,重新设置网卡相关信息(如IP地址、网关地址、DNS等)。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        使用故障类
        如何修改弹性云主机(Windows)的SID
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 修改伸缩策略
        创建完伸缩策略后,您还可以根据需要调整触发条件、策略名称、冷却时间等。 1. 登录天翼云控制中心,切换到需要修改伸缩策略的节点,选择【弹性伸缩服务】; 2. 在伸缩组所在行,单击伸缩组名称,进入【伸缩组详情页】; 3. 在【伸缩组详情页】,单击【伸缩策略】标签,进入【伸缩策略标签页】; 4. 在伸缩策略所在行的【操作】列下,单击【修改】; 5. 可修改策略名称、执行动作等,或者创建新告警规则并使用。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩策略管理
        修改伸缩策略
      • 【下线】2024年8月22日起关系数据库MySQL版下线I 类型资源池对象存储订购
        本页主要介绍下线I类型资源池对象存储能力的原因、影响和建议。 原因 因关系数据库MySQL版产品架构演进调整,天翼云将于2024年8月22日起,停止对部分资源池订购页提供对象存储的备份类型。 影响 涉及资源池:重庆2、南京3、广州X节点(均为I类型资源池) 。 影响范围:已开通对象存储的存量实例无影响,功能可以正常使用。新建实例无法使用对象存储功能。 建议 为保证客户体验,建议您优先使用同地域的II类型资源池,体验更加完善的产品能力。
        来自:
        帮助文档
        关系数据库MySQL版
        产品公告
        【下线】2024年8月22日起关系数据库MySQL版下线I 类型资源池对象存储订购
      • 功能清单
        本文为您罗列了云主机备份的功能清单。 功能名称 功能描述 发布区域 存储库管理 存储库为用户保存备份数据,使用云主机备份时需要先购买存储库。存储库管理介绍了存储库的基本操作,包括支持查看存储库详情、筛选和搜索存储库、扩容存储库、存储库绑定备份策略、存储库解绑备份策略、删除/退订存储库。 上海7/上海36/杭州2/合肥2/南京3/华东1/南昌5/杭州7/福州3/福州4/福州25/佛山3/广州6/南宁23/郴州2/长沙3/海口2/武汉41/长沙42/华南2/西安4/西安5/中卫2(仅省内可见)/乌鲁木齐27/中卫5/西安7/庆阳2/乌鲁木齐7/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州/青岛20/北京5/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3 备份管理 备份管理支持查看、删除备份。 上海7/上海36/杭州2/合肥2/南京3/华东1/南昌5/杭州7/福州3/福州4/福州25/佛山3/广州6/南宁23/郴州2/长沙3/海口2/武汉41/长沙42/华南2/西安4/西安5/中卫2(仅省内可见)/乌鲁木齐27/中卫5/西安7/庆阳2/乌鲁木齐7/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州/青岛20/北京5/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3 策略管理 策略管理介绍了云主机通过绑定策略,支持自定义定时完成云主机备份任务。策略管理支持绑定存储库、启用、停用、绑定云主机和设置保留策略等功能。 上海7/上海36/杭州2/合肥2/南京3/华东1/南昌5/杭州7/福州3/福州4/福州25/佛山3/广州6/南宁23/郴州2/长沙3/海口2/武汉41/长沙42/华南2/西安4/西安5/中卫2(仅省内可见)/乌鲁木齐27/中卫5/西安7/庆阳2/乌鲁木齐7/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州/青岛20/北京5/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3 数据恢复 数据恢复介绍了云主机备份支持恢复数据到原备份云主机和通过备份申请新的云主机。 上海7/上海36/杭州2/合肥2/南京3/华东1/南昌5/杭州7/福州3/福州4/福州25/佛山3/广州6/南宁23/郴州2/长沙3/海口2/武汉41/长沙42/华南2/西安4/西安5/中卫2(仅省内可见)/乌鲁木齐27/中卫5/西安7/庆阳2/乌鲁木齐7/重庆2/成都4/昆明2/拉萨3/西南1/西南2贵州/青岛20/北京5/晋中/石家庄20/内蒙6/华北2/辽阳1/郑州5/太原4/呼和浩特3 云主机备份监控 云主机备份支持的监控指标,包括存储库使用量、存储库使用率。不仅可以对存储库的指标进行监控,还提供了事件监控供您使用。 长沙3/郴州2/福州3/福州25/重庆2/上海7/内蒙6/拉萨3/福州4/北京5/杭州2/南京3/海口2/西安4/西安5/西安7/成都4/晋中/昆明2/合肥2/广州6/石家庄20/辽阳1/武汉41/乌鲁木齐4/乌鲁木齐7/乌鲁木齐27/中卫5/南宁23/佛山3/华东1/华北2/长沙42/南昌5/华南2/郑州5/庆阳2/呼和浩特3/上海36/西南1/西南2贵州/太原4/杭州7
        来自:
        帮助文档
        云主机备份 CSBS
        产品简介
        功能清单
      • 其他类
        本节主要介绍弹性文件服务的其它常见问题。 如何从云主机访问文件系统? 要访问您的文件系统,如果是Linux云主机,您需要在Linux云主机上安装NFS客户端后使用挂载命令挂载文件系统;如果是Windows云主机,您需要在Windows云主机上安装NFS客户端,修改NFS传输协议后使用挂载命令挂载文件系统。或使用正确的用户和权限,直接输入CIFS文件系统的共享路径,挂载CIFS类型的文件系统。挂载完成后,可共享您的文件系统中的文件和目录。 如何确认如何确认Linux云主机上的文件系统处于可用状态? 以root用户登录云主机,执行如下命令,将会回显指定域名下所有可用的文件系统。 showmount e 文件系统域名。 弹性文件服务会占用用户的哪些资源? 为保证文件系统能够正常使用,弹性文件系统将会占用用户以下资源。 SFS容量型文件系统: 创建文件系统时,会在用户填写的安全组下,开通111、445、2049、2051、2052端口的入规则。默认的源地址为0.0.0.0/0,用户后续可根据自己的实际情况,修改该地址。 如果创建加密的SFS容量型文件系统,将会使用用户填写的kms密钥进行加密。注意,该密钥如果删除,该文件系统的数据将无法使用。 SFS Turbo文件系统: 创建SFS Turbo文件系统时,会在用户填写的子网下创建两个私有IP和一个虚拟IP。 创建SFS Turbo文件系统时,会在用户填写的安全组下,开通111、445、2049、2051、2052、20048端口的入规则。默认的源地址为0.0.0.0/0,用户后续可根据自己的实际情况,修改该地址。 如果创建加密的SFS Turbo文件系统,将会使用用户填写的kms密钥进行加密。注意,该密钥如果删除,该文件系统的数据将无法使用。 在往文件系统的文件夹写数据的过程中会占用服务器的运行内存,但不会占用服务器磁盘的存储空间,文件系统使用的是独立空间。
        来自:
        帮助文档
        弹性文件服务 SFS
        常见问题
        其他类
      • 设置网卡属性为DHCP(Linux)
        本节介绍了设置网卡属性为DHCP(Linux)的操作场景、前提条件、操作步骤、相关操作。 操作场景 通过云主机或者外部镜像文件创建私有镜像时,如果云主机或镜像文件所在虚拟机的网络配置是静态IP地址时,您需要修改网卡属性为DHCP,以使私有镜像发放的新云主机可以动态获取IP地址。 不同操作系统配置方法略有区别,请参考对应操作系统的相关资料进行操作。 说明: 使用外部镜像文件创建私有镜像时,设置网卡属性操作需要在虚拟机内部完成,建议您在原平台的虚拟机实施修改后,再导出镜像。 前提条件 已登录创建Linux私有镜像所使用的云主机。 登录云主机的详细操作请参见《弹性云主机用户指南》。 操作步骤 本节操作以Ubuntu 14.04操作系统为例,介绍检查及设置云主机网卡属性的方法。 1. 在云主机上执行以下命令,使用vi编辑器打开“/etc/network/interfaces”文件,查看网卡的网络配置。 vi /etc/network/interfaces − 信息显示所有网卡的网络配置为DHCP模式时,如下图所示,无需重复设置网卡属性,输入:q退出编辑器。 网卡的网络配置为DHCP模式 − 信息显示网卡的网络配置为静态IP地址时,如下图所示,请执行2。 网卡的网络配置为静态IP地址 2. 按“i”进入编辑模式。 3. 删除静态IP设置的相关内容,然后将对应的网卡设置为DHCP方式,如下图所示。 您也可以使用“”注释掉静态IP设置的相关内容。 设置网卡为DHCP方式 如果您有多个网卡,请将剩余网卡按照上述方法设置为DHCP方式,如下图所示。 设置多个网卡为DHCP方式 4. 按“ESC”后,输入:wq,按“Enter”。 保存设置并退出编辑器。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Linux操作系统相关操作
        设置网卡属性为DHCP(Linux)
      • VPN网关常见问题
        VPN网关删除后公网IP是否可以保留? VPN网关删除后不保留网关IP地址。通过控制台界面删除VPN网关后, VPN网关相关联的资源,如公网IP、配置信息即被释放,不会保留。 因为VPN网关和公网IP是相关联的资源,一旦VPN网关被删除,其相关联的公网IP也会被释放。这个过程是自动进行的,以确保资源的有效利用和管理。在某些情况下,如果VPN网关删除后仍然保留了公网IP,可能会导致潜在的安全风险和配置问题。 因此,一般来说,当删除VPN网关时,相关联的公网IP也会被一并释放。 自己创建的弹性公网IP能作为VPN网关的IP地址吗? 不可以。弹性公网IP是一种独立的公网IP地址,可以与云服务器进行绑定和解绑,实现IP地址的动态管理。但是,弹性公网IP不具备对接VPN网关服务的功能,不能直接用作VPN网关的IP地址。 VPN网关是一种用于建立加密通道的设备,用于连接内网和外网。在创建VPN网关时,系统会分配一个特定的IP地址作为VPN网关的地址。这个IP地址是专门用于连接VPN网关的,不能随意更改。 通过VPN互访的云主机需要购买弹性公网IP吗? 一般是不需要购买弹性公网IP的,因为VPN连接是在网络层上进行的,它可以在云主机和本地主机之间建立安全的加密通道,使得它们可以相互通信。如果您的云主机仅需要通过VPN连接与其他VPC的云主机或本地主机进行互访,那么您不需要购买弹性公网IP。 然而,如果您的云主机需要向公网用户提供服务,比如通过互联网访问您的网站或应用程序,那么您需要购买弹性公网IP。弹性公网IP可以让您的云主机具有一个独立的公网IP地址,使得用户可以通过这个IP地址访问您的服务。这样可以让您的服务更具有可访问性和可用性。
        来自:
        帮助文档
        VPN连接
        常见问题
        VPN网关常见问题
      • 查看标签已绑定的资源
        本文将为您介绍查看标签绑定资源的操作流程。 有三种途径可实现基于标签查找资源,您可根据实际场景按需选择。 基于标签控制台查看标签已绑定资源 适用于账号管理者,可查看账号下的某一具体标签绑定的所有不同类型的云资源。 1、登录标签管理控制台。 2、进入标签详情页:标签键详情页可查看标签键下所有标签值绑定的云资源,标签键值详情页可查看标签值所绑定的云资源。 基于资源管理控制台查看标签已绑定资源 适用于账号管理者,可查看账号下不同标签绑定的所有不同类型的云资源。 1、登录资源管理控制台。 2、资源列表上方的标签筛选入口,选择需要筛选的标签键值数据。 基于云服务控制台查看标签已绑定资源 适用于某一类型资源管理者,可查看登录账号下标签绑定的某一类云资源。以CTECS为例说明: 1、登录CTECS控制台。 2、资源清单列表上方的筛选标签入口,选择需要筛选的标签键值数据。
        来自:
        帮助文档
        标签管理(一类节点)
        用户指南
        查看标签已绑定的资源
      • 进入控制台
        本页为您介绍如何进入数据库专家服务控制台页面。 操作步骤 第一步,打开天翼云官网 第二步,选择控制中心。 第三步,选择北京北京5资源池。 第四步,在【数据库】下拉选择【数据库专家服务】,点击进入数据库专家服务控制台。
        来自:
        帮助文档
        数据库专家服务
        快速入门
        进入控制台
      • 绑定弹性网卡到虚拟IP
        本文主要介绍如何绑定弹性网卡到虚拟IP。 操作场景 通过将弹性网卡与虚拟IP绑定,使用户可以通过绑定的虚拟IP访问该弹性网卡绑定的服务器。 未绑定云主机实例的弹性网卡不能绑定虚拟IP。 操作步骤 1. 登录管理控制台。 2. 在页面左上角单击图标,打开服务列表,选择“网络 > 虚拟私有云”。进入虚拟私有云列表页面。 3. 在左侧导航栏选择“弹性网卡”。 4. 在弹性网卡列表页,单击操作列的“更多 > 绑定虚拟IP”。进入虚拟IP列表页。 5. 在需要绑定的虚拟IP操作列,单击“绑定服务器”。 6. 选择服务器及网卡,单击“确定”。
        来自:
      • 统一身份认证
        本文主要介绍应用性能管理 统一身份认证服务(Identity and Access Management,以下简称IAM)实现用户认证信息的集中管理。用户可以管理自己的已验证邮箱、已验证手机、密码等信息。当用户在调用API接口申请云服务器或进行云资源管理以及使用多租户方式登录云平台时,也可实时查询所需的项目ID、访问密钥(AK/SK)以及帐户名。 通过云审计服务,您可以记录与统一身份认证服务相关的操作事件,便于日后的查询、审计和回溯。 注:统一身份认证服务属全局级服务,各二类节点统一身份认证的相关操作事件请在贵州资源池查看和操作。 表 云审计服务支持的IAM操作列表 操作名称 资源类型 事件名称 用户登录 user login 用户登出 user logout 登录重置密码 user changePassword 创建用户 user createUser 删除用户 user deleteUser 修改用户 user updateUser 创建用户组 userGroup createUserGroup 删除用户组 userGroup deleteUserGroup 修改用户组 userGroup updateUserGroup 创建idp identityProvider createIdentityProvider 删除idp identityProvider deleteIdentityProvider 修改idp identityProvider updateIdentityProvider 更新metadata identityProvider updateMetadata 更新帐号登录策略 domain updateSecurityPolicies 更新密码策略 domain updatePasswordPolicies 更新ACL domain updateACLPolicies 更新安全警告策略 domain updateWarningPolicies 创建AK/SK user addCredential 删除 AK/SK user deleteCredential 修改邮箱 user modifyUserEmail 修改手机 user modifyUserMobile 修改密码 user modifyUserPassword 登录开启双因子认证 user modifySMVerify 上传头像 user modifyUserPicture 创建信任 agency createAgency 删除信任 agency deleteAgency 修改信任信息 agency updateAgency 修改latch user modifyLatchVerify 修改mc user modifyMCConnectVerify 管理员设置用户密码 user setPasswordByAdmin 切换角色 user switchRole
        来自:
        帮助文档
        云审计
        用户指南
        支持审计的服务及详细操作列表
        管理与部署
        统一身份认证
      • 修改文件读写权限
        本文介绍了修改文件读写权限的最佳实践。 操作场景 在实际业务中,由于以下原因和目的,您可能需要修改对象的读写权限: 数据安全:通过修改对象的读写权限,可以确保数据仅对授权用户或系统可见和可访问。限制对象的访问权限可以减少数据泄露和未经授权的访问风险,提高数据的安全性。 数据分享:在某些场景下,您可能需要与他人或公众共享特定的对象。通过修改权限,您可以将对象的读取权限开放给其他用户或特定的用户群体,以便与他们分享数据,也可以用于共享公共资源、发布媒体内容或进行数据传输等场景。 方案说明 ZOS控制台支持私有和公共读两种权限的相互转换,为确保您的数据安全,建议您选择私有。 桶的读写权限的更改不会改变桶内已有文件的读写权限,新上传文件会默认继承桶的读写权限。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择所需的资源池节点,以下操作选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表,点击Bucket名称进入“概览”页面。 5. 点击“文件管理”页面,选中要设置的文件,点击文件所在行的“更多”按钮。 6. 点击更多下拉选项中的“设置读写权限”按钮。 7. 如选择“公共读”,需勾选“ 我已阅读并同意相关协议《天翼云对象存储系统服务协议》”点击“确认修改”,完成读写权限设置。 8. 如选择“私有”,直接点击“确定”,完成设置。
        来自:
        帮助文档
        对象存储 ZOS
        最佳实践
        修改文件读写权限
      • 资源包退订
        本文帮助您了解对象存储资源包退订的相关步骤。 退款前须知 申请退款前,请确认已知悉相关退款规则,详见退订规则说明。 按需付费方式不支持退款。如果您不再使用ZOS,可以直接清空ZOS所有使用数据,清空后,ZOS将不再产生费用。 资源包退订不会影响您存储在ZOS的数据。资源包退订后,如果当前账号下无抵扣的资源包,则自动转按需付费。 所有类型的资源包均支持七天无理由退订,需注意七天无理由退订次数不超过3次(每账号享有3次七天无理由全额退订次数)。 公网流出流量包和请求次数包两种资源包,若七天无理由退款次数已用完,则不允许在订购当月执行退订操作。 退订步骤 费用中心退订 1.点击天翼云门户首页的“登录”,输入登录的用户名和密码。 2.点击右上角“我的>费用中心”,点击左侧“订单管理”,点击“退订管理”,选择需要退订的资源包,点击“退订”。 3.选择退订原因,确认退款金额,点击“退订”,退订成功,退款金额原路返回。 控制台内退订 1.点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2.在ZOS控制台点击右上角“资源包管理”。 3.在“资源包管理”界面中,选择需要退订的资源包,在操作列中点击“退订”。 4.选择退订原因,确认退款金额,点击“退订”,退订成功,退款金额原路返回。
        来自:
        帮助文档
        对象存储 ZOS
        计费说明
        计费模式
        包年包月(资源包)计费
        资源包退订
      • 回源HOST
        本文简述回源HOST定义及配置方法。 功能介绍 当源站同时服务多个站点,且回源站点与加速域名不同时,您需要配置回源HOST,天翼云边缘安全加速平台安全与加速服务在回源时会根据配置的回源HOST信息去访问对应站点。 源站和回源HOST的区别: 源站:指您的业务所部署的服务器地址,回源时会访问该服务器地址获取资源。 回源HOST:指安全与加速服务回源请求头携带的回源HOST信息,回源请求会访问回源HOST对应的具体站点。 注意事项 对于普通域名(精准域名),回源HOST默认为加速域名。 对于泛域名,回源HOST默认为实际访问的子域名。例如,泛域名是 .example.ctyun.cn,如果通过example.ctyun.cn访问时,回源HOST即为example.ctyun.cn。 天翼云边缘安全加速平台安全与加速服务支持不同源站设置不同的回源SNI,如果您的域名有多个源站,所有源站可配置相同的回源SNI,也可配置不同的回源SNI。如您需要配置不同源站不同SNI功能,请提交工单申请。 自定义配置时,请确保您的源站有配置相应的HOST。 配置说明 1.登录边缘安全加速平台控制台。 2.在域名基础配置页面,点击目标域名。 3.进入源站设置页面,单击“编辑配置”。 4.在回源HOST模块,填入预期的站点地址,例如:www.ctyun.cn。 配置界面 新增域名,配置回源HOST: 修改回源HOST:
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源HOST
      • 业务请求类
        本节介绍业务请求类常见问题。 QPS超过当前WAF版本支持的峰值时有什么影响? 如果您选择的QPS规格不足以支撑网站/应用业务每天的流量峰值,对超出当前WAF版本支持峰值的QPS,WAF将不再防护网站,可能出现限流、随机丢包等现象,导致您的正常业务在一定时间内不可用、卡顿、延迟等。 独享版WAF支持的QPS规格说明: 单实例规格的正常业务请求峰值: WAF实例规格选择WI500,参考性能: HTTP业务:建议QPS 5,000;极限QPS 10,000 HTTPS业务:建议QPS 4,000;极限QPS 8,000 Websocket业务:支持最大并发连接5,000 最大回源长连接:60,000 WAF实例规格选择WI100,参考性能: HTTP业务:建议QPS 1,000;极限QPS 2,000 HTTPS业务:建议QPS 800;极限QPS 1,600 Websocket业务:支持最大并发连接1,000 最大回源长连接:60,000 CC攻击防护峰值: WAF实例规格选择WI500,参考性能: 防护峰值:20,000QPS WAF实例规格选择WI100,参考性能: 防护峰值:4,000QPS 如何查看防护网站的入带宽和出带宽信息? 在“安全总览”页面,您可以查看防护网站或实例的带宽信息,操作步骤如下。 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域。 步骤 3 单击页面左上方的,选择“安全> Web应用防火墙(独享版)”。 步骤 4 在网站或实例下拉列表中,选择要查看的网站或实例,并选择查看的时间段(昨天、今天、3天、7天、30天)。 步骤 5 在“安全统计”区域框中,选择“发送/接收字节数”页签,可以查看防护网站或实例的入带宽和出带宽信息。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        常见问题
        产品咨询
        业务请求类
      • WAF操作指南
        子流程 说明 申请独享引擎 通过申请独享引擎开通WAF。 详细操作请参见: 添加防护网站 添加需要防护的网站。 详细操作请参见: 接入WAF之后,根据请求页面的大小和数量,会有几十毫秒的延迟。 配置防护策略 防护策略是多种防护规则的合集,用于配置和管理Web基础防护、黑白名单、精准访问防护等防护规则,一条防护策略可以适用于多个防护域名,但一个防护域名只能绑定一个防护策略。 详细操作见 管理防护规则 Web应用防火墙将拦截或者仅记录攻击事件记录在“防护事件”页面,通过查看并分析防护日志,对网站的防护策略进行调整,也可以对误报时间进行屏蔽。 详细操作见 处理误报事件 WAF拦截或者记录的攻击事件为误报时,可对误报进行屏蔽处理。详细操作请参见: 安全总览 可查看到昨天、今天、3天、7天或者30天范围内的防护数据。详细操作请参见:
        来自:
        帮助文档
        Web应用防火墙(独享版)
        快速入门
        WAF操作指南
      • 启用/停用/重新启用预案
        操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案管理”,进入预案列表页。 5. 在列表上方下拉菜单中选择需要进行预案的命名空间。 6. 点击预案列表操作列中的“重新启用”按钮,弹出重新启用预案弹窗。 7. 确认重新启用该预案后,点击“确定”按钮,确认后该预案状态变为已启用。 停用预案 使用条件 预案状态为已启用或待重新启用状态,且预案未被容灾演练或应急切换关联时,可进行停用预案操作。 操作场景 在您创建预案后,可以通过多活容灾服务控制台进行预案的停用。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案管理”,进入预案列表页。 5. 在列表上方下拉菜单中选择需要进行预案操作的命名空间。 6. 点击预案列表操作列中的“停用”按钮,弹出停用预案弹窗。 7. 确认停用该预案后,点击“确定”按钮,确认后该预案状态变为已停用。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案管理
        启用/停用/重新启用预案
      • 高级回源
        本文介绍高级回源功能及其配置说明。 功能介绍 当客户希望CDN基于某些特殊场景回不同源站时,例如需要根据请求的不同文件后缀名、不同目录回不同的源站时,可以使用天翼云高级回源功能。开启高级回源后,CDN节点在接收到客户端请求后,读取请求中对应信息进行判断并回源到不同源站。目前天翼云CDN支持的高级回源功能包括如下: 1. 支持区分IPV4/IPV6回源,详情请见:区分IPv4/IPv6回源。 2. 支持分区域分运营商回源,详情请见:分区域分运营商回源。 3. 支持分不同目录回源:例如可设置某加速域名下:/abc/a目录回源站A,/def/d目录回源站B。 4. 支持分不同文件后缀名回源:例如可设置某加速域名下:.apk文件回源站A,.mp4文件回源站B。 注意事项 1. 上述高级回源维度可以相互组合,例如可设置如下:/abc/a目录下的.apk文件回源站A,/abc/a目录下的.mp4文件回源站B。 2. 如客户同时在控制台配置回源URI改写功能,且其中涉及目录或文件后缀名的改写,可能会造成分目录回源和分文件后缀名回源效果与预期不符。 3. 高级回源功能支持在具体某个条件下设置多个源站,且支持多个源站之间设置主备、权重。 4. 高级回源功能必须搭配源站配置功能一起使用,在某个请求未匹配至所有高级回源条件时,将按照基础回源配置回源。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        高级回源
      • 关系数据库增量迁移
        本章节主要介绍关系数据库增量迁移。 CDM支持对关系型数据库进行增量迁移,全量迁移完成之后,可以增量迁移指定时间段内的数据(例如每天晚上0点导出前一天新增的数据)。 增量迁移指定时间段内的数据 −适用场景:源端为关系型数据库,目的端没有要求。 −关键配置:Where子句+定时执行作业。 −前提条件:数据表中有时间日期字段或时间戳字段。 关系数据库增量迁移方式,只对数据表追加写入,不会更新或删除已存在的记录。 Where子句 参数位置:在创建表/文件迁移作业时,如果源端为关系型数据库,那么在源端作业参数的高级属性下面可以看到“Where子句”参数。 参数原理:通过“Where子句”参数可以配置一个SQL语句(例如:age > 18 and age < 60),CDM只导出该SQL语句指定的数据;不配置时导出整表。 Where子句支持配置为时间宏变量使用解析,当数据表中有时间日期字段或时间戳字段时,配合定时执行作业,能够实现抽取指定日期的数据。 配置样例: 假设数据库表中存在表示时间的列DS,类型为“varchar(30)”,插入的时间格式类似于“2017xxxx”,如下图所示,参数配置如下: 图 表数据 a.Where子句:配置为 DS'${dateformat(yyyyMMdd,1,DAY)}' 。 b.配置定时任务:重复周期为1天,每天的凌晨0点自动执行作业。 这样就可以每天0点导出前一天产生的所有数据。Where子句支持配置多种 时间宏变量使用解析,结合CDM定时任务的重复周期:分钟、小时、天、周、月,可以实现自动导出任意指定日期内的数据。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        增量迁移原理介绍
        关系数据库增量迁移
      • Windows弹性云主机不能复制粘贴内容
        本文带您解决Windows弹性云主机不能复制粘贴内容的问题。 故障描述 当本地通过客户端软件远程连接Windows弹性云主机后,不能复制、粘贴内容,右键单击菜单栏,“粘贴”选项置灰。 故障原因 本地远程桌面配置未进行本地驱动器映射。 远程服务器rdpclip.exe进程异常。 远程服务器系统禁用了弹性云主机和本地主机之间的文件复制粘贴功能。 解决步骤 故障1:未进行本地驱动器映射(以映射本地C盘、D盘、E盘、F盘为例,见图一)。 1. 在本地运行窗口输入 mstsc回车打开“远程桌面连接”。 2. 选择“本地资源”页签,并勾选“本地设备和资源”栏的“剪贴板”、“驱动器”。 3. 单击“确定”,检查复制、粘贴功能是否恢复正常。 故障2:服务器rdpclip.exe进程异常,需要重启rdpclip.exe进程。 1. 远程桌面连接服务器,启动Windows任务管理器,在进程页签下结束rdpclip.exe进程。 图2 结束rdpclip.exe进程 2. 打开“开始”菜单中的“运行”窗口,输入 rdpclip.exe,重新启动rdpclip.exe。 图3 启动rdpclip.exe进程 3. 检查复制、粘贴功能是否恢复正常。 故障3:系统禁止弹性云主机和本地主机之间进行文件的复制粘贴功能,需重新配置弹性云主机的本地组策略编辑器,开启复制粘贴功能。 1. 打开“开始 > 运行”,输入 gpedit.msc,打开“本地组策略编辑器”。 2. 依次找到:“计算机配置 > 管理模板>Windows组件 > 远程桌面服务 >远程桌面会话主机 > 设备和资源重定向”。 3. 将“不允许剪贴板重定向”、“不允许COM端口重定向”、“不允许驱动器重定向”、“不允许LPT端口重定向”几个配置都设置为“已禁用”。 图4 设备和资源重定向 4. 设置完成之后重启弹性云主机使配置生效,检查复制、粘贴功能是否恢复正常。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        操作系统类(Windows)
        Windows弹性云主机不能复制粘贴内容
      • 查看防护总览
        本文主要介绍如何查看云防火墙的概览页面,以及概览页信息说明。 您可以在总览页面查看防火墙实例的基本信息、整体防护能力、统计信息,随时了解云资产的安全状况以及流量数据。 约束条件 VPC边界防护详情需配置“开启VPC边界流量防护”后才能查看。 查看概览 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)切换或查看防火墙实例: 切换防火墙实例:在页面左上角的下拉框中切换防火墙。 查看防火墙实例信息:单击右上角“防火墙列表”,参数说明请参见下表。 参数名称 参数说明 防火墙名称/ID 防火墙的名称/ID。 状态 防火墙的运行状态。 版本规格 防火墙的版本规格。 可防护EIP数 当前防火墙最大可防护的EIP数量。 可防护互联网流量峰值 当前防火墙最大可防护流量的峰值。 计费模式 当前防火墙的计费模式。 企业项目 防火墙所属的企业项目。 操作 支持查看详情等操作。 4. 在“资源概况”中,查看当前账号的当前区域下所有云资源(EIP、VPC)的防护状态。 5. 在“安全事件”中,查看入侵防御功能的防护总详情,快速定位需要防护的云资产。 在右上角切换查询时间,支持查询5分钟~7天的数据。 为异常外联的IP地址/域名添加防护策略: 1. 单击“异常外联IP数”或“异常外联域名数”的数字。 2. 在弹框中选择需要防护的IP地址/域名。 3. 生成地址组/域名组: 创建为地址组/域名组:生成新的地址组/域名组。 添加到地址组/域名组:添加到已有的地址组/域名组。 4. 将地址组/域名组添加到防护规则或黑/白名单,请参见“访问控制策略概述”。 6. 在“防护规则”中,查看防护策略的未命中数量和总数。 详细的未命中防护策略,可单击“一个月以上未命中策略数”的数字,跳转在“策略助手”页面,底部列表中查看。
        来自:
        帮助文档
        云防火墙
        用户指南
        查看防护总览
      • 日志接入
        本文介绍如何进行日志接入。 ECI支持采集租户容器日志(标准输出+文件)并上传到租户的云日志服务。 接入方式 在容器环境变量里带上日志参数,每个容器分别设置,ECI会根据环境变量自动创建或校验日志资源并拉起日志采集器上传日志到租户的云日志服务:如果不存在则会调用云日志OpenAPI创建对应资源,如果资源存在不进行任何修改直接使用。 环境变量命令统一格式为:Ctyunlogseci{key},key为云日志采集规则名称,只能包含小写字母、数字和短划线(),每组采集规则支持的环境变量如下: 环境变量 说明 是否必须 示例 Ctyunlogseci{key} key为采集规则名称,若不存在会创建。值为日志采集路径: 1.采集标准输出时:值必须为stdout 2.采集文件日志时:值为文件路径 是 Ctyunlogsecimyrule:stdout Ctyunlogseciotherrule:/tmp/1.l Ctyunlogseci{key}project 日志项目名称,若不存在会创建 注:取值服从云日志OpenAPI要求 否 默认日志项目:ecialsdefaultlogproject Ctyunlogsecimyruleproject: myproject Ctyunlogseci{key}unit 日志单元名称,若不存在会创建 注:取值服从云日志OpenAPI要求 否 默认日志单元:ecialsdefaultlogunit Ctyunlogsecimyruleunit: myunit Ctyunlogseci{key}ttl 日志单元TTL。默认值: 生产:365 开发:7 否 10 Ctyunlogseci{key}hostgroup 主机组。若主机组不存在,ECI会创建类型为自定义标签的主机组,包含的标签名同主机组名称。若主机组存在,ECI直接将该主机组名称传给采集器,不进行其他校验,请确保主机组名称和内容标签一致 否 默认主机组:ecialsdefaultloghostgroup Ctyunlogsecimyrulehostgroup: myhostgroup
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过云容器引擎集群使用ECI
        日志
        日志接入
      • 实例类型
        本页介绍了关系数据库MySQL版实例类型。 关系数据库MySQL版提供了稳定可靠的云数据库服务,并以实例为最小管理单元。一个数据库实例代表了一个独立运行的数据库,并且拥有唯一标识。关系数据库MySQL版服务对运行实例数量没有限制。 您可以在一个实例中创建和管理多个数据库,并使用与独立访问数据库实例相同的工具和应用进行访问。创建和管理数据库实例非常方便,您可以通过管理控制台或RESTful方式的API来完成这些任务。 在创建实例时,您可以自定义实例规格和存储容量,并可以随时根据业务需求进行升级和扩容。这使得关系数据库MySQL版可以适合各种规模和需求的业务应用。无论您是一家中小企业还是大型企业,都可以根据实际情况选择不同的实例规格和存储容量。 注意 天翼云关系型数据库单机实例(包含只读实例)由于部署在单台机器上,因此无法保障可用性。请选择主备实例或者一主两备实例。 表1 实例类型 实例类型 简介 使用说明 ::: 单机版 采用单个数据库节点部署架构,具有高性价比。 适用于测试场景、小型应用场景,成本较低。由于单机节点存在宕机风险,极端场景下无法保证故障及时恢复。 一主一备 采用一主一备的高可用架构,对故障具备高可用性,可以实现短暂中断后自动发生主备切换。 适用于中小型业务场景,支持跨可用区高可用(AZ),创建实例时会同步创建备机,备机创建成功后,对用户不可见。在主节点故障后,从节点会自动提升为新的主节点,客户端需要支持重新连接。 需要注意主备之间的同步方式,I类型资源池默认为异步复制、II类型资源池在2024年7月10号后创建实例默认为半同步复制。 一主两备 采用一主两备的高可用架构,对故障具备更高可靠性,可以实现更快速的主备切换。 适用于对高可用性要求较高的业务场景,节点间应当配置足够高的带宽,以保证主备数据的同步速度。创建实例时会同时创建两个备机,备机创建成功后,对用户不可见。在主节点故障后,从节点会自动提升为新的主节点,客户端需要支持重新连接。 一主两备实例默认为半同步复制方式。 只读实例 采用单个物理节点架构,同步主实例的数据。 适用于读多写少的业务场景,可以分担主库的压力。当只读和主实例的复制异常后,需要花费较长时间重建复制关系,恢复时间的长短取决于数据量(说明:只有开通主实例之后,才能开通对应的只读实例。) 用户可以在关系数据库MySQL版系统中自助创建及管理各种数据库引擎的实例。
        来自:
        帮助文档
        关系数据库MySQL版
        产品简介
        实例说明
        实例类型
      • 1
      • ...
      • 235
      • 236
      • 237
      • 238
      • 239
      • ...
      • 516
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      知识库问答

      人脸实名认证

      推荐文档

      玩转天翼云⑦:Linux扩展Swap分区的三种方法

      常见问题

      价格计算器

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号