活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云弹性文件服务_相关内容
      • 深信服防火墙配置
        本文为您介绍深信服防火墙如何在本地站点中加载VPN配置。 使用IPsec VPN建立站点到站点的连接时,在配置完天翼云VPN网关后,您还需在本地站点的网关设备中进行VPN配置。 前提条件 已经在天翼云VPC内创建了IPsec连接。 已经下载了IPsec连接的配置。 IPsec协议信息 配置 示例值 IKE 认证算法 SHA1 IKE 加密算法 AES128 IKE DH分组 Group5 IKE IKE版本 IKEv1 IKE 生命周期 86400 IKE 协商模式 main IKE PSK ctSang4 IPsec 认证算法 SHA1 IPsec 加密算法 AES128 IPsec PFS DH group5 IPsec 生命周期 3600 网络配置信息 配置项 示例值 VPC 待和本地IDC互通的私网网段。 VPN网关 天翼云VPN网关的公网IP地址。 本地IDC 待和天翼云VPC互通的私网网段。 本地IDC 本地网关设备的公网IP地址。 操作步骤 1. 登录深信服防火墙的Web管理页面,单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第一阶段 ,单击列表上方的“新增”按钮,根据天翼云IPsec连接的IKE协议信息配置防火墙的第一阶段配置。 2. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第二阶段 ,单击“入站策略”列表上方的“新增”按钮,根据天翼云IPsec连接的网络信息,配置防火墙的第二阶段入站策略。 3. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 第二阶段 ,单击“出站策略”列表上方的“新增”按钮,根据天翼云IPsec连接的网络信息,配置防火墙的第二阶段出站策略。 4. 单击导航栏中的 IPsec VPN设置 > 第三方对接 > 安全选项 ,查看是否有与天翼云IPsec连接配置相同的认证算法与加密算法组合;如果没有,请单击列表下方的“新增”按钮添加一个算法组合,或单击列表后面的“编辑”进行修改,使算法与天翼云IPsec连接中的配置相同。 5. 测试连通性。 您可以利用您的云主机和数据中心的主机进行连通性测试。
        来自:
        帮助文档
        VPN连接
        用户指南
        配置IPsec VPN
        本地网关配置
        深信服防火墙配置
      • 管理告警白名单
        参数名称 参数说明 告警类型 白名单的告警类型名称。 SHA256 目标文件哈希。 路径 服务器文件路径。 数据来源 目标白名单的来源方式。
        来自:
        帮助文档
        企业主机安全
        用户指南
        入侵检测
        白名单管理
        管理告警白名单
      • 云密评专区—综合安全网关快速入门
        本章节为您介绍如何快速使用综合安全网关服务。 步骤一:新增网关服务证书 说明 一个综合安全网关实例仅支持创建一个网关服务证书,若您的服务已创建证书则无法再新增。 1. 登录综合安全网关实例。 2. 在左侧导航栏选择“SSL网关服务 > 网关服务证书”,单击页面左上角的“新增证书”按钮。 3. 在弹出的“新增网关服务证书”对话框中,选择需要新增的证书规格。 4. 选择完成后,单击“确定”完成证书新增。 步骤二:生成证书CSR 1. 登录综合安全网关实例。 2. 在左侧导航栏选择“SSL网关服务 > 网关服务证书”。 3. 选择需要生成CSR的证书,单击“操作”列的“CSR请求”按钮。 4. 在弹出的对话框中配置CSR相关内容。 5. 配置完成后,单击“生成证书请求”,会在“证书请求”栏中生成CSR。 6. 根据您业务自身需求选择复制保存或者下载文件保存。 步骤三:新增网关服务并配置 1. 登录综合安全网关实例。 2. 在左侧导航栏选择“SSL网关服务 > 网关服务管理”,在页面左上角单击“开通网关服务”。 3. 在弹出的“新增网关服务”的对话框中配置网关服务参数。 4. 确认填写的内容后,单击“确定”完成新增网关服务。 5. 配置完成后返回到“网关服务管理”页面,单击“操作”列的“配置”按钮开始配置网关。 6. 在弹出的“配置网关服务”对话框中,配置相关参数。
        来自:
        帮助文档
        云密评专区
        快速入门
        云密评专区—综合安全网关快速入门
      • 查询与分析
        本文主要介绍云日志服务如何检索与分析日志。 完成日志接入配置后,您可以在云日志服务控制台中实时查看与分析上报的日志数据。 前提条件 已完成日志接入配置 查询与分析日志 1. 登录云日志服务控制台。 2. 在日志管理页面的日志项目列表中,点击已创建的日志单元名称,进入日志单元详情页面。 3. 在日志单元详情页面中,即可查看当前日志单元中的日志数据。 4. 选择需要查询日志的时间段范围,输入查询分析语句(或直接输入日志关键词),即可进行日志查询与日志分析。 说明 关于日志查询功能详情与查询语法,请查看 关于日志分析功能详情与分析语法,请查看
        来自:
        帮助文档
        云日志服务
        快速入门
        查询与分析
      • 上报日志
        错误码 statusCode errorCode message 1 LTS8000 请求失败,请稍候重试,或提交工单反馈 1 LTS8001 内容不合法,无法解析 1 LTS8002 日志内容中有无效的日志时间戳 1 LTS8003 日志内容中有非UTF8字符 1 LTS8004 日志内容包含的日志必须小于[x] MB和[y]条 1 LTS8005 日志中时间范围不在[724小时 + 15分钟]有效范围内 1 LTS8006 日志内容解压失败 1 LTS8007 Token失效,请重新获取 1 LTS8008 云日志服务产品失效,请续费或重新开通 1 LTS8009 无云日志服务产品实例,请先开通云日志服务 1 LTS8010 日志项目不存在 1 LTS8011 日志单元不存在
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        API接入
        上报日志
      • 概述
        本文介绍文件完整性保护功能的约束限制和使用流程。 文件完整性保护功能可实时监控主机上的文件,对创建文件、修改文件、删除文件及文件提权操作进行监控和告警,可帮助用户及时发现非预期的文件变更,及时发现可能遭受的攻击。 约束限制 请先购买旗舰版配额并绑定主机后,才能正常使用文件完整性保护功能。 使用流程 流程 说明 设置检测规则 默认对系统关键文件、文件路径、文件目录进行实时监控,用户也可以自定义配置监控路径。 查看并处理告警 查看文件变更结果并对结果进行处理。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        用户指南
        文件安全
        文件完整性保护
        概述
      • 组件|应用程序任务查看
        本节为您介绍云迁移服务CMS异构迁移组件应用程序查看相关内容。 云迁移服务CMS平台提供异构评估组件应用程序任务查看功能,您可以查看任务编号、任务名称、源端类型、目的端区域、推荐工具、评估方式、创建时间、操作等信息。如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        迁移评估
        异构评估
        组件|应用程序任务查看
      • 编辑标签
        弹性IP支持编辑标签,您可以通过标签对EIP进行标记、分类。本文介绍如何编辑标签。 功能介绍 随着EIP实例数量的增长,对EIP的管理难度会增加。通过使用标签对EIP进行分组管理,可以帮助您更轻松地搜索和筛选实例。 使用限制 一个EIP最多可以绑定10条标签,暂不支持提升配额。 添加标签 1. 登录弹性IP控制台。 2. 在目标弹性IP的操作列,单击“编辑标签”即可。 删除标签 1. 登录弹性IP控制台。 2. 在目标弹性IP的操作列,单击“编辑标签”,在目标标签的右侧单击“删除”即可。
        来自:
        帮助文档
        弹性IP EIP
        用户指南
        编辑标签
      • 费用常见问题
        本文为您介绍了短信服务常见的计费问题,帮助您快速解答疑问。 短信服务是否可以先审核模板再进行购买? 可以。申请模板和签名不收费,只有产生短信发送的事件才会计费,订购需要联系相应客户经理。 重复短信推送是免费吗还是额外收费?重复短信后台有记录吗? 短信只要下发成功就会收费,可以在发送量统计中查看短信下发情况。 短信套餐包区分模板吗? 短信套餐包不区分模板,发送验证码和通知类消息均可,按照短信发送量计算额度。 套餐包有短信条数,接口正常,但是为什么短信发送失败提示余额不足等信息? 请核实账户余额是否为0,目前套餐包短信条数有剩余但是需要账户余额为0以上才可以正常调用短信接口,可以在官网费用中心充值一定金额解决此问题,例如10元钱。 套餐包剩余资源支持退款吗? 套餐包购买立即生效,到期后自动失效。 套餐包购买后可通过费用中心开票,开票金额为购买套餐包实际支付金额,如已开具发票的套餐包需要退款,需先退发票。 必须确保天翼云账户余额不小于0,如天翼云帐户停机会影响套餐包正常使用。 已使用套餐包剩余资源不支持退订 使用第三方支付方式结算且支付时间在3个月内的订单,退款将自动原路返还。使用天翼云账户余额结算或支付时间在36个月的订单,退款将退回至天翼云账户余额。
        来自:
        帮助文档
        云通信-短信(文档停止维护)
        常见问题
        费用常见问题
      • Slowdetect
        执行训练任务脚本示例 4. 日志查看 当日志级别设置为debug时,所有组件的日志均会以文件形式保存。否则,可以查看控制台输出的INFO日志。 使用提示 · 安装基础环境,必须带有2.2.0以上torch和megatron框架。 · 目前暂不支持MOE模型。默认TP在机内。 · 默认训练任务拉起时集群状态健康,仅负责检测训练中间过程中出现的慢节点。 · 在启动训练任务之前,先启动ctccm和ctcclprofilernet服务。 · 请确保所有环境变量配置可用。
        来自:
      • 在其他云产品中使用容器镜像部署应用
        本节介绍了容器镜像服务: 在其他云产品中使用容器镜像部署应用。 场景:在云容器引擎集群中使用容器镜像服务。 1、已创建企业版实例,具体操作:开通企业版实例 2、已推送镜像到企业版实例,具体操作:使用企业版实例推送和拉取镜像 3、容器集群使用镜像创建应用,具体操作:容器集群使用容器镜像服务发布应用
        来自:
        帮助文档
        容器镜像服务
        快速入门
        在其他云产品中使用容器镜像部署应用
      • 查看云监控服务日志
        操作场景 在您开通了云审计服务后,系统开始记录云监控资源的操作。云审计服务管理控制台保存最近7天的操作记录。 本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录。 操作步骤 1. 登录管理控制台。 2. 在管理控制台左上角选择区域和项目。 3. 单击“服务列表”,选择“管理与部署 > 云审计服务”,进入云审计服务信息页面。 4. 单击左侧导航树的“事件列表”,进入事件列表信息页面。 5. 事件列表支持通过筛选来查询对应的操作事件。当前事件列表支持四个维度的组合查询,详细信息如下: 1. 事件来源、资源类型和筛选类型。 在下拉框中选择查询条件。 其中筛选类型选择事件名称时,还需选择某个具体的事件名称。 选择资源ID时,还需选择或者手动输入某个具体的资源ID。 选择资源名称时,还需选择或手动输入某个具体的资源名称。 2. 操作用户:在下拉框中选择某一具体的操作用户,此操作用户指用户级别,而非租户级别。 3. 事件级别:可选项为“所有事件级别”、“normal”、“warning”、“incident”,只可选择其中一项。 4. 时间范围:可选择查询最近七天内任意时间段的操作事件。 6. 在需要查看的记录左侧,单击展开该记录的详细信息,展开记录如图所示。 7. 在需要查看的记录右侧,单击“查看事件”,弹出一个窗口,如图所示,显示了该操作事件结构的详细信息。
        来自:
        帮助文档
        云监控服务
        用户指南
        审计云监控服务操作记录
        查看云监控服务日志
      • 告警概览:告警Top实例
        参数 参数类型 说明 示例 下级对象 service String 产品服务 ecs dimension String 产品维度 ecs serviceDesc String 产品服务描述 云主机 dimensionDesc String 产品维度描述 云主机 resource Array of Objects 告警实例 resource count Integer 告警次数 15
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        告警服务
        告警记录
        告警总览
        告警概览:告警Top实例
      • Windows云主机卡顿
        云主机系统资源利用率异常 步骤一:问题定位 定位云主机是否受到恶意软件感染,您可以运行受信任的杀毒软件或安全扫描工具,对云主机进行全面扫描。此外,您还可以检查操作系统、应用程序和安全软件是否为最新版本,并已应用最新的安全更新和补丁。 步骤二:问题处理 如果云主机受到恶意软件感染,及时采取行动非常重要。隔离云主机、运行安全扫描工具、清除恶意软件、更新系统等都是确保云主机安全的关键步骤。 云主机系统资源利用率异常 问题定位:定位云主机中CPU利用率高、带宽流量大、内存使用量高的进程。Windows系统提供多个工具用于定位系统资源利用率异常问题,包括任务管理器、性能监视器、资源监视器、事件查看器等。在带宽流量大的情况下,您可以使用Wireshark抓取一段时间内的网络包,分析带宽流量的使用情况。查看网络问题时,您可以检查网线、路由器等硬件设备是否正常工作,之后使用命令行工具ping命令来测试与其他计算机的网络连接,检查延迟和丢包情况。 问题定位步骤: 1. 本部分详细介绍了问题定位步骤,您可按照如下流程进行排查。 2. 打开“运行”窗口,输入“perfmonres”,打开“资源监视器”。 3. 在“资源监视器”中,单击“CPU”或“网络”,查看CPU占用率或带宽使用情况。 4. 查看CPU和带宽占用率较高的进程ID和进程名。 5. 打开“运行”窗口,输入“taskmgr”,打开“Windows任务管理器”。 6. 在“任务管理器”中,选择“详细信息”选项卡,单击“PID”进行排序。在查找到的CPU或带宽占用率较高的进程上单击右键,选择“打开文件位置”,定位进程是否为正常程序或恶意程序。 问题处理 排查进程是否正常,进行分类处理。 1. 正常程序:优化程序,或变更云主机配置,请参见实例配置变更。 2. 异常程序:确保异常程序不会影响到系统组件或其他用户,您可以手动关闭进程或隔离异常程序。根据异常原因,您还可以采用适当的措施来修复
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        云主机卡顿
        Windows云主机卡顿
      • OpenClaw技能配置指南
        前置工作 已通过天翼云生态专区订购 OpenClaw 应用 。 说明 若 OpenClaw 版本过低,将导致无法在公有云生态专区页面中进行技能配置。 操作步骤 OpenClaw 的 技能(Skills )是让智能体具备执行能力的核心模块,通过标准化封装工具,OpenClaw 可以完成网页浏览、信息检索、邮件管理等任务。 1.从ClawHub 获取技能 登录天翼云官网,进入生态专区控制台。在应用管理我的应用中,选中对应的OpenClaw实例,点击进入应用详情页面。 点击“应用配置”页签,进入OpenClaw应用配置页面。在“技能(Skills)”模块中,天翼云支持从ClawHub选择并安装所需的技能到当前OpenClaw应用中。 2.安装技能 配置技能所需的参数说明如下表所示。填写完成后,点击“安装技能”按钮将自动下载并安装。 参数 填写说明 示例 技能来源 选择“ClawHub” CLI Token 输入从ClawHub获取的CLI Token。 说明 您可从ClawHub中获取CLI Token,Token获取参考以下步骤。 1)点击右上角用户图像的settings 2)下拉页面,点击Create token并复制token值 技能名称 需要安装的技能名称。 说明 您可从ClawHub中获取技能名称,名称获取参考下图。 findskills 注意 技能(Skills)由第三方ClawHub社区收录,部分技能(Skills)可能存在安全风险,天翼云无法确认其安全性,安装前请前往ClawHub社区仔细检查。
        来自:
        帮助文档
        轻量型云主机
        最佳实践
        一键部署OpenClaw操作指南
        OpenClaw技能配置指南
      • 通过智能管理面板配置OpenClaw
        本文介通过智能管理面板配置绍OpenClaw的内容。 前置说明 1.该文档为介绍通过应用托管应用市场体验OpenClaw 智能管理面板的内容。 2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 概述 OpenClaw智能管理面板是集网关连接、模型配置、会话交互、日志调试、节点管理于一体的可视化操作界面。面板采用轻量化侧边栏布局,功能模块划分清晰,保障 AI 智能体的高效使用。以下为详细操作步骤。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
        来自:
        帮助文档
        应用托管
        最佳实践
        部署OpenClaw(原Clawdbot)
        通过智能管理面板配置OpenClaw
      • 通过智能管理面板配置OpenClaw(1)
        本文介通过智能管理面板配置绍OpenClaw的内容。 前置说明 1.该文档为介绍通过应用托管应用市场体验OpenClaw 智能管理面板的内容。 2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 概述 OpenClaw智能管理面板是集网关连接、模型配置、会话交互、日志调试、节点管理于一体的可视化操作界面。面板采用轻量化侧边栏布局,功能模块划分清晰,保障 AI 智能体的高效使用。以下为详细操作步骤。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
        来自:
      • 云硬盘扩容概述
        登录云主机扩展分区和文件系统 通过管理控制台扩容成功后,仅扩大了云硬盘的存储容量,还需要登录云主机自行扩展分区和文件系统。 相关操作 云硬盘扩容常见问题请参见云硬盘扩容问题。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        扩容云硬盘
        云硬盘扩容概述
      • 服务集成模式
        云工作流通过Operation类型的状态调用各种服务,支持三种服务集成模式来控制任务状态的流转。 简介 云工作流通过Operation类型的状态调用各种服务,支持三种服务集成模式来控制任务状态的流转。本文详细介绍请求响应(RequestComplete) 、等待系统回调(WaitForSystemCallback) 和 等待任务令牌(WaitForTaskToken) 三种集成模式的定义、应用场景及示例。 云工作流支持以下三种集成模式,但并非所有服务都支持全部模式。关于具体服务的支持情况,请参见集成类型与模式支持: 请求响应(RequestComplete):同步调用,等待服务响应后继续流程。 等待系统回调(WaitForSystemCallback):异步调用,流程挂起直到系统回调。 等待任务令牌(WaitForTaskToken):异步调用,用户获取任务令牌后手动回调。 请求响应(RequestComplete) 定义 :默认集成模式,发起Operation状态调用后,系统等待服务返回响应,再继续后续流程。 特点:同步执行,立即获取调用结果,适合实时任务。 适用场景:快速API调用、数据查询或简单计算。 示例:同步调用函数计算 以下示例通过RequestComplete模式调用函数计算服务,等待函数返回结果后结束流程。 plaintext specVersion: "0.8" version: "1.0" name: "demo" start: "InvokeFunction" states: name: "InvokeFunction" type: "Operation" actions: functionRef: type: "cf:InvokeFunction" arguments: functionName: "demofunction" qualifier: "LATEST" invocationType: "sync" body: "" regionId: "bb9fdb42056f11eda1610242ac110002" actionExecuteMode: "RequestComplete" end: true 说明 actionExecuteMode: "RequestComplete"指定使用同步调用 invocationType: "sync"确保函数同步执行 等待系统回调(WaitForSystemCallback) 定义 :发起Operation状态调用后,状态挂起,被调用服务自动完成异步回调后继续执行。 特点:适合异步任务,系统负责触发回调,减少轮询开销。 适用场景:函数计算异步调用(开发中,暂不支持)、子流程执行等需要系统自动完成的任务。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        工作流集成
        服务集成模式
      • 国标设备接入
        平台侧确认注册成功 GB35114设备注册完成后,等待大约1分钟后(不同的设备等待时间略有差异),在天翼云智能视图服务控制台的设备管理页面查看该设备,如果是在线状态,说明设备接入成功。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        设备管理
        国标设备接入
      • 微信小程序接入
        本文介绍如何在微信小程序引入验证码插件。 前提条件 已开通Web应用防火墙(边缘云版)。 已新增域名并成功接入WAF,具体操作请见WAF接入。 开通套餐为标准版及以上版本,支持验证码功能。 需先完成验证码配置。暂时未开放控制台,请通过提交工单给天翼云客服,由其人工操作开启。 注意 请勿在“微信开发者工具”的“游客模式”下接入验证码。 接入说明 1、添加插件 用管理员身份登录微信公众平台 ,且需使用接入小程序的相关账号。 选择设置 > 第三方设置 > 添加插件,在搜索框内输入关键字“ AOne 验证码”查找插件,并单击添加。 2、集成插件 引入验证码小程序插件。 使用验证码插件前,需要在 app.json 中声明验证码小程序插件,如下: html { "plugins": { "captchaplugin": { "version": "1.3.0", "provider": "wx10dca5c3b7d08b57" } } } 引入验证码小程序组件。 需要在页面.json 文件中需要引入自定义组件,js 代码如下: html { "usingComponents": { "aonecaptcha": "plugin://captchaplugin/aonecaptcha" } } 3、使用小程序插件 使用原生小程序语言接入时,需要在自定义的.wxml 文件中,使用验证码插件,wxml 代码如下: html 登录 组件参数说明: 字段名 值类型 默认值 说明 httpDomain String 无 验证码拦截的域名 captchaShow Boolean false 控制弹框显示 组件方法说明: 字段名 说明 success 成功回调 (code 状态码 0 成功,ticket 成功标识) close 关闭弹框 成功失败回调字段说明: 字段名 说明 code 状态码 ticket 成功标识 状态码code字段定义说明: 失败的状态页面会直接重新刷新,进行再次验证。 字段名 说明 0 成功,可以获取 ticket 1 验证数据格式有误 2 验证失败 3 验证动作超时 4 验证码版本不对 在自定义的.js 文件中,监听事件,代码如下: 2.1 打开弹框: html // 点击打开弹框 login: function () { this.setData({ captchaShow: true }) }, // 验证码成功回调 captchaSuccess: function (data) { console.log('验证码成功回调token:', data.detail) //获取验证码token,用于后端验证码校验 // code and ticket const detail data.detail this.setData({ ticket: data.detail.ticket, captchaShow: false, }) }, // 验证码关闭回调 captchaClose: function () { this.setData({ captchaShow: false, }) } })
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        操作指导
        验证码
        客户端接入
        微信小程序接入
      • 本地数据中心通过专线连通VPC接入OBS
        如果您希望本地数据中心通过VPN或者云专线以内网方式访问OBS服务,则可以通过终端节点连接终端节点服务实现。本节介绍线下节点(即本地数据中心)通过内网方式访问云上OBS服务的配置指导。 前提条件 已设置专线所接入的VPC网段。 操作场景 如果您希望本地数据中心通过VPN或者云专线以内网方式访问OBS服务,则可以通过终端节点连接终端节点服务实现。 说明 “网关”类型的OBS终端节点服务目前需要按照名称查找并关联终端节点,各资源池终端节点服务名称请联系OBS产品经理获取。 如图所示,线下节点(即本地数据中心)通过VPN或者云专线与VPC连通。在VPC内创建终端节点,与云上的OBS和DNS类型的终端节点服务连接,实现线下节点(即本地数据中心)通过内网访问云上服务。 终端节点不能脱离终端节点服务单独存在,创建终端节点的前提是要连接的终端节点服务已存在。 本操作场景涉及两个系统创建的终端节点服务: 终端节点服务(DNS):提供域名解析服务,用于线下本地数据中心解析OBS域名。 终端节点服务(OBS):提供OBS服务,供线下本地数据中心访问。 具体流程如下: 步骤一:创建连接DNS的终端节点 使用该VPC创建VPC终端节点连接DNS
        来自:
        帮助文档
        对象存储 OBS
        最佳实践
        本地数据中心通过专线连通VPC接入OBS
      • 成本评估任务列表查看
        本节为您介绍云迁移服务CMS 成本评估任务列表查看。 云迁移服务CMS平台可以查看当前用户发起的成本评估任务基本信息,如任务编号、任务名称、源端类型、目标端区域、任务状态、调研方式、创建时间、操作等信息。如图所示。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        云迁移服务模块
        迁移评估
        成本评估
        成本评估任务列表查看
      • 术语解释
        分布式缓存Redis 分布式缓存Redis是指在内存中以KV形式存储数据,且数据呈分片存储特征。其应用在存储以读取为主的数据,缩短响应时延,减少对数据库依赖,提升业务感知速度。 实例 实例是独立运行的Redis数据库服务器, 是用户购买 Redis 服务的基本单位,您只需要获取它的连接地址和密码,即可像使用本地 Redis 一样进行开发,而无需操心底层运维。 集群实例 采用集群架构部署的Redis实例,数据多分片存储,具备更好的扩展性和更高性能。 代理节点 代理节点(Proxy)负责协调客户端与集群Redis节点之间的通信,简化客户端逻辑,并提供路由、负载均衡和故障转移等功能。 Redis节点 Redis节点用于数据存储,分为主、从节点。 Redis集群 定义一组Redis数据存储节点组成一个Redis存储集群。 公网访问 可以为开通的Redis实例绑定公网弹性IP,客户端即可通过公网弹性IP访问Redis实例,具体使用请参考公网连接Redis实例。 跨可用区部署 将实例的主、备节点分别部署在不同的可用区中,在创建实例时可分别选择主可用区与备可用区,以实现高可用。 分片 分片是一种数据分布和负载均衡策略。它允许将数据划分为多个片段或分片,并将每个片段分布在集群中的不同节点上。每个节点都负责存储和处理一个或多个分片的数据。通过将数据分散在多个节点上,可以提高集群的整体性能和可扩展性,
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        术语解释
      • 云硬盘扩容概述
        操作步骤 一、在控制中心扩容云硬盘容量 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 在云硬盘列表中,选择指定的云硬盘所在行“操作”列下的“扩容”,进入扩容磁盘界面。 5. 根据界面提示,设置“新增容量”参数,设置完成后,单击“确定”。 6. 支付成功后,在云硬盘主页面,查看云硬盘扩容结果。当云硬盘状态由“扩容中”变为“未挂载”或“已挂载”时,此时可以看到容量已增加,表示扩容成功。 扩容成功后,需要对扩容部分的云硬盘进行后续处理。 二、登陆云主机扩展分区和文件系统 不同操作系统的云主机处理方式不同,具体请参见后续章节: 扩展磁盘分区和文件系统(Windows 2008) 扩展磁盘分区和文件系统(Windows 2016) Linux扩展磁盘分区和文件系统
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        扩容云硬盘
        云硬盘扩容概述
      • 常见问题
        是否支持将弹性IP从共享带宽中移除? 支持。 可通过共享带宽的【操作>更多>移出弹性IP】完成,具体规则如下: 弹性IP手动移出共享带宽时,将默认按照加入共享带宽前的计费方式,您可以选择移出后弹性IP的带宽峰值; 当共享带宽退订/销毁后,弹性IP会默认以加入共享带宽前的计费模式和带宽大小进行计费。 弹性IP从共享带宽中移除后,弹性IP是否会被释放? 不会。 当弹性IP从共享带宽中移出时,若您为主动操作,可以选择弹性IP移出后的带宽峰值,弹性IP的计费模式将按照加入共享带宽前的模式配置;若该弹性IP为自动移出,其弹性IP计费模式和带宽峰值均为加入共享带宽前的配置。 如需要释放弹性IP,请在弹性IP列表中直接释放。 为什么不可以删除共享带宽? 若您此时无法删除共享带宽,请您进行以下检查: 删除共享带宽前需要先移出或释放共享带宽内的全部弹性IP,删除按钮才会变成可用状态; 共享带宽已冻结,其删除操作已被禁用,此时您可以及时充值账户,将欠费补齐,则共享带宽状态将恢复,您可以删除该共享带宽。 是否支持查看共享带宽的流量带宽监控情况? 支持。 您可通过选择待查询的共享带宽的【操作>更多>查看监控图表】进行查看。 目前已支持查看共享带宽的出入带宽指标及出入流量指标,部分资源池(內蒙6)支持查看带宽丢包率指标。
        来自:
        帮助文档
        共享带宽 SBW
        常见问题
        常见问题
      • 添加加速域名
        本文主要介绍如何通过CDN控制台添加加速域名。 前提条件 1. 客户已经搭建完成或已有稳定运营的源站服务器,以及用作加速的域名。 说明 在天翼云CDN控制台添加加速域名时,域名需要满足的条件,详情请见:使用限制的加速域名准入条件和加速域名使用限制。 2. 已经开通CDN加速服务。如未开通,请参考产品开通的文档指引进行开通。 操作步骤说明 1. 登录CDN控制台,选择【域名管理】【域名列表】,您可以在该页面查看已添加的域名信息,包括加速域名、CNAME、加速类型、加速区域、状态、创建时间、标签以及可支持的相关操作等信息。单击【添加域名】。 2. 【加速类型】选择【CDN加速】,并完成基础信息、源站设置、Https配置及证书上传、缓存配置、访问控制等内容配置后,单击【添加域名】。 相关功能说明如下: 类别 功能 说明 对应说明文档 基础信息 加速域名 1.加速域名为需要使用加速服务的域名,具体要求为: 域名类型:支持具体域名(例如,abc.ctyun.cn)或泛域名(例如,.ctyun.cn域名)。 域名长度:长度不超过128字节。 支持的字符:小写英文字母(az)、数字(09)、短划线(),如为泛域名,支持以 开头,例如 .ctyun.cn域名。 天翼云CDN在开通CDN服务后接入域名时,会进行二级域名的信用度检查。例如:您的二级域名在天翼云账号中曾产生过影响信用度的违规行为,如产生大量欠款未结清,二级域名将被列入黑名单,天翼云CDN会禁止新增二级域名黑名单匹配的所有加速域名。例如,ctyun.cn被列入黑名单,A.ctyun.cn、B.ctyun.cn均会被限制新增。 2.在添加加速域名环节,需您先通过域名归属权验证,证明您拥有该域名的使用权,才能完成域名添加。 1.使用限制 2.验证域名归属权 基础信息 加速类型 依据业务特性,选取合适的加速类型。CDN加速产品通常选择加速类型为“CDN加速”。 加速类型 基础信息 加速区域 支持选定期望的加速区域,或切换加速区域,达到变更CDN服务区域的目的。 注意 只有当“加速类型”选定某种加速服务时(如CDN加速),CDN控制台才会展示“加速区域”选项。 加速区域 基础信息 IPv6开关 开启IPv6功能后,您可以在客户端通过IPv6协议访问CDN节点。 IPv6配置 回源配置 源站 支持IP或域名,最多可添加60个。 源站配置 回源配置 回源协议 支持设置CDN在回源时遵循的协议类型。 回源协议 回源配置 回源端口 支持设置您特定的源站端口,HTTP默认80,HTTPS默认443。 回源端口 回源配置 默认回源HOST 当您的源站的同一个IP地址上绑定了多个域名或站点时需配置回源HOST,CDN在回源时根据HOST信息去对应站点获取资源。 默认回源HOST HTTPS配置 HTTPS开关 开启HTTPS协议,将实现客户端和天翼云CDN节点之间请求的HTTPS安全加密传输。 HTTPS配置 HTTPS配置 HTTPS证书上传 您可以选择已经上传过的证书,或者“点击上传”新证书再选用该新证书。 新增证书 HTTPS配置 HTTP2开关 如果您的业务中需要用到多路复用、压缩HTTP头、划分请求优先级和服务端推送等特性,可启用HTTP2。 HTTP2.0配置 HTTPS配置 TLS版本 您可以按需选择具体的TLS版本。 TLS版本配置 HTTPS配置 HSTS开关 您可以按需开启HSTS功能。 配置HSTS 缓存配置 缓存配置 合理配置缓存规则,可以提高您的文件加速效果。 缓存过期时间设置 访问控制 IP黑白名单 通过识别客户端IP来过滤用户请求,拦截特定IP的访问或者允许特定IP的访问,可以用来解决恶意IP盗刷、攻击等问题。 IP黑白名单 访问控制 Referer防盗链 配置Referer黑白名单后,CDN会根据名单识别请求身份,允许或拒绝访问请求。允许访问请求,CDN会返回资源;拒绝访问请求,CDN会返回403响应码。 Referer防盗链 访问控制 UA黑白名单 配置UA黑白名单后,CDN会识别HTTP请求中的UserAgent字段中包含的部分信息(标志访客访问时所使用的工具),允许或拒绝访问请求。允许访问请求,CDN会返回资源;拒绝访问请求,CDN会返回403响应码。 UA黑白名单 访问控制 URL黑白名单 配置URL黑白名单后,CDN会识别HTTP请求URL是否为黑白名单,是黑名单则拒绝访问并返回403响应码,是白名单则只允许白名单访问。 URL黑白名单 3. 完成新增域名操作后,可通过【域名列表】查看该域名所处的状态等信息。 4. 【操作】列可查看、编辑域名信息、以及停用/启用域名。 5. 加速域名添加后,会出现在【域名管理】【域名列表】中,状态为正常。如显示审核不通过,您需确认域名备案号,然后重新添加此域名。 注意 添加完加速域名后,天翼云CDN会给您分配对应的CNAME地址,还需要配置CNAME后CDN服务才生效,详情请见:配置CNAME。
        来自:
        帮助文档
        CDN加速
        快速入门
        添加加速域名
      • 基本功能操作
        前提条件 已在管理控制台中创建“弹性负载均衡”实例。 1. 登录管理控制台首页,在服务列表中选择“网络 > 弹性负载均衡”。 2. 单击右上角的“创建弹性负载均衡”。 说明: CCE中的负载均衡 ( LoadBalancer )访问类型使用弹性负载均衡 ELB提供网络访问,存在如下产品约束: 自动创建的ELB实例建议不要被其他资源使用,否则会在删除时被占用,导致资源残留。 创建Ingress 您可以在创建工作负载时通过CCE控制台设置访问方式,本节以创建一个nginx工作负载并添加Ingress类型的Service为例进行说明。 步骤 1 创建工作负载,详细步骤请参见创建无状态负载(Deployment)、创建有状态负载(StatefulSet)或创建守护进程集(DaemonSet)。 若创建工作负载时,部署了“节点访问( NodePort )”类型的Service,请直接执行步骤3。 若创建工作负载时,未部署“节点访问( NodePort )”类型的Service,请先执行步骤2。 步骤 2 (可选)若创建工作负载时,未配置“节点访问 ( NodePort )”,请执行如下操作。 1. 登录CCE控制台,在左侧导航栏中选择“资源管理 > 网络管理”。 2. 在Service页签下,单击“添加Service”。选择类型为“节点访问 ( NodePort )”。 − Service 名称:自定义服务名称,可与工作负载名称保持一致。 − 集群名称:选择需要添加Service的集群。 − 命名空间:选择需要添加Service的命名空间。 − 关联工作负载:单击“选择工作负载”,选择需要配置节点访问 ( NodePort )的工作负载名称,单击“确定”。 − 服务亲和: 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 − 端口配置: a、协议:请根据业务的协议类型选择。 b、容器端口:容器镜像中工作负载实际监听的端口,需用户确定。nginx程序实际监听的端口为80。 c、访问端口:容器端口映射到节点私有IP上的端口,用私有IP访问工作负载时使用,端口范围为3000032767,建议选择“自动生成”。 自动生成:系统会自动分配端口号。 指定端口:指定固定的节点端口,默认取值范围为3000032767。若指定端口时,请确保同个集群内的端口唯一性。 3. 单击“创建”,节点访问方式设置成功。 步骤 3 添加Ingress类型的Service。 1. 单击CCE左侧导航栏的“资源管理 > 网络管理”。 2. 在Ingress页签下,单击“添加Ingress”。 − Ingress 名称:自定义Ingress名称,例如ingressdemo。 − 集群名称:选择需要添加Ingress的集群。 − 命名空间:选择需要添加Ingress的命名空间。 − 负载均衡配置:Ingress使用弹性负载均衡服务(ELB)的负载均衡器提供七层网络访问。 说明: 1. ingress创建后请在CCE页面对所选ELB实例进行配置升级和维护,否则可能导致ingress服务异常。 2. 自动创建的ELB实例尽可能不要被其他ingress或者service使用,否则可能导致资源残留。 负载均衡:负载均衡实例需与当前集群处于相同VPC且为相同公网或私网类型。 请根据业务需求选择“公网”或“私网”。公网支持自动创建和使用已有负载均衡实例两种方式。私网:支持自动创建和使用已有负载均衡实例两种方式。 更改配置:选择“公网 > 自动创建”时,单击规格配置下的“更改配置”,可修改待创建的负载均衡实例的名称、规格、计费模式和带宽。 − 监听器配置:Ingress为负载均衡器配置监听器,监听器对负载均衡器上的请求进行监听,并分发流量。 a、对外协议:支持HTTP和HTTPS。 b、对外端口:开放在负载均衡服务地址的端口,可任意指定。 若选择启用“对接Nginx”后,将默认开启80和443端口,此处“对外端口”参数项将不显示。 c、服务器证书:请选择密钥证书。 须知: 选择HTTPS协议时,才需要创建密钥证书ingresstestsecret.yaml。创建密钥的方法请参见创建密钥。 同一个ELB实例的同一个端口配置HTTPS时,一个监听器只支持配置一个密钥证书。若使用两个不同的密钥证书将两个Ingress添加到同一个ELB下的同一个监听器,ELB侧实际只生效最初的证书。 − 转发策略配置:请求的访问地址与转发规则匹配时(转发规则由域名、URL组成),此请求将被转发到对应的目标Service处理。 说明: 服务负载均衡配置中可更改ELB实例的分配策略类型、会话保持、健康检查等内容,请勿在ELB服务修改相关信息。 − 域名:实际访问的域名地址。请确保所填写的域名已注册并备案,在Ingress创建完成后,将域名与自动创建的负载均衡实例的IP(即Ingress访问地址的IP部分)绑定。一旦配置了域名规则,则必须使用域名访问。 − URL匹配规则: 前缀匹配:例如映射URL为/healthz,只要符合此前缀的URL均可访问。例如/healthz/v1,/healthz/v2。 精确匹配:表示精准匹配,只有完全匹配上才能生效。例如映射URL为/healthz,则必须为此URL才能访问。 正则匹配:可设定映射URL规范,例如规范为/[AZaz09.]+/test。只要符合此规则的URL均可访问,例如/abcA9/test,/v1Ab/test。正则匹配规则支持POSIX与Perl两种标准。 − URL:需要注册的访问路径,例如:/healthz。 − 目标Service:请选择已有Service或新建Service。页面列表中仅支持选择“节点访问 ( NodePort )” 类型的Service,该查询结果已自动过滤。 − Service访问端口:可选择目标Service的访问端口。 − 服务负载均衡配置:该配置是基于服务的配置,若有多条路由使用当前服务,这些路由将使用相同的服务负载均衡配置。 健康检查:默认不启用。请根据界面提示进行配置。 − 操作:可单击“删除”按钮删除该配置。 单击“添加转发策略”按钮可添加多条转发策略。 步骤 4 配置完成后,单击“创建”。 创建完成后,在Ingress列表可查看到已创建成功的Ingress。 步骤 5 访问工作负载(例如名称为defaultbackend)的“/healthz”接口。 方式一:负载均衡IP访问(需负载均衡访问的服务不能配置域名) 1. 获取defaultbackend“/healthz”接口的访问地址,访问地址有负载均衡实例、对外端口、映射URL组成,例如:10.154.73.151:80/healthz。 a. 在左侧导航栏选择“资源管理 > 网络管理”。 b. 在“Ingress”页签下,单击Ingress名称,可查看访问地址。 2. 在浏览器中输入“/healthz”接口的访问地址,如: 访问defaultbackend“/healthz”接口 方式二:域名访问 以ingress中已配置域名ingress.com为例。 1. 获取ingressdemo的域名与访问地址的IP、URL与端口。 a. 在左侧导航栏选择“资源管理 > 网络管理”。 b. 在“Ingress”页签下,可查看访问地址。 c. 单击Ingress名称,可查看域名。 2. 在本地主机的C:WindowsSystem32driversetchosts中配置访问地址的IP和域名,如下图: 3. 在浏览器中输入 更新Ingress 您可以在添加完Ingress后,更新此Ingress的端口、域名和路由配置。操作如下: 说明: Ingress创建后请避免在ELB服务的控制台中操作Ingress对接的ELB资源,如需修改请在CCE控制台中对所选ELB实例进行配置升级和维护,否则可能导致Ingress服务异常。 在CCE控制台中更新Ingress时,负载均衡配置中可更改ELB实例的分配策略类型、会话保持、健康检查等内容,请勿在ELB服务修改相关信息。 自动创建的ELB实例尽可能不要被其他Ingress或者Service使用,否则可能导致资源残留。 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 网络管理”。在Ingress页签下,选择对应的集群和命名空间,单击待更新Ingress后方的“更新”。 步骤 2 在“更新Ingress”页面,更新如下参数: 监听器配置 对外端口:开放在负载均衡服务地址的端口,可任意指定。 转发策略配置 服务负载均衡配置: 单击展开后,可对如下参数进行设置: − 健康检查:默认开启。请根据界面提示进行配置。 单击“添加转发策略”按钮可添加多条转发策略。 − 域名:实际访问的域名地址。请确保所填写的域名已注册并备案,在Ingress创建完成后,将域名与自动创建的负载均衡实例的IP(即Ingress访问地址的IP部分)绑定。一旦配置了域名规则,则必须使用域名访问。 − URL匹配规则: a、前缀匹配:例如映射URL为/healthz,只要符合此前缀的URL均可访问。例如/healthz/v1,/healthz/v2。 b、精确匹配:表示精准匹配,只有完全匹配上才能生效。例如映射URL为/healthz,则必须为此URL才能访问。 c、正则匹配:可设定映射URL规范,例如规范为/[AZaz09.]+/test。只要符合此规则的URL均可访问,例如/abcA9/test,/v1Ab/test。正则匹配规则支持POSIX与Perl两种标准。 − URL:需要注册的访问路径,例如:/healthz。 − 目标Service:请选择已有Service或新建Service。页面列表中仅支持选择“节点访问 ( NodePort )” 类型的Service,该查询结果已自动过滤。Service访问端口:可选择目标Service的访问端口。 − 服务负载均衡配置:该配置是基于服务的配置,若有多条路由使用当前服务,这些路由将使用相同的服务负载均衡配置。详细配置请参见服务负载均衡配置.docx
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        网络管理
        Ingress
        基本功能操作
      • 监控看板:查询系统看板支持服务维度
        参数 参数类型 说明 示例 下级对象 service String 云监控服务 ecs serviceName String 云监控服务的名称 云主机 dimensions Array of Objects 云监控维度 dimension
        来自:
        帮助文档
        云监控服务
        API参考
        API(新)
        监控面板
        监控看板:查询系统看板支持服务维度
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • Linux物理机卸载方法
        本章节主要介绍如何卸载天翼云物理机重置密码插件。 登录物理机服务,依次执行以下命令: 1. sudo bash /CloudrResetPwdAgent/bin/cloudResetPwdAgent.script remove 2. sudo bash /CloudResetPwdUpdateAgent/bin/cloudResetPwdUpdateAgent.script remove 3. sudo rm rf /CloudrResetPwdAgent 4. sudo rm rf /CloudResetPwdUpdateAgent
        来自:
        帮助文档
        物理机 DPS
        快速入门
        登录物理机服务
        安装一键式重置密码插件
        Linux物理机卸载方法
      • 配置环境
        参数domain根据情况设置为具体的值 domain hard nofile 65536 参数domain根据情况设置为具体的值 domain soft nproc 65535 参数domain根据情况设置为具体的值 domain hard nproc 65535 参数domain根据情况设置为具体的值 可以根据情况,将domain 设置为对应的 username 、 groupname 、 uid 、 wildcard 。 注意 如果domain 设置为对应的username,则必须包含启动HBlock服务的用户。 例1:例如domain取值为,表示所有用户打开的最大文件数为65536,同时运行的最大进程数为65535。 plaintext soft nofile 65536 为参数domain的取值 hard nofile 65536 为参数domain的取值 soft nproc 65535 为参数domain的取值 hard nproc 65535 为参数domain的取值 例2:例如domain取值为root,表示root用户打开的最大文件数为65536,同时运行的最大进程数为65535。 plaintext root soft nofile 65536 root为参数domain的取值 root hard nofile 65536 root为参数domain的取值 root soft nproc 65535 root为参数domain的取值 root hard nproc 65535 root为参数domain的取值
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-集群版
        配置环境
      • 1
      • ...
      • 251
      • 252
      • 253
      • 254
      • 255
      • ...
      • 684
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      模型推理服务

      科研助手

      人脸检测

      人脸实名认证

      推荐文档

      术语解释

      全面了解天翼云②:Linux下修改MTU值

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号