活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云翼备份_相关内容
      • 删除伸缩策略
        本文主要介绍如何删除伸缩策略。 某个伸缩策略不再用于触发伸缩活动,可选择删除指定伸缩策略。 如果被删除的策略已经被触发,伸缩活动正在进行,也可以删除该策略,伸缩活动不受影响。 步骤如下: 1. 登录天翼云控制中心,切换到需要修改伸缩策略的节点,选择【弹性伸缩服务】; 2. 在伸缩组所在行,单击伸缩组名称,进入【伸缩组详情页】; 3. 在【伸缩组详情页】,单击【伸缩策略】标签,进入【伸缩策略标签页】; 4. 在伸缩策略所在行的【操作】列下,单击【删除】。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩策略管理
        删除伸缩策略
      • 欠费说明
        本文为您介绍多活容灾服务欠费相关的计费规则。 对于计费方式为包年包月的资源,用户已经预先支付了费用,欠费后服务不会停止,实例仍可正常使用。 对于计费方式为按需付费的资源,欠费后服务会自动停止。 如果您在15天内充值补足欠款,服务会自动启用。 当欠费超过15天,将视为您主动放弃该服务,您保存在天翼云多活容灾服务的全部数据将会被销毁,销毁后数据不可恢复。因此请您及时关注账户余额并及时续费以保证您的服务不受到影响。
        来自:
        帮助文档
        多活容灾服务
        计费说明
        欠费说明
      • Windows弹性云主机没有声音?
        本节介绍了使用故障类的问题描述和处理流程。 问题描述 购买Windows弹性云主机后,通过MSTSC远程连接,发现没有声音。通过MSTSC远程连接的Windows弹性云主机如何播放音频? 约束限制 本节内容适用于Windows Server 2008 R2、Windows Server 2016系统的弹性云主机。 可能原因 Windows弹性云主机默认禁用音频设备,导致无法通过远程桌面的方式使用音频设备。如需播放音频、使用多媒体音频功能,可参见本节内容进行设置。 第1步:启动Windows Audio服务 启动Windows Audio服务,并设置为“自动”运行。 1. 打开“运行”窗口。 2. 输入“services.msc”,打开“服务”。 3. 找到“Windows Audio”服务,并按如下方式设置。 − 启动类型:自动 − 服务状态:启动 以2012操作系统为例,如下截图所示。 4. 关闭当前远程连接。 第2步:开启音频和视频播放功能 操作系统不同, “音频和视频播放”功能开启方法不同。 Windows 2008系统 步骤 1 启用RDPTCP的“音频和视频播放”以及“录制音频”。 1. 打开“远程桌面会话主机配置”控制台。 a. 打开“开始”菜单,选择“控制面板”。 b. 单击右上角的“查看方式”下拉菜单,选择“类别”。 c. 选择“系统和安全 > 管理工具 > 远程桌面服务 > 远程桌面会话主机配置”。 2. 取消勾选“音频和视频播放”、“录制音频”。 在“连接”列表里面双击“RDPTcp”,选择“客户端设置”,取消勾选“音频和视频播放”和“录制音频”,如下图所示。 图 远程桌面会话主机配置 3. 单击“确定”,激活音频设备。 步骤 2 单击“发送 CtrlAltDel”按钮,重启弹性云主机并登录。 步骤 3 重启弹性云主机后,您会发现声卡的标识依旧是显示音频服务未运行,这是因为服务未开启,开启音频服务后如下图所示。 图 开启音频服务 步骤 4 打开网页播放音乐,即可验证播放音频成功。 Windows 2012系统 步骤 1 打开“运行”窗口。 步骤 2 输入“gpedit.msc”,打开“组策略”。 步骤 3 依次点击“计算机配置 > 管理模版 > windows 组件 > 远程桌面服务 > 远程桌面会话主机 > 设备和资源重定向”,打开“允许音频和视频播放重定向”。 步骤 4 选择“已启用”,按“应用”确定。 该配置为mstsc程序的默认配置,保持即可。 步骤 5 执行以下命令,刷新组策略。 gpupdate 第3步:远程音频设置 以上配置调整完成后,打开本地远程桌面软件(mstsc),点击“选项 > 本地资源”,在远程音频处单击“设置”,弹出的选项卡中的远程音频播放处,选择“在此计算机中播放”,单击“确定”。 至此完成远程音频设置,请通过MSTSC登录云主机,检查音频是否可以正常播放。
        来自:
      • 镜像服务 IMS
        镜像服务(CTIMS,Image Management Service)是弹性云主机实例可选择的运行环境模板,一般包括操作系统和预装软件。镜像服务包括公共镜像、私有镜像、共享镜像、安全产品镜像、应用镜像。通过镜像用户可以在云主机实例上实现应用场景的快速部署。
        来自:
        帮助文档
        镜像服务 IMS
      • 创建虚拟节点
        参数 描述 虚拟私有云、子网、安全组 VNode所属的虚拟私有云、子网、安全组 可用区 VNode所属的可用区 KubeConfig VNode要连接的Kubernetes集群的kubeconfig 标签 VNode绑定的标签信息 污点 VNode绑定的污点信息
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过ECI控制台使用ECI
        虚拟节点
        创建虚拟节点
      • 存储过程与函数不能同名
        本页介绍天翼云TeleDB数据库创建一个与函数同名的存储过程的错误提示和替换方案。 如创建一个与函数同名的存储过程会提示function xxx already exists with same argument types。 plaintext teledb CREATE OR REPLACE FUNCTION proc1() RETURNS void AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; CREATE FUNCTION teledb CREATE PROCEDURE proc1() AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; ERROR: function "proc1" already exists with same argument types teledb 如果要替换,则提示。 plaintext teledb CREATE OR REPLACE PROCEDURE proc1() AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; ERROR: cannot change routine kind DETAIL: "proc1" is a function. teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        存储过程开发
        存储过程语法介绍
        存储过程与函数不能同名
      • 修改单个节点上参数
        本页介绍天翼云TeleDB数据库如何修改单个节点上参数。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击参数管理。 2. 在数据库参数 页签,在下拉框选择对应的节点、IP和端口、在搜索框中输入配置项搜索 需修改的参数,单击查询, 查找要修改的目标节点。 3. 在查找出的参数行,单击编辑 按钮,出现编辑配置项 对话框。 4. 将修改值根据自己的需求设置为需调整后的参数,单击确定, 出现提示 对话框。 5. 您可单击立即前往 查看任务详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        参数管理
        修改单个节点上参数
      • 概念类
        本节主要介绍智能视图服务概念类的常见问题。 什么是智能视图服务? 智能视图服务支持哪些协议的设备接入? 智能视图服务支持的直播分发协议有哪些? 监控设备有哪些类型? 设备ID和设备国标ID的区别是什么? 什么是智能视图服务? 智能视图服务是天翼云面向视图设备上云场景提供视图接入、视图存储、视图分发及视图分析的一体化产品。依托天翼云遍布全国的资源节点,可实现设备上云全链路的就近接入、就近存储、就近分发及就近分析,通过开放OpenAPI易于被智慧城市、智慧能源、智慧连锁、智慧社区、智慧工地等行业场景应用集成。支持IPC、NVR和第三方监控平台等监控设备接入,支持GB28181/GB35114/GA1400/RTMP/RTSP/EHOME等多种接入协议,为用户提供就近的边缘节点接入设备,提供多种AI算法满足不同应用场景的AI检测需求(人脸识别/人体识别/场景识别等),用户可便捷地通过Web端、APP和PC客户端实时观看视频。 智能视图服务支持哪些协议的设备接入? 智能视图服务支持的接入协议有GB28181、GB35114、RTMP、RTSP、EHOME和GA1400等协议,用户可在添加设备时自行选择。 GB28181和GB35114设备的接入流程可参考【用户指南设备管理国标设备接入】。 RTMP设备的接入流程可参考【用户指南设备管理RTMP设备接入】。 RTSP设备的接入流程可参考【用户指南设备管理RTSP设备接入】。 EHOME设备的接入流程可参考【用户指南设备管理EHOME设备接入】。 GA1400设备的接入流程可参考【用户指南视图服务摄像头接入】。
        来自:
        帮助文档
        智能视图服务
        常见问题
        概念类
      • OpenClaw(原Clawdbot)更改厂商模型配置(1)
        本文介绍OpenClaw(原 Clawdbot)更改厂商模型配置的内容。 前置说明 1.该文档为介绍通过应用托管应用市场体验OpenClaw更改厂商模型配置的内容。 2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 概述 OpenClaw是近期在开发者社区和AI领域广受关注的一款开源、自托管的个人AI助手。它以其独特的“本地优先”设计理念,将强大的大型语言模型能力与用户本地系统深度结合,实现了从“对话式AI”到“可执行实际任务的智能体”的跨越。与依赖云端服务的传统AI助手不同,OpenClaw将数据主权和隐私控制权完全交还给用户,所有数据和处理过程均在用户可控的环境中进行,被誉为“首个7×24小时永不下班的AI员工”。它的开源特性也吸引了大量开发者参与生态建设,形成了一个活跃的技能市场。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
        来自:
      • 停用域名
        本节介绍了如何在控制台停用域名。 使用场景 如果您需要停止针对某个域名的防护,您可以在边缘安全加速控制台进行停用操作。对域名进行停用操作后,控制台上域名状态将变更为“已停止”。天翼云CDN会将加速域名的CNAME立即解析至不可用地址。 注意: 1、对域名进行停用操作后,边缘安全与加速服务节点会立即删除配置,但仍会在系统数据库中保留原来的配置记录,可再次对域名进行"启用"操作。 2、边缘安全加速平台套餐内默认包含一些流量,若套餐有效期内流量用尽,边缘安全加速平台安全与加速服务将会停止加速服务,将CNAME入口解析至客户源站地址,对域名进行停用操作后,控制台上域名状态将变更为“已停止”。 3、边缘安全加速平台客户退订套餐或套餐到期,边缘安全加速平台安全与加速服务会立即将加速域名的CNAME入口解析至客户源站地址,控制台上域名状态将变更为“已停止,1天后将加速域名的CNAME解析至不可用地址。 前提条件 域名状态为“已启用”。 停用域名前,为了避免停用导致业务中断,客户需要确保已将域名DNS解析记录由原来CNAME至天翼云,调整为解析至其他CNAME或A记录 使用说明 1.登录边缘安全加速控制台。 2.进入安全与加速工作台域名域名管理页面。 3.选择需要停用的域名,在操作栏点击【停用】按钮后,会进行弹窗提示,再次确认后,域名会进入停用流程,域名状态变成“配置中”。 4.进入后台自动化配置流程(正常情况15分钟以内),流程结束后会自动变成“已停止”状态。若“配置中”状态持续时间过长,可创建工单获取支持。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        域名管理
        域名操作
        停用域名
      • 错误日志
        本文介绍了RDSPostgreSQL查看错误日志的方法。 操作场景 错误日志记录了数据库运行时的日志。您可以通过错误日志分析系统中存在的问题。 Ⅰ类资源池实例查看错误日志步骤 1. 登录天翼云门户。 2. 打开控制中心。 3. 左上角选择资源池区域,RDSPostgreSQLⅠ类资源池加载的资源池详见功能加载说明。 4. 找到【关系数据库PostgreSQL版】,点击进入组件控制台管理页面。 5. 在实例管理页面点击对应的实例进入基本信息页。 6. 选择页面上方的“错误日志”切换到页面,即可以查看错误日志。 1. 您可单击页面左上角的“日志级别”筛选框查看不同级别的日志记录。 2. 您可单击“日志级别”筛选框旁边的“时间范围”,查看不同时间段内的错误日志。 Ⅱ类资源池实例查看错误日志步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在实例管理页,点击需要查看错误日志的实例行中的“监控”按钮,进入监控页。 6. 在左边栏选择“日志监控”进入日志页面。 7. 在此页面点击上方的“错误日志”切换到页面,即可查看错误日志。 1. 您可单击页面搜索栏的“日志级别”筛选框查看不同级别的日志记录。 2. 您可单击“日志级别”筛选框旁边的“自定义查询时间”,查看不同时间段内的错误日志。 3. 您可以通过“导出”按钮导出错误日志。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全监控
        日志监控
        错误日志
      • 重置管理员(root帐号)密码
        本文介绍了如何重置管理员账号密码。 操作场景 在使用过程中,如果用户忘记管理员账号密码,可以通过控制台重新设置密码。 注意 如果新密码被系统视为弱密码,您将收到错误提示,请提供更高强度的密码。 重置密码生效时间取决于该实例当前执行的业务数据量。 请定期修改用户密码,以提高系统安全性,防止出现密码被暴力破解等安全风险。 请妥善管理您的密码,因为系统为保障您的数据安全未保存您的密码信息。 Ⅰ类资源池操作步骤 1. 登录天翼云门户。 2. 打开控制中心。 3. 左上角选择资源池区域,RDSPostgreSQL基础版加载的资源池详见功能加载说明。 4. 找到【关系数据库PostgreSQL版】,点击进入组件控制台管理页面。 5. 在实例管理页面中的“操作”列,点击对应实例的“修改密码”按钮,如图所示。 6. 在弹出框内输入新的密码,点击确认。返回成功即为修改密码成功,返回失败请根据错误提示重新设置您的密码。 Ⅱ类资源池操作步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 在基本信息中找到“管理员账号名”项中的“重置密码”。 7. 在弹出框内输入新的密码,点击确定。返回成功即为修改密码成功。返回失败请根据错误提示重新设置您的密码。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全设置
        重置管理员(root帐号)密码
      • 全局序列管理
        本文主要介绍了DRDS全局序列管理页面相关内容,包括列表展示、新增序列等操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 分布式关系型数据库】,进入分布式关系型数据库产品页面。然后单击【管理控制台】,进入【概览】页面。 2. 在左侧导航栏,选择【DRDS > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击【操作】列的【管理】,进入实例【基本信息】页面。 4. 单击【schema管理】栏目,进入目标实例的schema管理页面。 5. 单击【schema管理】导航栏中的【全局序列管理】,可进入全局序列管理页面。可以查看全局序列列表,对全局序列进行查看DDL和删除操作,修改序列当前值,新增序列。 新增序列 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 分布式关系型数据库】,进入分布式关系型数据库产品页面。然后单击【管理控制台】,进入【概览】页面。 2. 在左侧导航栏,选择【DRDS > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击【操作】列的【管理】,进入实例【基本信息】页面。 4. 单击【schema管理】栏目,进入目标实例的schema管理页面。 5. 单击【schema管理】导航栏中的【全局序列管理】,可进入全局序列管理页面。 6. 单击【全局序列管理】页面左上角的【新增序列】,进入新增序列页面。 7. 在弹框中输入序列名称,名称以英文前缀开头,且必须输入非中文字符;输入起始值和最大值,单击确定,可以新增全局序列。 注意 此处的步长不是指的序列的间隔,而是DRDS节点缓存的序列值数量。 实际序列步长是1。 全局序列的步长固定为1000,最大值必须大于等于起始值+步长量。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        Schema管理
        全局序列管理
      • 单机实例
        本文介绍RDS PostgreSQL单机实例的资费信息。 说明 天翼云关系数据库PostgreSQL版因不同地域成本有所区别,因此对Ⅰ类型资源池和Ⅱ类型资源池的价格有所区分。 本次价格调整及包年折扣变更主要针对Ⅱ类型资源池,将分为通用型和独享型两种类型,两种类型价格不同,独享型包含计算增强型和内存优化型。 Ⅰ类型资源池价格及优惠维持不变,不区分主机类型。 具体资源池类型请见 Ⅱ类型资源池资费 天翼云提供了多种规格的PostgreSQL单机实例,区分通用型和独享型(独享型包含计算增强型和内存优化型)。 通用型 CPU(核) 内存(GB) 按需标准价格(元/小时) 包月标准价格(元/月) 2 4 0.31 150 2 8 0.38 185 4 8 0.74 360 4 16 0.99 480 8 16 1.50 730 8 32 1.97 960 16 32 3.33 1620 16 64 4.34 2110 32 64 7.98 3885 32 128 10.15 4940 独享型(包含计算增强型和内存优化型) CPU(核) 内存(GB) 按需标准价格(元/小时) 包月标准价格(元/月) 2 4 0.57 275 2 8 0.72 350 2 16 0.88 430 4 8 1.11 540 4 16 1.43 695 4 32 1.77 860 8 16 2.22 1080 8 32 2.77 1350 8 64 3.53 1720 16 32 4.44 2160 16 64 5.45 2650 16 128 7.07 3440 32 64 8.88 4320 32 128 10.79 5250 32 256 14.14 6880 64 128 17.75 8640 64 256 21.58 10500 64 512 27.74 13500 96 192 24.75 12043 96 384 32.36 15750 96 768 42.41 20640 128 256 34.74 16908 128 512 43.15 21000 128 1024 55.48 27000 192 384 49.49 24087 192 768 65.24 31751 192 1536 98 47693
        来自:
        帮助文档
        关系数据库PostgreSQL版
        计费说明
        产品资费
        单机实例
      • 查询模型列表
        本文介绍查询模型列表内容。 接口描述 获取租户可用的全部模型 请求方法 GET 接口要求 无 URI /openapi/v1/models/list 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 tenantId 是 String 租户ID abcb82293b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪。 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 host 是 String 终端节点域名,固定字段 EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求代码示例 plaintext Curl X GET " H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 200表示成功 200 message String 固定为Success Success returnObj Object 接口返回结果 returnObj 表returnObj 参数 参数类型 说明 示例 下级对象 id String 模型ID name String 模型名称 description String 模型介绍 modelType String 模型类型 isDefault Boolean 是否为默认模型 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 1.请求成功返回值示例 plaintext { "statusCode": 200, "message": "Success", "returnObj": [ { "id": "d5f09a41d4584715a5d94a4892411c0f", "name": "DeepSeekR1DistillLlama70B", "description": "DeepSeekR1DistillLlama70B", "modelType": "预置模型:PRESETMODEL", "isDefault": true } ] } 2.请求失败返回值示例 plaintext { "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 见通用错误码。
        来自:
        帮助文档
        知识库问答
        API参考
        API
        查询模型列表
      • 开通视频直播服务
        本文简述如何开通视频直播服务,包括账户实名认证、按需计费模式的开通步骤。 前提条件 已注册天翼云官网账号。如未注册,请参见:注册天翼云账号进行注册。 未实名认证的用户完成实名认证后才能开通视频直播服务。确认账号是否已实名认证,详情请参见:实名认证。 购买视频直播按需产品之前请确保您的账户余额大于100元。 计费模式 视频直播支持按需计费和资源包计费(预付费)两种方式,其中资源包仅支持流量包。 按需计费购买流程 您可以参考以下步骤开通按需计费模式的视频直播服务: 1. 进入视频直播详情页快速了解产品,并单击【立即开通】。 2. 在购买页面勾选需要开通的区域并选择合适的【计费方式】。直播转码/录制/截图/审核/高性能网络等增值服务默认不开启。如需使用增值服务,您可以单击对应增值服务按钮进行开启。 注意 视频直播服务一旦开通成功,有效期到期前无需且不支持重复开通。 暂不支持单独开通“全球(不含中国内地)”的视频直播加速业务。即您可以只开通“中国内地”加速区域,或同时开通“中国内地”和“全球(不含中国内地)”。 直播增值服务直播转码/录制/截图/审核仅支持中国内地开通使用,全球(不含中国内地)暂不支持。 高性能网络目前仅支持全球(不含中国内地)开通使用,中国内地暂不支持。 3. 视频直播业务开通后,页面会显示【提交成功】,单击【跳转到直播控制台】,即可进入直播控制台添加需要加速的域名,详情请参见:添加加速域名。
        来自:
        帮助文档
        视频直播
        订购说明
        开通视频直播服务
      • 怎样修改轻量型云主机的主机名?
        您可以登录轻量型云主机,在主机内部完成虚机名称hostname的修改。 操作步骤 1. 通过轻量型云主机控制台,通过VNC登录主机。 2. 输入用户名及密码进入虚机内部。 3. 输入以下命令,修改配置文件“/etc/hostname”。 vim /etc/hostname 4. 将文件中的已有的主机名替换为想要修改的主机名,并保存退出。 :wq 5. 输入以下命令,修改配置文件“/etc/sysconfig/network”。 vim /etc/sysconfig/network 6. 修改HOSTNAME名称后的值为新的主机名,若没有HOSTNAME字段,则需要手动增加该字段。 7. 完成修改后,保存并退出。 :wq 8. 输入以下命令,修改配置文件“/etc/cloud/cloud.cfg”。 vim /etc/cloud/cloud.cfg 9. 删除或者将以下语句进行注释,使其不生效。 updatehostname 10. 完成修改后,保存并退出。 :wq 11. 重启弹性云主机,使修改的内容生效。 reboot 12. 至此,已完成了主机名称hostname的修改。
        来自:
        帮助文档
        轻量型云主机
        常见问题
        主机管理类
        怎样修改轻量型云主机的主机名?
      • 升级ICAgent
        为了更好的采集体验,LTS会不断更新ICAgent版本。当系统提示您有新的ICAgent版本时,您可以按照如下操作步骤进行升级。 云日志服务主机管理界面仅支持升级安装在Linux环境中ICAgent,不支持升级Windows环境中的ICAgent。 操作步骤 1. 在云日志服务管理控制台,单击“主机管理”。 2. 单击“主机”切换至主机页签。 3. 选择“普通主机”,在主机列表中选中一个或多个待升级ICAgent前的复选框,单击“升级ICAgent”。 选择“CCE集群”,在右侧下拉框中,选择待升级ICAgent的集群,单击“升级ICAgent”。 说明 首次创建的CCE集群,默认集群下的主机已安装了ICAgent 且上报日志到AOM,采集容器标准输出到AOM的开关处于开启状态;如需将日志上报至LTS则执行升级ICAgent操作时,关闭采集容器标准输出到AOM的开关。建议使用“接入日志 > 云服务接入 > 云容器引擎CCE”直接采集容器标准输出到LTS,不推荐采集到AOM。 CCE集群ID(ClusterID): 每个集群为固定的ID。 升级ICAgent时,LTS将为您的CCE集群创建对应的日志组和主机组。且该日志组和主机组的名称为k8slog{ClusterID}。您可以创建接入配置(云服务接入>云容器引擎CCE)将当前CCE集群的日志接入到该日志组。 当集群里的主机未安装ICAgent或ICAgent版本过低时,单击“升级ICAgent”操作,可对该集群里的所有主机安装ICAgent。 4. 在“升级ICAgent”对话框中单击“确定”。 ICAgent开始升级,升级ICAgent预计需要1分钟左右,请耐心等待。待ICAgent的状态由“升级中”变为“运行”时,表示升级成功。 说明 如果升级后,界面显示ICAgent状态异常或者其它升级失败场景,请直接登录节点使用安装命令重新安装ICAgent即可(覆盖式安装,无需卸载操作)。
        来自:
        帮助文档
        云日志服务
        用户指南
        主机管理
        主机
        升级ICAgent
      • API概览
        功能名称 描述 点播模式 创建视频 通过本接口可在点播模式下创建一个视频条目。 完成上传视频 在视频分片上传完毕后,可通过本接口完成点播模式下的视频上传流程。 删除视频 用户可在点播模式下通过本接口删除媒体库的一个视频条目。 修改视频信息 用户可在点播模式下通过本接口修改媒体库的视频条目。 人工审核视频 用户可在点播模式下通过本接口对媒体库视频条目的审核状态进行修改。 搜索视频 用户可在点播模式下通过本接口查询媒体库的视频条目。 取得视频信息 用户可在点播模式下通过本接口获取媒体库的视频条目的具体信息。 取得视频文件 用户可在点播模式下通过本接口获取媒体库源视频相关视频文件集。 取得视频文件信息 用户可在点播模式下通过本接口获取媒体库的视频条目的特定文件信息。 对视频文件进行签名 用户可在点播模式下通过本接口对媒体库的视频文件进行签名。 取得任务状态 用户可在点播模式下通过本接口向云点播查询已经提交的转码任务状态。 截屏换封面 用户可在点播模式下通过本接口对媒体库的视频文件进行截屏并设置为封面。 搜索转码任务 用户可在点播模式下通过本接口向云点播查询转码任务。 提交转码任务 用户可在点播模式下通过本接口向云点播提交一个转码任务。 取得创建的点播实例列表 用户可在点播模式下通过本接口向云点播查询已经创建的点播实例清单。 设置默认点播实例 用户可在点播模式下通过本接口向云点播设置默认点播实例。 设置点播存储桶权限 用户可在点播模式下通过本接口向云点播设置存储桶的ACL权限。 设置Referer防盗链 用户可在点播模式下通过本接口向云点播的存储桶配置Referer防盗链。 初始化视频封面上传 用户可在点播模式下通过本接口向云点播开启视频封面上传初始化流程。 取消任务 用户可在点播模式下通过本接口取消一个正在队列中的转码任务。 任务重试 用户可在点播模式下通过本接口对一个已经执行过的任务发起重试。 发起截图任务 用户可在点播模式下通过本接口发起一个截图任务。 获取截图列表 用户可在点播模式下通过本接口获得一个视频条目的全部截图列表。 将截图设置为视频条目封面 用户可在点播模式下通过本接口将一个截图设置为视频条目封面。 公共接口 新增转码模板 通过本接口可添加转码配置信息,创建新的转码模板。 搜索转码模板 通过本接口可查询已存在的转码模板信息。 取得单个转码模板 通过本接口可获得已存在的单一转码模板的详细配置信息。 删除转码模板 通过本接口可删除已存在的转码模板。 创建水印模板 通过本接口可创建新建一个水印模板配置。 完成上传水印 通过本接口可完成水印图片的上传过程。 搜索水印模板 通过本接口可搜索已存在的水印模板。 取得单个水印模板 通过本接口可获得已存在的水印模板的详细配置信息。 删除水印模板 通过本接口可删除已存在的水印模板。 新增拼接模板接口 用户可通过本接口向云点播新增一组拼接模板。 获取指定拼接模板详情接口 用户可通过本接口向云点播获取指定ID的拼接模板详情。 删除指定拼接模板接口 用户可通过本接口向云点播删除指定ID的拼接模板。
        来自:
        帮助文档
        云点播
        API参考
        API概览
      • 购买实例
        本节介绍了分布式消息服务RabbitMQ产品实例如何购买。 实例介绍 RabbitMQ实例订购支持用户自定义规格和自定义特性,采用物理隔离的方式部署。租户独占RabbitMQ实例,可根据业务需要可定制相应规格的RabbitMQ实例。在新的资源池节点上,还支持选择主机类型和存储规格等丰富用户选项。 操作步骤 1. 登录管理控制台。 2. 进入RabbitMQ管理控制台。 3. 在管理控制台右上角单击“地域名称”,选择区域。此处请选择与您的应用服务相同的区域。 4. 点击“购买实例”跳转到购买页面,根据页面订购说明进行产品开通。 实例规格选择说明 节点可选择3节点、5节点、7节点、9节点,实例规格可选择4C8G、8C16G、16C32G。 存储类型可选择普通IO(SATA)、高IO(SAS)、超高IO(SSD)。 (1)填写实例名称,长度在 4 到 64个字符,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 (2)选择引擎类型,默认选择云原生引擎,海量消息堆积能力,支持更多连接和队列数,稳定性高。也可选择rabbitmq引擎,完全支持开源RabbitMQ生态,功能完备。 (3)选择计费模式:包年包月/按需计费,两种模式说明参见计费模式。 (4)购买时长按照计费模式选择变化: 计费模式为包年包月,可选择购买时长16个月、13年。该模式提供自动续期功能,勾选后可以自动续期购买时长:16个月、13年。 计费模式为按需计费,则该选项隐藏无需选择。 (5)部署方式有单可用区和多可用区两个选项,目前仅支持单可用区和3可用区部署,单可用区部署请选中任意一个AZ;多可用区部署请选中3个AZ,系统会自动将Broker节点平均分配至各可用区。 (6)设置节点数,可选择3/5/7/9。RabbitMQ 的节点数是指 RabbitMQ 集群中的节点数量。在 RabbitMQ 集群中,可以有多个节点组成一个集群,每个节点都是一个独立的 RabbitMQ 服务器实例。 (7)下拉选择主机类型,可选择通用型和计算增强型。通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。计算增强型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。 (8)选择实例规格,分布式消息服务RabbitMQ提供通用型和计算增强型各3类规格,各规格详细说明参见弹性云主机规格。 (9)选择存储空间,包括磁盘类型和空间。 磁盘类型提供高IO/超高IO三类。普通IO适用于大容量、读写速率中等、事务性处理较少的应用场景。高IO:适用于主流的高性能、高可靠应用场景。超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景。了解更多磁盘类型说明参见云硬盘规格。 磁盘空间以100G起步,可以以100倍数增加磁盘空间。 (10)选择已有虚拟私有云,若无虚拟私有云,点击创建跳转到虚拟私有云页面新增,了解更多内容参见虚拟私有云。 (11)选择已有子网,若无子网,点击创建跳转到子网页面新增。 (12)选择已有安全组,若无安全组,点击创建跳转到安全组页面新增。
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        快速入门
        购买实例
      • 消息层配置
        配置项 描述 示例 消息队列名称 消息队列自定义标识。 商城北京消息队列 站点 消息队列部署所在站点。 北京站点 产品类型 消息队列技术类型: RocketMQ RocketMQ 实例类型 消息队列产品类型。 云实例 消息队列实例 消息队列对应的云实例ID。 RocketMQ810
        来自:
        帮助文档
        应用高可用
        用户指南
        应用容灾多活
        资源管理
        消息层配置
      • 为主机安装Agent
        线下IDC通过专线和代理服务器接入HSS 请参见最佳实践线下IDC通过专线和代理服务器接入HSS。 通过运维安全中心(云堡垒机)安装Agent 请参见最佳实践通过运维安全中心(云堡垒机)安装Agent。
        来自:
        帮助文档
        企业主机安全
        快速入门
        开启HSS防护
        为主机安装Agent
      • 标签设计原则及示例
        在使用标签功能时遵循以下设计原则,可帮助您更高效的管理云资源。 标签设计原则概述 当您账户中的云资源不断增多,管理云资源的难度也会随之加大,使用标签功能对账户内云资源的快速分组与管理,可以帮助您从不同维度对具有相同特征的云资源进行筛选,让资源管理变得更加轻松。在创建标签时,遵循以下原则会让您的管理更加高效: 全面原则 :所有资源都需要绑标签。从整体出发,考虑标签的组织结构,在规划资源的同时进行标签的键值规划,确保所有资源都可基于标签被分组。注意:标签键值建议采用标准格式。 有效管理幅度原则 :每个标签键所对应的标签值数量应该是可控的,管理幅度不应过大,避免创建多余的标签值。 精简高效原则 :精简标签键的设计,去除没有实际管理意义的标签键,防止因为标签键设计混乱导致的管理问题。 互斥原则 :确保标签键值的含义的唯一性,避免设计含义相同或近似的标签键值。 标签键设计示例 业务维度 类型 子类型 ::: 组织架构 department group team organization 组织名称 角色层级 role user 相关角色名称 项目/任务 project task 项目/任务名称 环境 environment 环境名称 使用者 owner 使用者名称
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        资源与标签
        标签管理
        标签设计原则及示例
      • 应用事件
        云应用引擎控制台支持查看K8s原生应用的事件,帮助您了解应用运行时的状态,方便快速聚焦问题。 功能入口 1. 在云应用引擎控制台左侧导航栏选择应用管理 > 应用列表。 2. 在应用列表页面,单击目标应用名称,进入应用基本信息页。 3. 在左侧导航栏中单击应用事件,即可查看应用相关的K8s事件。
        来自:
        帮助文档
        云应用引擎
        用户指南
        应用管理
        应用事件
      • 计费类
        本文介绍计费类常见问题。 云容器引擎服务是如何进行收费的? 云容器引擎服务目前仅采取包年包月的计费方式,支持用户进行13个月的时长选择,目前容器引擎服务不收取任何集群管理费用,仅对创建过程中的计算资源、如云主机、数据盘、弹性IP进行收费。 说明 :具体的收费方式可参考【计费说明】部分。
        来自:
        帮助文档
        云容器引擎(旧版)
        常见问题
        计费类
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 创建自定义路由条目
        本文为您介绍创建自定义路由条目的操作流程。 操作步骤 1. 登录控制中心。 2. 登录云间高速(标准版)管理控制台,并在左侧菜单列表中选择“云间高速(标准版)”。 3. 单击目标云间高速实例名称(或单击目标云间高速实例操作列的“管理”),进入目标实例详情页面。 4. 在云间高速实例详情页面,在“云企业路由器管理 ”页签,单击目标云企业路由器实例名称(或者单击操作列的“配置”),进入云企业路由器详情页面。 5. 在云企业路由器详情页面,单击“路由管理”页签,在页签左侧区域单击目标的路由表。 6. 在页签右侧区域,点击“路由条目”,查看当前路由表的路由条目信息。 7. 在“路由条目 ”页签中,单击“添加路由条目”按钮,进入添加路由条目弹窗。 8. 在添加路由条目弹窗页面,根据提示填写参数,单击“确定”,完成创建自定义路由条目操作。 参数 说明 IP类型 选择路由的IP类型。 目标地址CIDR 输入正确的目标网段信息。 是否黑洞 如果选“是 ”(默认状态) :表示该路由为黑洞路由,所有去往该路由的流量均会被丢弃,无需设置下一跳连接。 如果选“否” :表示该路由为非黑洞路由,需要设置路由的下一跳连接。 下一跳类型 选择下一跳网络实例类型。 下一跳连接 选择下一跳具体的网络实例。 描述 路由条目描述信息。
        来自:
        帮助文档
        云间高速(标准版)EC
        用户指南
        路由配置
        云企业路由器自定义路由条目
        创建自定义路由条目
      • 创建专有宿主机
        配置高级选项 1. 允许自动部署:允许自动部署时,系统自动在专有宿主机上部署云主机。不允许自动部署时,您需要自行在专有宿主机上部署云主机就,系统不会将云主机自动部署在当前宿主机上,创建云主机时,您需要指定专有宿主机。默认允许自动部署。 2. 允许宿主机故障自动迁移:强烈建议开启。开启宿主机故障时自动迁移时,专有宿主机因故障停机时,资源充足情况下专有宿主机上实例会自动迁移至健康的专有宿主机上。关闭宿主机故障时自动迁移时,专有宿主机发生故障停机后,您需要提交工单申请置换一台健康的专有宿主机。默认允许宿主机故障自动迁移 确认所选配置 1. 在“所选配置”栏,查看专有宿主机配置详情。 2. 设置购买量。 3. 购买时长:“包年/包月”方式需要设置购买时长,最短为1个月,最长为1年。 4. 自动续订:“包年/包月”方式可选是否开启自动续订。按月购买的自动续订周期为1个月,按年购买的自动续订周期为1年。 5. 购买数量:设置购买专有宿主机的数量。 6. 协议:阅读并勾选同意协议。 7. 如果您确认配置无误,单击“立即购买”。 8. 点击“立即支付”进行付款,付款成功即可创建专有宿主机。创建专有宿主机创建成功后,您可以在专有宿主机列表页看到您新创建的专有宿主机。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        专有宿主机
        创建专有宿主机
      • 更改辅助弹性网卡所属安全组
        本文主要介绍如何更改辅助弹性网卡所属安全组。 操作场景 辅助弹性网卡创建完成后,您可以更改其所属的安全组。 更改辅助弹性网卡所属的安全组有两种方法: 在辅助弹性网卡列表中进行更改。 进入辅助弹性网卡详情页进行更改。 操作步骤 在辅助弹性网卡列表中,更改所属安全组 1. 登录管理控制台。 2. 在页面左上角单击图标,打开服务列表,选择“网络 > 虚拟私有云”。进入虚拟私有云列表页面。 3. 在左侧导航栏选择“弹性网卡”。 4. 在“弹性网卡”页面,选择“辅助弹性网卡”页签。 5. 在辅助弹性网卡列表中,单击操作列的“更改安全组”。 6. 在“更改安全组”页面勾选需要关联的安全组。 7. 单击“确定”,完成更改。 在辅助弹性网卡详情页,更改所属安全组 1. 登录管理控制台。 2. 在页面左上角单击图标,打开服务列表,选择“网络 > 虚拟私有云”。进入虚拟私有云列表页面。 3. 在左侧导航栏选择“弹性网卡”。 4. 在“弹性网卡”页面,选择“辅助弹性网卡”页签。 5. 单击待修更改安全组的辅助弹性网卡的“私有IP地址”,进入辅助弹性网卡详情页。 6. 在“关联安全组”页签下,单击“更改安全组”。 7. 在“更改安全组”页面勾选需要关联的安全组。 8. 单击“确定”,完成更改。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        弹性网卡和辅助弹性网卡
        辅助弹性网卡
        更改辅助弹性网卡所属安全组
      • 创建专有宿主机(1)
        配置高级选项 1. 允许自动部署:允许自动部署时,系统自动在专有宿主机上部署云主机。不允许自动部署时,您需要自行在专有宿主机上部署云主机就,系统不会将云主机自动部署在当前宿主机上,创建云主机时,您需要指定专有宿主机。默认允许自动部署。 2. 允许宿主机故障自动迁移:强烈建议开启。开启宿主机故障时自动迁移时,专有宿主机因故障停机时,资源充足情况下专有宿主机上实例会自动迁移至健康的专有宿主机上。关闭宿主机故障时自动迁移时,专有宿主机发生故障停机后,您需要提交工单申请置换一台健康的专有宿主机。默认允许宿主机故障自动迁移 确认所选配置 1. 在“所选配置”栏,查看专有宿主机配置详情。 2. 设置购买量。 3. 购买时长:“包年/包月”方式需要设置购买时长,最短为1个月,最长为1年。 4. 自动续订:“包年/包月”方式可选是否开启自动续订。按月购买的自动续订周期为1个月,按年购买的自动续订周期为1年。 5. 购买数量:设置购买专有宿主机的数量。 6. 协议:阅读并勾选同意协议。 7. 如果您确认配置无误,单击“立即购买”。 8. 点击“立即支付”进行付款,付款成功即可创建专有宿主机。创建专有宿主机创建成功后,您可以在专有宿主机列表页看到您新创建的专有宿主机。
        来自:
      • CC防护最佳实践
        配置步骤 1. 登录DDoS高防(边缘云版)控制台,在左侧导航中,点击【业务接入】【域名接入】。 2. 选择需要防护的域名,在操作栏点击【防护配置】。 3. 进入CC防护配置页面,点击【编辑】。 4. 在编辑页面可进行防护开关、防护模式、防护时长配置。具体说明可参见CC防护配置。 5. 配置完成后,点击保存。该域名会进入“配置中”状态,配置成功后,域名状态会变为“已启用”。 报表分析 DDoS高防(边缘云版)产品提供CC相关的报表数据,能清晰直观地展示您的网站遭受的攻击情况。其中包含 TOP URL、TOP 攻击IP及攻击区域分布信息,您可结合报表数据进一步配置相应的防护规则,更好地保障您的网站服务稳定。更多信息,请参见安全分析。 1. 登录DDoS高防(边缘云版)控制台,在左侧导航中,单击 【安全分析】【安全报表】。 2. 进入【CC安全报表】tab页面,可选择域名及时间维度等过滤条件查看详细攻击情况。 告警监控 针对应用层CC攻击,DDoS高防(边缘云版)提供了相应的告警策略,您可根据实际业务情况结合报表数据配置相应的告警策略。更多信息,请参见告警管理。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        最佳实践
        CC防护最佳实践
      • 攻击日志
        本文向您介绍如何查看并导出网站的受攻击日志详情。 功能介绍 边缘云WAF默认提供攻击日志,详细记录攻击产生的时间、攻击源IP、攻击类型及攻击详情等信息,攻击日志仅支持查询6个月内日志,并且支持导出攻击日志。 前提条件 已开通Web应用防火墙(边缘云版) 已新增域名并成功接入WAF,具体操作请见快速接入WAF 域名接入成功后,会自动开启防护规则引擎,您也可以根据防护需求开启其他的防护功能,边缘云WAF检测出攻击行为后会自动生成攻击日志 操作步骤 1. 登录Web应用防火墙(边缘云版)控制台,在左侧导航栏中选择【日志管理】—【WAF攻击日志】页面 2. 通过筛选项进行组合查询攻击日志。筛选项包括域名、攻击类型、处理动作、规则ID、日期选择等组件 日志字段说明: 攻击IP:发起请求的客户端IP 请求方式:客户端的请求方法 URI:请求的URI 攻击类型:详细攻击类型 状态码:响应的状态码 处理动作:请求的处理动作 攻击时间:攻击请求发生的时间 攻击详情:能够查看攻击客户端IP的详细属性,比如地域归属、UA等 单击【导出】按钮,能够导出攻击日志,默认导出10000条攻击日志
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        安全运营
        日志服务
        攻击日志
      • 1
      • ...
      • 290
      • 291
      • 292
      • 293
      • 294
      • ...
      • 533
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      训推服务

      公共算力服务

      科研助手

      智算一体机

      人脸属性识别

      推荐文档

      代金券查询与使用

      全面了解天翼云⑤:勒索病毒尝试处理方案

      实名认证流程?

      云主机购买流程

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号