活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云翼备份_相关内容
      • 查询指定卷
        名称 类型 描述 lunName String 卷名称。 targetName String target名称。 status String 卷的状态: Normal:正常。 Deleting:卷正在删除中。 DeleteFailed:卷删除失败。 Recovering:卷正在还原中。 RecoverFailed:卷还原失败。 Rollbacking:卷正在回滚。 Flattening:与快照的关系链断开过程中,表示克隆卷正在复制源卷的数据,复制完成之后将变成独立卷,不再依赖快照和源卷。 Importing:正在导入备份数据。 Wiping:卷正在清空数据。 WipeFailed:清空数据失败。 Suspended:卷挂起。 Suspending:卷正在挂起。 SuspendFailed:卷挂起失败。 progress Double 卷还原进度百分比。 仅卷状态为Recovering时显示。 recoverFailedReason String 卷还原失败的原因。 仅卷状态为RecoverFailed时显示。 deleteFailedReason String 卷云上数据删除失败的原因。 仅卷状态为DeleteFailed时显示。 wipeFailedReason String 卷清空失败的原因。 仅卷状态为WipeFailed时显示。 waitUploadBytes String 待上传数据量,单位是bytes。 仅卷状态为Suspending时显示。 SuspendFailedReason String 卷挂起失败的原因。 仅卷状态为SuspendFailed时显示。 capacity Integer 卷容量,单位是GiB。 storageMode String 卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到对象存储中。 Storage:存储模式,本地保留全部数据,并异步存储到对象存储中。 createTime Long 卷创建时间。unix时间戳(UTC),精确到毫秒。 iSCSITargets Array of iSCSITarget iSCSI target属性集合,详见“ 表1 响应参数iSCSITarget说明 ”。 cloud.bucketName String 存储桶的名称(仅上云卷支持)。 cloud.prefix String 对象存储中的前缀名称(仅上云卷支持)。 如果未设置,则不返回此项。 cloud.accessKey String 对象存储服务的Access Key(仅上云卷支持)。 cloud.endpoint String 对象存储Endpoint(仅上云卷支持)。 cloud.objectSize Integer 数据存储在对象存储的大小(仅上云卷支持)。 cloud.storageClass String 数据在对象存储的存储类型(仅上云卷支持): STANDARD:标准存储。 STANDARDIA:低频访问存储。 cloud.compression String 是否压缩数据上传至对象存储(仅上云卷支持): Enabled:压缩数据上传至对象存储。 Disabled:不压缩数据上传至对象存储。 cloud.signVersion String 上云签名认证的类型(仅上云卷支持): v2:V2签名认证。 v4:V4签名认证。 cloud.region String Endpoint资源池所在区域(仅上云卷支持)。 cloud.provider String 对象存储服务名称: OOS : 天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 config.localStorageClass String 卷冗余模式(仅集群版支持): singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M 。 config.minReplica Integer 卷的最小副本数(仅集群版支持)。 config.ECfragmentSize Integer 分片大小(仅集群版支持)。如果冗余模式为EC N+M ,则会返回此项。 config.sectorSize Long 扇区大小,单位是bytes。 config.highAvailability String 高可用模式类型(仅集群版支持): ActiveStandby:主备,该卷关联对应target下的所有IQN。 Disabled:禁用,该卷关联对应target下的1个IQN。 config.writePolicy String 卷的写策略: WriteBack:回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。 WriteThrough:透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。 WriteAround:绕写,指数据直接写到磁盘,不写入内存。 config.cachePool String 缓存存储池(仅集群版支持)。 config.pool String 存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。 config.redundancyOverlap Integer 卷的折叠副本数(仅集群版支持)。 config.serverAffinity Object 卷主备分布优先级设置,详见“ 表5 响应参数config.serverAffinity说明 ”。 config.qosPolicy Object 卷关联的QoS策略信息,详见 表“6 响应参数config.qosPolicy说明 ”。 config.qosPolicyforLUN Object 卷所在存储池中卷的默认QoS策略信息(仅集群版支持),详见“ 表7 响应参数config.qosPolicyforLUN ”。 说明 如果卷的缓存存储池和存储池同时存在时,展示缓存存储池的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 如果卷只有存储池:展示存储池的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则不返回此项。 config.path String 数据目录(仅单机版支持)。 dataHealth.normal Double 卷正常数据的百分比。 dataHealth.lowRedundancy Double 卷降级数据的百分比。 dataHealth.error Double 卷错误数据的百分比。 dataHealth.reconstructionProgress Double 如果卷存在降级状态的数据,数据重建进度的百分比。 dataHealth.ETR Long 卷如果存在降级数据,预计剩余的数据重建时间。单位为秒。如果返回值为负数,说明数据无法重建,需用户尽快修复。 number Long 卷编号。LUN在target下的编号,由存储系统分配,对应客户端挂载存储设备时设备地址中的LUN ID。如果target下只有一个LUN,LUN的编号一般为0。 uuid String 卷的唯一识别码。 isClone Boolean 是否是克隆卷: true:是克隆卷。 false:不是克隆卷。 sourceSnapshotName String 对应的快照名称(仅克隆卷支持)。 snapshots.snapshotNumbers Integer 卷的快照个数(仅本地卷支持)。 snapshots.basisofCurData Boolean 当前的读写是否是基于卷的初始状态: true:是。 false:否。 snapshots.lunSnapshots Array of lunSnapshot 卷的快照信息集合(仅本地卷支持),详见“ 表8 响应参数lunSnapshot/Children说明 ”。 snapshots.snapshotSize Long 卷关联的快照大小的总和(仅本地卷支持),即快照记录的数据量。单位是bytes。 注意 卷异常或上游快照删除等因素可能导致快照大小波动。 WWID String 卷的唯一标识符。
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        卷管理
        查询指定卷
      • 查看防护日志
        Web应用防火墙将拦截或者仅记录攻击事件记录在“防护事件”页面。您可以查看WAF的防护日志,包括事件发生的时间、源站IP、源站IP所在地理位置、恶意负载、命中规则等信息。 前提条件 防护网站已接入WAF。 约束条件 下载防护事件文件时,如果您本地安装的安全软件拦截了下载文件,请关闭该软件后重新下载防护事件文件。 在WAF控制台只能查看所有防护域名最近30天的防护事件数据。 如果您将防护网站的“工作模式”切换为“暂停防护”模式,WAF将对该防护网站所有的流量请求只转发不检测,同时,日志也不会记录。 操作步骤 1. 登录管理控制台。 2. 单击页面顶部的区域选择框,选择区域。 3. 单击页面左上角的“服务列表”,选择“安全 > Web应用防火墙(独享版)”。 4. 在左侧导航树中,选择“防护事件”,进入“防护事件”页面。 5. 选择“查询”页签,在网站或实例下拉列表中选择待查看的防护网站,可查看“昨天”、“今天”、“3天”、“7天”、“30天”或者自定义时间范围内的防护日志。 “防护事件趋势图”:展示所选网站在选择的时间段内WAF的防护情况。 “TOP10统计”:针对当前所选时间段的攻击事件、受攻击站点、攻击源IP、受攻击URL的TOP 10网站进行统计,单击可复制统计图表的数据。 6. 在“防护事件列表”中,查看防护详情。 根据筛选条件字段匹配值进行筛选,可设置多项匹配条件,单击“确定”后,匹配条件会展示在事件列表的上方,条件字段参数说明如下表所示。 支持筛选搜索的条件字段: 参数名称 参数说明 事件ID 标识该防护事件的ID。 事件类型 发生攻击的类型。 默认选择“全部”,查看所有攻击类型的日志信息,也可以根据需要,选择攻击类型查看攻击日志信息。 规则ID 内置Web基础防护规则ID。 防护动作 防护配置中设置的防护动作,包含:拦截、仅记录、人机验证等。 人机验证:CC防护规则中,“防护动作”支持配置“人机验证”。即当访问的请求频率超过设定的“限速频率”后将弹出验证码提示,输入正确的验证码,请求将不受访问限制。 源IP Web访问者的公网IP地址(攻击者IP地址)。 默认选择“全部”,查看所有的日志信息,也可以根据需要,选择或者自定义攻击者IP地址查看攻击日志信息。 URL 攻击的防护域名的URL。 单击,可选择防护事件列表展示的字段。 防护事件列表可展示字段参数说明: 参数 说明 示例 ::: 时间 本次攻击发生的时间。 2021/02/04 13:20:04 源IP Web访问者的公网IP地址(攻击者IP地址)。 防护域名 被攻击的防护域名。 www.example.com 命中规则 内置Web基础防护规则ID。 URL 攻击的防护域名的URL。 /admin 事件类型 发生攻击的类型。 SQL注入攻击 防护动作 防护配置中设置的防护动作,包含:拦截、仅记录、人机验证等。 说明 配置网页防篡改、防敏感信息泄露、隐私屏蔽防护规则后,如果访问请求命中防护规则,则防护动作显示为“不匹配”。 拦截 在目标事件的“操作”列单击“详情”,可查看目标域名攻击事件详情。
        来自:
        帮助文档
        Web应用防火墙(独享版)
        管理防护事件
        查看防护日志
      • 支持的监控指标
        操作场景 天翼云分布式消息Kafka自集成了一整套监控方案,对Kafka实例的运行状态进行日常监控,可以通过管理控制台查看Kafka实例各项监控指标。各项监控指标可以分为实例监控、实例节点监控、主题监控、消费组监控和Connect监控,各项监控指标的具体细节如下表所示。 操作前提 已开通天翼云Kafka实例,且实例状态为“运行中” Kafka 实例是天翼云Ⅱ类资源池实例,目前Ⅱ类资源池包括:华东1、上海36、华北2、长沙42、武汉41、西安7、杭州7、青岛20、西南1、西南2、广州4、郑州5、华南2等 监控指标 监控项的数据聚合周期为1分钟,即1分钟计算一次,计算出来每秒字节数。您可以将该数据理解为一分钟内的平均值。 1. 实例监控 指标ID 指标名称 指标含义 取值范围 单位 currentbrokers 存活节点数 该指标用于统计Kafka实例中正常运行的实例节点数 0~50 Count currenttopics 主题数 该指标用于统计Kafka实例中已经创建的主题数量。 0~2000 Count currentpartitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。 0~2000 Count groupmsgs 堆积消息数 该指标用于统计Kafka实例中所有消费组中总堆积消息数。 >0 Count instancebytesinrate 生产流量 该指标用于统计Kafka实例中每秒生产的字节数。 >0 MB/s instancebytesoutrate 消费流量 该指标用于统计Kafka实例中每秒生产的字节数。 >0 MB/s instancemessagesinrate 消息生产速率 该指标用于统计实例每秒生产的消息数。 >0 Count/s instancemessagesoutrate 消息消费速率 该指标用于统计实例每秒消费的消息数。 注意:2025年1月及以后购买的实例,支持此监控项。 >0 Count/s instancerequestqueuesize 实例请求队列长度 该指标用于统计实例请求队列长度。 >0 Count instanceresponsequeuesize 实例响应队列长度 该指标用于统计实例响应队列长度。 >0 Count instanceconnectionusage 实例连接数使用率 该指标用于统计实例连接数使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancetopicusage 实例用户主题数使用率 该指标用于统计实例租户主题使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancepartitionusage 实例用户主题分区数使用率 该指标用于统计实例租户主题分区使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instancegroupusage 实例用户消费组数使用率 该指标用于统计实例租户消费组使用率 注意:2025年6月及以后购买的实例,支持此监控项。 0~100 % instanceproducelimit 实例生产限流次数 该指标用于统计实例生产限流次数 注意:2025年6月及以后购买的实例,支持此监控项。 >0 Count instanceconsumelimit 实例消费限流次数 该指标用于统计实例消费限流次数 注意:2025年6月及以后购买的实例,支持此监控项。 >0 Count
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        可观测
        监控信息
        支持的监控指标
      • 自定义配置日志采集
        本文介绍如何自定义配置ECI日志采集。 ECI支持采集租户容器日志(标准输出+文件)并上传到租户的云日志服务。 接入方式 在容器环境变量里带上日志参数,每个容器分别设置,ECI会根据环境变量自动创建或校验日志资源并拉起日志采集器上传日志到租户的云日志服务:如果不存在则会调用云日志OpenAPI创建对应资源,如果资源存在不进行任何修改直接使用。 环境变量命令统一格式为:Ctyunlogseci{key},key为云日志采集规则名称,只能包含小写字母、数字和短划线(),每组采集规则支持的环境变量如下: 环境变量 说明 是否必须 示例 Ctyunlogseci{key} key为采集规则名称,若不存在会创建。值为日志采集路径: 1.采集标准输出时:值必须为stdout 2.采集文件日志时:值为文件路径 是 Ctyunlogsecimyrule:stdout Ctyunlogseciotherrule:/tmp/1.l Ctyunlogseci{key}project 日志项目名称,若不存在会创建 注:取值服从云日志OpenAPI要求 否 默认日志项目:ecialsdefaultlogproject Ctyunlogsecimyruleproject: myproject Ctyunlogseci{key}unit 日志单元名称,若不存在会创建 注:取值服从云日志OpenAPI要求 否 默认日志单元:ecialsdefaultlogunit Ctyunlogsecimyruleunit: myunit Ctyunlogseci{key}ttl 日志单元TTL。默认值: 生产:365 开发:7 否 10 Ctyunlogseci{key}hostgroup 主机组。若主机组不存在,ECI会创建类型为自定义标签的主机组,包含的标签名同主机组名称。若主机组存在,ECI直接将该主机组名称传给采集器,不进行其他校验,请确保主机组名称和内容标签一致 否 默认主机组:ecialsdefaultloghostgroup Ctyunlogsecimyrulehostgroup: myhostgroup
        来自:
        帮助文档
        弹性容器实例
        用户指南
        通过ECI控制台使用ECI
        日志
        自定义配置日志采集
      • 步骤六:验证网络互通情况
        本文向您介绍通过企业版VPN实现数据中心和VPC互通第六步:验证网络互通情况。 操作步骤 1. 登录管理控制台,单击“计算 > 弹性云主机”。 2. 登录弹性云主机。 本示例是通过管理控制台远程登录(VNC方式)。 在弹性云主机的远程登录窗口,执行以下命令,验证网络互通情况。 ping 172.16.0.100 其中,172.16.0.100为数据中心服务器的IP地址,请根据实际替换。 回显如下信息,表示网络已通。 plaintext 来自 xx.xx.xx.xx 的回复: 字节32 时间28ms TTL245 来自 xx.xx.xx.xx 的回复: 字节32 时间28ms TTL245 来自 xx.xx.xx.xx 的回复: 字节32 时间28ms TTL245 来自 xx.xx.xx.xx 的回复: 字节32 时间27ms TTL245
        来自:
        帮助文档
        VPN连接
        快速入门
        通过企业版VPN实现数据中心和VPC互通
        步骤六:验证网络互通情况
      • 复制伸缩配置
        本文主要介绍如何复制伸缩配置。 操作场景: 在原有伸缩配置基础上,复制一条伸缩配置。 复制伸缩配置时,用户可在原有伸缩配置基础上,通过更改伸缩配置名称、云主机规格和镜像等参数,快速创建一个新的伸缩配置。 操作步骤: 1. 登录管理控制台。 2. 选择“计算 > 弹性伸缩服务”。 3. 选择“伸缩配置”页签,在需要复制的伸缩配置所在行的“操作”列下,单击“复制”。 4. 在弹出的“复制伸缩配置”界面,修改伸缩配置名称、云主机规格和镜像等参数,并设置弹性云主机的登录方式等。 5. 单击“确定”,完成复制伸缩配置操作。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩配置管理
        复制伸缩配置
      • 删除伸缩策略
        本文主要介绍如何删除伸缩策略。 某个伸缩策略不再用于触发伸缩活动,可选择删除指定伸缩策略。 如果被删除的策略已经被触发,伸缩活动正在进行,也可以删除该策略,伸缩活动不受影响。 步骤如下: 1. 登录天翼云控制中心,切换到需要修改伸缩策略的节点,选择【弹性伸缩服务】; 2. 在伸缩组所在行,单击伸缩组名称,进入【伸缩组详情页】; 3. 在【伸缩组详情页】,单击【伸缩策略】标签,进入【伸缩策略标签页】; 4. 在伸缩策略所在行的【操作】列下,单击【删除】。
        来自:
        帮助文档
        弹性伸缩服务 AS
        用户指南
        伸缩策略管理
        删除伸缩策略
      • 欠费说明
        本文为您介绍多活容灾服务欠费相关的计费规则。 对于计费方式为包年包月的资源,用户已经预先支付了费用,欠费后服务不会停止,实例仍可正常使用。 对于计费方式为按需付费的资源,欠费后服务会自动停止。 如果您在15天内充值补足欠款,服务会自动启用。 当欠费超过15天,将视为您主动放弃该服务,您保存在天翼云多活容灾服务的全部数据将会被销毁,销毁后数据不可恢复。因此请您及时关注账户余额并及时续费以保证您的服务不受到影响。
        来自:
        帮助文档
        多活容灾服务
        计费说明
        欠费说明
      • 计费说明
        本小节主要介绍云堡垒机的计费说明,包括计费项、计费模式等。 计费模式 云堡垒机实例的计费模式为包月和包年计费。 包年/包月:一种预付费模式,即先付费再使用,按照订单的购买周期进行结算。 购买1年,在总价基础上享受85折优惠,购买2年享受7折优惠,购买3年享受5折优惠。对于长期用户,推荐包年购买。 计费项 云堡垒机的计费项由性能规格和实例类型组成。 计费项 计费项说明 适用的计费模式 计费公式 :::: 性能规格 计费因子:资产数、并发数、实例版本 包年/包月 实例规格单价 购买时长实例规格单价 实例类型 单机:不购买备用堡垒机 主备:为堡垒机购买备用堡垒机,可自由选择可用区 包年/包月 单机:性能规格计费价格 1 主备:性能规格计费价格 2 计费样例 以包年/包月计费模式为例,假设您在2023/03/08 15:50:04购买了一台包年/包月云堡垒机(规格:20资产专业版),计费资源只包含性能规格。购买时长为1个月,并在到期前手动续费1个月,则: 第一个计费周期为:2023/03/08 15:50:04 ~ 2023/04/08 23:59:59 第二个计费周期为:2023/04/08 23:59:59 ~ 2023/05/08 23:59:59
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        计费说明
        计费说明
      • 批量新增端口
        本节介绍了如何在控制台批量新增端口接入规则。 使用场景 如果您需要为多个非网站类业务提供DDoS高防(边缘云版)服务。您可以在DDoS高防(边缘云版)控制台进行批量端口转发规则新增。 注意 相同域名,无法同时进行域名接入(HTTP/HTTPS)和端口接入(TCP/UDP)。 前提条件 已开通DDoS高防(边缘云版)。 不支持80、8080、443、8443端口接入配置,关于上述接口的防护,建议您使用域名接入。 使用说明 1.登录DDoS高防(边缘云版)控制台。 2.进入【业务接入】【端口接入】页面。 3.点击右上角【新增规则】按钮。 批量新增配置说明: 方法 配置项 说明 方法一 复制配置规则到文本框 1.每行对应一条规则,多条规则进行换行。 2.每行包含四个字段,从左到右依次时协议、转发端口、源站端口、源站、字段之间以空格分隔。 3.转发端口唯一值,源站端口、源站可多个,用; 号隔开。 方法二 导入TXT文件 按照上述规则,将内容保存为TXT文件,进行导入。 4.配置完成后,点击【确认】按钮,新增规则将变成“配置中”状态。 5.进入后台自动化配置流程(正常情况15分钟以内),流程结束后会自动变成“配置完成”状态。若“配置中”状态持续时间过长,可创建工单获取支持。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        用户指南
        业务接入
        端口接入
        批量新增端口
      • 如何设置镜像的网卡多队列属性?
        本节介绍了设置镜像的网卡多队列属性的方法。 操作场景 随着网络IO的带宽不断提升,单核CPU处理网络中断存在瓶颈,不能完全满足网卡的需求,通过开启网卡多队列功能,您可以将弹性云主机中的网卡中断分散给不同的CPU处理,以满足网卡的需求,从而提升网络PPS和带宽性能。 网卡多队列支持列表 网卡多队列的支持情况和实例规格、虚拟化类型、镜像的操作系统有关,只有同时满足这些要求,云主机才能开启网卡多队列功能。 支持网卡多队列的实例规格请参见《弹性云主机用户指南》的“产品介绍 > 实例 > 实例规格 > 规格清单”章节。 说明: 网卡多队列数为大于1的值,表示支持网卡多队列。 虚拟化类型必须为KVM,XEN类型不支持网卡多队列。 Linux云主机网卡多队列支持列表所列的Linux公共镜像,支持网卡多队列。 说明: Windows操作系统暂未商用支持网卡多队列,如果对Windows操作系统镜像开启网卡多队列功能,可能会引起操作系统启动速度变慢等问题。 Linux操作系统弹性云主机建议将操作系统内核版本升级至2.6.35及以上,否则不支持网卡多队列。 建议您使用命令uname r查询内核版本,如果低于2.6.35请联系技术支持升级内核。 Windows云主机网卡多队列支持列表 类别 镜像 是否支持多队列 ::: Windows Windows Server 2008 WEB R2 64bit 可通过私有镜像支持 Windows Windows Server 2008 Enterprise SP2 64bit 可通过私有镜像支持 Windows Windows Server 2008 R2 Standard/Datacenter/Enterprise 64bit 可通过私有镜像支持 Windows Windows Server 2008 R2 Enterprise 64bitWithGPUdriver 可通过私有镜像支持 Windows Windows Server 2012 R2 Standard 64bitWithGPUdriver 可通过私有镜像支持 Windows Windows Server 2012 R2 Standard/Datacenter 64bit 可通过私有镜像支持 表Linux云主机网卡多队列支持列表 类别 镜像 是否支持多队列 是否默认开启多队列 :::: Linux Ubuntu 14.04/16.04 Server 64bit 是 是 Linux openSUSE 42.2 64bit 是 是 Linux SUSE Enterprise 12 SP1/SP2 64bit 是 是 Linux CentOS 6.8/6.9/7.0/7.1/7.2/7.3/7.4/7.5/7.6 64bit 是 是 Linux Debian 8.0.0/8.8.0/8.9.0/9.0.0 64bit 是 是 Linux Fedora 24/25 64bit 是 是 Linux EulerOS 2.2 64bit 是 是
        来自:
      • 概念类
        本节主要介绍智能视图服务概念类的常见问题。 什么是智能视图服务? 智能视图服务支持哪些协议的设备接入? 智能视图服务支持的直播分发协议有哪些? 监控设备有哪些类型? 设备ID和设备国标ID的区别是什么? 什么是智能视图服务? 智能视图服务是天翼云面向视图设备上云场景提供视图接入、视图存储、视图分发及视图分析的一体化产品。依托天翼云遍布全国的资源节点,可实现设备上云全链路的就近接入、就近存储、就近分发及就近分析,通过开放OpenAPI易于被智慧城市、智慧能源、智慧连锁、智慧社区、智慧工地等行业场景应用集成。支持IPC、NVR和第三方监控平台等监控设备接入,支持GB28181/GB35114/GA1400/RTMP/RTSP/EHOME等多种接入协议,为用户提供就近的边缘节点接入设备,提供多种AI算法满足不同应用场景的AI检测需求(人脸识别/人体识别/场景识别等),用户可便捷地通过Web端、APP和PC客户端实时观看视频。 智能视图服务支持哪些协议的设备接入? 智能视图服务支持的接入协议有GB28181、GB35114、RTMP、RTSP、EHOME和GA1400等协议,用户可在添加设备时自行选择。 GB28181和GB35114设备的接入流程可参考【用户指南设备管理国标设备接入】。 RTMP设备的接入流程可参考【用户指南设备管理RTMP设备接入】。 RTSP设备的接入流程可参考【用户指南设备管理RTSP设备接入】。 EHOME设备的接入流程可参考【用户指南设备管理EHOME设备接入】。 GA1400设备的接入流程可参考【用户指南视图服务摄像头接入】。
        来自:
        帮助文档
        智能视图服务
        常见问题
        概念类
      • OpenClaw(原Clawdbot)更改厂商模型配置(1)
        本文介绍OpenClaw(原 Clawdbot)更改厂商模型配置的内容。 前置说明 1.该文档为介绍通过应用托管应用市场体验OpenClaw更改厂商模型配置的内容。 2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 概述 OpenClaw是近期在开发者社区和AI领域广受关注的一款开源、自托管的个人AI助手。它以其独特的“本地优先”设计理念,将强大的大型语言模型能力与用户本地系统深度结合,实现了从“对话式AI”到“可执行实际任务的智能体”的跨越。与依赖云端服务的传统AI助手不同,OpenClaw将数据主权和隐私控制权完全交还给用户,所有数据和处理过程均在用户可控的环境中进行,被誉为“首个7×24小时永不下班的AI员工”。它的开源特性也吸引了大量开发者参与生态建设,形成了一个活跃的技能市场。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
        来自:
      • 停用域名
        本节介绍了如何在控制台停用域名。 使用场景 如果您需要停止针对某个域名的防护,您可以在边缘安全加速控制台进行停用操作。对域名进行停用操作后,控制台上域名状态将变更为“已停止”。天翼云CDN会将加速域名的CNAME立即解析至不可用地址。 注意: 1、对域名进行停用操作后,边缘安全与加速服务节点会立即删除配置,但仍会在系统数据库中保留原来的配置记录,可再次对域名进行"启用"操作。 2、边缘安全加速平台套餐内默认包含一些流量,若套餐有效期内流量用尽,边缘安全加速平台安全与加速服务将会停止加速服务,将CNAME入口解析至客户源站地址,对域名进行停用操作后,控制台上域名状态将变更为“已停止”。 3、边缘安全加速平台客户退订套餐或套餐到期,边缘安全加速平台安全与加速服务会立即将加速域名的CNAME入口解析至客户源站地址,控制台上域名状态将变更为“已停止,1天后将加速域名的CNAME解析至不可用地址。 前提条件 域名状态为“已启用”。 停用域名前,为了避免停用导致业务中断,客户需要确保已将域名DNS解析记录由原来CNAME至天翼云,调整为解析至其他CNAME或A记录 使用说明 1.登录边缘安全加速控制台。 2.进入安全与加速工作台域名域名管理页面。 3.选择需要停用的域名,在操作栏点击【停用】按钮后,会进行弹窗提示,再次确认后,域名会进入停用流程,域名状态变成“配置中”。 4.进入后台自动化配置流程(正常情况15分钟以内),流程结束后会自动变成“已停止”状态。若“配置中”状态持续时间过长,可创建工单获取支持。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        域名管理
        域名操作
        停用域名
      • 错误日志
        本文介绍了RDSPostgreSQL查看错误日志的方法。 操作场景 错误日志记录了数据库运行时的日志。您可以通过错误日志分析系统中存在的问题。 Ⅰ类资源池实例查看错误日志步骤 1. 登录天翼云门户。 2. 打开控制中心。 3. 左上角选择资源池区域,RDSPostgreSQLⅠ类资源池加载的资源池详见功能加载说明。 4. 找到【关系数据库PostgreSQL版】,点击进入组件控制台管理页面。 5. 在实例管理页面点击对应的实例进入基本信息页。 6. 选择页面上方的“错误日志”切换到页面,即可以查看错误日志。 1. 您可单击页面左上角的“日志级别”筛选框查看不同级别的日志记录。 2. 您可单击“日志级别”筛选框旁边的“时间范围”,查看不同时间段内的错误日志。 Ⅱ类资源池实例查看错误日志步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在实例管理页,点击需要查看错误日志的实例行中的“监控”按钮,进入监控页。 6. 在左边栏选择“日志监控”进入日志页面。 7. 在此页面点击上方的“错误日志”切换到页面,即可查看错误日志。 1. 您可单击页面搜索栏的“日志级别”筛选框查看不同级别的日志记录。 2. 您可单击“日志级别”筛选框旁边的“自定义查询时间”,查看不同时间段内的错误日志。 3. 您可以通过“导出”按钮导出错误日志。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全监控
        日志监控
        错误日志
      • 重置管理员(root帐号)密码
        本文介绍了如何重置管理员账号密码。 操作场景 在使用过程中,如果用户忘记管理员账号密码,可以通过控制台重新设置密码。 注意 如果新密码被系统视为弱密码,您将收到错误提示,请提供更高强度的密码。 重置密码生效时间取决于该实例当前执行的业务数据量。 请定期修改用户密码,以提高系统安全性,防止出现密码被暴力破解等安全风险。 请妥善管理您的密码,因为系统为保障您的数据安全未保存您的密码信息。 Ⅰ类资源池操作步骤 1. 登录天翼云门户。 2. 打开控制中心。 3. 左上角选择资源池区域,RDSPostgreSQL基础版加载的资源池详见功能加载说明。 4. 找到【关系数据库PostgreSQL版】,点击进入组件控制台管理页面。 5. 在实例管理页面中的“操作”列,点击对应实例的“修改密码”按钮,如图所示。 6. 在弹出框内输入新的密码,点击确认。返回成功即为修改密码成功,返回失败请根据错误提示重新设置您的密码。 Ⅱ类资源池操作步骤 1. 登录天翼云门户。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击实例名称进入实例管理详情页。 6. 在基本信息中找到“管理员账号名”项中的“重置密码”。 7. 在弹出框内输入新的密码,点击确定。返回成功即为修改密码成功。返回失败请根据错误提示重新设置您的密码。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        安全设置
        重置管理员(root帐号)密码
      • 全局序列管理
        本文主要介绍了DRDS全局序列管理页面相关内容,包括列表展示、新增序列等操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 分布式关系型数据库】,进入分布式关系型数据库产品页面。然后单击【管理控制台】,进入【概览】页面。 2. 在左侧导航栏,选择【DRDS > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击【操作】列的【管理】,进入实例【基本信息】页面。 4. 单击【schema管理】栏目,进入目标实例的schema管理页面。 5. 单击【schema管理】导航栏中的【全局序列管理】,可进入全局序列管理页面。可以查看全局序列列表,对全局序列进行查看DDL和删除操作,修改序列当前值,新增序列。 新增序列 1. 在天翼云官网首页的顶部菜单栏,选择【产品 > 数据库 > 关系型数据库 > 分布式关系型数据库】,进入分布式关系型数据库产品页面。然后单击【管理控制台】,进入【概览】页面。 2. 在左侧导航栏,选择【DRDS > 实例管理】,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击【操作】列的【管理】,进入实例【基本信息】页面。 4. 单击【schema管理】栏目,进入目标实例的schema管理页面。 5. 单击【schema管理】导航栏中的【全局序列管理】,可进入全局序列管理页面。 6. 单击【全局序列管理】页面左上角的【新增序列】,进入新增序列页面。 7. 在弹框中输入序列名称,名称以英文前缀开头,且必须输入非中文字符;输入起始值和最大值,单击确定,可以新增全局序列。 注意 此处的步长不是指的序列的间隔,而是DRDS节点缓存的序列值数量。 实际序列步长是1。 全局序列的步长固定为1000,最大值必须大于等于起始值+步长量。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        Schema管理
        全局序列管理
      • 单机实例
        本文介绍RDS PostgreSQL单机实例的资费信息。 说明 天翼云关系数据库PostgreSQL版因不同地域成本有所区别,因此对Ⅰ类型资源池和Ⅱ类型资源池的价格有所区分。 本次价格调整及包年折扣变更主要针对Ⅱ类型资源池,将分为通用型和独享型两种类型,两种类型价格不同,独享型包含计算增强型和内存优化型。 Ⅰ类型资源池价格及优惠维持不变,不区分主机类型。 具体资源池类型请见 Ⅱ类型资源池资费 天翼云提供了多种规格的PostgreSQL单机实例,区分通用型和独享型(独享型包含计算增强型和内存优化型)。 通用型 CPU(核) 内存(GB) 按需标准价格(元/小时) 包月标准价格(元/月) 2 4 0.31 150 2 8 0.38 185 4 8 0.74 360 4 16 0.99 480 8 16 1.50 730 8 32 1.97 960 16 32 3.33 1620 16 64 4.34 2110 32 64 7.98 3885 32 128 10.15 4940 独享型(包含计算增强型和内存优化型) CPU(核) 内存(GB) 按需标准价格(元/小时) 包月标准价格(元/月) 2 4 0.57 275 2 8 0.72 350 2 16 0.88 430 4 8 1.11 540 4 16 1.43 695 4 32 1.77 860 8 16 2.22 1080 8 32 2.77 1350 8 64 3.53 1720 16 32 4.44 2160 16 64 5.45 2650 16 128 7.07 3440 32 64 8.88 4320 32 128 10.79 5250 32 256 14.14 6880 64 128 17.75 8640 64 256 21.58 10500 64 512 27.74 13500 96 192 24.75 12043 96 384 32.36 15750 96 768 42.41 20640 128 256 34.74 16908 128 512 43.15 21000 128 1024 55.48 27000 192 384 49.49 24087 192 768 65.24 31751 192 1536 98 47693
        来自:
        帮助文档
        关系数据库PostgreSQL版
        计费说明
        产品资费
        单机实例
      • 查询模型列表
        本文介绍查询模型列表内容。 接口描述 获取租户可用的全部模型 请求方法 GET 接口要求 无 URI /openapi/v1/models/list 请求参数 请求头header参数 参数 是否必填 参数类型 说明 示例 下级对象 tenantId 是 String 租户ID abcb82293b1a40e1b97ea05e50dd8170 ctyuneoprequestid 是 String 用户请求 id,由用户构造,用户可以通过 uuid 等方法自行生成唯一字符串,用于日志请求追踪。 eopdate 是 String 请求时间,由用户构造,形如 yyyymmddTHHMMSSZ。 host 是 String 终端节点域名,固定字段 EopAuthorization 是 String 由天翼云官网 accessKey 和 securityKey 经签名后生成,参与签名生成的字段包括天翼云官网 accessKey 、securityKey、用户请求id(非必须),请求时间,终端节点域名(非必须)以及请求体内容。 请求代码示例 plaintext Curl X GET " H "ctyuneoprequestid:33dfa732b27b464fb15a21ed6845afd5" H "tenantId:XXX" H "EopAuthorization:XXX" H "eopdate:20211109T104641Z" H "host:kqaglobal.ctapi.ctyun.cn" 返回值说明 1.请求成功返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 200表示成功 200 message String 固定为Success Success returnObj Object 接口返回结果 returnObj 表returnObj 参数 参数类型 说明 示例 下级对象 id String 模型ID name String 模型名称 description String 模型介绍 modelType String 模型类型 isDefault Boolean 是否为默认模型 2.请求失败返回响应参数 参数 参数类型 说明 示例 下级对象 statusCode String 错误码,放置API对应的错误码 40001 message String 失败信息 缺少鉴权信息 error String 返回对应的错误码 KQA40001 返回值示例 1.请求成功返回值示例 plaintext { "statusCode": 200, "message": "Success", "returnObj": [ { "id": "d5f09a41d4584715a5d94a4892411c0f", "name": "DeepSeekR1DistillLlama70B", "description": "DeepSeekR1DistillLlama70B", "modelType": "预置模型:PRESETMODEL", "isDefault": true } ] } 2.请求失败返回值示例 plaintext { "statusCode": "40004", "error": "KQA40004", "message": "接口执行异常" } 状态码 http状态码 描述 200 表示请求成功 错误码说明 见通用错误码。
        来自:
        帮助文档
        知识库问答
        API参考
        API
        查询模型列表
      • 开通视频直播服务
        本文简述如何开通视频直播服务,包括账户实名认证、按需计费模式的开通步骤。 前提条件 已注册天翼云官网账号。如未注册,请参见:注册天翼云账号进行注册。 未实名认证的用户完成实名认证后才能开通视频直播服务。确认账号是否已实名认证,详情请参见:实名认证。 购买视频直播按需产品之前请确保您的账户余额大于100元。 计费模式 视频直播支持按需计费和资源包计费(预付费)两种方式,其中资源包仅支持流量包。 按需计费购买流程 您可以参考以下步骤开通按需计费模式的视频直播服务: 1. 进入视频直播详情页快速了解产品,并单击【立即开通】。 2. 在购买页面勾选需要开通的区域并选择合适的【计费方式】。直播转码/录制/截图/审核/高性能网络等增值服务默认不开启。如需使用增值服务,您可以单击对应增值服务按钮进行开启。 注意 视频直播服务一旦开通成功,有效期到期前无需且不支持重复开通。 暂不支持单独开通“全球(不含中国内地)”的视频直播加速业务。即您可以只开通“中国内地”加速区域,或同时开通“中国内地”和“全球(不含中国内地)”。 直播增值服务直播转码/录制/截图/审核仅支持中国内地开通使用,全球(不含中国内地)暂不支持。 高性能网络目前仅支持全球(不含中国内地)开通使用,中国内地暂不支持。 3. 视频直播业务开通后,页面会显示【提交成功】,单击【跳转到直播控制台】,即可进入直播控制台添加需要加速的域名,详情请参见:添加加速域名。
        来自:
        帮助文档
        视频直播
        订购说明
        开通视频直播服务
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 存储过程与函数不能同名
        本页介绍天翼云TeleDB数据库创建一个与函数同名的存储过程的错误提示和替换方案。 如创建一个与函数同名的存储过程会提示function xxx already exists with same argument types。 plaintext teledb CREATE OR REPLACE FUNCTION proc1() RETURNS void AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; CREATE FUNCTION teledb CREATE PROCEDURE proc1() AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; ERROR: function "proc1" already exists with same argument types teledb 如果要替换,则提示。 plaintext teledb CREATE OR REPLACE PROCEDURE proc1() AS $$ begin raise notice 'Hello teledbpg'; end; $$ LANGUAGE PLPGSQL; ERROR: cannot change routine kind DETAIL: "proc1" is a function. teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        开发手册
        存储过程开发
        存储过程语法介绍
        存储过程与函数不能同名
      • 修改单个节点上参数
        本页介绍天翼云TeleDB数据库如何修改单个节点上参数。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击参数管理。 2. 在数据库参数 页签,在下拉框选择对应的节点、IP和端口、在搜索框中输入配置项搜索 需修改的参数,单击查询, 查找要修改的目标节点。 3. 在查找出的参数行,单击编辑 按钮,出现编辑配置项 对话框。 4. 将修改值根据自己的需求设置为需调整后的参数,单击确定, 出现提示 对话框。 5. 您可单击立即前往 查看任务详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        参数管理
        修改单个节点上参数
      • 续订集群
        本文向您介绍息壤智算集群续订,帮助您了解息壤智算集群的基本情况。 续订集群即对于未选择自动续订的资源,将集群控制面云主机及ELB资源进行整体续订。 使用前提 当前用户是主账号。 操作步骤 1. 登录公共算力服务控制台,单击左侧导航栏中的“息壤智算集群”,进入集群列表页。 2. 单击列表页中集群名称,进入集群详情页面,选择“集群控制面实例”栏。 3. 查看当前集群管理面的云主机和负载均衡的信息。点击“续订”按钮进入订单续订管理页面,根据集群ID进行续订。续订时请务必保证云主机和弹性负载均衡实例一同续订,以防集群不能正常使用。
        来自:
        帮助文档
        公共算力服务
        用户指南
        通用计算
        息壤智算集群
        续订集群
      • 工作流设计器
        CloudFlow Studio编辑页 当在顶部菜单栏 选中CloudFlow Studio 按钮时, 在工作流编辑区即可出现状态浏览器 、流程画布区 以及参数配置区方便用户对工作流流程进行可视化编排。 状态浏览区 操作tab 包含集成优化后的常用操作 以及包含网络与CDN、计算、存储、容器与中间件、数据库以及人工智能在内的天翼云云产品的OpenAPI列表;状态浏览器顶部的搜索栏可进行模糊搜索API, 即可展示匹配到的API列表。可以将操作tab 、流程tab下 所需状态节点拖拽到流程画布区。 目前常用操作中集成优化后的包含函数调用(InvokeFunction)、工作流执行(ExecuteWorkflow)、Http请求、发送信息(SendMsg)、CheckObject、LLMTextGeneration等。其中SendMsg支持基于webhook发送信息到飞书、企业微信、钉钉。CheckObject支持检查目标对象存储object是否存在并生成临时共享下载链接方便用户在任务中使用。LLMTextGeneration可以调用天翼云息壤和阿里云百炼平台支持的部分比较流行的开源通用大模型。 流程画布区 选择状态浏览区 的Operation类状态或流程控制类状态并拖曳至右侧的画布,待出现一条横线或竖线时放开鼠标,将其放至所需位置,编排和定制完全符合用户业务的流程图。生成流程图的同时将自动生成工作流流程定义,无需手动编写。 拖拽放入流程画布区前状态 拖拽放入流程画布区后状态 另外, 还可以点击流程画布区左上角的功能按钮进行撤销上一步动作、删除选中的状态节点、缩放画布、居中流程图等操作。
        来自:
        帮助文档
        函数计算
        用户指南
        云工作流
        控制台操作
        工作流设计器
      • 步骤一:安装AD域服务器
        本文以Windows Server 2012云主机为例介绍搭建AD域中如何安装AD域服务器。 准备工作 创建2台Windows云主机,且两台云主机需归属于相同VPC。一台作为AD域控制器,一台作为AD域客户端。本文以两台Windows Server 2012云主机为例进行说明。 操作步骤 1. 登录Windows云主机,搜索“服务管理器”并打开,点击“添加角色和功能”。 2. 在弹窗中选择下一步。 3. 选择“基于角色和基于功能的安装”,点击“下一步”。 4. 选择“从服务器池中选择服务器”并点击“下一步”。 5. 选择“Active Directory域服务”。 6. 点击“添加功能”,选择“继续点击“下一步”。 7. 选择“Active Directory域服务”并点击“下一步”。 8. 选择“下一步”。 9. 继续选择“下一步”。 10. 勾选“如果需要,自动重新启动目标服务器”,点击“安装”。在弹窗中选择“是”,允许自动重新启动。 11. 点击“安装”,安装成功之后,点击“关闭”。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        AD域
        搭建AD域
        步骤一:安装AD域服务器
      • 创建中转子网和中转IP
        本文主要介绍创建中转子网和中转IP 操作场景 私网NAT网关创建成功后,您需要创建中转子网与中转IP。 通过创建中转子网与中转IP,使虚拟私有云内多个云主机可以共享中转IP访问用户本地数据中心(IDC)或其他虚拟私有云,或面向私网提供服务。 前提条件 中转VPC已创建成功。 云专线接入的用户,云专线的虚拟网关中,“VPC网段”参数建议设置为"0.0.0.0/0"。 操作步骤 1. 登录管理控制台。 2. 在系统首页,单击“网络 > NAT网关”。进入NAT网关页面。 3. 在NAT网关页面,单击“NAT网关> 私网NAT网关”。 4. 在“中转子网”页签中,单击“创建中转子网”。 5. 根据界面提示,配置中转子网参数,详情请参见下表。 表 中转子网参数说明 参数 说明 名称 中转子网名称。最大支持64个字符,仅支持中文、数字、字母、(下划线)、(中划线)。 该参数为必填项。 虚拟私有云 中转子网所属的VPC。该参数为选填项。 子网 中转子网所在子网。该参数为选填项。 描述 中转子网信息描述。最大支持255个字符。该参数为选填项。 6. 单击“确定”,完成中转子网创建。 7. 单击目标中转子网名称。进入中转子网详情页。 8. 单击“创建中转IP”,根据界面提示,配置中转IP参数。 表 中转IP参数说明 参数 说明 分配方式 中转IP的分配方式。 自动分配 手动分配 IP地址 分配方式为手动分配时,需要填写。此IP地址需包含在中转子网网段内。 9. 单击“确定”,完成中转IP创建。
        来自:
        帮助文档
        NAT网关
        用户指南
        私网NAT网关
        创建中转子网和中转IP
      • 产品简介
        本节介绍iVPN app产品简介。 功能介绍 iVPN app产品与AI云电脑客户端集成,提供一键加密接入AI云电脑的能力,适合小微用户入云、居家办公、移动办公等场景,支持Windows和Linux系统,可用于瘦终端、PC等。 使用限制 适用于Windows2.4和Linux2.5及以上版本AI云电脑客户端(暂不支持Windows32位)。 iVPN app入云场景说明 客户办公区AI云电脑客户端通过iVPN app实例实现加密接入资源池A VPC下的AI云电脑。 iVPN app开通使用步骤 (1)创建iVPN app实例 (2)设置iVPN app实例带宽 (3)AI云电脑客户端通过iVPN app接入AI云电脑 详细步骤请参考下面对应的小节。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        企业云网管理
        iVPN app
        产品简介
      • 使用限制
        限制项 说明 非托管控制面 当前应用服务网格CSM采用非托管控制面,需要您提前开通专有版云容器引擎集群,用于部署控制面服务。 控制面云容器引擎资源需求 部署网格控制面的集群至少预留2C4G资源。
        来自:
        帮助文档
        应用服务网格
        产品简介
        使用限制
      • 产品规格
        N100规格 功能 高级版 防护互联网边界的流量峰值(不可扩展) 100Mbps 200Mbps 2Gbps IPSec VPN 吞吐量上限 100Mbps 200Mbps 500Mbps IPSec VPN 吞吐量上限 说明 IPSec VPN吞吐量是指防火墙在执行IPSec加解密处理时,单位时间内能够转发的最大数据量,由于VPN流量需要经过加密封装、完整性校验、隧道封装等一系列处理,相比普通防火墙转发会消耗更多的计算资源,因此IPSec VPN吞吐量通常低于防火墙的明文转发吞吐量。在极端场景下,由于所有流量可能被哈希到同一队列,实际吞吐量可能降至标称值的30%~50%左右。随着VPN隧道数量增加、会话多样性提升,流量在多队列间的分布会逐步趋于均衡,实际性能也随之接近标称值。 每秒数据包处理能力 200000 PPS 400000 PPS 2500000 PPS 防护互联网边界公网IP数 10个 说明 云防火墙(原生版)N100型号能够防护的弹性IP数量,一定程度上取决于防火墙的承载云主机能够绑定的虚拟IP数量,详情请参考虚拟私有云虚拟IP虚拟IP概述。 互联网边界访问控制 支持策略数:4000 支持策略数:6000 支持策略数:20000 VPC 间防火墙 ✓ ✓ ✓ 防病毒(AntiVirus) ✓ ✓ ✓ 入侵防御(IPS) ✓ ✓ ✓ 日志审计 ✓ ✓ ✓ 注意 N100规格已不再支持QOS带宽管理功能,如需要可购买[云等保专区—下一代防火墙v2.0](
        来自:
        帮助文档
        云防火墙(原生版)
        产品介绍
        产品规格
      • 寒武纪计算加速型云主机
        寒武纪系列为国产AI加速卡,本节为您介绍寒武纪计算加速型云主机的相关规格,目前在广州6资源池上线。 PCH1型云主机 PCH1型寒武纪计算加速型云主机采用专为AI推理打造的MLU370S4加速卡,国产X86架构海光CPU,独享宿主机的CPU资源,实例间无CPU争抢,没有进行资源超配,属于计算加速型(直通)规格,云主机的CPU/内存配比为1:4,可广泛支持视觉、语音、自然语言处理等高度多样化的人工智能应用,帮助AI推理平台实现超高密度。 规格特点 规格名称 CPU型号 AI加速卡型号 AI加速卡数量 单卡性能 磁盘类型 寒武纪计算加速型PCH1 海光 7285(主频2.0GHz) MLU370S4 1、2、3、4 72 TFLOPS半精度浮点计算 192 TOPS INT8计算 普通IO 高IO 通用型SSD 超高IO 规格 系列 CPU 内存 GPU显卡类型 显存 最大带宽/基准带宽(Gbit/s) 网络收发包(万PPS) 多队列 pch1.4xlarge.4 16 64 Cambricon MLU370 s4 124G 18/11.5 200 8 pch1.6xlarge.4 24 96 Cambricon MLU370 s4 124G 18/11.5 200 8 pch1.9xlarge.4 36 144 Cambricon MLU370 s4 224G 30/22.5 400 16 pch1.12xlarge.4 48 192 Cambricon MLU370 s4 324G 30/22.5 400 16 pch1.21xlarge.3 84 252 Cambricon MLU370 s4 424G 47/45 800 32
        来自:
        帮助文档
        GPU云主机
        产品简介
        产品规格
        国产AI加速云主机
        寒武纪计算加速型云主机
      • 创建路由表关联转发
        本文为您介绍路由表关联转发的操作流程。 操作步骤 1. 登录控制中心。 2. 登录云间高速(标准版)管理控制台,并在左侧菜单列表中选择“云间高速(标准版)”。 3. 单击目标云间高速实例名称(或单击目标云间高速实例操作列的“管理”),进入目标实例详情页面。 4. 在云间高速实例详情页面,在“云企业路由器管理 ”页签,单击目标云企业路由器实例名称(或者单击操作列的“配置”),进入云企业路由器详情页面。 5. 在云企业路由器详情页面,单击“路由管理”页签,在页签左侧区域单击目标的路由表。 6. 在页签右侧区域,点击“关联转发”,进入关联转发页签。 7. 在关联转发页签中,单击“创建关联转发”,进入创建关联转发弹窗页面。 8. 在创建关联转发弹窗页面,根据提示填写参数,单击“确定”,完成目标网络实例与当前路由表的关联。 参数 说明 网络实例类型 选择目标网络实例类型 网络实例 选择需要关联的具体的网络实例 说明 每个网络实例只能关联一个路由表,如果需要关联新的路由表需要先在原路由表中删除关联。
        来自:
        帮助文档
        云间高速(标准版)EC
        用户指南
        路由配置
        关联转发
        创建路由表关联转发
      • 1
      • ...
      • 289
      • 290
      • 291
      • 292
      • 293
      • ...
      • 533
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      模型推理服务

      智算一体机

      人脸检测

      人脸属性识别

      推荐文档

      文档下载

      恢复文件和文件夹备份

      策略管理

      玩转天翼云③:centos6和7通过snat实现上网

      卸载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号