云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      等保咨询_相关内容
      • 数据脱敏与水印(1)
        数据脱敏与水印常见问题请参见:数据安全专区常见问题。
        来自:
      • 主机安全v2.0
        主机安全v2.0常见问题请参见服务器安全卫士(原生版)常见问题。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        主机安全
        主机安全v2.0
      • 堡垒机v2.0
        堡垒机v2.0常见问题请参见云堡垒机(原生版)常见问题。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        堡垒机
        堡垒机v2.0
      • 新建对账作业
        本章节主要介绍新建对账作业操作。 数据对账对于数据开发和数据迁移流程中的数据一致性至关重要,而跨源数据对账的能力是检验数据迁移或数据加工前后是否一致的关键指标。 数据质量监控中的对账作业支持跨源数据对账能力,可将创建的规则应用到两张表中进行质量监控,并输出对账结果。 前提条件 在DataArts Studio控制台的数据质量模块,“数据质量监控 > 对账作业”页面创建归属目录。基于某个数据连接创建对账作业,需要选择作业归属目录,请参见下图创建归属目录。 下表是目录导航栏按键说明 序号 说明 1 新建目录 2 刷新目录 3 选择目录,单击右键,可新建目录、删除目录和对目录重命名。 创建作业 1.在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据质量”模块,进入数据质量页面。 2.选择“数据质量监控 > 对账作业”。 3.单击“新建”,在弹出的对话框中,参见下表配置相关参数。 参数名 说明 作业名称 对账作业的名称,只能包含中文、英文字母、数字、“”,且长度为1~64个字符。 描述 为更好的识别数据对账作业 ,此处加以描述信息。描述信息长度不能超过256个字符。 所属目录 数据对账作业的存储目录,可选择已创建的目录。 作业级别 支持提示,一般,严重和致命四种级别,作业级别决定发出通知消息的模板样式。 4.单击“下一步”,进入规则配置页面。您需要点击规则下图中红框内按钮,然后参见以下表“配置模板规则”配置数据对账规则。您也可选择添加对账规则。 打开对账作业规则配置 配置模板规则 模块 参数名 说明 基本信息 子作业名称 在作业的执行结果中,每条规则对应一个子作业。为便于结果查看和日志定位,建议您补充子作业信息。 基本信息 描述 为更好的识别子作业,此处加以描述信息。 来源对象/目的对象 规则类型 来源对象的“规则类型”包括“表级规则”,“字段级规则”和“自定义规则”。字段级规则可针对表中的具体字段配置监控规则。此处选择为表级规则,页面中其他设置项对应为表级规则配置项。 目的对象的“规则类型”由来源对象的规则类型自动生成。 来源对象/目的对象 数据连接 来源对象/目的对象支持的数据源类型:DWS,MRS Hive,DLI,ORACLE、RDS(MySQL、PostgreSQL)。 从下拉列表中选择已创建的数据连接。 说明 规则都是基于数据连接的,所以在建立数据质量规则之前需要先到管理中心模块中建立数据连接。 针对通过代理连接的MRS HIVE,需要选择MRS API方式或者代理方式提交: MRS API方式:通过MRS API的方式提交。历史作业默认是MRS API提交,编辑作业时建议不修改。 代理方式:通过用户名、密码访问的方式提交。新建作业建议选择代理提交,可以避免权限问题导致的作业提交失败。 来源对象/目的对象 数据对象 在来源对象选择的数据表将和右侧目的对象的数据表做结果比较。选择配置的数据对账规则所应用到的表。 说明 数据表与数据库强相关,基于已选择的数据库。数据库基于已建立的数据连接。 来源对象/目的对象 SQL 当“规则类型”选择“自定义规则”时,需要配置该参数。此处需输入完整的SQL语句,定义如何对数据对象进行数据质量监控。 计算引擎 集群名称 选择运行对账作业的引擎。仅数据连接为DLI类型时,此参数有效。 规则模板 模板名称 该参数定义如何对数据对象做数据质量监控。 来源对象的模板名称包含内置的规则模板和用户自定义的规则模板。 目的对象的“模板名称”由来源对象的规则类型自动生成。 说明 模板类型与规则类型强相关,详情请参见新建规则模板章节中的 系统内置的规则模板一览表。除去系统内置规则模板外,您也可关联在新建规则模板中新建的自定义模板。 规则模板 版本 仅“模板名称”选择为自定义的规则模板时,需要配置该参数。自定义的规则模板发布后,会产生对应的版本号,此处选择所需的版本。 计算范围 选择扫描区域 支持选择“全表扫描”或“条件扫描”,默认为全表扫描。 当仅需计算一部分数据,或需周期性按时间戳运行质量作业时,建议通过设置where条件进行条件扫描。 计算范围 where条件 输入where子句,系统会选择符合条件的数据进行扫描。 例如需要筛选数据表中“age”字段在(18, 60]区间范围内的数据时,where条件可设置为如下内容: age > 18 and age (datetrunc('hour', now()) interval '24 h') and time :大于 :大于等于 :大于 :大于等于 <:小于等于 !:非 ll:或 &&:与 例如,“规则模板”为“表行数”,需要配置来源侧表行数小于100或来源侧表行数不等于目的侧表行数时告警,则此处可设置为“(${11}<100)(${11}!${21})”,其中“${11}”和“${21}”分别为通过告警参数配置的来源侧表和目的侧表的“总行数”,“”表示满足两个条件之一即会告警。 5.单击“下一步”,设置订阅配置信息,如果需要接收SMN通知,打开通知状态,选择通知类型和SMN服务主体,如下图。 订阅配置 6.单击“下一步”,选择调度方式,支持单次调度和周期调度两种方式,周期调度的相关参数配置请参见下表“配置周期调度参数”。配置完成后单击“提交”。 说明 1. 单次调度会产生手动任务的实例,手动任务的特点是没有调度依赖,只需要手动触发即可。 2. 周期调度会产生周期实例,周期实例是周期任务达到启用调度所配置的周期性运行时间时,被自动调度起来的实例快照。 3. 周期任务每调度一次,便生成一个实例工作流。您可以对已调度起的实例任务进行日常的运维管理,如查看运行状态,对任务进行终止、重跑等操作。 4. 只有支持委托提交作业的MRS集群,才支持对账作业周期调度。支持委托方式提交作业的MRS集群有: MRS的非安全集群。 MRS的安全集群,集群版本大于 2.1.0,并且安装了MRS 2.1.0.1以上的补丁。 配置周期调度参数 参数名 说明 生效日期 调度任务的生效日期。 调度周期 选择调度任务的执行周期,并配置相关参数。 分钟 小时 天 周 说明 调度周期选择分钟/小时,需配置调度的开始时间、间隔时间和结束时间。 调度周期选择天,需要配置调度时间,即确定了调度任务于每天的几时几分启用。 调度周期选择周,需要配置生效时间和调度时间,即确定了调度任务于周几的几时几分启用。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据质量
        数据质量监控
        新建对账作业
      • 状态码
        本产品接口请求的返回状态码列表,包含正常和异常状态码、状态码对应状态信息、描述等。 状态码 错误码 返回信息 含义 200 0 成功 成功操作 400 KMS.0101 参数缺失 所传参数缺失 400 KMS.0102 CmkUuid cannot be empty 主密钥id不能为空 400 KMS.0103 AliasName cannot be empty 别名不能为空 400 KMS.0104 Digest cannot be empty 待签名值不能为空 400 KMS.0105 KeyVersionId cannot be empty 请选择主密钥版本 400 KMS.0106 Sign algorithm cannot be empty 请选择签名算法 400 KMS.0107 Plaintext can notbe empty 请输入需要加密的明文 400 KMS.0108 Ciphertextblob cannot be empty 请输入待解密密文 400 KMS.0109 Reencrypt cmkuuid cannot be empty 请选择转加密主密钥 400 KMS.0110 Asymmetric encrypt need sourceuuid 非对称加密需选择密文对应的主密钥id 400 KMS.0111 Asymmetric encrypt need sourceKeyVersion 非对称加密需选择密文对应的主密钥版本 400 KMS.0112 DestinationUuid cannot be empty 转加密主密钥不能为空 400 KMS.0113 Protectionlevel cannot be empty 保护等级不可为空 400 KMS.0114 Algorithm cannot be empty 加密算法不能为空 400 KMS.0115 Regionid cannot be empty 资源池id不能为空 400 KMS.0116 Enableautoatocrotatiom cannot be empty 请选择是否进行密钥轮转 400 KMS.0117 Keyusage can not be empty 请选择密钥用途 400 KMS.0118 Rotationinterval cannot be empty 请选择密钥轮转周期 400 KMS.0119 Nextrotationdate is empty 下次轮转时间为空 400 KMS.0120 Algorithm for import cannot be empty 选择导入密钥加密算法 400 KMS.0121 KeySpec for publickey cannot be empty 选择公钥类型 400 KMS.0122 Pendingwindowindays cannot be empty 选择延迟删除时间 400 KMS.0123 Token cannot be empty token为空 400 KMS.0124 Encryptenkeymeterial cannot be empty 密钥材料不能为空 400 KMS.0125 Sign value cannot be empty 请输入签名值 400 KMS.0126 Keyspec cannot be empty 加密算法不能为空 400 KMS.0127 Userid cannot be empty 用戶id不能为空 400 KMS.0128 Request JSON format is illegal 请求JSON格式非法 400 KMS.0129 The request message is too long 请求消息太长 400 KMS.0130 The page size is too large 单页数据过多 400 KMS.0131 The public blob can not be empty 公钥不能为空 400 KMS.0132 AliasName is too long 别名长度过长 400 KMS.0133 AliasName is not legal 别名不合法 400 KMS.0134 Wrappingalgorithm cannot be empty 算法不能为空 400 KMS.0135 Product cannot be empty 产品不能为空 400 KMS.0136 Product is not exist 产品不存在 400 KMS.0137 Messagetype is wrong 消息格式错误 400 KMS.0138 The certificate id is wrong 证书ID错误 400 KMS.0139 Certificate does not match certificate chain 证书与证书链不匹配 400 KMS.0140 Certificate format error 证书格式错误 400 KMS.0141 Certificate algorithm not supported 证书算法不支持 400 KMS.0142 The privatekey of the certificate cannot be exported 证书私钥不可导出 400 KMS.0143 The cert is not availible 证书不存在 400 KMS.0144 The formate of cert export is wrong 导出证书格式错误 400 KMS.0201 Alias already exists 別名已存在 400 KMS.0202 The default CMK cannot create an alias 默认主密钥不能创建别名 400 KMS.0203 The selection CMK is not available 选择主密钥不可用 400 KMS.0204 The selected CMK is not available for signature and verification 选择的主密钥不可用于签名验签名 400 KMS.0205 The selected CMK is not available for encryption and decryption 选择的主密钥不可用于加密解密 400 KMS.0206 The CMK is disabled 密钥不是可用状态 400 KMS.0207 The CMK cannot be enabled 密钥不可启用 400 KMS.0208 The Cmk has deletion task 密钥已有删除计划 400 KMS.0209 The CMK has no deletion task 密钥无删除计划 400 KMS.0210 The CMK cannot be imported 密钥不可导入 400 KMS.0211 The CMK does not support automatic rotation 该密钥不支持自动轮转 400 KMS.0212 The selection algorithm is not supported 选择算法不支持 400 KMS.0213 The CMK is not a symmetric key 密钥不是对称密钥 400 KMS.0214 The CMK is not a asymmetric key 密钥不是非对称密钥 400 KMS.0215 Wrong algorithm format 算法格式错误 400 KMS.0216 Wrong keyusage type 密钥用途类型错误 400 KMS.0217 Wrong input of parameter format! Please enter true / false 参数格式输入有误!请输入true/false 400 KMS.0218 Wrong protectionlevel 保护等级错误 400 KMS.0219 Wrong ciphertext 密文有误 400 KMS.0220 Key length input error,this algorithm only supports AES256 密钥长度输入错误,该算法仅支持AES256 400 KMS.0221 Key length input error,this algorithm only supports SM4128 密钥长度输入错误,该算法仅支持SM4128 400 KMS.0222 Key length input error,this algorithm only supports RSA2048 密钥长度输入错误,该算法仅支持RSA2048 400 KMS.0223 This algorithm only supports AES/SM4 目前仅支持AES/SM4算法 400 KMS.0224 Wrong rotationlevel format 轮转周期格式不合法 400 KMS.0225 Asymmetric CMK cannot be imported 非对称密钥不可导入 400 KMS.0226 Wrong pendingwindowindays format 删除时间不合法 400 KMS.0227 Unsupported keyspec 不支持的密钥类型 400 KMS.0228 The number of the CMK rotation of the user has reached the upper limit 该用户密钥轮转次数已达上限! 400 KMS.0229 Failed to execute key rotation. The key has been rotated within 7 days! 执行密钥轮转失败,该密钥7天内已执行过轮转! 400 KMS.0230 The current CMK is in the state of pause rotation. Please enable the master key or cancel the plan deletion before operation! 当前密钥处于暂停轮转状态,请启用主密钥或取消计划删除后再操作 400 KMS.0231 PageSize exceeds threshold pagesize超过阈值 400 KMS.0232 Symmetric key can not use to sign or verify 对称密钥不能用于签名验签 400 KMS.0233 This key cannot operation alias 密钥不能操作别名 400 KMS.0234 Default key cannot delete alias 默认密钥不能删除别名 400 KMS.0235 WRONG time format 时间格式错误 400 KMS.0236 Wrong algorithm for import 导入密钥算法错误 400 KMS.0237 Wrong keyspec for import 算法格式错误 400 KMS.0238 The number of asymmetric keys in a region cannot be greater than 50 非对称密钥不能超过50个 400 KMS.0239 Key decryption failed 密钥解密失败 400 KMS.0240 Cmkuuid is not legal cmkuuid不合法 400 KMS.0241 Cmk length is wrong 对称密钥长度不合法 400 KMS.0242 Origin type wrong 密钥类型格式错误 400 KMS.0243 The default CMK cannot update an alias 默认主密钥不能创建别名 400 KMS.0244 The destinationKeyId is not a symmetric key 转加密密钥不是对称密钥 400 KMS.0245 The Meterial for import is already exist 密钥材料已经存在 400 KMS.0246 destinationKeyId cannot use ID无法使用 400 KMS.0247 Data key ciphertext wrong 数据密钥密文错误 400 KMS.0248 The cmk already has a meterial 该密钥已导入 400 KMS.0249 The length of plaintext exceeds the limit 加密数据长度超过限制 400 KMS.0250 Asymmetric CMK cannot create datakey 非对称主密钥不能创建数据密钥 400 KMS.0251 Only support RSA cmk 只支持RSA类型的密钥 400 KMS.0252 Plaintext need to be base64 非对称密钥加密解密的明文需要base64 400 KMS.0253 KeySpec cannot be empty 密钥类型不能为空 400 KMS0254 Subject cannot be empty 证书主体不能为空 400 KMS0255 certificateId cannot be empty 证书id不能为空 400 KMS0256 status cannot be empty 证书状态不能为空 400 KMS0257 the certificate has not been imported 证书未导入 400 KMS0258 the certificate has been active 证书已被启用 400 KMS0259 the certificate has been revoked 证书已被吊销 400 KMS0260 the certificate has been inactive 证书已被禁用 404 KMS.0301 The CMK does not exist or has been deleted 密钥不存在或已删除 404 KMS.0302 The target CMK does not exist 目标主密钥不存在 404 KMS.0303 The target alias does not exist 目标别名不存在 404 KMS.0304 The target CMK does not exist or in illegal status 目标主密钥不存在或状态不合法 404 KMS.0305 The destination cmk does not exist or has been deleted 密钥不存在或已删除 404 KMS.0306 The cmk is not enable 密钥不存在或已删除 404 KMS.0307 DestinationKeyId do not exist DestinationKeyId不存在 404 KMS.0308 The soucekeyid CMK does not exist 密钥不存在 404 KMS.0309 The certificate does not exist or has been deleted 证书不存在或已删除 404 KMS0310 The certificate hsa been deleted 证书已被删除 401 KMS.0401 Token validation failed token验证失败 401 KMS.0402 Sign wrong AKSK签名错误 401 KMS.0403 Time format wrong 时间格式错误 401 KMS.0404 Out of time 超时 401 KMS.0405 You cannot visit the url 无法访问 401 KMS.0406 User is freeze 用户被冻结 401 kms.0407 Interface counter exceeded 接口达到访问次数 500 KMS.0501 There are no rotation tasks to be performed 没有待执行的轮转任务 500 KMS.0502 Failed to delete alias 刪除别名失败 500 KMS.0503 Key initialization failed 密钥初始化失败 500 KMS.0504 Key decryption failed 密钥解密失败 500 KMS.0505 HSM failed to create user key 密码机创建用户密钥失败 500 KMS.0506 Failed to create delay delete task 创建延时删除任务失败 500 KMS.0507 Failed to send MQ for rotation task 轮转任务发送mq失败 500 KMS.0508 Delay delete task sending MQ failed 延时删除任务发送mq失败 500 KMS.0509 Failed to send MQ for delete key material task 删除密钥材料任务发送mq失败 500 KMS.0510 Failed to create default CMK 创建默认主密钥失败 500 KMS.0511 Failed to get random key 获取随机密钥失败 500 KMS.0512 Failed to create data key 创建数据密钥失败 500 KMS.0513 Data key decryption failed 数据密钥解密失败 500 KMS.0514 CMK encryption failed 用戶主密钥加密失败 500 KMS.0515 Failed to create CMK 创建用户密钥失败 500 KMS.0516 Key rotation failed! 执行密钥轮转失败 500 KMS.0517 Failed to execute key rotation policy 执行密钥轮转策略失败 500 KMS.0518 Failed to update key description 更新密钥轮转策略失败
        来自:
        帮助文档
        密钥管理
        API参考(OpenAPI)
        调用前必知
        状态码
      • 任务管理
        本章主要介绍如何通过配置元数据采集策略新建采集任务,不同类型的数据源对应的采集策略不尽相同。元数据管理依据采集任务的配置策略,采集对应的技术元数据信息。 前提条件 元数据采集支持丰富的数据源类型,对于DWS、DLI、MRS HBase、MRS Hive、RDS(MySQL)、RDS(PostgreSQL)和ORACLE类型的数据源,首先需要在管理中心创建数据连接。 新增采集任务 1. 在DataArts Studio控制台首页,选择实例,点击“进入控制台”,选择对应工作空间的“数据目录”模块,进入数据目录页面。 选择数据目录 2. 选择“元数据采集 > 任务管理”。 3. 选择采集任务所归属的目录。如果未新建目录请参见下图创建进行。 4. 单击页面上方“新建”或者右键单击任务菜单,单击“新增任务”,在弹出的对话框中,配置相关参数,新建采集任务。 新建任务有如下图所示的两个入口。 a.配置基本参数。 基本配置说明 参数名 说明 任务名称 采集任务的名称,只能包含中文、英文字母、数字和下划线,且长度不能超过62个字符。 描述 为更好的识别采集任务,此处加以描述信息。描述信息长度不能超过255个字符。 选择目录 采集任务的存储目录,可选择已创建的目录。目录创建请参见下图。 目录创建 b.配置数据源信息、 数据源信息参数说明 参数名 说明 数据源类型 从下拉列表中选择数据源类型。 说明 元数据采集支持丰富的数据源类型,对于DWS、DLI、MRS HBase、MRS Hive、RDS(MySQL)、RDS(PostgreSQL)和ORACLE类型的数据源,首先需要在管理中心创建数据连接。 OBS桶 选择待采集数据归属的OBS桶,仅数据源类型为OBS时,呈现此参数。 数据连接 所选数据连接类型中已创建数据连接,支持从下拉列表中选择。 所选数据连接类型中未创建数据连接,请单击“新建”,创建新的数据连接。 OBS路径 选择待采集数据在OBS桶中的存储路径,仅数据源类型为OBS时,呈现此参数。 采集范围 选择待采集数据的采集范围,仅数据源类型为OBS时,呈现此参数,原因是obs桶中是分目录层级的。 选择“当前文件夹”,采集任务仅采集obs路径中设置的文件夹下的对象。 选择“当前文件夹和所有子文件夹”,采集任务会采集obs路径中设置的文件夹下所有的对象,包括其子文件夹下的对象 采集内容 选择待采集数据的采集内容,仅数据源类型为OBS时,呈现此参数,原因是obs桶中是分目录层级的。 选择“文件夹和对象”,采集任务采集文件夹和对象。 选择“ 文件夹”,采集任务仅采集文件夹。 数据库和schema 仅数据源类型为DWS时,呈现此参数。 单击数据库和schema后的“设置”,设置采集任务扫描的数据库和schema范围。当不进行设置时,默认选择该数据连接下的所有数据库和schema。 单击“清除”,可对已选择的数据库和schema进行修改。 命名空间 仅数据源类型为MRS HBase时,呈现此参数。 单击命名空间后的“设置”,设置采集任务扫描的命名空间范围。当不进行设置时,默认选择该数据连接下的所有命名空间 。 单击“清除”,可对已选择的命名空间进行修改。 数据库 数据表 呈现待采集的数据库和数据表。 单击数据库后的“设置”,设置采集任务扫描的数据库范围。当不进行设置时,默认选择该数据连接下的所有数据库 。 单击数据表后的“设置”,设置采集任务扫描的数据表范围。当不进行设置时,默认选择数据库下的所有数据表。针对数据连接类型为Mysql、Oracle和DLI的数据表,支持按照正则表达式过滤需要采集的表。 当数据库和数据表均不设置时,则采集任务扫描的数据范围为该数据连接下的所有数据表。 单击“清除”,可对已选择的数据库和数据表进行修改。 选择图 仅数据源类型为GES时,呈现此参数。 选择存储了以“关系”为基础的结构数据的图。 选择集群 仅数据源类型为CSS时,呈现此参数。 选择待采集数据存储的CSS集群。 您也可以单击“新建”,创建CSS集群,创建完成后单击“刷新”,选择新建的CSS集群即可。 绑定Agent 管理CloudTable/GES/CSS类型的数据连接,请选择CDM集群提供的Agent。 用户也可以单击“新建”,创建新的Agent,创建完成后单击“刷新”,选择新的Agent即可。 索引 仅数据源类型为CSS时,呈现此参数。 用于存储Elasticsearch的数据,类似关系型数据库的Database。是一个或多个分片分组在一起的逻辑空间。 c.元数据采集参数配置 元数据采集参数说明 参数名 说明 数据源元数据已更新 当数据连接中元数据发生变化时,通过配置更新策略,设置数据目录中元数据的更新方式。 需要注意的是配置的更新、删除策略是作用在用户配置的数据库、数据表的范围内的。 勾选“仅更新数据目录中的元数据”:采集任务仅更新数据目录已经采集到的元数据。 勾选“仅添加新元数据”:采集任务仅采集数据源中存在,但是数据目录中不存在的元数据。 勾选“更新数据目录中的元数据、添加新元数据”:采集任务全量同步数据源中的元数据。 勾选“忽略更新、添加操作”:不采集数据源中的元数据。 数据源元数据已删除 当数据连接中元数据发生变化时,通过配置删除策略,设置数据目录中元数据的更新方式。 勾选“从数据目录中删除元数据”:当数据源中的某些元数据已经被删除,数据目录中也将同步删除对应的元数据。 勾选“忽略删除”:当数据源中的某些元数据已经被删除,数据目录中不同步删除对应元数据。 d.勾选数据概要时的参数配置。 数据概要参数说明 参数名 说明 基于全量数据 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较少(100W以下)的情况。 基于采样数据,采样数量为x条 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较多的情况。 基于全量数据,随机取x%的数据 基于已采集的全量数据在数据目录中生成数据概要。 适用于数据量较多的情况。 DLI队列 选择获取profile数据,执行DLI SQL用的队列。 勾选“采集唯一值”表示只统计已采集的表中的唯一值的个数,并在数据目录中的概要页签呈现。 数据格式 当存储在OBS桶中的数据为CSV格式,请依据数据的实际属性进行勾选是否有表头,是否自定义分隔符,是否自定义引用字符,是否自定义转义字符。 日期格式 当存储在OBS桶中的数据为CSV格式,请依据实际属性配置日期格式,以免影响数据被错误解析。 时间戳格式 当存储在OBS桶中的数据为CSV格式,请依据实际属性配置时间戳格式,以免影响数据被错误解析。 e.数据分类配置说明(仅当数据目录组件中具备数据安全功能时,支持配置该选项;当前暂不支持关联独立数据安全组件中的敏感数据识别规则)。 数据分类:勾选此项参见数据分类新建分类规则组或者选中已有分类规则组,实现自动识别数据并添加分类。 数据分级:勾选“根据数据分类结果更新数据表密级”,表示可根据匹配的分类规则中,将密级最高的设置为表的密级。 数据同步:勾选“手动同步分类结果”,表示“数据目录 > 数据目录 > 列属性”中呈现的数据列,在采集任务执行完毕后,不会自动添加分类和密级属性。需要用户前往“元数据采集 > 任务监控 ”页面,找到任务实例,选择“操作 > 更多 > 扫描结果”,查看采集任务的执行结果,确认分类结果是否匹配。勾选分类匹配字段前的复选框,单击“同步”,即可将分类和密级属性手动同步到资产。 说明 仅DWS、DLI数据源支持创建采集任务时添加数据分类,实现自动识别。另外,只可给数据表的列和OBS对象添加分类。 5. 单击“下一步”,选择调度方式,支持单次调度和周期调度两种方式。单次调度:超时时间表示如果任务运行的时长超过了设置的超时时间,任务会被认定运行失败。 周期调度的相关参数配置请参见下表:配置周期调度参数。 说明 单次调度会产生手动任务的实例,手动任务的特点是没有调度依赖,只需要手动触发即可。 周期调度会产生周期实例,周期实例是周期任务达到启用调度所配置的周期性运行时间时,被自动调度起来的实例快照。 周期任务每调度一次,便生成一个实例工作流。用户可以对已调度起的实例任务进行日常的运维管理,如查看运行状态,对任务进行终止、重跑等操作。 参数名 说明 生效日期 调度任务的生效时间段。 调度周期 选择调度任务的执行周期,并配置相关参数。 分钟 小时 天 周 开始时间 周期调度开始的具体时间,与生效日期中的开始时期配合使用。 间隔时间 两次周期调度之间的间隔时间。 即使上一次调度任务实例未结束,从上次调度开始时间达到间隔时间后,新的调度任务实例也会开始。当前采集任务支持多实例并发运行。 结束时间 周期调度结束的具体时间,与生效日期中的结束时期配合使用。 超时时间 单次任务实例的运行超时时间,如果运行时长超过了此处设置,任务会被认定运行失败。 启动调度 勾选复选框,则表示立即启动此调度任务。 6. 单击“提交”,采集任务创建成功。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据目录
        元数据采集
        任务管理
      • RabbitMqConsumer监控
        本文主要介绍RabbitMqConsumer监控 介绍APM采集的RabbitMqConsumer监控指标的类别、名称、含义等信息。 表 调用接口指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 异常 (exception,RabbitMqConsumer调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常 (exception,RabbitMqConsumer调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常 (exception,RabbitMqConsumer调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常 (exception,RabbitMqConsumer调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常 (exception,RabbitMqConsumer调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) pushConsumeIdentifier identifier 推模式消费标识 ENUM LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) concurrentMax 最大并发 消费消息最大并发 INT MAX 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) errorCount 错误次数 消费消息的错误次数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) invokeCount invokeCount Consume调用次数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) consumedMsgCount consumedMsgCount 消费消息数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) consumedBytes 消费字节数 消费字节数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) maxSingleMsgBytes 单次消费最大字节数 单次消费最大字节数 INT MAX 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) manualAckCount ack消息数 ack消息数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) rejectCount reject消息数 reject消息数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) requeueCount requeue消息数 requeue消息数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) lastError 错误信息 消费消息发生错误产生的错误信息 STRING LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) maxTime 最大响应时间 消费消息的最大响应时间 INT MAX 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) runningCount 正在执行数 采集时间点正在执行的消费消息数量 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) totalTime 总响应时间 消费消息的总响应时间 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range5 110s 响应时间在110s范围请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM 推模式消费维度监控(pushConsume,以推模式为维度统计消息消费详情。) unackedMsgCount 未确认消息数(Channel) 该channel中未确认的消息数 INT LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) connection connection consumer连接信息 ENUM LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) connectionCount 当前连接数 当前连接数 INT LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) channelCount 当前Channel数 当前Channel数 INT LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) connectionCreated 创建连接数 创建连接数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) connectionClosed 销毁连接数 销毁连接数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) channelCreated 创建Channel数 创建Channel数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) channelClosed 销毁Channel数 销毁Channel数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) concurrentMax 最大并发 消费消息最大并发 INT MAX connection监控(connectionConsume,以connection为维度统计消息消费详情。) errorCount 错误次数 消费消息的错误次数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) invokeCount invokeCount Consume调用次数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) consumedMsgCount consumedMsgCount 消费消息数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) consumedBytes 消费字节数 消费字节数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) maxSingleMsgBytes 单次消费最大字节数 单次消费最大字节数 INT MAX connection监控(connectionConsume,以connection为维度统计消息消费详情。) manualAckCount ack消息数 ack消息数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) rejectCount reject消息数 reject消息数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) requeueCount requeue消息数 requeue消息数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) lastError 错误信息 消费消息发生错误产生的错误信息 STRING LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) maxTime 最大响应时间 消费消息的最大响应时间 INT MAX connection监控(connectionConsume,以connection为维度统计消息消费详情。) runningCount 正在执行数 采集时间点正在执行的消费消息数量 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST connection监控(connectionConsume,以connection为维度统计消息消费详情。) totalTime 总响应时间 消费消息的总响应时间 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range5 110s 响应时间在110s范围请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM connection监控(connectionConsume,以connection为维度统计消息消费详情。) unackedMsgCount 未确认消息数 该连接中未确认的消息数 INT LAST total监控(total,以客户端为维度统计消息消费详情。) concurrentMax 最大并发 消费消息最大并发 INT MAX total监控(total,以客户端为维度统计消息消费详情。) errorCount 错误次数 消费消息的错误次数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST total监控(total,以客户端为维度统计消息消费详情。) invokeCount invokeCount Consume调用次数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) consumedMsgCount consumedMsgCount 消费消息数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) consumedBytes 消费字节数 消费字节数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) maxSingleMsgBytes 单次消费最大字节数 单次消费最大字节数 INT MAX total监控(total,以客户端为维度统计消息消费详情。) manualAckCount ack消息数 ack消息数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) rejectCount reject消息数 reject消息数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) requeueCount requeue消息数 requeue消息数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) lastError 错误信息 消费消息发生错误产生的错误信息 STRING LAST total监控(total,以客户端为维度统计消息消费详情。) maxTime 最大响应时间 消费消息的最大响应时间 INT MAX total监控(total,以客户端为维度统计消息消费详情。) runningCount 正在执行数 采集时间点正在执行的消费消息数量 INT SUM total监控(total,以客户端为维度统计消息消费详情。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST total监控(total,以客户端为维度统计消息消费详情。) totalTime 总响应时间 消费消息的总响应时间 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range1 010ms 响应时间在010ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range3 100200ms 响应时间在100200ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range4 2001000ms 响应时间在2001000ms范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range5 110s 响应时间在110s范围请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) range6 10s以上 响应时间在10s以上请求数 INT SUM total监控(total,以客户端为维度统计消息消费详情。) unackedMsgCount 未确认消息数 该客户端中未确认的消息数 INT LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        消息队列
        RabbitMqConsumer监控
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • EsRestClient监控
        本文主要介绍 EsRestClient监控 介绍APM采集的EsRestClient监控指标的类别、名称、含义等信息。 表EsRestClient监控采集参数 参数名 数据类型 应用类型 默认值 Agent支持的起始版本 Agent支持的终止版本 描述 index规整配置 objarray JAVA 2.0.0 通过regex匹配并规整url中符合的index。 表 EsRestClient监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 异常(exception,EsRestClient调用的异常信息统计。) exceptionType 异常类型 异常类型 ENUM LAST 异常(exception,EsRestClient调用的异常信息统计。) causeType 异常类 发生异常的类 ENUM LAST 异常(exception,EsRestClient调用的异常信息统计。) count 次数 该异常的发生次数 INT SUM 异常(exception,EsRestClient调用的异常信息统计。) message 异常消息 该异常产生的异常消息 STRING LAST 异常(exception,EsRestClient调用的异常信息统计。) stackTrace 异常堆栈 该异常产生的堆栈信息 CLOB LAST 客户端信息(clientInfo,客户端信息。) clientId 客户端id 客户端id ENUM LAST 客户端信息(clientInfo,客户端信息。) RestClientVersion RestClient版本 RestClient版本 STRING LAST 客户端信息(clientInfo,客户端信息。) RestHighLevelClientVersion RestHighLevelClient版本 RestHighLevelClient版本 STRING LAST 客户端信息(clientInfo,客户端信息。) poolId 对应的HttpAsyncClient连接池指标中的poolId 对应的HttpAsyncClient连接池指标中的poolId STRING LAST 客户端信息(clientInfo,客户端信息。) esNodes 客户端设置的集群节点信息 客户端设置的集群节点信息 STRING LAST 客户端信息(clientInfo,客户端信息。) esDeadNodes 集群节点中失联的节点 集群节点中失联的节点 STRING LAST url监控 (esClient,以被调用的url为维度统计接口调用信息。) clientId clientId RestClient的Id编号 ENUM LAST url监控 (esClient,以被调用的url为维度统计接口调用信息。) url url 被调用url ENUM LAST url监控 (esClient,以被调用的url为维度统计接口调用信息。) method httpmethod url的httpmethod ENUM LAST url监控 (esClient,以被调用的url为维度统计接口调用信息。) concurrentMax 最大并发 被调用url的最大并发 INT MAX url监控 (esClient,以被调用的url为维度统计接口调用信息。) errorCount 错误次数 被调用url的错误次数 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) definitiveFailureCount 请求错误次数(definitiveFailure) 请求错误次数(definitiveFailure) INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST url监控 (esClient,以被调用的url为维度统计接口调用信息。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST url监控 (esClient,以被调用的url为维度统计接口调用信息。) hostUri hostUri host uri STRING LAST url监控 (esClient,以被调用的url为维度统计接口调用信息。) invokeCount 调用次数 被调用url的调用次数 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) lastError 错误信息 url发生错误时产生的错误信息 STRING LAST url监控 (esClient,以被调用的url为维度统计接口调用信息。) maxTime 最大响应时间 被调用url的最大响应时间 INT MAX url监控 (esClient,以被调用的url为维度统计接口调用信息。) totalTime 总响应时间 被调用url的总响应时间 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) range1 010ms 响应时间在010ms范围请求数 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) range5 110s 响应时间在110s范围请求数 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) range6 10s以上 响应时间在10s以上请求数 INT SUM url监控 (esClient,以被调用的url为维度统计接口调用信息。) retryCount 请求重试次数(trackFailure) 请求重试次数(trackFailure) INT SUM 状态码统计(code,根据状态码维度统计接口调用信息。) code 状态码 状态码 ENUM LAST 状态码统计(code,根据状态码维度统计接口调用信息。) url url 产生对应状态码的url STRING LAST 状态码统计(code,根据状态码维度统计接口调用信息。) count 次数 对应状态码的发生次数 INT SUM EsRestClient汇总(total,EsRestClient接口调用的汇总信息统计。) definitiveFailureCount 请求错误次数总和 请求错误次数总和 INT SUM EsRestClient汇总(total,EsRestClient接口调用的汇总信息统计。) invokeCount 调用次数 总的调用次数 INT SUM EsRestClient汇总(total,EsRestClient接口调用的汇总信息统计。) totalTime 总响应时间 总响应时间 INT SUM EsRestClient汇总(total,EsRestClient接口调用的汇总信息统计。) retryCount 请求重试次数总和 请求重试次数总和 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) serverAddr 服务端节点 服务端节点信息 ENUM LAST EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) concurrentMax 最大并发 最大并发 INT MAX EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) errorCount 错误次数 错误次数 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) invokeCount 调用次数 调用次数 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) lastError 错误信息 错误信息 STRING LAST EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) maxTime 最大响应时间 最大响应时间 INT MAX EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) totalTime 总响应时间 总响应时间 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) range1 010ms 响应时间在010ms范围请求数 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) range5 110s 响应时间在110s范围请求数 INT SUM EsRestClient节点调用监控(serverNode ,EsRestClient节点调用监控。) range6 10s以上 响应时间在10s以上请求数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) url url 被调用url ENUM LAST url监控(invocation ,以被调用的url为维度统计接口调用信息。) method httpmethod url的httpmethod ENUM LAST url监控(invocation ,以被调用的url为维度统计接口调用信息。) client 客户端类型 EsRestClient客户端的类型 ENUM LAST url监控(invocation ,以被调用的url为维度统计接口调用信息。) concurrentMax 最大并发 被调用url的最大并发 INT MAX url监控(invocation ,以被调用的url为维度统计接口调用信息。) errorCount 错误次数 被调用url的错误次数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST url监控(invocation ,以被调用的url为维度统计接口调用信息。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST url监控(invocation ,以被调用的url为维度统计接口调用信息。) hostUri 调用地址 被调用url的调用地址 STRING LAST url监控(invocation ,以被调用的url为维度统计接口调用信息。) invokeCount 调用次数 被调用url的调用次数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) lastError 错误信息 url发生错误时产生的错误信息 STRING LAST url监控(invocation ,以被调用的url为维度统计接口调用信息。) maxTime 最大响应时间 被调用url的最大响应时间 INT MAX url监控(invocation ,以被调用的url为维度统计接口调用信息。) responseCloseCount responseCloseCount 被调用url的关闭响应数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) totalTime 总响应时间 被调用url的总响应时间 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) range1 010ms 响应时间在010ms范围请求数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) range5 110s 响应时间在110s范围请求数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) range6 10s以上 响应时间在10s以上请求数 INT SUM url监控(invocation ,以被调用的url为维度统计接口调用信息。) envId 集群id 被调用的url对应的集群id STRING LAST EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) esNodes 集群节点 集群节点信息 ENUM LAST EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) clientCount 创建的RestClient个数 创建的RestClient个数 INT LAST EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) concurrentMax 最大并发 最大并发 INT MAX EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) errorCount 错误次数 错误次数 INT SUM EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) errorTraceId 错误traceId 采集周期内发生错误的调用链对应的traceid STRING LAST EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) slowTraceId 慢traceId 采集周期内最慢的调用链对应的traceid STRING LAST EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) invokeCount 调用次数 调用次数 INT SUM EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) lastError 错误信息 错误信息 STRING LAST EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) maxTime 最大响应时间 最大响应时间 INT MAX EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) totalTime 总响应时间 总响应时间 INT SUM EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) range1 010ms 响应时间在010ms范围请求数 INT SUM EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) range2 10100ms 响应时间在10100ms范围请求数 INT SUM EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) range3 100500ms 响应时间在100500ms范围请求数 INT SUM EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) range4 5001000ms 响应时间在5001000ms范围请求数 INT SUM EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) range5 110s 响应时间在110s范围请求数 INT SUM EsRestClient集群调用监控(cluster,EsRestClient集群调用监控。) range6 10s以上 响应时间在10s以上请求数 INT SUM
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        数据库
        EsRestClient监控
      • API概览
        本章节提供媒体存储API概览。 序号 接口名称 接口内容 原生接口 OpenAPI接口 1 查询资源池 查询所有支持的资源池或者指定资源池对应的Endpoint信息。 查询资源池 2 列举桶列表 列举请求者拥有的所有存储桶。 列举桶列表 列举桶列表 3 创建桶 创建存储桶。 创建桶 创建桶 4 删除桶 删除存储桶。 删除桶 删除桶 5 获取对象列表 列举存储空间中所有对象的信息。 获取对象列表 获取对象列表 6 获取桶信息 查看存储桶的相关信息。 获取桶信息 获取桶信息 7 获取桶所在区域 查看存储桶的位置信息。只有桶的拥有者才能查看桶的位置信息。 获取桶所在区域 获取桶所在区域 8 新建WORM策略 新建一条合规保留策略。 新建WORM策略 9 删除WORM策略 删除指定存储桶未锁定的合规保留策略。 删除WORM策略 10 启用WORM策略 锁定合规保留策略。 启用WORM策略 11 延长WORM保留天数 延长已锁定的合规保留策略对应桶中对象的保留天数。 延长WORM保留天数 12 获取WORM策略 获取指定存储桶的合规保留策略信息。 获取WORM策略 13 设置桶控制权限 设置或修改存储桶的访问权限。 设置桶控制权限 设置桶控制权限 14 获取桶控制权限 获取某个存储桶的访问权限。只有桶的拥有者才能获取桶的访问权限。 获取桶控制权限 获取桶控制权限 15 配置桶生命周期 调用存储桶的生命周期规则。 配置桶生命周期 配置桶生命周期 16 获取桶生命周期配置 查看存储桶的生命周期规则。只有桶的拥有者才有权限查看桶的生命周期规则。 获取桶生命周期配置 获取桶生命周期配置 17 删除桶生命周期配置 删除指定存储桶的生命周期规则。 删除桶生命周期配置 删除桶生命周期配置 18 设置版本控制 设置指定存储桶的版本控制状态。 设置版本控制 设置版本控制 19 获取版本控制状态 获取指定桶的版本控制状态。 获取版本控制状态 获取版本控制状态 20 列出对象版本信息 列出桶中包括删除标记在内的所有对象的版本信息。 列出对象版本信息 列出对象版本信息 21 设置授权策略 为指定的存储桶设置授权策略。 设置授权策略 设置授权策略 22 获取授权策略 获取指定存储桶的权限策略。 获取授权策略 获取授权策略 23 删除授权策略 删除指定存储桶的权限策略。 删除授权策略 删除授权策略 24 创建复制规则 为存储桶指定数据复制规则。媒体存储支持跨区域复制和同区域复制。 创建复制规则 25 获取复制规则 可通过此接口查询存储桶复制规则。 获取复制规则 26 删除复制规则 停止某个存储桶的数据复制并删除桶的复制配置。 删除复制规则 27 配置桶清单规则 为指定存储桶配置清单规则。 配置桶清单规则 28 获取桶清单规则 查看某个存储桶中指定的清单任务。 获取桶清单规则 29 批量获取桶清单规则 批量获取某个存储桶中的所有清单任务。 批量获取桶清单规则 30 删除桶清单规则 删除某个存储桶中指定的清单任务。 删除桶清单规则 31 设置日志存储规则 为存储桶开启日志存储功能。 设置日志存储规则 32 获取日志存储规则 查看存储桶的访问日志配置。只有桶的拥有者才能查看桶的访问日志配置。 获取日志存储规则 33 删除日志存储规则 关闭存储桶的访问日志记录功能。 删除日志存储规则 34 设置静态网站托管 将存储桶设置为静态网站托管模式并设置跳转规则。 设置静态网站托管 35 查看静态网站托管规则 查看存储桶的静态网站托管状态以及跳转规则。 查看静态网站托管规则 36 删除静态网站托管 关闭存储桶的静态网站托管模式以及跳转规则。 删除静态网站托管 37 设置防盗链规则 设置存储桶级别的防盗链访问白名单。 设置防盗链规则 38 查看防盗链规则 查看存储桶的防盗链相关配置。 查看防盗链规则 39 配置加密规则 配置存储桶的加密规则。 配置加密规则 配置加密规则 40 获取加密规则 获取存储桶的加密规则。 获取加密规则 获取加密规则 41 删除加密规则 删除指定存储桶的加密规则。 删除加密规则 删除加密规则 42 添加或修改桶标签 给某个存储桶添加或修改标签。 添加或修改桶标签 添加或修改桶标签 43 获取桶标签 获取存储桶的标签信息。 获取桶标签 获取桶标签 44 删除桶标签 删除存储桶标签。 删除桶标签 删除桶标签 45 设置CORS规则 设置指定存储桶的跨域资源共享CORS规则。 设置CORS规则 设置CORS规则 46 获取CORS列表 获取指定存储桶当前的跨域资源共享CORS规则。 获取CORS列表 获取CORS列表 47 删除CORS规则 删除指定存储桶的跨域资源共享CORS功能并清空所有规则。 删除CORS规则 删除CORS规则 48 预检Options请求 浏览器在发送跨域请求之前会发送一个preflight请求(Options)给媒体存储,并带上特定的来源域、HTTP方法和Header等信息,以决定是否发送真正的请求。 预检Options请求 预检Options请求 49 上传对象 上传对象。 上传对象 上传对象 50 复制对象 拷贝同一地域下相同或不同存储桶之间的对象。 复制对象 复制对象 51 追加写上传 以追加写的方式上传对象。 追加写上传 追加写上传 52 POST上传 用于通过HTML表单上传的方式将对象上传到指定的存储桶Bucket中。 POST上传对象 POST上传 53 下载对象 获取某个对象。 下载对象 下载对象 54 删除对象 删除对象。 删除对象 删除对象 55 删除多个对象 删除同一个存储桶中的多个对象。 删除多个对象 删除多个对象 56 获取对象元数据 用于获取对象的信息。 获取对象元数据 获取对象元数据 57 获取对象元信息 获取对象的元数据信息,包括该对象的ETag、Size、LastModified信息,并且不返回该对象的内容。 获取对象元信息 获取对象元信息 58 解冻归档对象 解冻归档类型的对象。 解冻归档对象 解冻归档对象 59 查看归档对象状态 查看归档对象的状态。 查看归档对象状态 60 初始化分片上传 通知媒体存储初始化一个分片上传事件。 初始化分片上传 初始化分片上传 61 分片上传文件 根据指定的对象名和uploadId来分块上传数据。 分片上传文件 分片上传文件 62 完成分片上传 来完成整个文件的分片上传。 完成分片上传 完成分片上传 63 拷贝分片 从一个已存在的对象中拷贝数据来上传一个分片。 拷贝分片 拷贝分片 64 终止分片上传 终止分片上传。 终止分片上传 终止分片上传 65 获取分片上传任务列表 列出存储桶中已经初始化,但是还没complete或者abort的分片上传事件。 获取分片上传任务列表 获取分片上传任务列表 66 列举上传成功分片 列出指定uploadId所属的所有已经上传成功的分片。 列举上传成功分片 列举上传成功分片 67 设置对象权限列表 修改对象的访问权限。 设置对象权限列表 设置对象权限列表 68 获取对象权限列表 获取存储桶下某个对象的访问权限。 获取对象权限列表 获取对象权限列表 69 设置对象标签 设置或更新对象的标签信息。 设置对象标签 设置对象标签 70 获取对象标签 获取对象的标签信息。 获取对象标签 获取对象标签 71 删除对象标签 删除指定对象的标签信息。 删除对象标签 删除对象标签 72 查询桶容量 根据指定区域或指定桶查询存储容量情况。 查询桶容量 73 查询桶流量 根据指定区域及指定桶查询桶流量。 查询桶流量 74 查询请求次数 根据指定区域或指定桶查询各类请求的次数。 查询请求次数 75 查询请求响应码返回情况 根据指定区域或指定桶查询请求各类响应码返回次数。 查询请求响应码返回情况
        来自:
        帮助文档
        媒体存储
        API参考
        API概览
      • 创建卷
        参数 参数 描述 n LUNNAME 或 name LUNNAME 设置卷名称。 取值:字符串形式,长度范围是1~16,只能由字母、数字和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 p CAPACITY 或 capacity CAPACITY 设置卷容量。 取值:整数形式,数字后面可以输入单位简写G/g、T/t或P/p,分别代表GiB、TiB、PiB,如果不输入,默认为GiB。 如果单位是GiB,取值为[1, 1048576]。 如果单位是TiB,取值为[1, 1024]。 如果单位是PiB,取值为1。 t TARGETNAME 或 target TARGETNAME 指定iSCSI Target名称。 取值:字符串形式,长度范围1~16,只能由小写字母、数字、句点(.)和短横线()组成,且仅支持以字母或数字开头。 说明 创建卷时,如果指定的iSCSI Target名称不存在,那么同时创建iSCSI Target,新创建iSCSI Target的回收策略默认为Delete。 priority SERVERID & 指定卷主备分布优先级的服务器ID(仅集群版支持),系统会根据指定的服务器ID顺序来选择卷的主备IQN。可以指定一个或者多个服务器ID,以英文逗号分开。 前置条件:iSCSI Target名称已经存在,且指定的服务器必须是iSCSI Target所在的服务器。 autofailback AUTOFAILBACK 是否根据指定的卷主备分布优先级自动进行主备切换(仅集群版支持),即针对卷主备状态,当高优先级的服务器恢复正常后,是否自动进行主备状态切换。 取值: Enabled:自动进行主备切换。 Disabled:不自动进行主备切换。 默认值为Enabled。 pool POOL 指定存储池(仅集群版支持),表示最终存储池,卷数据最终落在该存储池内。默认使用集群的基础存储池。 cachepool CACHEPOOL 指定缓存存储池(仅集群版支持)。如果指定了缓存存储池,卷数据首先写入缓存存储池,然后再存入存储池。 注意 存储池与缓存存储池不能是同一个存储池。 a HIGHAVAILABILITY 或 ha HIGHAVAILABILITY 选择卷的高可用类型(仅集群版支持): 取值: ActiveStandby(as):启用主备,该卷关联对应Target下的所有IQN。 Disabled(off):不启用主备,该卷关联对应Target下的1个IQN。客户端连接该类型的卷的方法可以参见Windows 客户端–单机版、Linux 客户端 – 单机版。 默认值为ActiveStandby(as)。 c LOCALSTORAGECLASS 或 localstorageclass LOCALSTORAGECLASS 卷冗余模式(仅集群版支持)。 取值: singlecopy:单副本。 2copy:两副本。 3copy:三副本。 EC N+M:纠删码模式。其中N、M为正整数,N≥M,且N+M≤128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为EC 2+1。 说明 以下场景均为集群可用的前提下: 创建EC N+M的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于N+M,卷数据正常,不会产生降级。卷所在存储池可用故障域数量处于[N, N+M),卷数据将处于降级状态,建议尽快添加或修复故障域。卷所在存储池可用故障域数量小于N时,已写入的数据发生损毁。 创建副本模式的卷后: 卷所在存储池可用故障域数量大于等于卷的最小副本数时,可以向卷中写数据。卷所在存储池可用故障域数量小于最小副本数时,不能向卷写数据,且系统会产生告警。 卷所在存储池可用故障域数量大于等于副本数,卷数据正常,不会产生降级。对于两副本、三副本卷,卷存储池所在故障域大于等于1,但小于副本数时,卷数据将处于降级状态,建议尽快添加或修复存储池故障域。卷所在存储池无可用故障域时,已写入的数据发生损毁。 minreplica MINREPLICA 最小副本数(仅集群版支持)。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1。对于EC卷,取值范围是[N, N+M],默认值为N。 redundancyoverlap REDUNDANCYOVERLAP 指定卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。 取值:整数。对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC模式,取值范围是[1, N+M],默认值为1。 ecfragmentsize ECFRAGEMENTSIZE 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为16。 o SECTORSIZE 或 sectorsize SECTORSIZE 设置扇区大小。 取值:512、4096,单位是bytes。默认值为4096。 说明 扇区大小的选取:根据自身业务场景,一般情况下,单次I/O操作的数据大小大于或接近4 KiB,则推荐选择4096;单次I/O操作的数据大小接近512 bytes,则推荐选择512。如果对接VMware等虚拟化平台,则推荐选择512 bytes。 w WRITEPOLICY 或 writepolicy WRITEPOLICY 卷的写策略: WriteBack(wb):回写,指数据写入到内存后即返回客户端成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough(wt):透写,指数据同时写入内存和磁盘,并在都写成功后再返回客户端成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround(wa):绕写,指数据直接写到磁盘,不写入内存。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为WriteBack(wb)。 P PATH 或 path PATH 指定存储卷数据的数据目录(仅单机版支持)。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 如果创建卷时不指定数据目录,使用服务器设置的默认数据目录。 m STORAGEMODE 或 mode STORAGEMODE 设置卷的存储类型: Local:本地模式,数据全部保留在本地。 Cache:缓存模式,本地保留部分热数据,全部数据异步存储到OOS中。 Storage:存储模式,本地保留全部数据,并异步存储到OOS中。 存储类型默认为Local。 cloudprovider CLOUDPROVIDER 对象存储服务名称: OOS:天翼云对象存储经典版I型。 S3:兼容S3的其他对象存储。 默认值为OOS。 B BUCKETNAME 或 bucket BUCKETNAME 已存在的存储桶的名称。 注意 请勿开启Bucket的生命周期设定和合规保留。 A ACCESSKEY 或 ak ACCESSKEY 对象存储服务的AccessKeyID。 S SECRETKEY 或 sk SECRETKEY 对象存储服务的SecretAccessKey。 C CLOUDSTORAGECLASS 或 cloudstorageclass CLOUDSTORAGECLASS 设置数据在对象存储的存储类型: STANDARD:标准存储。 STANDARDIA:低频访问存储。 默认为STANDARD。 E ENDPOINT 或 endpoint ENDPOINT 设置对象存储的Endpoint。 注意 Endpoint必须与所使用的对象存储服务一一对应:若使用OOS对象存储服务,需填写OOS的Endpoint;若使用兼容S3的其他对象存储服务,则需填写它的Endpoint。 如果仅输入域名将会使用HTTPS协议进行访问。 具体OOS Endpoint详见OOS Endpoint和区域。 signversion VERSION 指定上云签名认证的类型: v2:V2签名认证。 v4:V4签名认证。 默认值为v2。 region REGION 表示Endpoint资源池所在区域。具体region详见OOS Endpoint和区域。 V4签名时,此项必填。 M CLOUDCOMPRESSION 或 cloudcompression CLOUDCOMPRESSION 是否压缩数据上传至对象存储: Enabled(on):压缩数据上传至对象存储。 Disabled(off):不压缩数据上传至对象存储。 默认值为Enabled(on)。 O OBJECTSIZE 或 objectsize OBJECTSIZE 数据存储在对象存储中的大小。 取值:128、256、512、1024、2048、4096、8192,单位是KiB。默认值为1024。 X PREFIX 或 prefix PREFIX 设置对象存储中的前缀名称,设置前缀名称后,卷数据会存在存储桶以前缀命名的类文件夹中。如果未指定前缀,则直接存储在以卷名称命名的类文件夹中。 取值:字符串形式,长度范围是1~256。 qosname QOSNAME 指定QoS策略名称。 说明 创建卷时,如果指定QoS策略名称不存在,那么同时创建QoS策略,新创建的QoS策略的回收策略默认为Delete。 对于集群版,不指定QoS策略时: 如果卷的缓存存储池和存储池同时存在,卷的QoS策略为缓存存储池设置的“存储池内卷的默认QoS策略”;如果缓存存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 如果卷只有存储池,卷的QoS策略为存储池设置的“存储池内卷的默认QoS策略”;如果存储池未设置“存储池内卷的默认QoS策略”,则卷无QoS策略。 取值:字符串形式,长度范围1~64,只能由字母、数字和短横线()组成,区分大小写,且仅支持以字母或数字开头。 注意 如果没有指定QOSNAME ,但是设置了IOPS/Bps中的任何一个参数,则根据IOPS/Bps自动创建一个QoS策略,系统为策略名赋值:lunlunnameqostimestamp。 如果指定了QOSNAME 以及IOPS/Bps中的任何一个参数,则QOSNAME不能与已存在的QoS策略重名。 如果指定了QOSNAME ,没有设置IOPS/Bps中的任何一个参数,则QOSNAME需要为已存在的QoS策略名称。 iops IOPS 每秒能够进行读写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 readiops READIOPS 每秒能够进行读操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 writeiops WRITEIOPS 每秒能够进行写操作次数的最大值。 取值:整数形式,取值为[1, 999999999],默认值为1。1表示不限制。 bps BPS 每秒可传输数据量的最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 readbps READBPS 读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 writebps WRITEBPS 写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。 如果单位是B/s,取值为[1, 4096000000000]。 如果单位是KiB/s,取值为[1, 4000000000]。 如果单位是MiB/s,取值为[1, 3906250]。 如果单位是GiB/s,取值为[1, 3814]。 如果单位是TiB/s,取值为[1, 3]。 iopsburst IOPSBURST 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:整数形式。只有当iops IOPS 大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 readiopsburst READIOPSBURST 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:整数形式。只有当readiops READIOPS 大于等于1时,此项设置为1或(READIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 writeiopsburst WRITEIOPSBURST 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:整数形式。只有当writeiops WRITEIOPS 大于等于1时,此项设置为1或(WRITEIOPS 999999999]内的正整数方可生效。默认值为1,表示不限制。 bpsburst BPSBURST 使用Burst功能时,每秒可传输的数据量最大值。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当bps BPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(BPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(BPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(BPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(BPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(BPS, 3]内的正整数。 readbpsburst READBPSBURST 使用Burst功能时,读带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当readbps READBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(READBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(READBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(READBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(READBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(READBPS, 3]内的正整数。 writebpsburst WRITEBPSBURST 使用Burst功能时,写带宽上限。 取值:整数形式,数字后面可以输入单位简写B/b、K/k、M/m、G/g、T/t,分别代表B/s、KiB/s、MiB/s、GiB/s、TiB/s。默认单位是B/s,默认值为1,表示不限制。只有当writebps WRITEBPS大于等于1时,在单位相同的情况下,此项设置为下列取值范围方可生效: 如果单位是B/s,取值为1或(WRITEBPS, 4096000000000]内的正整数。 如果单位是KiB/s,取值为1或(WRITEBPS, 4000000000]内的正整数。 如果单位是MiB/s,取值为1或(WRITEBPS, 3906250]内的正整数。 如果单位是GiB/s,取值为1或(WRITEBPS, 3814]内的正整数。 如果单位是TiB/s,取值为1或(WRITEBPS, 3]内的正整数。 iopsburstsecs IOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readiopsburstsecs READIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在Read IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writeiopsburstsecs WRITEIOPSBURSTSECS 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在Write IOPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 bpsburstsecs BPSBURSTSECS 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 readbpsburstsecs READBPSBURSTSECS 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在Read BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。 writebpsburstsecs WRITEBPSBURSTSECS 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在Write BPS Burst功能启用时,此配置才生效。 取值:整数形式,取值为[1, 999999999],默认值为1,单位是秒。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        卷操作
        创建卷
      • 如何扩大镜像的配额?
        本节介绍了镜像配额类的相关问题。 什么是配额? 为防止资源滥用,平台限定了各服务资源的配额,对用户的资源数量和容量做了限制。如您最多可以创建多少台弹性云主机、多少块云硬盘。 如果当前资源配额限制无法满足使用需要,您可以申请扩大配额。 怎样查看我的配额? 1. 登录控制台。 2. 单击页面右上角的“我的配额”图标。 系统进入“服务配额”页面。 3. 您可以在“服务配额”页面,查看各项资源的总配额及使用情况。 如果当前配额不能满足业务要求,请参考后续操作,申请扩大配额。 如何申请扩大配额? 目前系统暂不支持在线调整配额大小。如您需要调整配额,请拨打热线或发送邮件至客服,客服会及时为您处理配额调整的需求,并以电话或邮件的形式告知您实时进展。 在拨打热线或发送邮件之前,请您准备好以下信息: 账号名,获取方式如下: 登录云账户管理控制台,在右上角单击账户名,选择“我的凭证”,在“我的凭证”页面获取“账号名”。 配额信息,包括:服务名、配额类别、需要的配额值。 能否跨账号使用私有镜像? 能。 您可以通过共享镜像功能,将私有镜像共享给其他账号使用,详细操作请参见共享镜像。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        如何扩大镜像的配额?
      • 可以裁剪镜像吗?
        不建议您裁剪镜像。 在导入外部镜像文件时,建议您使用操作系统官方发行版本进行系统构建,避免对发行版本进行裁剪及高度定制,以减少问题发生概率。 操作系统发行版本由操作系统厂商进行不定期版本更迭,部分系统版本厂商已停止维护,不再发布问题修复及安全补丁,建议及时关注厂商公告进行系统升级更新,保证您系统的健壮性。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        可以裁剪镜像吗?
      • 私有数据是否支持物理邮寄
        本文向您介绍私有数据是否支持物理邮寄 出于安全性考虑,云上的服务与数据基于物理存储介质的传递与交互。因此私有数据只能通过网络上传下载,不支持物理邮寄。 您可以通过以下两种方式,实现私有数据的上传或下载: 1、自建FTP服务,通过公网实现云主机实例与您本地服务器的数据传输。 Linux云主机搭建FTP方式请见:快速构建FTP站点(Linux)。 Windows云主机搭建FTP方式请见:快速构建FTP站点(Windows)。 2、通过私有镜像导入与导出的功能,将数据随私有镜像导入到云平台,或者从云平台下载。 私有镜像导入到云平台的操作步骤请见:通过镜像文件创建系统盘镜像。 私有镜像从云平台导出的操作步骤请见:导出镜像。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        产品咨询类
        私有数据是否支持物理邮寄
      • 镜像和备份有什么区别?
        云服务备份和镜像服务有很多功能交融的地方,有时需要搭配一起使用。镜像有时也可用来备份云主机运行环境,作为备份来使用。 备份和镜像的区别 云服务备份和镜像服务区别主要有以下几点,如下表所示。 对比维度 云服务备份 镜像服务 概念 备份是将云主机或者云硬盘某一时间节点的状态、配置和数据信息保存下来,以供故障时进行恢复,其目的是为了保证数据安全,提升高可用性。 镜像相当于云主机的“装机盘”,它提供了启动云主机所需的所有信息,其目的是为了创建云主机,批量部署软件环境。系统盘镜像包含运行业务所需的操作系统、应用软件,数据盘包含业务数据。整机镜像是系统盘镜像和数据盘镜像的总和。 使用方式 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建备份的云硬盘删除,对应的备份不会被同时删除。 操作对象:保存云主机/磁盘指定时刻的数据,可以设置自动备份和过期自动删除。 用途:备份可以恢复数据至原主机/磁盘中,也可以直接创建新的磁盘或整机镜像。 是否可以导出至本地:否。 数据存储位置:与主机/磁盘数据分开存储,存储在对象存储(OBS)中。如果将创建镜像的主机/磁盘删除,对应的镜像不会被同时删除。 操作对象:可以将主机的系统盘和数据盘制作为私有镜像,也可以通过外部镜像文件制作私有镜像。 用途:系统盘镜像或整机镜像可以创建新的主机,数据盘镜像可以创建新的磁盘,实现业务迁移。 是否可以导出至本地:部分可以,整机镜像不支持导出至本地,详见导出镜像。 应用场景 适用场景: 数据备份与恢复 业务快速部署和迁移 适用场景: 服务器上云或云上迁移 部署特定软件环境 批量部署软件环境 服务器运行环境备份 优势 支持自动备份,可以定时定量保留服务器/磁盘某一时间节点的数据。 可以备份系统盘。可以将本地或者其他云平台的服务器数据盘镜像文件导入至镜像服务中。导入后,可使用该镜像创建新的云硬盘。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        镜像和备份有什么区别?
      • 数据盘镜像中的数据可以导入到之前已有的数据盘内吗?
        不能直接导入。 数据盘镜像只能用于申请新的云硬盘,无法直接导入到之前已有的云硬盘内。您可以按如下指导操作: 1. 使用数据盘镜像临时生成一个新云硬盘。 2. 将新盘挂载至旧盘所在的云主机。 3. 拷贝数据到旧盘内,再删除这个临时的云硬盘。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像咨询
        数据盘镜像中的数据可以导入到之前已有的数据盘内吗?
      • 产品咨询类
        一个弹性IP可以给几个弹性云主机使用? 一个弹性IP只能绑定一个弹性云主机使用。 弹性IP的分配策略是什么? 新申请的弹性IP默认是随机分配。 为防止误删除操作,EIP存在24小时缓存机制,对于已释放过弹性IP的用户,24小时内会优先分配之前使用过的EIP。 如需申请新的弹性IP地址,建议您先申请新的EIP后再释放旧的EIP。 弹性IP时,是否可以指定IP地址? 新申请的弹性IP默认是随机分配。对于已释放过弹性IP的用户,会优先分配之前使用过的EIP。 弹性IP是否会变化? 不会改变。 弹性云主机关机和开机不影响弹性IP地址。 切换计费模式不影响弹性IP的地址。 若因资源到期或欠费可能会导致EIP被释放。 如何查询弹性IP归属地? 如您需查询已购买EIP资源的归属地,可通过第三方网站进行查询,例如: 。 第三方网站可能会有IP地址数据库更新不及时的情况,会出现查询结果与实际区域不同的情况,请酌情选择。 如果其他第三方网站的查询结果和 。 带宽是否支持跨帐号使用? 带宽不支持跨帐号使用。每个用户只能使用并管理自己的EIP带宽(独享带宽)及共享带宽。
        来自:
        帮助文档
        弹性IP EIP
        常见问题
        产品咨询类
      • 翼MR集群版本对应的操作系统是什么?
        翼MR集群版本 X86计算 翼MR2.16.0 CtyunOs 2.0.1
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        翼MR集群版本对应的操作系统是什么?
      • 不同版本的Hive之间是否可以兼容?
        本章节主要介绍翼MapReduce集群Hive组件使用规则。 Hive 3.1版本与Hive 1.2版本相比不兼容内容主要如下: 字段类型约束:Hive 3.1不支持String转成int。 UDF不兼容:Hive 3.1版本UDF内的Date类型改为Hive内置。 索引功能废弃。 时间函数问题:Hive 3.1版本为UTC时间,Hive 1.2版本为当地时区时间。 驱动不兼容:Hive 3.1和Hive 1.2版本的JDBC驱动不兼容。 Hive 3.1对ORC文件列名大小写,下划线敏感。 Hive 3.1版本列中不能有名为time的列。 当前,翼MR集群提供的是高稳定、高性能的3.1.2版本Hive组件能力,建议客户在开通翼MR集群后,优先考虑完成业务上Hive使用版本的升级适配。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        不同版本的Hive之间是否可以兼容?
      • 是否支持修改翼MR集群中节点的IP地址?
        本章节主要介绍翼MapReduce集群节点IP地址如何修改。 当前,翼MR集群中的节点不支持修改IP地址,强行修改IP会带来翼MR集群服务间通信异常,导致整个翼MR集群业务不可用故障。建议客户在开通翼MR集群前,考虑好可用区和VPC的规划。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        是否支持修改翼MR集群中节点的IP地址?
      • Kafka支持的访问协议类型有哪些?
        本章节主要介绍翼MapReduce集群组件使用规则。 Kafka支持四种协议类型的访问,分别为:PLAINTEXT、SSL、SASLPLAINTEXT、SASLSSL。当前,翼MR集群默认采用Kerberos安全验证服务,Kafka协议类型建议使用SASLPLAINTEXT、SASLSSL这两种。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        Kafka支持的访问协议类型有哪些?
      • 翼MR是否支持更换网段?
        本章节主要介绍翼MapReduce的网段设置规则。 当前,翼MR集群内节点暂不支持更换网段。因此,客户在选择开通翼MR集群前,建议基于业务需要,做好相关网段划分并提前在天翼云其它产品,如:虚拟私有云(CTVPC)中开通好合适的资源。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        翼MR是否支持更换网段?
      • 翼MR支持什么类型的分布式存储?
        本章节主要介绍翼MapReduce支持的分布式存储类型。 翼MR集群内当前使用主流的大数据Hadoop,目前支持Hadoop 3.3.3版本,并且会随着集群的演进逐步更新相关稳定版本。 同时客户可以在开通翼MR产品中选择使用Doris组件,Doris同样提供分布式数据存储能力,当前默认提供的Doris为2.1.8版本。 更多的翼MR产品中组件信息请参见产品文档中的版本概述。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        产品咨询类
        翼MR支持什么类型的分布式存储?
      • 漏洞扫描服务能修复扫描出来的漏洞吗?
        本节介绍漏洞扫描服务是否能修复扫描出来的漏洞。 不能。漏洞扫描服务是一款漏洞扫描工具,能为您发现您的资产存在的漏洞,不能进行资产漏洞修复,但漏洞扫描服务会为您提供详细的扫描结果以及修复建议,请您自行选择修复方法进行修复。
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        产品咨询类
        漏洞扫描服务能修复扫描出来的漏洞吗?
      • 漏洞扫描服务的扫描IP有哪些?
        本节介绍漏洞扫描服务的扫描IP有哪些。 如果您的网站设置了防火墙或其他安全策略,将导致VSS的扫描IP被当成恶意攻击者而误拦截。因此,在使用VSS前,请您将以下VSS的扫描IP添加至网站访问的白名单中:114.217.39.79,222.93.127.109 说明 VSS会模拟客户端使用随机端口连接被测试设备,建议放通来自vss这些ip的全量端口。
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        产品咨询类
        漏洞扫描服务的扫描IP有哪些?
      • 扫描任务的得分是如何计算的?
        本节介绍扫描任务的得分是如何计算的。 扫描任务被创建后,初始得分是一百分,任务扫描完成后,根据扫描出的漏洞级别会扣除相应的分数。 网站扫描: 高危漏洞,一个扣10分,最多扣60分(6个)。 中危漏洞, 一个扣3分,最多扣45分(15个)。 低危漏洞, 一个扣1分,最多扣30分(30个)。 无漏洞或提示漏洞不扣分。 扫描分数最低为10分。 说明 得分越高,表示漏洞数量越少,网站越安全。 如果得分偏低,请根据实际情况对漏洞进行忽略标记,或根据修复建议修复漏洞,或使用Web应用防火墙服务为您的网站保驾护航。 漏洞修复后,建议重新扫描一次查看修复效果。
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        产品咨询类
        扫描任务的得分是如何计算的?
      • 漏洞扫描服务到期后还能继续使用吗?
        漏洞扫描服务到期后,可以继续使用基础版的所有功能。 漏洞扫描服务到期后,可以继续使用基础版的所有功能。
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        产品咨询类
        漏洞扫描服务到期后还能继续使用吗?
      • 买错规格怎么更换?
        目前暂不支持直接更换套餐内的CPU、内存。您可以通过如下两种方式更改规格。 退订当前套餐,重新购买想要的规格套餐。 参考升级轻量型云主机套餐升级CPU、内存规格。 说明 该方法适用于需要升级规格的用户,若用户需要更小的规格,请参考第一条内容。
        来自:
        帮助文档
        轻量型云主机
        常见问题
        产品咨询类
        买错规格怎么更换?
      • 扫描任务有哪些状态?
        本节介绍扫描任务有哪些状态。 扫描任务的状态如下表所示。 状态 含义 已完成 扫描完成。 进行中 正在进行扫描。 等待中 任务正在等待执行。 说明 如果没有设置开始扫描时间,且此时服务器没有被占用,则创建的任务可立即开始扫描,任务状态为“进行中”;否则进入等待队列中等待,任务状态为“等待中”。 已取消 任务被取消。 说明 任务在“进行中”或“等待中”才可以被取消。 任务可能经历的状态历程。 等待中→进行中→已完成 等待中→已取消 等待中→进行中→已取消
        来自:
        帮助文档
        漏洞扫描(专业版)
        常见问题
        产品咨询类
        扫描任务有哪些状态?
      • DSC支持解析的非结构化文件类型?
        本章为您介绍数据安全中心(DSC)支持解析的非结构化文件类型。 数据安全中心(DSC)支持解析的非结构化文件类型如下表所示。 文本文档代码类 序号 文件类型 序号 文件类型 1 Access数据库文件 74 Pdf文档 2 Arff文件 75 Perl源代码 3 Asp文件 76 Pgp文件 4 Atom文件 77 Php源代码 5 Bat文件 78 Pkcs7数字证书文件 6 Bcpl源代码 79 Plist文件 7 Bib文件 80 Postgres数据库文件 8 C 源代码 81 Postscript文档 9 C/C+源代码 82 Powerpoint文档 10 Cad Sldworks文件 83 Properties文件 11 Cad文档 84 Publisher文件 12 Cbor文件 85 Python源代码 13 Cfg文件 86 QuattroPro电子表格 14 Chm文件 87 Redis数据库文件 15 Com可执行文件 88 Rss文件 16 Css文件 89 Rtf文档 17 Datax配置文件 90 Ruby源代码 18 Dbf文件 91 R源代码 19 Dif文件 92 Sas7Bdat文件 20 Dita文件 93 Sas文件 21 Djvu文档 94 Scala源代码 22 Dos可执行文件 95 Shell脚本 23 D源代码 96 Sqlite3数据库文件 24 Elf可执行文件 97 Sqlserver数据库文件 25 Epub电子书 98 Sql源代码 26 Excel文档 99 Ssh公钥 27 Fdf文档 100 Ssh配置文件 28 Fictionbook Xml文件 101 Ssh私钥 29 Ftp会话文件 102 Staroffice文档 30 Gnuccash财务xml文件 103 Swift源代码 31 Go源代码 104 Tab文件 32 Groovy源代码 105 Tcl源代码 33 Hdr文件 106 Text文件 34 Hocon文件 107 Tff文件 35 Html文件 108 Tnef文件 36 Htm文件 109 Tomcat Application配置文件 37 Hwp文件 110 Tomcat Users配置文件 38 Ibooks文件 111 Tomcat配置文件 39 Iis配置文件 112 Toml文件 40 Ini文件 113 Tsd文件 41 IsaTab文件 114 Tsv文件 42 Iwork文档 115 Vcs文件 43 Java Jce Keystore文件 116 Visio文档 44 Java Keystore文件 117 Visualbasic源代码 45 Javascript源代码 118 Vrml虚拟现实建模语言代码 46 Java源代码 119 Webarchive文件 47 Json文件 120 Weblogic配置文件 48 Jsp源代码 121 Webvtt文件 49 Latex源代码 122 Windowsinf文件 50 Log日志文件 123 Windows帮助全文搜索引 51 Lua源代码 124 Windows预编译文件 52 Mariadb数据库文件 125 Wordperfect文档 53 Markdown文档 126 Word文档 54 Matlab源代码 127 Wpd文档 55 Mbox文件 128 Wps文档 56 Mhtml文件 129 Xdp文件 57 Microsoft Reader文档 130 Xfdf文件 58 Mongodb数据库文件 131 Xhtml文件 59 Mrs配置文件 132 Xlf文件 60 Msworks文档 133 Xliff文件 61 Mysql数据库文件 134 Xlr文件 62 Netcdf文件 135 Xlz文件 63 ObjectiveC源代码 136 Xml Sitemap文件 64 Obs配置文件 137 Xml文件 65 Office文档 138 Xmp文件 66 Onenote文件 139 Xps文档 67 Opendocument文件 140 Xpt文件 68 Openvpn配置文件 141 Yaml文件 69 Oracle数据库文件 142 常见数字证书文件 70 Outlook文件 143 空文件 71 Pascal源代码 144 配置文件windows Initialization 72 Pbm文件 145 其他普通未加密文本文件 73 Pcx文件 146 邮件文档
        来自:
        帮助文档
        数据安全中心
        常见问题
        产品咨询类
        DSC支持解析的非结构化文件类型?
      • 数据安全中心支持什么样的数据源类型?
        本章节介绍数据安全中心可以支持的数据源类型 数据安全中心可以支持的数据源类型如下: 数据源 具体的数据源类型 关系型数据库 MySQL、SQLServer、PostgreSQL类型 云搜索服务 大数据资产 对象存储服务 支持200+文件类型 数据仓库服务 —— 弹性云主机 搭建的Mysgl、SalServer、PostgreSQLOracle数据库及ElasticSearch实例 数据湖 大数据资产 其中,数据安全中心与其他云服务的关系详见关联服务。
        来自:
        帮助文档
        数据安全中心
        常见问题
        产品咨询类
        数据安全中心支持什么样的数据源类型?
      • 数据安全中心可以管理其他云厂商的数据资产吗?
        本节介绍数据安全中心的使用约束 不支持。数据安全中心DSC仅支持管理天翼云上的数据资产,暂不支持管理其他云厂商的数据资产。具体支持的数据源和数据库类型版本参考管理范围。 DSC支持的数据库类型及版本如下表所示。 数据库类型 版本 MySQL 5.6、5.7、5.8、8.0 SQL Server 2017SE、2017EE、2017WEB 2016SE、2016EE、2016WEB 2014SE、2014EE 2012SE、2012EE、2012WEB 2008R2EE、2008R2WEB PostgreSQL 11、10、9.6、9.5、9.4、9.1 Oracle 10、12
        来自:
        帮助文档
        数据安全中心
        常见问题
        产品咨询类
        数据安全中心可以管理其他云厂商的数据资产吗?
      • 1
      • ...
      • 291
      • 292
      • 293
      • 294
      • 295
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      一站式智算服务平台

      人脸检测

      人脸活体检测

      通用型OCR

      营业执照识别

      推荐文档

      创建生产者

      域名解析

      管理服务器

      修改用户

      慢查询日志

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号