云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼智能酒店_相关内容
      • 文件格式介绍
        二进制格式 如果想要在文件系统间按原样复制文件,则可以选择二进制格式。二进制格式传输文件到文件的速率、性能都最优,且不需要在作业第二步进行字段匹配。 文件传输的目录结构 CDM的文件传输,支持单文件,也支持一次传输目录下所有的文件。传输到目的端后,目录结构会保持原样。 增量迁移文件 使用CDM进行二进制传输文件时,目的端有一个参数“重复文件处理方式”,可以用作文件的增量迁移,具体请参见 文件增量迁移。 增量迁移文件的时候,选择“重复文件处理方式”为“跳过重复文件”,这样如果源端有新增的文件,或者是迁移过程中出现了失败,只需要再次运行任务,已经迁移过的文件就不会再次迁移。 写入到临时文件 二进制迁移文件时候,可以在目的端指定是否写入到临时文件。如果指定了该参数,在文件复制过程中,会将文件先写入到一个临时文件中,迁移成功后,再进行rename或move操作,在目的端恢复文件。 生成文件MD5值 对每个传输的文件都生成一个MD5值,并将该值记录在一个新文件中,新文件以“.md5”作为后缀,并且可以指定MD5值生成的目录。 文件格式的公共参数 源文件处理方式 CDM在文件复制成功后,可以对源端文件进行操作,包括:不处理、重命名源文件或者删除源文件。 启动作业标识文件 这个主要用于自动化场景中,CDM配置了定时任务,周期去读取源端文件,但此时源端的文件正在生成中,CDM此时读取会造成重复写入或者是读取失败。所以,可以在源端作业参数中指定启动作业标识文件为“ok.txt”,在源端生成文件成功后,再在文件目录下生成“ok.txt”,这样CDM就能读取到完整的文件。 另外,可以设置超时时间,在超时时间内,CDM会周期去查询标识文件是否存在,超时后标识文件还不存在的话,则作业任务失败。 启动作业标识文件本身不会被迁移。 作业成功标识文件 文件系统为目的端的时候,当任务成功时,在目的端的目录下,生成一个空的文件,标识文件名由用户来指定。一般和“启动作业标识文件”搭配使用。 这里需要注意的是,不要和传输的文件混淆,例如传输文件为finish.txt,但如果作业成功标识文件也设置为finish.txt,这样会造成这两个文件相互覆盖。 过滤器 使用CDM迁移文件的时候,可以使用过滤器来过滤文件。支持通过通配符或时间过滤器来过滤文件。 −选择通配符时,CDM只迁移满足过滤条件的目录或文件。 −选择时间过滤器时,只有文件的修改时间晚于输入的时间才会被传输。 例如:用户的“/table/”目录下存储了很多数据表的目录,并且按天进行了划分:DRIVINGBEHAVIOR20180101~DRIVINGBEHAVIOR20180630,保存了DRIVINGBEHAVIOR从1月到6月的所有数据。如果只想迁移DRIVINGBEHAVIOR的3月份的表数据。那么需要在作业第一步指定源目录为“/table”,过滤类型选择“通配符”,然后指定“路径过滤器”为“DRIVINGBEHAVIOR201803”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        进阶实践
        文件格式介绍
      • 函数定时触发器Cron表达式规则
        字段 说明 取值范围 允许的特殊字符 秒 必选 059 , / 分钟 必选 059 , / 时 必选 023 , / 日(Day of month) 必选 131 , ? / 月 必选 112或者JanDec(英文不区分大小写)如表329所示。 , / 星期几(Day of week) 可选 06或者SunSat(0表示星期天,英文不区分大小写),如表330所示。 , ? /
        来自:
        帮助文档
        函数工作流
        用户指南
        配置触发器
        函数定时触发器Cron表达式规则
      • 配置静态服务池
        添加自定义资源配置组 1. 是否需要根据时间自动调整资源配置? 是,执行步骤2。 否,执行步骤4。 2. 单击增加新的资源配置组。在“调度时间”,单击显示时间策略配置页面。 根据业务需要修改以下参数,并单击“确定”保存: “重复”:当勾选“重复”时表示此资源配置组按调度周期重复运行。不勾选时请设置一个资源配置组应用的日期与时间。 “重复策略”:支持“每天”、“每周”和“每月”。仅在“重复”模式中生效。 “介于”:表示资源配置组应用的开始与结束时间。请设置一个唯一的时间区间,如果与已有配置组的时间区间有重叠,则无法保存。仅在“重复”模式中生效。 说明 “default”配置组会在所有未定义的时间段内生效。 新增加的配置组属于动态生效的配置项集合,在配置组应用的时间区间内可直接生效。 新增加的配置组可以被删除。最多增加4个动态生效的配置组。 选择任一种“重复策略”,如果结束时间小于开始时间,默认标识为第二天的时间。例如“22:00”到“6:00”表示调度时间为当天22点到第二天6点。 若多个配置组的“重复策略”类型不相同,则时间区间可以重叠,且生效的策略优先级从低到高的顺序为“每天”、“每周”、“每月”。例如,有“每月”与“每天”的调度配置组,时间区间分别为4:00到7:00,6:00到8:00,此时以每月的配置组为准。 若多个配置组的“重复策略”类型相同,当日期不相同时,则时间区间可以重叠。例如,有两个“每周”的调度配置组,可以分别指定时间区间为周一和周三的4:00到7:00。 3. 在“服务池配置”修改各服务资源配置,并单击页面空白处完成编辑,然后执行步骤4。 用户可单击“服务池配置”右侧的重新修改参数。如果根据业务需要,在“详细配置”单击,手动更新由系统生成的参数值。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        静态服务池管理
        配置静态服务池
      • 存储卷
        数据卷(Volume)使用方式 常见的容器存储数据卷使用方式如下: 静态存储卷:静态存储卷一般是指由管理员创建的PV。所有的数据卷(Volume)都支持创建静态存储卷。静态存储卷先由集群管理员分析集群中存储需求,并预先分配一些存储介质(例如云盘、NAS盘等),同时创建对应的PV对象。创建好的PV对象等待PVC来消费。如果负载中定义了PVC需求,Kubernetes会通过相关规则实现PVC和匹配的PV进行绑定,这样就实现了应用对存储服务的访问能力。 动态存储卷:动态存储卷一般是指通过存储插件自动创建的PV。动态卷一般由集群管理员配置好后端的存储池,并创建相应的模板(StorageClass),当有PVC需要消费PV的时候,根据PVC定义的需求,并参考StorageClass的存储细节,由存储插件动态创建一个PV。StorageClass的定义如下: StorageClass:当您声明一个PVC时,如果在PVC中添加了StorageClassName字段,意味着当PVC在集群中找不到匹配的PV时,会根据StorageClassName的定义触发相应的Provisioner插件创建合适的PV供绑定,即创建动态数据卷。动态数据卷由Provisioner插件创建,并通过StorageClassName与PVC进行关联。StorageClass可译为存储类,表示为一个创建PV存储卷的模板。在PVC触发自动创建PV的过程中,即使用StorageClass对象中的内容进行创建。其内容如下: apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name:aliclouddisktopology parameters: type:cloudssd provisioner:diskplugin.csi.ctyun.com reclaimPolicy:Delete allowVolumeExpansion:true volumeBindingMode:WaitForFirstConsumer 参数 描述 reclaimPolicy 用来指定创建PV的persistentVolumeReclaimPolicy字段值,支持Delete和Retain。 l Delete表示动态创建的PV,在销毁的时候也会自动销毁。 l Retain表示动态创建的PV,不会自动销毁,而是由管理员处理。 allowVolumeExpansion 定义由此存储类创建的PV是否运行动态扩容,默认为false。是否能动态扩容是由底层存储插件来实现的,这里只是一个开关。 volumeBindingMode 表示动态创建PV的时间,支持Immediate和WaitForFirstConsumer,分别表示立即创建和延迟创建。 延迟绑定:针对某类存储(例如天翼云云盘)在挂载属性上有所限制,只能挂载相同可用区的数据卷和节点,不在同一个可用区不可以挂载。这种类型的存储卷通常遇到如下问题: 1、创建了A可用区的数据卷,但是A可用区的节点资源已经耗光,导致Pod启动无法完成挂载。 2、集群管理员在规划PVC、PV的时候不能确定在哪些可用区创建多个PV来备用。 3、StorageClass中的volumeBindingMode字段正是用来解决此问题,如果将volumeBindingMode配置为WaitForFirstConsumer值,则表示存储插件在收到PVC Pending的时候不会立即进行数据卷创建,而是等待这个PVC被Pod消费的时候才执行创建流程。 动态存储卷的优势: 1、动态存储卷让Kubernetes实现了PV的自动化生命周期管理,PV的创建、删除都通过Provisioner完成。 2、自动化创建PV对象,减少了配置复杂度和系统管理员的工作量。 3、动态卷可以实现PVC对存储的需求容量和Provisioner出来的PV容量一致,实现存储容量规划最优。 4、挂在SubPath卷:Kubernetes提供了volumeMounts.subPath属性配置,可用于指定所引用的卷内的子路径,而不是其根路径。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        存储
        存储卷
      • 数据空间管理
        本页介绍天翼云TeleDB数据库空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 1. 选择数据迁移 页签,单击创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入任务名称 、源节点 、目标节点 和迁移类型。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移 和百分比迁移 。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 3. 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务,出现创建清理任务 对话框。 2. 选择源节点 、清理开始时间 和清理结束时间 ,单击确定。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务 对话框。 2. 选择回收节点、设置回收开始时间和回收结束时间,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务页签,单击创建任务,出现创建数据重平衡任务对话框。 2. 输入任务名称,选择节点组,单击确定,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 ,并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1.不能以pg开头。 2.只支持大小写字母、数字和下划线。 3.只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        数据空间管理
      • 数据空间管理
        本页介绍天翼云TeleDB数据库的数据空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 1. 选择数据迁移 页签,单击创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入任务名称 、源节点 、目标节点 和迁移类型。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移和百分比迁移。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 3. 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务,出现创建清理任务 对话框。 2. 选择源节点 、清理开始时间 和清理结束时间 ,单击确定。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务 对话框。 2. 选择回收节点、设置回收开始时间和回收结束时间,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务页签,单击创建任务,出现创建数据重平衡任务对话框。 输入任务名称,选择节点组,单击确定,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 ,并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1.不能以pg开头。 2.只支持大小写字母、数字和下划线。 3.只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.1.0版本产品文档
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • 产品功能
        漏洞扫描及验证 通过网站安全监测系统平台,在无需用户采购任何Web应用扫描产品前提下,即可获得网站的漏洞态势,以及每个漏洞的详情介绍和修补建议;统计分析看板直观获取不同等级漏洞类型、易受攻击目标等数据,漏洞趋势分析摸底网站漏洞发展情况,同时兼具实时大屏态势感知功能方便跟踪漏洞发生大盘状态,方便及时作出处置。 服务支持远程扫描Web漏洞和按照国际权威安全机构WASC分类的25种Web应用漏洞,全面覆盖OWASP Top 10 Web应用风险。 如采购漏洞专家验证服务,还会提供针对中高危漏洞提供专家验证,确保漏洞真实存在,并协助客户完成漏洞复验,更好的完成漏洞生命周期管理。 安全事件监测 使用静态分析和动态解析相结合的主动挂马监测技术,通过解析引擎模拟环境监控记录URL页面运行行为,生成日志;通过后端引擎根据预定义规则高效、准确识别网站页面中的恶意代码,以及黄赌毒私服等词汇的恶意链接,使网站管理员能够及时清除网页木马及黑链,避免给访问者带来安全威胁,影响网站信誉。 使用前后页面对比的方式,辅以恶意文本核查分析,实时监测目标网站页面的篡改情况,支持监测静态文本内容的变化以及DOM树结构的变化;发现页面被篡改情况,第一时间通知用户,避免篡改事件影响扩散,给自身带来声誉和法律风险。 实时监测目标站点的页面内容,如出现个人敏感信息(包含手机号、银行卡号、身份证号码)泄露问题,第一时间告警通知客户。 内容安全监测 网站文本、图片内容的合规性监测,监测类别包含涉黄、涉毒、涉政、赌博、暴恐、邪教;支持监测的图像格式包括但不限于JPEG、GIF、PNG、BMP、TIFF、JPEG2000;支持监测的文本格式包括但不限于Big5、UTF8、GBK、GB2312,内容类型至少支持txt、html、wmlc、wml、xhtml、mht。 基于大量数据训练的深度学习模型,对待监测页面进行文本、图片元素的敏感内容监测,输出相关敏感信息和类别。 发现页面出现敏感信息后,第一时间通知用户。用户可参考天翼云提供的安全建议及时删除敏感内容,避免事件影响扩散,给自身带来声誉和法律风险。用户也可以自定义所关心的敏感关键词。 可用性监测 多线路远程实时监测目标站点在多种网络协议下的响应速度、可访问性等反映网站性能状况的内容,一旦发现网站无法访问,或访问出现延迟。根据事先定义好的网站通断级别,第一时间通知用户。风险日志详细展示存在的访问性问题,问题时长以及各监测点的诊断信息。用户也可以视情况选择合适的网站响应时间告警阈值。 DNS监测 从各省运营商网络线路远程实时监测各地主流ISP的DNS缓存服务器和用户DNS授权服务器的解析过程及结果。一旦发现用户域名无法解析或解析不正确,第一时间通知用户。避免出现由于DNS解析失败产生的网站无法访问,以及域名劫持等安全风险。 业务管理能力 提供态势感知大屏服务,满足客户大屏监控场景需求,以一站式全局视角,实时跟踪目标系统的风险情况,及时定位问题。 提供在线统计分析看板服务,态势感知帮助用户进行业务指标跟踪,能够多维度展示监测数据情况,数据统计分析能力赋能用户分析聚焦漏洞问题。 提供网站安全评估报告和漏洞扫描报告生成和下载服务,聚合任务监测的风险结果,让您整体掌握网站的风险状况及安全趋势。
        来自:
        帮助文档
        网站安全监测
        产品介绍
        产品功能
      • 操作指引
        本小节介绍漏洞扫描服务流程。 网络要求 非电信客户的应用系统网络与扫描器网络可达,即可提供扫描服务(内网需提供用于部署扫描器的内网主机,内外网需保证路由可达)。 服务流程 业务受理单 客户应如实填写以下信息(必须填满): 1. 被检测的IP主机信息。 2. 被检测主机的操作系统类型及版本。 3. 业务接口人联系方式,客户需指定一个具有对漏洞扫描方案及漏洞扫描过程中出现的问题有决定权的业务接口联系人。 4. 客户提供扫描资产时需对所提交资产所有权负责,保证资产归提交人合法所有。 5. 客户需签订漏洞扫描授权书。 审核阶段 对委托单位提交的受理单信息进行核查,核查内容: 1. 判断资产所在环境是公网还是内网。 若是公网需要保证被扫描资产路由可达。 若是内网环境,需确认委托单位提供可访问到内网主机的跳板机。 2. 受理单审核通过后进入漏洞扫描实施阶段。 业务受理单无问题进入下一阶段;如有问题返回客服,由客服继续与客户沟通,直到业务受理单填满无问题。 说明 确认过程需1个工作日。 实施阶段 1.漏洞扫描实施方案 业务受理单确认无误后进入实施阶段,漏洞扫描操作人员接到客服的业务受理单后确认受理单信息:IP、版本、授权等并就扫描计划和受理单内容与客户确认。扫描任务实施前,分析客户主机情况,制定扫描方案,明确漏洞扫描任务具体实施时间、目标范围、合理的扫描方式以及最佳扫描策略,并就扫描方案与客户进行沟通确认,由于在漏洞扫描期间客户方未关闭安全防护设备所造成的漏扫结果不准确,乙方不承担责任。 注意 确认过程0.5个工作日。 2.实施漏洞扫描 扫描实施前若客户网络环境公网不能直达,需部署扫描器,也可配合客户自己部署,策略模板由我们提供,部署时间预计1个工作日。 关于扫描进度,目前扫描器扫描一个C段地址大约需要6个小时左右时间,扫描期间实时就扫描过程中发生的问题与客户沟通,最后扫描的结果将存放到扫描结果专用堡垒机上。 漏洞扫描的风险规避,由于漏洞扫描属于黑盒测试,因此可能对被测试目标造成不可预知的风险;此外对于性能比较敏感的测试目标,如一些实时性要求比较高的系统,由于扫描可能引起网络流量的增加,因此可能会引起被扫描目标的服务质量降低。因此需进行如下的风险规避措施: 扫描时段选择:一般会选择在夜间或安排在业务量不大的时段进行漏洞扫描。 扫描策略选择:根据系统的具体情况配置合理的扫描策略。 3.编写扫描报告 漏洞扫描完成后输出漏洞扫描服务报告,报告编写时间2个工作日。 4.报告审核修订 由专人对输出的漏洞扫描服务报告进行审核修订,审核修订时间1个工作日。 5.报告提交 报告提交方式采取邮件回复的方式提交:客户通过邮件向天翼云漏洞扫描平台发起报告接收申请,漏洞扫描服务报告以回复邮件方式给客户。 6.质保服务 在客户收到漏洞扫描服务报告后,乙方参与漏扫项目的专家为客户持续提供3天时间用于咨询报告中的不明事项。 7.结束服务 在完成以上各阶段工作后,漏洞扫描项目经理告知客服此次漏扫服务结束。
        来自:
        帮助文档
        漏洞扫描
        用户指南
        操作指引
      • 创建桶
        本文帮助您了解对象存储创建桶的操作步骤。 操作场景 创建桶是对象存储中的一项重要操作,它提供了一个容器来组织和管理对象。您需要先创建一个桶,然后才能在桶中存储数据。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在控制台上方点击,选择地域,以下操作选择华东华东1。 3. 在控制台首页,选择“存储>对象存储”。 4. 在对象存储桶列表页面点击“创建Bucket”。 5. 填写基础配置(包括地域、Bucket名称、企业项目、读写权限),然后点击“下一步”,继续填写高级配置(包括数据冗余策略、存储类型、服务端加密、合规保留等)。创建桶的全部配置参数说明可见下表: 参数 说明 地域 桶所在的地域。存储桶一旦创建成功,地域不能修改。 Bucket名称 桶的名称,注意以下命名规则: 不能与已有的任何桶名称重复。 创建成功后不支持修改。 长度范围为3到63个字符,支持小写字母、数字、中划线()。 禁止以中划线()开头或结尾。 存储类型 桶的存储类型,可选标准存储/低频存储/归档存储。部分资源池暂不支持低频或归档存储。 读写权限 桶的读写权限控制。 私有:仅桶的拥有者和授权用户可进行读写操作。 公共读:公共读权限下所有用户均拥有该桶的读权限,这有可能造成数据的外泄 以及费用激增,不推荐此配置。 数据冗余策略 单AZ存储:选择单AZ,数据会存储在一个可用区。单AZ存储支持标准存储、低频存储、归档存储三种存储类型。 多AZ存储:选择多AZ存储,数据会存储在同一地域的多个可用区中,可用性更高。多AZ采用相对较高的计费标准。多AZ存储仅支持标准或低频存储类型。 请根据业务情况提前规划数据冗余存储策略,桶一旦创建成功,数据冗余存储策略后续无法更改。 企业项目 企业项目是一种云资源管理方式,企业项目管理服务将统一的云资源按项目管理。 为桶选择所属的企业项目,从而将桶与企业项目进行关联。在选择“企业项目”的下拉列表中,将显示用户在企业项目服务中已创建的项目。 系统还内置了一个缺省的企业项目“default”,如果用户没有为桶创建企业项目,将使用缺省项目“default”。您也可参考创建企业项目完成企业项目创建。 服务端加密 开启服务端加密功能,上传的对象将以加密的方式存储在ZOS中。 下载对象时,ZOS会自动将加密文件解密后再提供给用户。 选择加密方式。取值范围如下: 关闭 : 不启用服务器端加密。 ZOS完全托管 : 使用ZOS托管的密钥进行加密。 KMS : 使用KMS默认托管的CMK或指定CMK ID进行加解密操作 。 2种加密方式的对比见服务端加密。 合规保留 开启合规保留后,允许用户以“不可删除、不可篡改”方式保存和使用数据。 是否编辑桶标签 为指定存储桶设置标签,用来标记不同用途的存储桶并进行分类管理。 说明 桶名称全局唯一,在任何集群,都不能与已有的任何桶名称重复,包括其他用户创建的桶。 7. 点击下一步,确认配置后点击“确认”,完成Bucket创建。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        桶管理
        创建桶
      • 在CTS事件列表查看云审计事件
        在CTS旧版事件列表查看审计事件 1. 登录控制台,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 2. 单击左侧导航栏的“事件列表”,进入事件列表信息页面。 3. 用户每次登录云审计控制台时,控制台默认显示新版事件列表,单击页面右上方的“返回旧版”按钮,切换至旧版事件列表页面。 4. 在页面右上方,可以通过筛选时间范围,查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 5. 事件列表支持通过筛选来查询对应的操作事件,如图所示。 6. 参数名称 说明 事件类型 事件类型分为“管理事件”和“数据事件”。 管理类事件,即用户对云服务资源新建、修改、删除等操作事件。 数据类事件,即OBS服务上报的OBS桶中的数据的操作事件,例如上传数据、下载数据等。 云服务 在下拉选项中,选择触发操作事件的云服务名称。 资源类型 在下拉选项中,选择操作事件涉及的资源类型。 各个云服务的资源类型请参见《云审计服务用户指南》的“支持审计的服务及操作列表”章节。 筛选类型 筛选类型分为“资源ID”、“事件名称”和“资源名称”。 资源ID:操作事件涉及的云资源ID。 当该资源类型无资源ID,或资源创建失败时,该字段为空。 事件名称:操作事件的名称。 各个云服务支持审计的操作事件的名称请参见《云审计服务用户指南》的“支持审计的服务及操作列表”章节。 资源名称:操作事件涉及的云资源名称。 当事件所涉及的云资源无资源名称,或对应的API接口操作不涉及资源名称参数时,该字段为空。 操作用户 触发事件的操作用户。 下拉选项中选择一个或多个操作用户。 查看事件中的tracetype的值为“SystemAction”时,表示本次操作由服务内部触发,该条事件对应的操作用户可能为空。 事件级别 可选项包含“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 Normal代表操作成功。 Warning代表操作失败。 Incident代表比操作失败更严重的情况,如引起其他故障等。 7. 选择完查询条件后,单击“查询”。 8. 在事件列表页面,您还可以导出操作记录文件和刷新列表。 1. 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 2. 单击按钮,可以获取到事件操作记录的最新信息。 9. 在事件的“是否篡改”列中,您可以查看该事件是否被篡改: 1. 上报的审计日志没有被篡改,显示“否”; 2. 上报的审计日志被篡改,显示“是”。 10. 在需要查看的事件左侧,单击展开该记录的详细信息。 11. 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。 12. (可选)在旧版事件列表页面,单击右上方的“体验新版”按钮,可切换至新版事件列表页面。
        来自:
        帮助文档
        函数工作流
        用户指南
        审计
        在CTS事件列表查看云审计事件
      • 云审计服务支持的关键操作
        操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 审计日志转储:支持将审计日志周期性的转储至对象存储服务(ZOS)下的ZOS桶。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。若您使用云审计提供的转储功能,需要开通对象存储服务并支付产生的费用,该费用以对象存储产品的计费为准,参考计费说明对象存储。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 操作事件 字段 创建数据密钥 generateDataKey 创建数据密钥(无明文) generateDataKeyWithoutPlaintext 导出数据密钥 exportDataKey 创建并导出数据密钥 generateAndExportDataKey 数据加密 encrypt 数据解密 decrypt 禁用主密钥 disableKey 启用主密钥 enableKey 创建主密钥 createKey 计划删除密钥 scheduleKeyDeletion 取消计划删除密钥 cancelKeyDeletion 密钥删除保护 deleteProtect 取消密钥删除保护 cancelDeleteProtect 转加密 reEncrypt 创建默认密钥 createDefaultKey 非对称签名 asymmetricSign 非对称验签 asymmetricVerify 非对称加密 asymmetricEncrypt 非对称解密 asymmetricDecrypt 获取公钥 getPublicKey 获取密钥列表 listAliasKeys 获取密钥详情 describeKey 更新密钥描述 updateKeyDescription 获取对称密钥详情 listSymmetricKeys 查询数据密钥详情 getDataKey 创建非对称密钥版本 createKeyVersion 查询密钥版本列表 listKeyVersions 获取密钥版本详情 describeKeyVersion 更新密钥轮转策略 updateRotationPolicy 创建密钥别名 createAlias 更新密钥别名 updateAlias 删除密钥别名 deleteAlias 获取别名列表 listAlias 获取密钥别名 listAliasByUuid 计算hmac hmaccompute 计算SM3摘要 messageDigest 获得导入密钥材料 getParametersForImport 导入密钥 importKeyMaterial 删除导入密钥材料 deleteKeyMaterial 证书公钥加密 certificatePublicKeyEncrypt 证书私钥解密 certificatePrivateKeyDecrypt 证书私钥签名 certificatePrivateKeySign 证书公钥验签 certificatePublicKeyVerify 获取随机数 getRandom Ukey证书公钥验签 certificatePublicKeyVerifyForUsbKey 创建证书csr createCertificate 更新证书状态 updateCertificateStatus 删除证书 deleteCertificate 获取证书详情 describeCertificate 获取证书链详情 describeCertificateChain 查询证书 getCertificate 导入证书 importCertificate 导入PKCS12证书 importCertificateByPKCS12 导出证书私钥 exportCertificatePrivatkey 查询证书列表 listCertificate 导入Ukey证书 importCertificateForUK 查询Ukey证书列表 listCertificateForUk 获取Ukey证书详情 describeCertificateForUk 查询Ukey证书信息 getCertificateForUk 更新Ukey证书状态 updateCertificateStatusForUk 删除Ukey证书 deleteCertificateForUk 获取vpc列表 listVpc 获取子网列表 listSubnet 创建应用接入点 createApplicationAccessPoint 查询接入点的接口权限列表 listAllUri 获取接入点的接口权限详情 listPointUriPolicy 接入点的接口权限变更 changePointUriPolicy 删除应用接入点 deleteApplicationAccessPoint 查询应用接入点列表 listApplicationAccessPoint 接入点的资源权限变更 changePointResourcePolicy 查询接入点的资源权限列表 listPointResourcePolicy 获取接入点的资源权限详情 describeResourcePolicy 关闭接入点权限控制 closePolicyCheck 检查接入点是否开启权限控制 policyCheckIsOpen 添加终端节点白名单 addEndpointWhitelist 查询终端节点白名单列表 showEndpointWhitelist 云产品关联检测 detectAssociation 创建租户ak createUserAk 启用租户ak enableUserAk 禁用租户ak disableUserAk 删除租户ak deleteUserAk 查询租户ak列表 listUserAk 查询资源信息 resourceInfo
        来自:
        帮助文档
        密钥管理
        用户指南
        云审计服务支持的关键操作
      • 设计预案阶段
        本文为您介绍设计预案阶段的具体操作。 使用条件 若预案阶段设计需要脚本任务,需要预先在脚本库中新建脚本并发布。 操作场景 在您创建预案阶段后,可以通过多活容灾服务控制台进行预案阶段中任务的编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案阶段”,进入预案阶段列表页。 5. 在列表上方下拉菜单中选择需要进行预案阶段操作的命名空间。 6. 点击预案阶段列表中的“预案阶段设计”按钮。 1. 若当前预案阶段状态为草稿,直接进入预案阶段设计页面。 2. 若当前预案阶段状态为已启用,且未被预案关联,直接进入预案阶段设计页面。 3. 若当前预案阶段状态为已启用,且存在被草稿/已启用/已停用状态关联的预案,弹出预案阶段设计提示弹窗,用户确认已知晓相关信息后,点击确认按钮后,进入预案阶段设计页面。不同状态的预案与预案阶段的关联情况如下: 1. 若当前预案阶段已被草稿状态的预案关联,对预案阶段重新设计后,对应预案将自动关联最新的预案阶段。 2. 若当前预案阶段已被启用状态的预案关联,对预案阶段重新设计后,对应预案状态将更新为“待重新启用”,需重新启用预案。 3. 若当前预案阶段已被停用状态的预案关联,对预案阶段重新设计后,对应预案状态不改变,启用预案时自动关联最新预案。 7. 在预案阶段设计页面,用户可拖拽普通任务、条件任务、开始节点和结束节点至画布中,同时可点击任务节点进行任务配置。 流程绘制说明如下: 1. 普通任务:通过关联自定义脚本或平台内置能力对单个资源执行预期操作。 2. 条件任务:在普通任务基础上支持根据条件任务的执行结果(正常/异常)分别配置后续工作,配置条件任务在配置自身任务信息外,需对后面的箭线配置执行条件,条件任务后只能有2条箭线。 3. 任务并行编排通过任务间的箭线决定,一条箭线两端的任务为串行执行顺序,一个任务后有多条普通箭线(非条件判断箭线)代表此任务执行完成后需并行执行其后的任务。 8. 用户拖拽普通任务至画布后,点击“普通任务”,弹出编辑任务弹窗,可对普通任务进行任务编辑。任务类型分为脚本任务、人工任务、内置任务。 1. 当任务类型为脚本任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为脚本任务。任务类型可选脚本任务、人工任务、内置任务。 脚本名称 √ 选择脚本名称,下拉数据源为脚本库中“已发布”状态脚本的脚本名称。 目标资源 √ 选择容灾管理中心,下拉数据源为当前命名空间下所有运行的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源。其中: 若所选脚本的资源类型为“主机”:下拉数据源为对应操作系统类型的开启了远程连接的非天翼云主机。 若所选脚本的资源类型为“数据库”:下拉数据源为对应数据库类型的配置连接信息的数据库实例。 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为自定义时,由用户自定义设置参数值。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 失败重试次数 √ 填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 2. 当任务类型为人工任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 目标资源 × 选择容灾管理中心,下拉数据源为当前命名空间下容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下资源类型的资源实例。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 描述 × 填写预案阶段描述。 长度为0100个字符。 3. 当任务类型为内置任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 任务目的 √ 选择任务目的,可选资源操作、流程控制。 操作名称 √ 选择操作名称。 任务目的为资源操作时:可选云主机关机、云主机重启、云主机开机、MySQL/Redis/PostgreSQL/MongoDB主备切换、ELB流量切换、ELB流量调节、ELB流量回切。 任务目的为流程控制时:可选等待。 等待时长 √ 仅任务目的为流程控制时可见,填写等待时长时间(单位:s)。 取值范围为17200s。 目标资源 √ 选择容灾管理中心: 1. 任务为非流量配置相关的任务时:可选当前命名空间下所有运行中的容灾管理中心。 2. 任务为流量配置相关的任务时:可选当前命名空间下配置了ELB的运行中的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源: 1. 主机相关任务:资源所选容灾管理中心下的云上云主机 2. 数据库相关任务:资源为所选容灾管理中心下的云上数据库 3. 流量相关任务:资源为所选容灾管理中心下接入成功的且流量配比进行过初始配置的应用 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 任务目的为资源操作时:填写预计耗时时间(单位:s)。 任务目的为流程控制时:与等待时长一致,不可编辑。 失败重试次数 √ 仅任务目的为资源操作时可见,填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 9. 编辑任务完毕后,点击弹窗底部“确定”按钮。若存在参数引用的相关配置,用户确认知晓提示内容后,点击“已确认”。 10. 条件任务按上方基础任务配置后,需对后面的箭线配置执行条件。点击箭线后,弹出条件配置弹窗。条件判定可选择正常或异常,选择完毕后,点击“确认”按钮,完成条件配置,配置结果显示在箭线上。 11. 整体预案阶段设计完毕后,检查是否符合预案阶段设计流程规则,如下: 1. 有且必须有一个开始节点; 2. 有且必须有一个结束节点; 3. 至少有一个普通任务或条件任务节点,且所有任务节点均不能为空; 4. 所有节点必须通过箭线连接; 5. 条件任务节点后必须跟2条箭线,且箭线上需配置判定条件,同时两条箭线的判定条件不能相同; 6. 两个节点间只能有1条箭线(不区分箭头方向); 7. 开始节点不能有入方向箭线,结束节点不能有出方向箭线。 12. 确认符合规则后,点击画布上方“保存”按钮,保存当前预案阶段设计。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案阶段
        设计预案阶段
      • 创建存储库
        本文带您熟悉创建存储库的操作步骤,帮助您快速创建存储库。 操作场景 在创建备份之前,您需要先创建一个存储库来存放备份数据,并可根据需要,访问存储库,管理和检索备份数据。 约束与限制 单个资源池节点可创建的存储库数量为10个。 单个存储库的容量为100GB 1024000GB。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择华东华东1。 3. 在系统首页,选择“存储>云主机备份”。 4. 在控制台左侧导航栏,选择“存储库管理”。 5. 在“云主机备份”页签,点击“创建存储库”按钮。 6. 可在页面左上角切换地域,不同地域的资源之间内网不互通,请选择靠近您客户的区域,也可以降低网络时延,提高访问速度。 7. 选择是否配置云主机或暂不配置。 1. “暂不配置”表示暂时不配置云主机,可在存储库创建后再绑定。 2. “立即配置”表示立即配置云主机,需从云主机列表中选择要备份的云主机并添加至右侧的已选云主机列表中。 8. 若选择立即绑定云主机,还需至少选择一种备份方式: 1. 自动备份:将选择的云主机绑定到备份策略中,按照备份策略进行自动备份。备份策略创建详情请参考创建备份策略。 2. 立即备份:选择的云主机将立即进行手动一次性备份。 9. 在存储库页面选择付费方式。 包年/包月(预付费模式):按照订单的购买周期进行计费,适用于能够预估资源使用周期的场景。您可以提前支付一定周期的费用,来获取额外的优惠价格。这种模式适合有长期稳定需求的用户。 按需计费(后付费模式):根据资源实际使用时长计费,灵活性更高。您只需按照资源实际使用时长付费,费用会从您的账户余额中直接扣除。按需计费更适合资源使用时长可能有较大波动或临时性需求的用户。 10. 输入存储库名称并选择存储库容量。 存储库名称:只能由数字、字母、组成,不能以数字和开头、且不能以结尾。 存储库容量:取值范围为100GB 1024000GB,您需要提前规划存储库容量,存储库的容量不能小于备份云主机的大小。 11. 选择是否编辑标签。标签用于标识资源,可通过标签管理功能对存储库进行分类和筛选。勾选后需要输入或选择现有标签键和标签值,后续您可通过标签功能统一管理资源,具体操作可参考标签功能概述。 12. 选择企业项目。 13. 若选择包年/包月计费方式,您还需要选择创建时长和是否自动续订。 创建时长:存储库的创建时长(范围为1个月到3年)。 自动续订:若启用自动续订,则按月购买自动续订周期为1个月;按年购买自动续订周期为1年。 14. 配置完成后,点击“下一步”,进入存储库配置确认页面。 15. 如确认无误,勾选“我已阅读并同意相关协议 《 天翼云云主机备份服务协议 》”,点击“确认下单”,完成存储库创建。 16. 创建完成后,您可查看“存储库”列表,等待存储库状态变为“可用”,即完成存储库的创建。
        来自:
        帮助文档
        云主机备份 CSBS
        快速入门
        创建存储库
      • 创建虚拟私有云VPC
        参数 说明 取值样例 资源类型 创建VPC支持两种资源类型: (1)VPC:包含VPC、子网、网关等基本网络要素配置 (2)VPC和扩展选项:除了VPC基本网络要素配置之外还可以创建ZOS终端节点、关联DHCP选项集。通过ZOS终端节点可以实现内网对ZOS的便捷访问。 VPC 名称 VPC名称 VPC001 VPC网段(IPv4) VPC的地址范围,VPC内的子网地址必须在VPC的地址范围内。建议使用网段:10.0.0.0/828、172.16.0.0/1228、192.168.0.0/1628。如果要使用其他网段,请参考 192.168.0.0/16 VPC网段(IPv6) 是否分配虚拟私有云VPC的IPv6地址,仅部分可用区资源池支持为VPC开启IPv6,不同资源池列表见 开启 IPv6地址类型 开启IPv6的情况下,显示此选项,默认仅支持中国电信单线。 中国电信单线 VPC IPv6地址段 开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 自动分配 企业项目 可以为VPC实例关联企业项目 project1 VPC描述 备注信息 测试VPC 子网配置 子网类型 普通子网:默认选项,此类子网中可以用于创建除标准裸金属服务器外的资源,推荐选择; 标准裸金属子网:仅支持创建标准裸金属服务器和虚拟IP,仅部分可用区资源池支持此选项;不同资源池列表见 普通子网 子网名称 子网的名称 Subnet001 子网网段(IPv4) 子网的地址范围,需要在VPC的地址范围内 192.168.0.0/24 网关(IPv4) 子网的网关,默认为子网内第一个可用IP。 对于可用区资源池,网关地址默认为.1,不可以指定其他地址(部分可用区资源池指定其他地址;不同资源池列表见 192.168.0.1 DHCP(IPv4) 子网的DHCP地址,仅部分可用区资源池支持指定;不同资源池列表见 192.168.0.2 子网IPv6网段 开启IPv6功能后,将自动为子网分配IPv6网段,但您不能选择IPv6地址范围 开启 子网IPv6地址段 子网开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 仅部分可用区资源池支持此选项;不同资源池列表见 自动分配 DNS服务器地址 部分可用区资源池默认值为100.95.0.1,该地址为天翼云DNS服务的地址,支持解析内网域名和公网域名;其他资源池默认值为114.114.114.114、8.8.8.8 100.95.0.1 子网描述 备注信息 测试子网
        来自:
        帮助文档
        虚拟私有云 VPC
        虚拟私有云VPC管理
        创建虚拟私有云VPC
      • 同账号不同资源池文件系统之间的迁移
        本文主要介绍基于天翼云弹性文件服务,如何在同账号不同资源池之间实现弹性文件系统之间的数据迁移。 应用场景 本文适用于同账号不同资源池文件系统之间的数据迁移。例如当您需要将业务从A省迁移至B省的资源池,以提高访问效率。本文以北京5资源池和上海7资源池钟Linux云主机为背景,提供操作指导。 前提条件 已拥有两个NFS协议的弹性文件系统; 准备一台与源文件系统在同一VPC网络下的弹性云主机和一台与目标文件系统在同一VPC网络下的弹性云主机,并为这两台弹性云主机配置弹性IP,以实现基于公网的数据迁移。 两个资源池的文件系统分别作为源文件系统和目标文件系统,源文件系统指含业务数据的源文件系统,目标文件系统指即将投入使用的新文件系统。 准备工作 北京5资源池和上海7资源池分别创建一个文件系统和一台弹性云主机,具体操作请参考创建文件系统、创建弹性云主机。 将不同资源池中的文件系统分别挂载至对应资源池的弹性云主机上,具体操作请参考挂载NFS文件系统到弹性云主机 (Linux)。 操作步骤 不同资源池的两个弹性文件系统之间的数据迁移可以分为几个关键步骤: 挂载文件系统 > 安装迁移工具 >迁移存量数据> 迁移增量数据源> 迁移结果检查 。具体操作步骤如下: 1. 将两个资源池的弹性文件系统分别挂载到对应云主机 将弹性文件系统挂载至云主机中,这里设定上海7为源文件系统,将其挂载到同一资源池弹性云主机的“/mnt/localpath/”目录上,北京5为目标文件系统,同样将其挂载到同一资源池的弹性云主机的 “/mnt/localpath/”目录上。 2. 安装迁移工具 执行以下命令安装rsync命令工具: plaintext yum install y rsync 3. 迁移存量数据 执行以下命令,将上海7弹性文件系统中的数据迁移到北京5中: plaintext rsync avP /mnt/localpath/ root@IP:/mnt/localpath/ 我们还可以利用rsync并发拷贝迁移数据,由于并发操作,每个ssh连接操作均要求输入密码,因此在并发迁移数据过程中会要求多次输入密码,这里我们配置无需密码通过ssh执行rsync来迁移文件。在上海7中的弹性云主机中执行 sshkeygen命令生成密钥,之后使用sshcopyid将公钥拷贝至北京5的弹性云主机,执行以下命令: plaintext sshkeygensshcopyid i ~/.ssh/idrsa.pub IP 执行以下命令,实现并发数据迁移: plaintext threads ; src ; dest ; rsync av f"+ /" f" " $src $dest && (cd $src && find . type f print0 xargs 0 n1 P$threads I% rsync av % $dest/%) 4. 迁移增量数据 执行以下命令,实现增量数据的迁移: plaintext rsync avP delete /mnt/localpath/ root@IP:/mnt/localpath/ 5. 检查迁移结果 在完成数据迁移后,执行以下命令: plaintext rsync rvn /mnt/localpath/ root@IP:/mnt/localpath/ 如果源文件系统与目标文件系统数据一致,则应显示上面信息,中间不包含任何文件路径。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        数据迁移
        NAS文件系统之间的迁移
        同账号不同资源池文件系统之间的迁移
      • 迁移方案说明
        迁移工具说明 工具/命令/服务 特点 说明 DCS控制台数据迁移功能 操作简单,同时支持全量同步+增量同步 数据迁移涉及到SYNC/PSYNC命令,当源Redis实例开放了SYNC/PSYNC命令时, 支持全量同步+增量同步,否则仅支持全量同步 Rediscli Redis自带命令行工具,支持将RDB文件、AOF文件整库导入 RedisShake 在线迁移和离线迁移均支持的一款开源工具。 自行开发迁移脚本 灵活,可根据实际场景进行定制化适配 迁移方案 说明 自建Redis,指的是在天翼云以外的服务器搭建的Redis实例。 在线迁移能力目前为白名单特性,如需要使用该特性,请联系技术支持开通后使用。 迁移场景 工具 方案 迁移说明 自建Redis迁移至DCS DCS控制台数据迁移功能 使用在线迁移自建Redis 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 自建Redis迁移至DCS Rediscli 使用Rediscli迁移自建Redis(AOF文件) 自建Redis迁移至DCS Rediscli 使用Rediscli迁移自建Redis(RDB文件) 自建Redis迁移至DCS RedisShake 使用RedisShake工具迁移自建Redis Cluster集群 其他云厂商Redis服务迁移至DCS DCS控制台数据迁移功能 使用在线迁移其他云厂商Redis 其他云厂商Redis服务迁移至DCS RedisShake 使用RedisShake工具离线迁移其他云厂商Redis Cluster集群 DCS实例间迁移 DCS控制台数据迁移功能 低版本Redis迁移至高版本Redis实例。 如网络互通,建议使用在线迁移功能迁移Redis实例数据 如网络不通,建议打通网络后,再使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 不同Region的Redis实例迁移,建议打通网络后,再使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 不同账号的Redis实例迁移,建议使用在线迁移功能迁移Redis实例数据 1、网络连通 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例间迁移 DCS控制台数据迁移功能 同Region不同VPC下的Redis实例迁移,建议打通网络后,再使用在线迁移功能迁移Redis实例 1、网络连通 不同Region,可开通云间高速,打通网络 同Region不同VPC,可开通对等连接,打通网络 2、高版本Redis迁移至低版本Redis实例 不建议,否则极易出现命令兼容问题,导致迁移中断 DCS实例迁移下云 DCS控制台数据迁移功能 DCS实例迁移下云 建议打通网络后,使用线迁移功能进行数据迁移
        来自:
        帮助文档
        分布式缓存服务Redis版
        数据迁移指南
        迁移方案说明
      • 查看总览
        参数名称 参数说明 威胁告警 呈现近7天内本账号所有工作空间内未处理威胁告警,可快速了解资产遭受的威胁告警类型和数量,呈现威胁告警的统计结果。统计信息更新频率为每5分钟更新一次。 此处严重等级含义如下: 致命:即致命风险,表示您的资产中检测到了入侵事件,建议您立即查看告警事件的详情并及时进行处理。 高危:即高危风险,表示资产中检测到了可疑的异常事件,建议您立即查看告警事件的详情并及时进行处理。 其他:即其他类型(中危、低危、提示)风险,表示服务器中检测到了有风险的异常事件,建议您及时查看该告警事件的详情。 单击威胁告警模块,系统将列表实时呈现近7天内TOP5的威胁告警事件,可快速查看威胁告警详情,监控威胁告警状况。 列表呈现近7天TOP5的威胁告警事件的信息,包括威胁告警名称、告警等级、资产名称、告警发现时间。 若列表显示内容为空,表示近7天无威胁告警事件。 漏洞 展示您本账号所有工作空间内资产中TOP5漏洞类型,以及近7天内还未修复的漏洞总数和不同漏洞风险等级对应的数量。统计信息更新频率为每5分钟更新一次。 此处严重等级含义如下: 高危:即高危风险,表示资产中检测到了漏洞事件,建议您立即查看漏洞事件的详情并及时进行处理。 中危:即中危风险,表示资产中检测到了可疑的异常事件,建议您立即查看漏洞事件的详情并及时进行处理。 其他:即其他类型(低危、提示)风险,表示服务器中检测到了有风险的异常事件,建议您及时查看该漏洞的详情。 单击漏洞模块中的“漏洞类型Top5”栏,系统将列表呈现TOP5(根据某个漏洞影响的主机数量进行排序)的漏洞类型。 此处的TOP等级是根据某个漏洞影响的主机数量进行排序,受影响主机数量越多排名越靠前。 仅当主机中Agent版本为2.0时,才会在“漏洞类型Top5”中显示对应数据。如未显示数据或需要查看TOP5漏洞类型,请将主机将Agent1.0升级至Agent2.0。 单击漏洞模块中的“实时监控最新漏洞风险事件 Top5”栏,系统将列表实时呈现近7天内TOP5的漏洞事件,可快速查看漏洞详情。 列表呈现当日最新TOP5漏洞事件详情,包括漏洞名称、漏洞等级、资产名称、漏洞发现时间。 若列表显示内容为空,表示当日无漏洞事件。 合规检查 展示您本账号所有工作空间内资产中存在的合规风险总数量和不同危险等级的合规检查风险对应的数量。统计信息更新频率为每5分钟更新一次。 此处严重等级含义如下: 致命:即致命风险,表示您的资产中检测到了不合规配置,建议您立即查看合规异常事件的详情并及时进行处理。 高危:即高危风险,表示资产中检测到了可疑的异常配置,建议您立即查看合规检查事件的详情并及时进行处理。 其他:即其他类型(中危、低危、提示)风险,表示服务器中检测到了有风险的异常配置,建议您及时查看该合规检查项目的详情。 单击合规检查异常模块,系统将列表实时呈现TOP5的合规检查异常事件,可快速查看合规检查详情。 列表呈现最近一次合规检查中TOP的合规异常事件详情,包括合规检查项目名称、等级、受影响资产数量、发现时间。 若列表显示内容为空,表示近30天无合规异常事件。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        查看总览
      • 通过Annotation配置负载均衡类型的服务
        本文介绍如何通过Annotation配置负载均衡类型的服务。 通过在Service的Yaml文件中配置注解Annotation,您可以对天翼云负载均衡、监听转发等进行配置,本文介绍LoadBalancer类型Service支持配置的Annotation。 注解说明 注解名称 描述 示例 支持的CCM版本 ervice.beta.kubernetes.io/ctyunloadbalanceraddresstype 指定新建负载均衡的公网私网类型,取值: intranet:负载均衡地址类型为私网,intranet为默认值 internet:负载均衡地址类型为公网 internet v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerbandwidth 计费类型为“bandwidth”时,可指定带宽的大小,值为数字类型,默认为1 Mbps 5 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerchargetype 指定创建公网负载均衡时,公网的计费类型,取值: bandwidth:按带宽计费 traffic:按流量计费,traffic为默认值 traffic v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancercyclecount 指定负载均衡的计费周期,值为数字类型,表示购买月数,默认为1个月 1 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancereipid 指定新建公网负载均衡时,可指定绑定已有的弹性IP,取值为弹性IP的ID,可在网络控制台的弹性IP详情页面查看ID v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerenableipv6 指定新建负载均衡时,可指定开启负载均衡的ipv6 "true" v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerenablelistenernat64 指定支持ipv6的负载均衡时,可指定开启监听器的nat64,支持负载均衡将ipv6流量转发到ipv4的后端 "true" v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerid 指定已有负载均衡,取值为负载均衡实例的ID。删除service时该 ELB不会被删除 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6address 指定新建支持ipv6的负载均衡时,可指定负载均衡的ipv6地址(该地址为负载均衡所在子网的ipv6地址段中未被分配的ip),未指定则由系统随机分配 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceripv6bandwidthid 指定新建支持ipv6的公网负载均衡时,需指定IPv6带宽ID,可在网络控制台的IPv6带宽详情页面查看ID。如果没有IPv6带宽,请先创建一个 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalanceroverridelisteners 指定已有负载均衡时,可指定是否强制覆盖已有监听 "true" v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerprojectid 指定新建负载均衡所属的企业项目,取值为企业项目ID,可在IAM控制台中企业项目详情查看ID 0 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerprotocolport 指定负载均衡监听HTTP协议或HTTPS协议,可指定多个监听,多个监听之间以逗号“,”分割 https:443,http:80 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerspec 指定新建负载均衡的规格,如elb.s2.small elb.s2.small v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancersslcert 指定SSL证书,取值为SSL证书ID,可在负载均衡控制台的证书管理页面查看证书ID。 仅监听协议为HTTPS协议时需要指定 v1.1.1及以上 service.beta.kubernetes.io/ctyunloadbalancerxforwardedfor 指定负载均衡监听器附加XForwardedFor头字段,通过开启该参数,后端服务可获取客户端源IP。取值为“true”或“false” 仅支持监听协议为HTTP和HTTPS协议 "true" v1.1.1及以上
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service管理
        通过Annotation配置负载均衡类型的服务
      • 添加日志转储
        本节主要介绍添加日志转储 AOM支持将日志转储到对象存储服务(Object Storage Service,简称OBS)的OBS桶中,以便进行长期存储。如果您有更长时间的日志存储需求,可添加日志转储。 AOM提供周期性转储和一次性转储两种转储方式,供您选择使用。 周期性转储 :将当前日志实时转储到OBS桶中,且以转储周期为粒度对1天的日志进行分割,同一时间段的日志将转储到其对应的日志文件中。例如,您需长久存储固定维度的日志,就可以选择周期性转储,操作详见添加周期性转储。 一次性转储 :将历史日志一次性转储到OBS桶的同一个.log日志文件中。 一次性转储类似于“日志搜索”界面的导出功能,“日志搜索”界面最多可导出5000条日志,当日志数量比较多导出功能无法满足需求时,可对指定日志进行一次性转储,操作详见添加一次性转储。 添加周期性转储 下面以组件为例对其日志进行周期性转储:需实时将组件当前新产生的日志实时转储到OBS桶obsstoretest的/home/Periodical Dump目录下,且将每3个小时的日志转储到其对应的日志文件中,可参考如下操作。 步骤 1 登录AOM控制台,在左侧导航栏中选择“日志 > 日志转储”。 步骤 2 单击右上角的“添加日志转储”,参考下表设置相关参数后,单击“确认”。 添加成功后,指定资源当前新产生的日志将会实时转储到OBS桶中。 组件当前新产生的日志会实时转储到OBS桶obsstoretest的/home/Periodical Dump目录下,且每3个小时的日志转储到其对应的日志文件中。 说明 周期性转储属于近实时转储,存在分钟级转储时延,时延与日志条数和日志大小有关,具体规格如下: 5分钟内累计日志条数大于1000条或日志大小超过2MB时,实时转储。 5分钟内累计日志条数小于1000条或日志大小不足2MB时,每5分钟转储。 步骤 3 将存储在OBS中的日志文件下载到本地,以供定位问题使用。 1. 在周期性转储列表中,单击待操作的OBS桶名称,进入OBS服务的“概览”页面。 2. 在左侧导航栏中单击“对象”,在“对象”页签中,找到存储在OBS中的日志文件,例如,192.168.0.74varpaassyslogapmcountwarn.log、192.168.0.74varpaassyslogapmdebugerro.trace。 转储到OBS桶中的日志文件路径: 日志文件路径与选择的“日志类型”有关,如下表所示。 转储到OBS桶中的日志文件路径 日志类型 日志文件存储路径 :: 组件 所属桶目录 > 日志分组名称 > 集群名称 > 组件名称 > 日志采集日期(格式为YYYYMMDD) > 文件编号(格式为0X) 例如,obsstoretest > home > Periodical Dump > loggroup1 > zhqtest0112n > als0320a > 20190322> 03。 主机 所属桶目录 > 日志分组名称 > CONFIGFILE > defaultappname >日志采集日期(格式为YYYYMMDD) > 文件编号(格式为0X) 系统 所属桶目录 > 日志分组名称 > 集群名称 > 日志采集日期(格式为YYYYMMDD) > 文件编号(格式为0X) 转储到OBS桶中的日志文件名称 :主机IPV4日志文件来源(将“/”替换为“”)日志文件名称,例如,192.168.0.74varpaassyslogapmcountwarn.log、192.168.0.74varpaassyslogapmdebugerro.trace。 3. 选中待下载的日志文件,单击右侧的“下载”,日志文件将下载到浏览器默认下载路径,如需要将日志文件保存到自定义路径下,请单击右侧的“下载为”。
        来自:
        帮助文档
        应用运维管理
        用户指南
        日志管理
        添加日志转储
      • 概述
        本章节为您介绍数据分类分级的概述。 数据安全分级是一款智能化、流程化、开放化的数据分类分级工具。 产品内置各行业分类分级标准及框架,并以此为依据,结合已有的上万条数据分类分级规则与行业专有数据分类分级Ai模型,帮助您快速有效完成数据分类工作,以支持后续精细化的数据安全风险分析及安全管控。 主要功能 数据资产梳理:产品可通过网络嗅探技术,自动化发现网络环境中存在的数据库系统,以对于数据库资产台账进行校对及补充。 数据资产目录:产品可通过数据库扫描技术,自动化采集数据库基础元数据信息,同时结合后续数据分类分级结果,以库表列的形式,展现完整地数据资产目录,以供用户进行数据资产的查询。 结构化数据分类分级:结构化数据的分类分级是产品核心能力。产品通过流程与算法相结合的方式,以达到做最少的人工操作,实现最好的分类分级结果的目标。用户无须编写复杂的分类分级规则,仅需完成少量数据的分类分级打标工作。 非结构化数据分类分级:产品支持对于非结构化文件进行自动化分类分级扫描,基于关键词的NER识别,准确确定文件所对应分类和级别,同时可查看文件中所包含的常见敏感信息。 分类分级模板管理:产品支持通过页面方式对于分类分级框架及对应规则进行管理,用户可自定义上传分类分级模版,并支持以系统名称、库名、表名、表注释、字段名、字段注释、字段内容等各种维度进行条件组合的方式维护分类分级规则。 分类分级模型训练:产品基于有监督学习模型训练的能力,用户在一定量手动打标的基础上,即可通过模型管理模块,对于该部分数据进行自定义模型训练。通过训练得到的模型,可有效对于剩余未分类分级数据进行预测,从而大幅降低手工打标的工作量。 资产分类分级报告:产品以可视化图表的方式,将数据资产分类分级的各项统计指标进行展示,帮助用户清晰直观地了解数据资产整体分布、分类分级梳理、敏感数据占比、数据分类分布等情况。 数据库账户梳理:产品支持对于数据库账号状态及权限进行梳理评估,并对于账号新增、权限变更删除等情况进行分类展示,有效检测账号的违规授权和恶意提权。 数据库风险检测:产品提供数据库漏洞检查、配置基线检查、弱口令检查等手段进行数据资产安全评估,通过安全现状评估,能有效发现当前数据库系统的安全问题,对数据库的安全状况进行持续化监控,保持数据库的安全健康状态。 资产分类分级大屏:产品提供数据安全分类分级监管大屏展示,内容包含数据源的分类分级情况、漏洞检查、配置基线检查、弱口令等风险评估情况,以统一展示相关工作成果。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据分类分级操作指导
        概述
      • 使用Elasticsearch实例向量检索功能增强搜索能力
        本文为您介绍如何使用Elasticsearch实例中的向量检索能力,增强实例的搜索能力。 概述 向量检索(Vector Search)是Elasticsearch的高级功能,允许用户在高维向量空间中进行相似性搜索,超越了传统的关键词匹配方式。通过将文本、图像等数据转换为向量表示,基于向量之间的距离进行搜索,适合自然语言处理、推荐系统和计算机视觉等复杂场景。 天翼云云搜索服务开通的Elasticsearch 支持通过近似最近邻(ANN)搜索算法实现高效的向量索引结构,使得在处理大规模数据集时依然能保持高效的查询速度和准确性。 前提条件 已开通天翼云云搜索服务 Elasticsearch 集群。 Elasticsearch 版本支持KNN向量检索功能(当前版本默认支持)。 本地环境已配置好API访问权限,且能够通过API与集群通信。 操作步骤 1. 创建支持向量检索的索引,需要创建一个支持向量检索的索引。可以使用以下命令为一个包含向量字段的索引启用 KNN 功能。 PUT myknnindex1 { "settings": { "index": { "knn": true, "knn.algoparam.efsearch": 100 } }, "mappings": { "properties": { "category": { "type": "keyword" }, "brand": { "type": "keyword" }, "style": { "type": "keyword" }, "myvector": { "type": "knnvector", "dimension": 3 } } } } knn: 设置为 true 启用向量检索。 dimension: 定义向量的维度,在这个例子中为 3。 2. 插入向量数据,创建索引后,可以插入带有向量字段的数据文档。以下是插入不同类型商品的向量示例: PUT myknnindex1/doc/1 { "category": "electronics", "brand": "brandA", "style": "modern", "myvector": [0.5, 0.8, 0.3] } PUT myknnindex1/doc/2 { "category": "furniture", "brand": "brandB", "style": "vintage", "myvector": [0.2, 0.4, 0.7] } PUT myknnindex1/doc/3 { "category": "clothing", "brand": "brandC", "style": "casual", "myvector": [0.9, 0.1, 0.6] } 3. 执行向量检索查询,插入数据后,用户可以通过查询指定的向量来查找与之相似的数据。以下示例将基于向量 [0.5, 0.8, 0.3] 进行KNN检索,返回与之最相似的2条记录。 POST myknnindex1/search { "size": 10, "query": { "knn": { "myvector": { "vector": [0.5, 0.8, 0.3], "k": 2 } } } } vector: 查询的向量值。 k: 返回与查询向量最相似的k个结果,此处为2。 4. 查询返回示例,返回结果中将包含与查询向量最相似的文档及其相似度得分(score): { "took" : 654, "timedout" : false, "shards" : { "total" : 1, "successful" : 1, "skipped" : 0, "failed" : 0 }, "hits" : { "total" : { "value" : 3, "relation" : "eq" }, "maxscore" : 1.0, "hits" : [ { "index" : "myknnindex1", "id" : "1", "score" : 1.0, "source" : { "category" : "electronics", "brand" : "brandA", "style" : "modern", "myvector" : [0.5, 0.8, 0.3] } }, { "index" : "myknnindex1", "id" : "2", "score" : 0.7092199, "source" : { "category" : "furniture", "brand" : "brandB", "style" : "vintage", "myvector" : [0.2, 0.4, 0.7] } } ] } } 通过这些步骤,用户可以在Elasticsearch集群上实现基于向量的高效相似性搜索,支持从多维数据中快速找到最相似的结果,从而提升搜索体验和智能化水平。
        来自:
        帮助文档
        云搜索服务
        用户指南
        Elasticsearch实例创建及使用
        使用Elasticsearch实例搜索数据
        使用Elasticsearch实例向量检索功能增强搜索能力
      • 创建VPC、子网搭建私有网络
        虚拟私有云支持创建VPC、子网搭建私有网络,本文帮助您了解创建VPC、子网搭建私有网络操作流程。 前提条件 注册天翼云账号。 操作步骤 创建VPC步骤 1. 登录控制中心; 2. 在控制中心找到【网络控制台】,单击【虚拟私有云】; 3. 在【虚拟私有云列表】界面,单击【创建虚拟私有云】,打开创建建虚拟私有云详情页; 4. 在【申请虚拟私有云】页面,根据界面提示配置参数。 参数名称 是否必填 含义 例子 VPC基本信息 地域 是 当前资源创建的region名称 上海上海36 名称 是 VPC的名称 VPC1 VPC网段(IPv4) 是 虚拟私有云VPC的IPv4网段范围 192.168.0.0/16 VPC网段(IPv6) 否 是否分配虚拟私有云VPC的IPv6地址,仅部分可用区资源池支持为VPC开启IPv6,不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 开启 IPv6地址类型 是 开启IPv6的情况下,显示此选项,默认仅支持中国电信单线 中国电信单线 VPC IPv6地址段 是 开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 自动分配 企业项目 是 当前VPC所属的企业项目 default VPC描述 否 自定义的VPC描述文案 用于政务网的VPC 子网配置 子网类型 是 普通子网:默认选项,此类子网中可以用于创建除标准裸金属服务器外的资源,推荐选择; 标准裸金属子网:仅支持创建标准裸金属服务器和虚拟IP,仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 普通子网 子网名称 是 子网的名称 政务子网 子网网段(IPv4) 是 子网的私有IPv4网段 192.168.0.0/24 网关(IPv4) 是 子网的网关地址 对于可用区资源池,网关地址默认为.1,不可以指定其他地址(部分可用区资源池指定其他地址;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准) 对于地域资源池,网关地址默认为.1,可以指定其他地址 192.168.0.1 DHCP(IPv4) 是 子网的DHCP地址,仅部分可用区资源池支持指定;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 192.168.0.2 子网IPv6网段 否 是否分配子网的IPv6地址 开启 子网IPv6地址段 是 子网开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 自动分配 DNS服务器地址 否 子网内的云主机访问公网时的DNS 服务器地址,DNS服务器地址最多支持两个IP,请以英文逗号隔开。若您想要通过内网DNS访问云上服务,可以设置的DNS服务器地址为100.95.0.1。 100.95.0.1 子网描述 否 自定义的子网描述文案 政务网VPC1的xx业务子网
        来自:
        帮助文档
        虚拟私有云 VPC
        快速入门
        创建VPC、子网搭建私有网络
      • 将MySQL迁移到PostgreSQL
        操作需知 DTS迁移过程一般包含四个阶段:预检查阶段、结构迁移阶段、全量阶段、增量阶段。为了确保数据迁移各个阶段的平顺,在创建迁移任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量迁移过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在迁移前需要用户自行判断数据是否需要清除,建议用户在迁移前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待迁移数据量的2.5倍。(全量数据迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不迁移USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象迁移时,增量迁移过程中不建议对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复操作。 当将MySQL5.x迁移到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行迁移。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据迁移
        入云
        将MySQL迁移到PostgreSQL
      • 将MySQL同步到MySQL
        操作须知 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 在结构同步时,DTS会将视图、存储过程和函数中的DEFINER转换为INVOKER。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 增量同步场景下,支持无主键表的数据同步。 当将MySQL5.x同步到MySQL5.7,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 当将MySQL5.x同步到MySQL8.x,如源端数据库的引擎类型为MyISAM时,DTS自动将目标库的引擎类型转换为innoDB。 当您在同步数据时包含了触发器(TRIGGER),可能会因为DTS写入目标端的增量数据触发TRIGGER导致源库和目标库数据不一致。为避免数据不一致的问题,DTS会在同步时在触发器对象头部加入触发控制语句,示例代码如下所示: 源库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN UPDATE test SET num num 1 WHERE id 1; END; 目标库触发器: CREATE TRIGGER testtrigger BEFORE INSERT ON test1 FOR EACH ROW BEGIN IF (SELECT @
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到MySQL
      • 将MySQL同步到PostgreSQL
        操作需知 DTS同步过程一般包含四个阶段:预检查阶段、结构同步阶段、全量阶段、增量阶段。为了确保数据同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 任务开始前 源库要求 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致同步失败。 增量同步时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 源数据库GTID状态建议为开启状态,源数据库实例没有开启GTID的情况下DTS不支持主备HA切换,因为DTS任务会因为位点不续接而中断导致无法恢复。 目标库若已存在数据,DTS在增量同步过程中源库相同主键的数据将覆盖目标库已存在的数据,因此在同步前需要用户自行判断数据是否需要清除,建议用户在同步前自行清空目标库。 目标实例及关联RDS实例的运行状态必须正常,若关联RDS实例是主备实例,复制状态也必须正常。 目标库关联RDS实例必须有足够的磁盘空间,建议至少为待同步数据量的2.5倍。(全量数据同步会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量同步完成后目标数据库的表存储空间会比源实例的表存储空间大,且会产生大量的BINLOG,占用大量空间)。 目标库关联RDS数据库的字符集必须与源数据库一致。 由于DTS不同步USER信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。 建议在适当的范围内设置源库的expirelogday参数,以确保在服务中断后能够顺利恢复,并保证断点处的binlog尚未过期。 在任务进入增量迁移阶段之前,不建议对源数据库做DDL操作,这样可能会引起任务迁移失败。 迁移过程中,请勿修改、删除提供给DTS连接访问的源库和目标库及用户名、密码、权限,或修改源库和目标库的端口号;若用户源库、目标库的密码发生变化,请先暂停任务再修改DTS配置的连接源库、目标库的密码。 选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 增量同步场景下,不支持源数据库进行恢复操作。 当将MySQL5.x同步到PostgreSQL,如源端数据库的引擎类型为MyISAM时,请您先手工将源端的MyISAM存储引擎改为InnoDB再进行同步。 增量迁移并开启增量DDL支持的场景下,当前暂不支持在结构迁移与全量迁移详情页面显示增量阶段新增的表。 若源表使用了外键约束如FOREIGN KEY REFERENCES ON DELETE CASCADE或FOREIGN KEY REFERENCES ON UPDATE CASCADE时,当删除或更新父表的数据时,子表关联的数据会被自动删除或更新,但这些子表的删除或更新操作并不会记录到源库的二进制日志(Binlog)中,从而导致迁移后数据不一致的问题。为解决该问题,可在使用DTS迁移数据前在源库创建触发器实现关联子表的数据操作,确保所需执行的删除或更新都可以记录到Binlog中,从而保证迁移前后的数据一致性。
        来自:
        帮助文档
        数据传输服务DTS
        用户指南
        数据同步
        入云
        将MySQL同步到PostgreSQL
      • 查看告警信息
        本节主要介绍如何查看告警信息。 操作场景 通过查看告警列表,您可以了解近360天的告警威胁的统计信息列表,列表内容包括告警事件的名称、类型、等级和发生时间等。并可通过自定义过滤条件,如告警名称、告警等级和发生时间等,快速查询到相应告警事件的统计信息。 告警管理页面分别呈现“告警”和“攻击”,二者的区别如下: 名称 数据来源 告警 态势感知(专业版)威胁检测模型生成的告警。 用户自定义新增的告警。 用户导入的告警。 攻击 原始的告警。 前提条件 如果需要查看已接入云服务的告警信息,需要在云服务接入时开启“自动转告警”设置。如果未开启,在对应日志满足告警条件时,将不会转为告警,也不会在“告警管理”页面中进行展示。详细操作请参见接入日志数据。 查看告警信息 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“威胁管理 > 告警管理”,进入告警管理页面。 5. 在告警管理页面查看告警信息。 参数名称 参数说明 设置告警的显示时间范围 左上角可设置展示告警的周期,默认展示最近一周内的告警信息。用户可下拉选择或自定义展示告警的周期: 最近24小时 最近一周 最近一个月 自定义:用户自定义设置起止时间。 信息统计 从3个维度统计状态为“打开”或“阻塞”的告警信息: 来源分布:以柱状图形式统计各数据源的告警数。 类型Top5:以告警数维度降序排序统计前Top5类型的告警。 资产风险Top5:展示告警数多的Top5风险资产。 急需处理告警 当前工作空间中状态为“打开”或“阻塞”且风险等级为“高危”或“致命”的告警数量。 待处理告警 当前工作空间中状态为“打开”或“阻塞”,在筛选的时间范围内未处理告警的数量。 告警总数 当前工作空间在筛选的时间范围内告警总数量。 自动处理告警 当前工作空间在筛选的时间范围内通过剧本自动关闭的告警数量。 手动处理告警 当前工作空间在筛选的时间范围内手动关闭的告警数量。 告警列表 在告警列表中下方可以查看告警总条数。其中,使用翻页查看时最多可查看10000条告警信息,如果需要查看超过10000条以外数据,请优化过滤条件筛选数据。 告警列表中,可以查看告警的类型、等级、来源、处理状态等信息。如需查看某个告警概览信息详情,可单击目标告警分类,页面将展示该条告警的详情信息。 也可单击某条告警,进入告警详情页面,在告警详情页面中,可以对该条告警进行编辑、评论、一键解封、一键阻断、处置、转事件、打开、阻塞、关闭、刷新操作。告警详情页的“基础信息”、“告警说明”、“处置建议”、“攻击技战术”最终呈现的告警参数信息取决于告警模型的字段配置。 告警详情页面分别呈现如下告警信息: 概览 基础信息:呈现告警的基本信息,如告警ID、发生时间、数据来源等。 告警说明:呈现告警模型中配置的除基础信息外的其他告警信息,比如告警描述、置信度、关键性、攻击信息等。 处置建议:告警的处置建议。 分析链接:告警分析名称即产生告警的模型名称。 攻击技战术:攻击技术,攻击战术。 评论:展示该条告警以及运行的剧本的历史评论信息,还可以新增评论。 攻击 关联已有事件:该告警关联的事件。 关联情报:该告警关联的情报。 关联资产:该告警关联的资产信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        威胁管理
        告警管理
        查看告警信息
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 索引存储设置
        您可以根据实际情况,配置索引的存储节点信息,支持设置为Redis或MySQL类型。 注意事项 修改存储设置后,需要重新启动GiServer服务并重建索引。 启动GiServer也将重启该节点的DBProxy服务,启动期间该节点不可用,可能影响查询效率,请谨慎操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击全局索引 ,进入GiServer存储设置页签。 5. 在GiServer设置区域,根据实际情况,配置如下存储节点信息。 存储类型 设置为redis: 参数 描述 redis类型 Redis类型,取值范围: 单机版 集群版 host IP地址。 说明 单机版只能输入一个IP地址。 集群版可以输入多个IP地址,使用英文逗号(,)分隔,例如127.0.0.1,127.0.0.2。 port 端口号。 说明 只需输入一个端口号即可。 password 密码。 说明 只需输入一个密码即可。 minIdle 最小空闲连接数。 maxIdle 最大空闲连接数。 maxTotal 最大连接数。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 存储类型 设置为mysql: 参数 描述 使用已开通的RDS 是否使用已开通的MySQL实例。 如果您使用已开通的MySQL实例,则只需打开该开关,在选择MySQL 中配置目标MySQL实例,即可自动获取该MySQL实例的数据库IP 和数据库端口。 数据库IP 已部署MySQL数据库的机器IP地址。 注意 只有从Giserver能连接到MySQL数据库的机器IP地址才有效,建议输入与Giserver相同VPC下的IP地址。 数据库端口 MySQL数据库的访问端口。 数据库用户 MySQL数据库用户。 数据库密码 MySQL数据库的密码。 初始连接数 Giserver初始化时创建的数据库连接数(数据库连接池参数)。 最小空闲连接数 连接池里始终保持的最小空闲连接数。 说明 即使Giserver性能压力很小,连接池仍会保证至少可用的数据库连接数,以快速响应新请求。 最大活跃连接数 连接池里允许的最大并发连接数。 说明 通过限制连接池最多可以支持同时建立的数据库连接数,可以防止Giserver性能压力较大时,MySQL数据库因数据库资源耗尽或过载出现的异常。 获取链接超时时间(毫秒) Giserver从连接池中获取的MySQL数据库连接的最大等待时间。当超过等待时间,Giserver与MySQL数据库还未建立连接,则会报错。 索引查询超时时间(秒) DBProxy执行SQL查询时,使用全局索引的最大允许时间。当超过最大允许时间,DBProxy会跳过索引,使用广播查询。 元数据库名 MySQL数据库的元数据库名称。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 6. 单击检测,并等待检测通过。 注意 存储类型 设置为redis时,无法检测redis,请自行确保redis信息填写正确。 存储类型 设置为mysql 时,必须检测通过后,才能单击保存。 7. 单击保存。 8. 在确认启动GiServer节点 对话框中,确认启动的GiSever节点信息无误后,单击确认启动。 启动成功后,您可以在索引服务管理 页签下,查看已启动的GiServer节点信息,其中,节点初始化状态 为已初始化 、节点状态 为运行中。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        全局索引
        索引存储设置
      • 计费类问题
        如何让云主机备份服务不再扣费? 删除所有备份。已经创建过镜像的备份不允许手动或自动删除,如果想要删除备份,需要先删除该备份创建的镜像。 将服务器/磁盘从备份策略中解绑,并且停用所有备份策略。当天备份删除后,由于当天费用太少而会小额累加,会出现在第二天才会进行扣费的情况。后续将再无扣费产生。 如何停用云主机备份? 如您希望停用云服务器备份可前往云服务器备份界面进行如下操作: 删除所有备份。已经创建过镜像的备份不允许手动或自动删除,如果想要删除备份,需要先删除该备份创建的镜像。 将服务器/磁盘从备份策略中解绑,并且停用所有备份/复制策略。 云主机备份无法直接关闭,可以通过上面的方法停用云主机备份。 为什么备份删除后还有扣费? 当天备份删除后,由于当天费用太少而会小额累加,会出现在第二天才会进行扣费的情况。云主机备份无法直接关闭,如您希望停用云主机备份,请参考如何停用云主机备份进行操作。 云主机备份后会同步云硬盘备份产生对应服务器的云硬盘备份,这个备份是怎么计算的? 如果备份的来源是云主机备份,就不收费。单独的云硬盘备份是收费的。 显示在云硬盘备份界面的云服务器备份是否会重复计费吗? 不会重复计费,云主机创建的云服务器备份也会出现在云硬盘备份界面,可以在备份详情的“来源”中识别云服务器备份。 云服务器备份实际上是对其中的每一个磁盘进行备份,这些磁盘的备份会同时在VBS备份列表展示,您可以直接在VBS使用这些备份恢复磁盘。
        来自:
        帮助文档
        云主机备份 CSBS
        常见问题
        计费类问题
      • 以OpenTelemetry方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry c SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry c SDK提供了c语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1、安装依赖包 plaintext dotnet add package OpenTelemetry.Exporter.Console dotnet add package OpenTelemetry.Extensions.Hosting dotnet add package OpenTelemetry.Instrumentation.AspNetCore dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 1)使用http协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplehttp"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用HTTP协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.HttpProtobuf;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run(); 2)使用grpc协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplegrpc"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用gRPC协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.Grpc;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以OpenTelemetry方式接入
      • 资产指纹
        功能项 功能描述 检测周期 帐号 检测主机系统中的帐号,列出当前系统的帐号信息,帮助用户进行帐户安全性管理。根据帐号的实时信息和历史变动,您可以快速排查主机中的可疑帐号。 帐号的实时信息包括帐号的“帐号名称”、“服务器数”以及具体帐号对应的“服务器名称/IP”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 帐号的历史变动记录包括“服务器名称/IP”、“变动状态”、“登录权限”、“ROOT权限”、“用户组”、“用户目录”、“用户启动Shell”和“最近扫描时间”。 实时检测 开放端口 检测主机系统中的端口,列出当前系统开放的端口列表,帮助用户识别出其中的危险端口和未知端口。根据“本地端口”、“协议类型”以及具体端口对应的“服务器名称/IP”、“状态”、“进程PID”、“程序文件”,您能够快速排查主机中含有风险的端口。 手动关闭风险端口 如果检测到开放了危险端口或者开放了不必要的端口,需要排查这些端口是否是正常业务使用,如果不是正常业务端口,建议关闭端口。对于危险端口建议进一步检查程序文件,如果存在风险建议删除或者隔离源文件。 建议您及时优先处理危险程度为“危险”的端口,根据业务实际情况处理危险程度为“未知”的端口。 忽略风险:如果检测出的危险端口是业务正在使用的正常端口,您可以忽略该条告警。忽略之后将不再作为危险项进行记录,也不再发送告警。 实时检测 进程 检测主机系统中运行的进程,对运行中的进程进行收集及呈现,便于自主清点合法进程发现异常进程。 根据主机中“进程路径”以及具体进程对应的“服务器名称/IP”、“启动参数”、“启动时间”、“运行用户”、“文件权限”、“进程PID”以及“文件HASH”,您能够快速排查主机中的异常进程。 进程信息管理检测的机制是30天检测不到进程后,自动清除进程信息管理列表中的进程信息。 实时检测 软件 检测并列出当前系统安装的软件信息,帮助用户清点软件资产,识别不安全的软件版本。 根据软件的实时信息和历史变动,您能够快速排查主机中含有风险的软件。 软件的实时信息包括“软件名称”、“服务器数”以及具体软件对应的安装该软件的“服务器名称/IP”和“版本”、“软件更新时间”和“最近扫描时间”。 软件的历史变动记录包括软件的“服务器名称/IP”、“变动状态”、“版本”、“软件更新时间”和“最近扫描时间”。 每日自动检测 自启动项 检测并列出当前所有主机系统中的自启动项,帮助用户及时发现异常自启动项,快速定位木马程序的问题。 自启动项的实时信息包括“名称”、“类型”(自启动服务、开机启动文件夹、预加载动态库、Run注册表键或者定时任务)、“服务器数”以及类型对应的“服务器名称/IP”、“路径”、“文件HASH”、“运行用户”、以及“最近扫描时间”。 自启动项的历史变动记录包括“服务器名称/IP”、“变动状态”、“路径”、“文件HASH”、“运行用户”和“最近扫描时间”。 实时检测 Web站点 统计、展示存放Web内容的目录及对外提供访问的站点信息,您可以查看所有目录及权限、以及和站点所关联访问路径、对外端口、证书信息(后续提供)、关键进程等信息。 1次/周(每周一凌晨06:00) Web框架 统计、展示Web内容对外呈现时所使用框架的详细信息,您可查看所有框架的版本、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 中间件 统计、展示所使用到的所有软件信息,您可查看所有中间件所关联的服务器、版本号、路径、关联进程等信息。 1次/周(每周一凌晨06:00) 内核模块 统计、展示运行在内核层的全量程序模块文件,您可查看所有模块所关联的服务器、版本号、模块描述、驱动文件路径、文件权限、文件哈希等信息。 1次/周(每周一凌晨06:00)
        来自:
        帮助文档
        企业主机安全
        用户指南
        资产管理
        资产指纹
      • 产品功能
        一级分类 二级分类 功能点 功能点描述 核心功能 集群 一键快速部署 支持界面化订购,自动开通Kubernetes集群,兼容原生Kubernetes 核心功能 集群 节点管理 支持界面化进行扩缩容,支持节点标签、调度设置 核心功能 集群 命名空间 支持资源配额设置、支持网络隔离设置 核心功能 集群 运行时 支持Docker、Containerd 核心功能 工作负载 生命周期管理 支持应用创建、启停、扩缩容、注销等生命周期操作 核心功能 工作负载 工作负载 支持界面化发布有状态、无状态、守护进程、任务、定时任务等工作负载 核心功能 工作负载 多容器 支持一个Pod中发布多个容器,支持设置特权级容器 核心功能 工作负载 探针 支持界面化自定义策略检测应用的可用性 核心功能 工作负载 滚动升级 支持业务不中断平滑升级 核心功能 工作负载 亲和性/反亲和 支持主机及应用的亲和性与反亲和性调度 核心功能 工作负载 资源管控 支持容器级别的资源需求和限额设置,防止资源的浪费 核心功能 弹性调度 Pod弹性伸缩 支持自动伸缩规则设置,基于CPU/内存等资源自动伸缩应用,支持HPA、CronHPA和基于事件的弹性策略 核心功能 弹性调度 节点弹性伸缩 支持节点弹性伸缩 核心功能 弹性调度 负载感知调度 支持调度Pod时考虑节点的实际负载 核心功能 路由 多协议支持 支持TCP、UDP、HTTP以及HTTPS等协议 核心功能 路由 Service支持 支持NodePort、ClusterIP,LB等对外提供访问、支持无头服务 核心功能 路由 Ingress支持 支持Nginx Ingress 核心功能 路由 灰度/蓝绿发布 支持支持灰度/蓝绿发布,支持应用的多个版本在线运行 核心功能 配置管理 配置项 支持配置项 核心功能 配置管理 Secret 支持保密字典、凭证等 核心功能 网络 网络插件 支持高性能网络插件Calico 核心功能 网络 网络插件 支持自研网络插件CubeCNI实现容器与虚拟机网络直通 核心功能 网络 网络策略 支持容器访问策略和流控限制 核心功能 存储 多类型存储 支持Local、NFS、Ceph常见持久存储类;支持csi驱动程序,集成天翼云的云硬盘、弹性文件、对象存储等云存储 核心功能 存储 持久卷声明 支持界面化创建持久卷声明,支持监控存储使用量 核心功能 存储 持久卷 支持界面化创建持久卷,支持持久卷的动态生成 核心功能 日志管理 日志中心 支持容器日志的采集、存储和检索,支持集成三方开源日志解决方案 核心功能 监控与告警 监控中心 支持集群、节点、容器多级别的监控与告警配置,支持审计日志,支持集成三方开源监控解决方案 核心功能 系统管理 接入平台 作为平台组件对外提供服务,支持订单方式进行集群的开通、扩缩容、删除等 核心功能 系统管理 权限管理 多租户支持,租户资源隔离,用户角色授权,支持集群和命名空间的授权 高级功能 应用 插件市场 支持通过Chart对插件打包发布到插件市场,界面化一键部署监控等插件,通过插件与其他产品集成 高级功能 应用 模板市场 支持通过Chart对应用打包发布到模板市场,界面化安装部署等 高级功能 应用 有状态应用 支持挂载持久化存储,实现有状态应用容器化部署 高级功能 能力开放 OpenAPI 支持开放API,对接持续集成和私有部署系统 高级功能 高可用部署 Kubernetes高可用 支持Kubernetes高可用部署 容器镜像服务 镜像 镜像仓库 支持对接多镜像中心,支持界面化创建仓库 容器镜像服务 镜像 租户隔离 支持公开仓库的可见性及私有仓库的不可见性 容器镜像服务 镜像 镜像管理 支持管理海量镜像,支持多版本镜像 容器镜像服务 镜像 镜像收藏 支持快速检索镜像并收藏 容器安全 授权 权限管理 支持基于k8s RBAC授权 容器安全 配置安全 容器安全策略 支持SecurityContext配置
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        产品介绍
        产品功能
      • 1
      • ...
      • 243
      • 244
      • 245
      • 246
      • 247
      • ...
      • 273
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      应用托管

      一站式智算服务平台

      智算一体机

      人脸属性识别

      通用型OCR

      推荐文档

      扶持政策

      购买License

      产品优势

      页面顶部

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号