云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云云堡垒机_相关内容
      • Windows云主机卡顿
        本文介绍如何处理Windows云主机卡顿问题。 问题原因 当您发现云主机的运行速度变慢或云主机突然出现网络断开的现象,则可能是由以下原因导致的: 1. 云主机使用共享型实例:共享型实例在云计算中是指多个虚拟机共享同一台物理服务器的资源,这会导致资源争用,可能导致服务器卡顿问题。 2. 云主机受到恶意软件或病毒的感染:恶意软件可能执行各种恶意任务,占用大量计算资源,增加云主机网络带宽和资源消耗,影响正常的服务运行等,可能导致服务器卡顿问题。 3. 云主机系统资源利用率异常:资源包括CPU、内存、磁盘和网络等,当其中一个或多个资源受到过度使用或不合理分配时,可能导致服务器卡顿问题。 问题处理 云主机使用资源共享型实例 步骤一:问题定位 检查当前云主机的规格类型,共享资源型和独享资源型实例的说明请参见规格类型。 步骤二:问题处理 独享资源型实例在云计算中独享物理服务器的资源,可以提供更稳定和可预测的性能。如果您对业务稳定性有较高要求,建议您将共享型实例变更为独享资源型实例,请参见变更规格。 云主机受到恶意软件或病毒的感染 步骤一:问题定位 定位云主机是否受到恶意软件感染,您可以运行受信任的杀毒软件或安全扫描工具,对服务器进行全面扫描。此外,您还可以检查操作系统、应用程序和安全软件是否为最新版本,并已应用最新的安全更新和补丁。 步骤二:问题处理 如果服务器受到恶意软件感染,及时采取行动非常重要。隔离服务器、运行安全扫描工具、清除恶意软件、更新系统等都是确保服务器安全的关键步骤。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        云主机卡顿
        Windows云主机卡顿
      • Linux云主机卡顿
        本文介绍如何处理Linux云主机卡顿问题。 问题原因 当您发现云主机的运行速度变慢或云主机突然出现网络断开的现象,则可能是由以下原因导致的。 1. 云主机使用共享型实例:共享型实例在云计算中是指多个虚拟机共享同一台物理服务器的资源,这会导致资源争用,可能导致服务器卡顿问题。 2. 云主机受到恶意软件或病毒感染:恶意软件可能执行各种恶意任务,占用大量计算资源,增加云主机网络带宽和资源消耗,影响正常的服务运行等,可能导致服务器卡顿问题。 3. 云主机系统资源利用率异常:资源包括CPU、内存、磁盘和网络等,当其中一个或多个资源受到过度使用或不合理分配时,可能导致服务器卡顿问题。 问题处理 云主机使用资源共享型实例 步骤一:问题定位 检查当前云主机的规格类型,共享资源型和独享资源型实例的说明请参见规格类型。 步骤二:问题处理 独享资源型实例在云计算中独享物理服务器的资源,可以提供更稳定和可预测的性能。如果您对业务稳定性有较高要求,建议您将共享型实例变更为独享资源型实例,请参见变更规格。 云主机受到恶意软件或病毒的感染 步骤一:问题定位 定位云主机是否受到恶意软件感染,您可以运行受信任的杀毒软件或安全扫描工具,对服务器进行全面扫描。此外,您还可以检查操作系统、应用程序和安全软件是否为最新版本,并已应用最新的安全更新和补丁。 步骤二:问题处理 如果服务器受到恶意软件感染,及时采取行动非常重要。隔离服务器、运行安全扫描工具、清除恶意软件、更新系统等都是确保服务器安全的关键步骤。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        云主机卡顿
        Linux云主机卡顿
      • 安全组和安全组规则概述
        本章节向您介绍什么是安全组与安全组规则。 安全组 安全组是一个逻辑上的分组,为具有相同安全保护需求并相互信任的云主机、云容器、云数据库等实例提供访问策略。安全组创建后,用户可以在安全组中定义各种访问规则,当实例加入该安全组后,即受到这些访问规则的保护。 您在创建实例时(比如云主机),必须将实例加入一个安全组,如果此前您还未创建任何安全组,那么系统会自动为您创建默认安全组并关联至该实例。除了默认安全组,您还可以根据业务需求创建自定义安全组并关联至实例。一个实例可以关联多个安全组,多个安全组按照优先级顺序依次匹配流量。 安全组中包括入方向规则和出方向规则,您可以针对每条入方向规则指定来源、端口和协议,针对出方向规则指定目的地、端口和协议,用来控制安全组内实例入方向和出方向的网络流量。 以下图为例,在区域A内,某客户有一个虚拟私有云VPCA和子网SubnetA,在子网SubnetA中创建一个云主机ECSA,并为ECSA关联一个安全组SgA来保护ECSA的网络安全。 安全组SgA的入方向存在一条放通ICMP端口的自定义规则,因此可以通过个人PC (计算机)ping通ECSA。但是安全组内未包含允许SSH流量进入实例的规则,因此您无法通过个人PC远程登录ECSA。 当ECSA需要通过EIP访问公网时,由于安全组SgA的出方向规则允许所有流量从实例流出,因此ECSA可以访问公网。 说明 您可以免费使用安全组资源,当前不收取任何费用。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        安全组
        安全组和安全组规则概述
      • 应用场景
        AI推理 函数计算在AI推理服务的部署和运维方面提供了显著的优势。 1. 高效运维少干预:函数计算允许AI工程师聚焦于AI模型训练和算法优化,当模型准备完毕时,将其包装成业务函数,即可以利用函数计算的底层基础设施进行AI运算和推理,显著提升开发效率。 2. 弹性高可用:借助函数计算,AI推理能够依据实时请求量动态调整资源,实现毫秒级的快速扩容。这意味着即使面对突发的高并发场景,也能迅速调度成千上万个CPU核心,确保计算资源始终充足,消除算力瓶颈。 3. 稳定高可靠性:函数计算提供了稳定的高可靠性保障,通过多版本管理机制,支持模型的灰度发布,便于执行算法的A/B测试,有效降低了新模型上线的风险。 视频转码 函数计算与函数工作流相结合,为构建Serverless视频处理系统提供了强大的支持,相比传统方案在工程效率、成本和性能等方面都更有优势。 1. 灵活转码:用户可以根据需求完全自定义视频转码函数,实现无缝支持自定义逻辑和特定的转码需求,从而满足多样化的视频处理要求。 2. 高效的并行处理能力:函数计算可以根据视频文件的数量和处理需求自动进行毫秒级的弹性伸缩,实现多个视频文件的同时并行处理,大幅提高视频处理的效率。 3. 成本效益显著:函数计算提供的按需计费模式使得用户只需为实际使用的计算资源付费,这种灵活的计量方式在不同的应用场景下都能带来显著的成本优势。 4. 快速且低成本的迁移:对于已经在虚拟机上部署的基于FFmpeg的视频处理服务,可以直接将相关命令移植到函数计算中,实现服务的快速迁移,迁移成本较低。
        来自:
        帮助文档
        函数计算
        产品介绍
        应用场景
      • Pod异常问题排查
        错误信息 说明 推荐的解决方案 日志中存在exit(0)。 容器中前台进程执行完毕正常退出。 非Job类型工作负载对应的Pod容器需要前台进程作为常驻进程,若前台进程执行完毕且无常驻进程,容器就会正常退出,kubelet检测到容器退出后重新拉起该容器,进而导致容器一直在重启。 修改容器主进程为常驻进程。 Event信息中存在Liveness probe failed:。 容器健康检查失败。 核查Pod中所配置的容器健康检查(Liveness Probe)策略是否符合预期,以及对应的健康检查条件是否满足。 Pod日志中存在no left space。 磁盘空间不足。 清理主机上不再需要的大文件或扩容磁盘。 启动失败,无Event信息。 可能是Pod中声明的Limit资源少于实际Pod进程启动所需资源。 检查Pod的资源配置是否正确。 Pod日志中出现Address already in use。 同一Pod中的Container端口存在冲突。 检查Pod是否配置了hostNetwork: true,这意味着Pod内的容器会直接与宿主机共享网络接口和端口空间。如果无需使用,请改为hostNetwork: false。 如果Pod需要使用hostNetwork: true,请配置Pod的反亲和性,确保同一副本集中的Pod被调度到不同节点。 检查并确保不存在也不会有两个或多个具有相同端口需求的Pod运行在同一台节点上。 检查主机上是否有主机进程占用了该端口,尽量避免在k8s节点主机上直接部署业务进程。 Pod日志中出现container init caused "setenv: invalid argument"": unknown。 工作负载中挂载了Secret,但Secret对应的值没有进行Base64加密。 通过控制台创建Secret,Secret对应的值会自动进行Base64加密。 通过YAML创建Secret,并执行echo n "xxxxx" base64命令手动对密钥值进行Base64加密。 无相关信息。 可能是业务Pod自身问题,如业务容器中进程启动参数有误。 查看Pod日志,通过业务日志内容排查问题。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        常见问题
        工作负载
        Pod异常问题排查
      • 有状态
        本节介绍了有状态服务的用户指南。 基本概念 有状态工作负载:即kubernetes中的“StatefulSet”,有状态工作负载支持实例有序部署和删除,支持持久化存储,适用于实例间存在互访的场景,如ETCD、mysqlHA等。 操作场景 在运行过程中会保存数据或状态的工作负载称为“有状态工作负载(statefulset)”。例如Mysql,它需要存储产生的新数据。 因为容器可以在不同主机间迁移,所以在宿主机上并不会保存数据,这依赖于云容器引擎提供的高可用存储卷,将存储卷挂载在容器上,从而实现有状态工作负载的数据持久化。 前提条件 在创建容器工作负载前,您需要存在一个可用集群。若没有请参照集群开通中内容创建。 若工作负载需要被外网访问,请确保集群中至少有一个节点已绑定弹性IP,或已购买负载均衡实例。 创建多个工作负载时,请确保容器使用的端口不冲突 ,否则部署会失败。 操作步骤及说明 创建StatefulSet与创建Deployment的过程类似,但主要有以下几个方面的差异,需要注意: 数据卷 除了Deployment能够使用的六种类型的数据卷之外,StatefulSet还多了新建PVC这种类型的数据卷挂载,而且这种类型的数据卷仅StatefulSet能够使用。一般情况下,如果我们使用StatefulSet来做数据的持久化,即可使用新建PVC这种数据卷。 使用这种数据卷挂载的时候,我们需要提前创建好存储类,然后点击上面的新建pvc。 新建pvc时的参数需要留意,只有同时满足下述条件,新建PVC才能成功绑定到我们提前创建的持久存储卷上: 名称可以任意填写 StorageClass;名称要选择我们提前创建好的持久存储类。 所需容器:不能超过我们提前创建好的持久存储卷的容量。 访问模式:要和我们提前创建的持久存储卷的访问模式一致。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        工作负载(旧版)
        有状态
      • 如何创建和管理数据库
        本页介绍了如何创建和管理文档数据库服务。 在文档数据库服务中,可以使用 use命令来创建和切换数据库,使用show命令来显示数据库列表和数据库信息,使用 db命令来管理当前数据库。以下是一些常见的文档数据库服务创建和管理数据库的方法: 创建数据库:使用 use 命令创建数据库,并切换到该库: use mydatabase 如果数据库不存在,则会自动创建。这个创建是隐式创建,创建完如果不做任何操作,使用 show dbs是看不到刚创建的数据库的。所以创建完一般为数据库插入一条记录: db.product.insert({"name":"洗衣机"}) 对于文档数据库服务,隐式创建集合只有在内容插入后才会创建,即创建集合(数据表)后要再插入一个文档(记录),集合才会真正创建。 查看所有的数据库:使用show dbs命令可以查看所有的数据库: show dbs 删除数据库:使用db.dropDatabase()可以删除当前使用的数据库: db.dropDatabase() 重命名数据库:使用 db.renameDatabase()可以重命名数据库: db.renameDatabase(" ", " ") 数据库权限管理:为数据库用户分配 read、write或 readWrite权限: db.createUser({ user: "user1", pwd: "", roles: [{ role: "read", db: "mydatabase" }] }) 切换数据库:使用 use 命令切换到其他数据库: use otherdatabase 查看当前使用的数据库:使用 db命令查看当前使用的数据库: db 创建库时,数据库名称命名请留意以下几点: 只能使用ASCII字符集中的字母、数字和下划线()。 不能使用句点(.)或美元符号($)作为数据库名称的第一个字符。 数据库名称应该小写,并且长度应该在1到64个字符之间。 文档数据库服务保留了几个数据库名称,例如 admin、config和 local等,不能使用这些名称作为数据库名称。 数据库名称应该和应用程序的名称或业务领域相关,以便更好地管理和维护数据库。
        来自:
        帮助文档
        文档数据库服务
        开发指南
        数据库使用
        如何创建和管理数据库
      • 移动办公
        本节介绍了移动办公的最佳实践介绍。 天翼云电脑支持手机、Pad等多种移动终端,使用3/4/5G、WIFI网络登录云电脑,即可随时随地访问云电脑资源,随时进行收发文件,及时处理办公问题,实现移动办公。 前提条件 已开通云电脑,详情请参见订购云电脑。 注意事项 天翼云电脑支持多终端适配:适配PC、Mac、iOS、安卓等多终端,多外设支持:鼠标、键盘、打印机、扫描仪等外设无缝衔接(备注:手机、Pad等移动终端不支持USB外设),详情可查看外设兼容性建议清单。 应用场景说明 其常用方式: (1)外出无需携带电脑,通过手机等移动客户端接入云电脑进行操作,轻松调用云端资源进行移动办公; (2)天翼云电脑客户端支持接入扩展坞、键盘、鼠标等主流外设,与传统PC一致的使用体验。 操作步骤 步骤一:以天翼云电脑移动客户端为例,帮助您快速登录连接云电脑。步骤详见:登录连接云电脑 执行结果 当用户通过手机等移动客户端接入云电脑进行操作,轻松调用云端资源进行移动办公。例如:文档编辑,邮件接收和发送,浏览网页,日程办公软件使用等场景都可以轻松实现。 场景一:文档编辑 (1)和传统pc一样,可以在云电脑内正常使用文档编辑器,进行文档编辑。 (2)在编辑过程中可以使用云电脑内的键盘功能,更便捷的进行编辑输入。 场景二:邮件接收和发送 可以在云电脑内通过浏览器或安装邮箱客户端实现邮件的查收和发送。
        来自:
        帮助文档
        天翼云电脑(公众版)
        最佳实践
        移动办公
      • OpenSSH用户枚举漏洞修复最佳实践
        本节介绍OpenSSH用户枚举漏洞修复最佳实践。 漏洞编号 CVE201815473 漏洞名称 OpenSSH 用户枚举漏洞 漏洞描述 OpenSSH(OpenBSD Secure Shell)是OpenBSD计划组所维护的一套用于安全访问远程计算机的连接工具, 该工具是SSH协议的开源实现,支持对所有的传输进行加密,可有效阻止窃听、连接劫持以及其他网络级的攻击; OpenSSH 7.7及之前版本中存在用户枚举漏洞,该漏洞源于程序会对有效的和无效的用户身份验证请求发出不同的响应,攻击者可通过发送特制的请求利用该漏洞枚举用户名称。 影响范围 OpenSSH 7.7及之前版本 官方解决方案 应用补丁可以修复此漏洞,需要重新编译,补丁获取链接:< 新版本OpenSSH7.8已经修复这个安全问题,请到厂商的主页下载,下载链接: < < 检测与修复建议 服务器安全卫士(原生版)已支持对对该漏洞的检测与修复。需要在服务器安装部署Agent,并已开启安全防护。 1. 登录服务器安全卫士(原生版)控制台。 2. 在左侧导航栏选择“漏洞扫描”,进入漏洞扫描页面。 3. 在漏洞扫描页面点击“一键扫描”按钮,进入一键扫描设置页面,勾选相应参数设置进行漏洞扫描。 4. 在漏洞扫描详情页面, Windows系统漏洞列表中已检测出主机存在的OpenSSH漏洞。 5. 检测完成后,可点击“查看详情”,跳转到详情页面,可以根据修复建议修复漏洞。 6. 修复过程需要花费一段时间,修复完成后,请重启云主机使补丁生效。 7. 重启云主机后,再次单击“一键扫描”,验证该漏洞是否修复成功。
        来自:
        帮助文档
        服务器安全卫士(原生版)
        最佳实践
        OpenSSH用户枚举漏洞修复最佳实践
      • 卸载ICAgent
        批量卸载 当您已有服务器安装过ICAgent,且该服务器“/opt/ICAgent/”路径下ICAgent安装包ICProbeAgent.zip存在,通过该方式可对多个远端服务器进行一键式继承批量卸载。 注意 批量卸载的ECS需同属一个VPC下,并在同一个网段中。 前提条件 已收集需要卸载Agent的所有虚拟机IP、密码,按照iplist.cfg格式整理好,并上传到已安装过ICAgent机器的/opt/ICAgent/目录下。iplist.cfg格式示例如下所示,IP与密码之间用空格隔开: 192.168.0.109 密码(请根据实际填写) 192.168.0.39 密码(请根据实际填写) 说明 iplist.cfg中包含您的敏感信息,建议您使用完之后清理一下。 如果所有弹性云服务器的密码一致,iplist.cfg中只需列出IP,无需填写密码,在执行时输入此密码即可;如果某个IP密码与其他不一致,则需在此IP后填写其密码。 iplist.cfg文件中每一行应以回车作为结尾。 操作步骤 步骤 1 在已安装ICAgent的服务器上执行如下命令。 bash /opt/oss/servicemgr/ICAgent/bin/remoteUninstall/remoteuninstall.sh batchModeConfig /opt/ICAgent/iplist.cfg 根据脚本提示输入待卸载机器的root用户默认密码,如果所有IP的密码在iplist.cfg中已有配置,则直接输入回车键跳过即可,否则请输入默认密码。 batch uninstall begin Please input default passwd: send cmd to 192.168.0.109 send cmd to 192.168.0.39 2 tasks running, please wait... End of uninstall agent: 192.168.0.109 End of uninstall agent: 192.168.0.39 All hosts uninstall icagent finish. 请耐心等待,当提示All hosts uninstall icagent finish.时,则表示配置文件中的所有主机卸载操作已完成。 步骤 2 卸载完成后,在应用性能管理左侧导航栏中选择“配置管理 > Agent管理”,查看该服务器ICAgent状态。
        来自:
        帮助文档
        应用运维管理
        用户指南
        配置管理
        Agent管理
        卸载ICAgent
      • 为应用挂载数据卷
        本文介绍如何为应用挂载数据卷。 Docker镜像是由多个文件系统叠加而成,当启动一个容器的时候,Docker会加载只读镜像层并在上面添加一个读写层。当删除Docker容器并通过该镜像重新启动时,之前的更改将会丢失。为了能够保存数据以及共享容器间的数据,Docker提出了数据卷的概念。简单来说,数据卷就是目录或者文件,它可以绕过默认的联合文件系统,以正常的文件或者目录的形式存在于主机上。 在Docker中,数据卷只是磁盘或另一容器中的目录。其生命周期不受管理,且Docker现在提供的卷驱动程序功能非常有限。容器引擎CCE采用的是Kubernetes的数据卷的概念,Kubernetes数据卷具有完善的生命周期管理,支持多种类型的数据卷,同时实例可以使用任意数量的数据卷。 云容器引擎支持四类本地磁盘挂载类型:支持hostPath、emptyDir、configMap、secret。各类型说明如下: hostPath:指定主机中的文件或目录挂载到容器的某一路径中; EmptyDir:用于临时存储,生命周期与容器实例相同。容器实例消亡时,EmptyDir会被删除, 数据会永久丢失; ConfigMap:将配置文件中的key映射到容器中,可以用于挂载配置文件到指定容器目录; Secret:将密钥中的数据挂载到指定的容器路径。 操作步骤 1.在创建应用或升级应用流程中,进去容器设置步骤,点击【数据存储】,点击【添加本地磁盘】,进入本地磁盘添加页面; 1)卷类型选择hostPath,表示在容器上挂载宿主机上的文件或目录。通常用于“容器应用程序生成的日志文件需要永久保存”或者“需要访问宿主机上Docker引擎内部数据结构的容器应用”,具体参数说明如下所示: 参数 参数说明 存储类型 选择主机路径 主机路径 输入主机路径,如/tmp 挂载路径 数据卷挂载到容器上的路径 注意: 请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,应用创建失败 子路径 相对路径 权限 只读:只能读容器路径中的数据卷; 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失; 2)卷类型选择emptyDir:容器分配到节点时系统将自动创建卷,初始内容为空。在同一个Pod中所有容器可以读写emptyDir中的相同文件。当Pod从节点上移除时,empryDir中的数据也会永久删除。通常用于临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择临时路径 磁盘介质 不勾选:存储在硬盘上,适用于数据量大,读写效率要求低的场景 勾选:存储在内存中,适用于数据量少,读写效率要求高的场景 挂载路径 数据卷挂载到容器上的路径。 注意: 请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,应用创建失败 权限 只读:只能读容器路径中的数据卷 可写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失 3)卷类型选择configMap:平台提供应用代码和配置文件的分离,configMap用于处理应用配置参数。用户需要提前创建应用配置,操作步骤请参见创建配置项,临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择配置项 配置项 选择已经建立好的配置项 说明: configMap需要提前创建 挂载路径 数据卷挂载到容器上的路径 权限 只读:只能读容器路径中的数据卷 4)卷类型选择secret:用户需要提前创建私密凭据,操作步骤请参见创建私密凭据,临时数据的高速存储,具体参数说明如下所示: 参数 参数说明 存储类型 选择私密凭据 卷类型 选择已经创建好的私密凭据 说明: secret需要提前创建,请参见 创建私密凭据 挂载路径 数据卷挂载到容器上的路径 权限 只读:只能读容器路径中的数据卷 2.点击【添加容器挂载】,可新增挂载项,点击【删除】可删除之前的容器挂载配置; 3.点击【确定】,完成本地磁盘的添加。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        应用资源
        应用创建配置
        为应用挂载数据卷
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 下一代防火墙v1.0
        本节介绍云等保专区产品的下一代防火墙配置类问题。 下一代防火墙如何进行接入策略设置? 首先明确资源池区域,如果资源池为:南宁23、华东1、上海36、武汉41、青岛20、华北2、长沙42、西南1、南昌5,进行如下配置: 1. 用户登录到云等保专区后,进入“下一代防火墙”原子能力,进行绑定弹性IP操作,点击“绑定弹性IP”。 根据弹出的弹性IP地址,选择需要绑定的具体IP地址。 2. 完成弹性IP绑定工作后需要进行子网路由绑定,进入到天翼云控制台,选择“网络 > 虚拟私有云”进入配置页面。 3. 选择“路由表 > 创建路由表”,进行路由表创建。填写路由名称,以及需要防护的VPC之后,在关联资源类型处选择“子网”。 4. 创建完成后,根据刚才创建的名称选择刚才创建的路由,点击名称进入子网路由配置页面,点击“创建”按钮,进行子网路由创建操作。 5. 在路由规则创建处填写对应的IP地址,在云主机选择是选择下一代防火墙的云主机。 6. 进行子网关联设置,点击“关联子网”模块,选择需要关联的子网,点击“确定”按钮即可。 7. 在系统菜单中点击“策略 > 防火墙策略 > 一体化策略”,进入一体化策略配置页面。 8. 点击“新建”创建新的一体化策略。 其余资源池进行如下配置: 1. 用户登录到云等保专区后,进入“下一代防火墙”原子能力,进行绑定弹性IP操作,点击“绑定弹性IP”。 根据弹出的弹性IP地址,选择需要绑定的具体IP地址。 2. 确认需要防护的资产在子网内的IP地址。 3. 完成弹性IP绑定操作之后,点击进入下一代防火墙配置,进入下一代防火墙配置页面,点击“NTA策略”“策略”“新建”,进入NAT配置新建一条DNAT规则。 4. 建立防火墙上端口到资产业务端口的端口映射(以防火墙开放10022端口映射到资产22端口为例)。 5. 配置完毕点击右上角保存按钮保存。 6. 在系统菜单中点击“策略 > 防火墙策略 > 一体化策略”,进入一体化策略配置页面。 7. 点击 创建新的一体化策略。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        下一代防火墙
        下一代防火墙v1.0
      • 索引存储设置
        您可以根据实际情况,配置索引的存储节点信息,支持设置为Redis或MySQL类型。 注意事项 修改存储设置后,需要重新启动GiServer服务并重建索引。 启动GiServer也将重启该节点的DBProxy服务,启动期间该节点不可用,可能影响查询效率,请谨慎操作。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击全局索引 ,进入GiServer存储设置页签。 5. 在GiServer设置区域,根据实际情况,配置如下存储节点信息。 存储类型 设置为redis: 参数 描述 redis类型 Redis类型,取值范围: 单机版 集群版 host IP地址。 说明 单机版只能输入一个IP地址。 集群版可以输入多个IP地址,使用英文逗号(,)分隔,例如127.0.0.1,127.0.0.2。 port 端口号。 说明 只需输入一个端口号即可。 password 密码。 说明 只需输入一个密码即可。 minIdle 最小空闲连接数。 maxIdle 最大空闲连接数。 maxTotal 最大连接数。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 存储类型 设置为mysql: 参数 描述 使用已开通的RDS 是否使用已开通的MySQL实例。 如果您使用已开通的MySQL实例,则只需打开该开关,在选择MySQL 中配置目标MySQL实例,即可自动获取该MySQL实例的数据库IP 和数据库端口。 数据库IP 已部署MySQL数据库的机器IP地址。 注意 只有从Giserver能连接到MySQL数据库的机器IP地址才有效,建议输入与Giserver相同VPC下的IP地址。 数据库端口 MySQL数据库的访问端口。 数据库用户 MySQL数据库用户。 数据库密码 MySQL数据库的密码。 初始连接数 Giserver初始化时创建的数据库连接数(数据库连接池参数)。 最小空闲连接数 连接池里始终保持的最小空闲连接数。 说明 即使Giserver性能压力很小,连接池仍会保证至少可用的数据库连接数,以快速响应新请求。 最大活跃连接数 连接池里允许的最大并发连接数。 说明 通过限制连接池最多可以支持同时建立的数据库连接数,可以防止Giserver性能压力较大时,MySQL数据库因数据库资源耗尽或过载出现的异常。 获取链接超时时间(毫秒) Giserver从连接池中获取的MySQL数据库连接的最大等待时间。当超过等待时间,Giserver与MySQL数据库还未建立连接,则会报错。 索引查询超时时间(秒) DBProxy执行SQL查询时,使用全局索引的最大允许时间。当超过最大允许时间,DBProxy会跳过索引,使用广播查询。 元数据库名 MySQL数据库的元数据库名称。 GiServer启动节点 GiServer启动节点。将会在所选择的GiServer节点部署GiServer服务,可选择低负载节点进行部署启动。 注意 至少选择一个。 支持选择多个,可实现高可用索引服务,但同时会占用节点内存,可根据业务按需选择。 6. 单击检测,并等待检测通过。 注意 存储类型 设置为redis时,无法检测redis,请自行确保redis信息填写正确。 存储类型 设置为mysql 时,必须检测通过后,才能单击保存。 7. 单击保存。 8. 在确认启动GiServer节点 对话框中,确认启动的GiSever节点信息无误后,单击确认启动。 启动成功后,您可以在索引服务管理 页签下,查看已启动的GiServer节点信息,其中,节点初始化状态 为已初始化 、节点状态 为运行中。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        全局索引
        索引存储设置
      • 计费类问题
        如何让云主机备份服务不再扣费? 删除所有备份。已经创建过镜像的备份不允许手动或自动删除,如果想要删除备份,需要先删除该备份创建的镜像。 将服务器/磁盘从备份策略中解绑,并且停用所有备份策略。当天备份删除后,由于当天费用太少而会小额累加,会出现在第二天才会进行扣费的情况。后续将再无扣费产生。 如何停用云主机备份? 如您希望停用云服务器备份可前往云服务器备份界面进行如下操作: 删除所有备份。已经创建过镜像的备份不允许手动或自动删除,如果想要删除备份,需要先删除该备份创建的镜像。 将服务器/磁盘从备份策略中解绑,并且停用所有备份/复制策略。 云主机备份无法直接关闭,可以通过上面的方法停用云主机备份。 为什么备份删除后还有扣费? 当天备份删除后,由于当天费用太少而会小额累加,会出现在第二天才会进行扣费的情况。云主机备份无法直接关闭,如您希望停用云主机备份,请参考如何停用云主机备份进行操作。 云主机备份后会同步云硬盘备份产生对应服务器的云硬盘备份,这个备份是怎么计算的? 如果备份的来源是云主机备份,就不收费。单独的云硬盘备份是收费的。 显示在云硬盘备份界面的云服务器备份是否会重复计费吗? 不会重复计费,云主机创建的云服务器备份也会出现在云硬盘备份界面,可以在备份详情的“来源”中识别云服务器备份。 云服务器备份实际上是对其中的每一个磁盘进行备份,这些磁盘的备份会同时在VBS备份列表展示,您可以直接在VBS使用这些备份恢复磁盘。
        来自:
        帮助文档
        云主机备份 CSBS
        常见问题
        计费类问题
      • 以OpenTelemetry方式接入
        在监控c应用之前,您需要通过客户端将应用数据上报至APM服务端。本文介绍如何通过OpenTelemetry c SDK上报c应用数据。 前提条件 完成vpce接入。 背景信息 OpenTelemetry c SDK提供了c语言的分布式链路追踪能力,您可以直接使用OTLP gRPC或者HTTP协议向APM服务端上报数据。 接入步骤 1、安装依赖包 plaintext dotnet add package OpenTelemetry.Exporter.Console dotnet add package OpenTelemetry.Extensions.Hosting dotnet add package OpenTelemetry.Instrumentation.AspNetCore dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol 2、查看接入点信息 应用列表的接入指引会根据您所在资源池提供“通过 HTTP 上报数据”和“通过 gRPC 上报数据”的ENDPOINT(天翼云vpc网络接入点)、鉴权TOKEN信息。 3、初始化SDK并设置exporters 1)使用http协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplehttp"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用HTTP协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.HttpProtobuf;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run(); 2)使用grpc协议上报,修改Program.cs代码如下 plaintext using OpenTelemetry.Resources; using OpenTelemetry.Trace; using OpenTelemetry.Exporter; // Ideally, you will want this name to come from a config file, constants file, etc. var serviceName  "csharpotelsimplegrpc"; var serviceVersion  "1.0.0"; var builder  WebApplication.CreateBuilder(args); builder.Services.AddOpenTelemetry()     .ConfigureResource(resource > resource.AddService(         serviceName: serviceName,         serviceVersion: serviceVersion))     .WithTracing(tracing > tracing         .AddSource(serviceName)         .AddAspNetCoreInstrumentation()         .AddConsoleExporter()        //在控制台导出Trace数据,可选         .AddOtlpExporter(options >         {             //使用gRPC协议上报             options.Endpoint  new Uri(" ");             options.Headers  "xctgauthorization ";             options.Protocol  OtlpExportProtocol.Grpc;         })); builder.Services.AddControllers(); var app  builder.Build(); app.MapControllers(); app.Run();
        来自:
        帮助文档
        应用性能监控 APM
        快速入门
        接入C#应用
        以OpenTelemetry方式接入
      • 关联MySQL设置
        本章节主要介绍分组管理中的关联MySQL设置相关操作,用于设置实例关联的后端数据库属性,大部分情况下按默认设置即可。 注意事项 设置属性后,需要重启服务节点后才能生效。 仅V2.9.0及以后版本创建的实例,支持设置自定义读写分离权重。 关联MySQL实例后,该MySQL实例将无法直接被退订。如果您的业务不再需要使用该MySQL实例,您可以解除关联后,在MySQL > 实例管理页面退订该MySQL实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击分组管理,进入分组管理页面。 5. 在分组列表中,找到目标分组,单击操作 列的属性设置 ,进入分组配置面板。 6. 单击关联RDS设置页签。 7. 单击操作 列的设置属性 ,然后在设置属性面板中配置服务节点连接MySQL的行为参数。 属性列表 关联MySQL可配置属性如下所示: 属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即balance 0,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即balance 1,表示开启读写分离,所有事务外(autocommit1)的SELECT语句发往读节点;所有事务内(autocommit0)的语句发往写节点。 读语句随机发往读库和写库 :即balance 2,表示开启读写分离,所有事务外(autocommit1)的SELECT语句随机发往读节点或写节点;所有事务内(autocommit0)的语句发往写节点。 自定义权重 :即banlance 3,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅读写分离配置 设置为自定义权重时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • xlog(WAL)堆积类问题
        本页介绍天翼云TeleDB数据库xlog(WAL)堆积类问题。 xlog(WAL)堆积问题总体排查思路 问题描述 xlog(WAL)堆积,明显超过预期大小,导致磁盘空间使用率上涨,甚至打满磁盘,影响实例运行。 可能影响 占用更多的磁盘空间; 可能会打满磁盘,影响实例运行。 解决步骤 1. 首先检查WAL和归档相关参数,核实参数是否符合预期; > 连接到WAL日志堆积的节点,执行以下SQL: > > select currentsetting('walkeepsegments') as walkeepsegments,(select count(1) > from pglsdir('./pgwal/')) as walcount; > WAL相关参数中,walkeepsegments为保留WAL日志文件的数量,通常实际统计的WAL日志文件数量比walkeepsegments稍多,相差几百内都属于正常范围,明显超出则确定WAL日志有堆积; 2. 检查WAL日志增长量是否符合预期; > 登录WAL日志堆积的节点所在服务器,进入pgwal目录,执行以下shell命令,按纬度统计WAL数量; > 统计每小时日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7" "$8}'awk F: '{print $1}'sort uniq c > 统计每天日志数量 > > ls lrt egrep [09AZ]{16}awk '{print $6" "$7}'awk F: '{print $1}'sort uniq c 3. 检查复制槽状态,是否有activefalse的复制槽; > 连接到WAL日志堆积的节点,执行以下SQL: > > select from pgreplicationslots where activefalse; > 如果有activefalse的复制槽,那么就会导致WAL堆积,需要核实并解决复制槽问题; 4. 如果不是复制槽问题,可以继续检查归档配置是否正确; > 连接到WAL日志堆积的节点,执行以下SQL: > > show archivestatuscontrol; > 如果参数查询结果为break,那么WAL日志文件不会被正常删除,需要核实并更正参数为continue; 5. 检查归档执行状态是否正常; > 登录WAL日志堆积的节点所在服务器,检查archiver进程状态是否正常,进程显示的last 归档的文件是否在更新。 > > ps fegrep archiver > 查询结果显示为archiver process failed on xxx,则说明归档败了,需要进一步排查归档失败原因; > 也可以执行以下SQL查询归档执行状: > > select from pgstatgetarchiver(); > 其中failedcount>0表示有归档失败。 6. 检查归档速度是否正常; > 如果归档正常,那需要检查归档速度是否正常,归档速度是否能赶上WAL日志生成的速度,如果归档速度比生成的慢,那么WAL日志会逐渐堆积起来,可以从减少WAL日志生成量和加快WAL日志文件归档两个方面入手进行优化; 7. 检查是否有长事务/长时间执行未结束的SQL; > 连接到WAL日志堆积的节点,执行以下SQL: > > select pid,clientaddr,statechange,querystart,statechange,EXTRACT(EPOCH FROM > (now()querystart)),query,state,usename,applicationname from pgstatactivity where > EXTRACT(EPOCH FROM (now()querystart))>600 and state!'idle'; > 如果有长时间执行未结束的SQL或事务,需要核实后清理掉,避免影响WAL日志文件的清理。 8. 如果影响业务,需要快速恢复,可以先手动清理,再定位原因; > 登录WAL日志堆积的节点所在服务器,进入pgwal/archivestatus目录,执行以下shell命令,修改.ready 的扩展名称.done > > find .ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done > 或 > > ls lrt grep .ready awk F' ' '{print $NF}' xargs i rename ready done ./{} > 如果提示有太多的bash: /usr/bin/find: Argument list too long,则需要分批修改,具体前缀可以 top看一下 Arichve 进程当前在处理哪个WAL,然后取其前缀就行,例如: find 00000001000005[19].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done find 00000001000005[AF].ready sed 's/.ready$//' xargs I {} mv {}.ready {}.done
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        故障处理
        xlog(WAL)堆积类问题
      • 部署HBlock
        本节主要介绍部署单机版HBlock。 部署HBlock的主要步骤为: 1. 安装前准备:准备一个或多个目录作为HBlock数据目录,安装HBlock的用户对这些目录有读写权限,用来存储HBlock数据。 说明 为了避免相互影响,建议数据目录不要与操作系统共用磁盘或文件系统。 2. 解压缩安装包,并进入解压缩后的文件夹路径。 3. 安装并初始化HBlock。 4. 获取软件证书并加载。 5. 创建iSCSI Target并查询。 6. 创建卷并查询。 说明 下面以x86服务器的HBlock安装部署举例,ARM服务器或者龙芯服务器的安装部署与x86服务器的安装部署相同。 详细步骤 1. 请先完成以下准备工作:在服务器上准备一个或多个目录作为HBlock数据目录,用来存储HBlock数据。如:/mnt/storage01,/mnt/storage02。 2. 将安装包放到服务器欲安装HBlock的目录下并解压缩,进入解压缩后的文件夹(以HBlock 4.0.0为例)。 plaintext unzip CTYUNHBlockPlus4.0.0x64.zip cd CTYUNHBlockPlus4.0.0x64 3. 安装并初始化HBlock。 1. 安装HBlock。 注意 安装HBlock和执行HBlock管理操作的应该属于同一用户。 在服务器上安装HBlock。 ./stor install [ { a apiport } APIPORT ] [ { w webport } WEBPORT ] APIPORT :指定API端口号,默认端口号为1443。 WEBPORT :指定WEB端口号,默认端口号为2443。 2. 初始化HBlock。 初始化HBlock具体命令行详见初始化HBlock。 ./stor setup { n storname } STORNAME [ { u username } USERNAME ] { p password } PASSWORD { s server } { SERVERIP [:PORT ]:PATH & } [ { P publicnetwork } CIDR ] [ iscsiport ISCSIPORT ] [portrange PORT1PORT2 ] [ managementport1 MANAGEMENTPORT1 ] [ managementport2 MANAGEMENTPORT2 ] [ managementport3 MANAGEMENTPORT3 ] [ managementport4 MANAGEMENTPORT4 ] [ managementport6 MANAGEMENTPORT6 ] 说明 可以通过web、命令行和API进行初始化HBlock。 3. 查询服务器。 ./stor server ls [ { n server } SERVERID ] [ port ] 4. 获取软件许可证并加载 HBlock软件提供30天试用期,过期后仅部分功能可用,详见软件许可证到期(试用期或订阅模式)后仍可用的功能。您可以通过下列步骤获取软件许可证。 1. 获取HBlock序列号。 ./stor info { S serialid } 2. 联系HBlock软件供应商获取软件许可证,获取的时候需要提供HBlock序列号。 3. 获取软件许可证后,执行加载。 ./stor license add { k key } KEY 5. 创建iSCSI Target并查询。 1. 创建iSCSI Target。 创建iSCSI Target命令行详见创建iSCSI Target。 ./stor target add { n name } TARGETNAME [ maxsessions MAXSESSIONS ] [ { c chapname } CHAPNAME { p password } CHAPPASSWORD { s status } STATUS ] 说明 如果允许 iSCSI Target下的IQN建立多个会话,可以通过配置参数maxsessions MAXSESSIONS 来实现。 2. 查询iSCSI Target。 ./stor target ls [ c connection ] [ { n name } TARGETNAME ] 6. 创建卷并查询卷 1. 创建卷 创建卷命令行详见创建卷。 本地卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] [ { { m mode } STORAGEMODE ] 上云卷 ./stor lun add { n name } LUNNAME { p capacity } CAPACITY { t target } TARGETNAME [ { o sectorsize } SECTORSIZE ] [ { w writepolicy } WRITEPOLICY ] [ { P path } PATH ] { m mode } STORAGEMODE { B bucket } BUCKETNAME { A ak } ACCESSKEY { S sk } SECRETKEY [ { C cloudstorageclass } CLOUDSTORAGECLASS ] { E endpoint } ENDPOINT [ signversion VERSION ] [ region REGION ] [ { M cloudcompression } CLOUDCOMPRESSION ] [ { O objectsize } OBJECTSIZE ] [ { X prefix } PREFIX ] 2. 查询卷 ./stor lun ls [ { n name } LUNNAME ]
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-单机版
        部署HBlock
      • 数据空间管理
        本页介绍天翼云TeleDB数据库空间管理相关操作。 操作场景 您可按照百分比或分片形式对数据节点上的数据进行迁移。数据迁移需要实例集群内部至少有两个数据节点组。 操作步骤 1. 切换至TeleDB控制台 ,在左侧导航树上,单击数据空间管理 ,进入数据空间管理页面。 2. 数据迁移 注意 在进行数据迁移前,请确保所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据将无法完成迁移。 1. 选择数据迁移 页签,单击 创建任务 ,出现创建迁移任务对话框。 2. 在创建迁移任务对话框,输入 任务名称 、 源节点 、目标节点 和 迁移类型 。 任务名称:根据自己的需求填写,可自定义。 源节点:根据实际情况选择。 目标节点:根据自己的实际情况选择。 迁移类型:分为shard迁移 和百分比迁移 。 Shard迁移:按照分片迁移,需要选择分片,单次可迁移的分片最大为1000。选择分片迁移需移动分片至已选shard。 百分比迁移:按照源节点上的数据百分比进行迁移,需要输入1100的整数。 单击确定完成任务迁移。 3. 空间清理 说明 当数据被删除或更新时,TeleDB将其标记为无效,但并不立即回收相关的存储空间。需要定期执行空间清理操作,以检查并释放被标记为无效的数据所占用的空间。这样可以确保数据库在长时间运行后不会因为无效数据的积累而占用过多的磁盘空间。 1. 选择空间清理 页签,单击创建任务 ,出现创建清理任务对话框。 2. 选择 源节点 、清理开始时间 和清理结束时间 ,单击确定 。 4. 空间回收 说明 经过空间清理任务后的实例并没有立即释放空间,用户可以通过空间回收任务对实例进行重建表和索引,自动释放被空间清理回收的空间。 1. 选择空间回收 页签,单击创建任务 ,出现创建回收任务对话框。 2. 选择回收节点 、设置回收开始时间 和 回收结束时间 ,单击确定完成空间回收。 5. 数据重平衡 说明 用户可以通过数据重平衡,依据磁盘使用率,把节点组原有的数据平均分布到节点组内各个节点上。该功能会自动生成迁移任务以及空间清理任务,用户可以在任务详情或者在对应功能页面查看任务具体执行情况。 1. 选择重平衡任务 页签,单击 创建任务 ,出现创建数据重平衡任务对话框。 2. 输入任务名称 ,选择节点组 ,单击确定 ,完成数据重平衡。 6. 表空间管理 说明 用户通过对表空间进行管理,以组织数据存储,在物理设备上合理分配数据。 1. 创建表空间 1. 选择表空间管理 页签,单击创建表空间 ,出现创建表空间对话框。 2. 在创建空间表对话框,填写表空间名称 ,选择归属账号 ,填写挂载目录 , 并检测目录有效性 ,单击确定完成表空间的创建。 说明 表空间名字请参照以下格式: 1. 不能以pg开头。 2. 只支持大小写字母、数字和下划线。 3. 只能以字母开头。 2. 修改表空间 单击编辑按钮,在弹出的编辑表空间可修改表空间或查看表空间。 3. 删除表空间 单击删除 按钮,在出现的警告提示框,单击确定即可删除表空间。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        数据空间管理
      • 创建节点伸缩策略
        本文主要介绍创建节点伸缩策略。 CCE的自动伸缩能力是通过节点自动伸缩组件autoscaler实现的,可以按需弹出节点实例,支持多可用区、多实例规格、多种伸缩模式,满足不同的节点伸缩场景。 当节点伸缩中创建的策略和autoscaler插件中的配置同时生效时(比如不可调度和指标规则同时满足时),将优先执行不可调度扩容。 若不可调度执行成功,则会跳过指标规则逻辑,进入下一次循环。 若不可调度执行失败,将执行指标规则逻辑。 前提条件 使用节点伸缩功能前,需要安装autoscaler插件,插件版本要求1.13.8及以上。 约束限制 仅按需计费节点池支持弹性伸缩。 弹性伸缩的策略作用在节点池,当节点池中节点为0时,且按CPU/内存弹性伸缩时,不会触发节点伸缩。 缩容节点会导致与节点关联的本地持久存储卷类型的PVC/PV数据丢失,无法恢复,且PVC/PV无法再正常使用。缩容节点时使用了本地持久存储卷的Pod会从缩容的节点上被驱逐,并重新创建Pod,Pod会一直处于pending状态,因为Pod使用的PVC带有节点标签,由于冲突无法调度成功。 操作步骤 步骤 1 在CCE控制台,单击集群名称进入集群。 步骤 2 单击左侧导航栏的“节点伸缩”,进入创建节点伸缩策略页面。 若插件名称后方显示“未安装”,请单击插件后方的“安装”,根据业务需求配置插件参数后单击“安装”,等待插件安装完成。 若插件名称后方显示“已安装”,则说明插件已安装成功。 步骤 3 单击右上角“创建节点伸缩策略”,参照如下参数设置策略。 策略名称:新建策略的名称,请自定义。 关联节点池:选择要关联的节点池。您可以关联多个节点池,以使用相同的伸缩策略。 说明 节点池新增了优先级功能,弹性扩容时CCE将按照如下策略来选择节点池进行扩容: 1. 通过预判算法判断节点池是否能满足让Pending的Pod正常调度的条件,包括节点资源大于Pod的request值、nodeSelect、nodeAffinity和taints等是否满足Pod正常调度的条件;另外还会过滤掉扩容失败(因为资源不足等原因)还处于15min冷却时间的节点池。 2. 有多个节点池满足条件时,判断节点池设置的优先级(优先级默认值为0,取值范围为0100,其中100为最高,0为最低),选择优先级最高的节点池扩容。 3. 如果有多个节点池处于相同的优先级,或者都没有配置优先级时,通过最小浪费原则,根据节点池里设置的虚拟机规格,计算刚好能满足Pending的Pod正常调度,且浪费资源最少的节点池。 4. 如果还是有多个节点池的虚拟机规格都一样,只是AZ不同,那么会随机选择其中一个节点池触发扩容。 5. 如果出现优先选择的节点池资源不足,会按照优先级顺序自动选择下一个节点池。 节点池优先级功能详情请参见创建节点池。 执行规则:单击“添加规则”,在弹出的添加规则窗口中设置如下参数: 规则名称: 请输入规则名称,可自定义。 规则类型: 可选择“指标触发”或“周期触发”,两种类型区别如下:指标触发: 触发条件:请选择“CPU分配率”或“内存分配率”,输入百分比的值。该百分比应大于autoscaler插件中配置的缩容百分比。 说明 分配率 节点池容器组(Pod)资源申请量 / 节点池Pod可用资源量 (Node Allocatable) 。 如果多条规则同时满足条件,会有如下两种执行的情况: 如果同时配置了“CPU分配率”和“内存分配率”的规则,两种或多种规则同时满足扩容条件时,执行扩容节点数更多的规则。 如果同时配置了“CPU分配率”和“周期触发”的规则,当达到“周期触发”的时间值时CPU也满足扩容条件时,较早执行的A规则会将节点池状态置为伸缩中状态,导致B规则无法正常执行。待A规则执行完毕,节点池状态恢复正常后,B规则也不会执行。 配置了“CPU分配率”和“内存分配率”的规则后,策略的检测周期会因autoscaler每次循环的处理逻辑而变动。只要一次检测出满足条件就会触发扩容(当然还要满足冷却时间、节点池状态等约束条件)。 周期触发: 触发时间:可选择每天、每周、每月或每年的具体时间点,如下图所示,则为每天15:00触发。 图 周期触发时间 执行动作 :与上述“触发条件”或“触发时间”相对应,达到触发条件或触发时间值后所要执行的动作。 您可以单击“添加规则”,设置多条节点伸缩策略。您最多可以添加1条CPU使用率指标规则、1条内存使用率指标规则,且规则总数小于等于10条。 步骤 4 设置完成后,单击“确定”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        弹性伸缩
        集群/节点弹性伸缩
        创建节点伸缩策略
      • DWS权限管理
        本章节主要介绍数据仓库服务的权限管理。 如果您需要对云上的DWS资源,为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(Identity and Access Management,简称IAM)进行精细的权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全的控制云资源的访问。 通过IAM,您可以在云帐号中给员工创建IAM用户,并授权控制他们对云资源的访问范围。例如您的员工中有负责软件开发的人员,您希望他们拥有DWS的使用权限,但是不希望他们拥有删除集群等高危操作的权限,那么您可以使用IAM为开发人员创建用户,通过授予仅能使用DWS,但是不允许删除集群的权限,控制他们对DWS资源的使用范围。 如果云帐号已经能满足您的要求,不需要创建独立的IAM用户进行权限管理,您可以跳过本章节,不影响您使用DWS服务的其它功能。 IAM是云提供权限管理的基础服务,无需付费即可使用,您只需要为您帐号中的资源进行付费。关于IAM的详细介绍,请参见统一身份认证用户指南中的“产品介绍”。 DWS权限 默认情况下,IAM管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略或角色,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于被授予的权限对云服务进行操作。 DWS部署时通过物理区域划分,为项目级服务。授权时,“作用范围”需要选择“区域级项目”,然后在指定区域对应的项目中设置相关权限,并且该权限仅对此项目生效;如果在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问DWS时,需要先切换至授权区域。 角色 :IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于云各服务之间存在业务依赖关系,因此给用户授予角色时,可能需要一并授予依赖的其他角色,才能正确完成业务。角色并不能满足用户对精细化授权的要求,无法完全达到企业对权限最小化的安全管控要求。 策略 :IAM最新提供的一种细粒度授权的能力,可以精确到具体服务的操作、资源以及请求条件等。基于策略的授权是一种更加灵活的授权方式,能够满足企业对权限最小化的安全管控要求。例如:针对DWS服务,IAM管理员能够控制IAM用户仅能对某一类资源进行指定的管理操作。 如下表所示,包括了DWS的所有系统权限。 DWS系统权限 系统角色/策略名称 描述 类别 依赖关系 DWS ReadOnlyAccess 数据仓库服务只读权限,拥有该权限的用户仅能查看数据仓库服务资源。 系统策略 无 DWS FullAccess 数据仓库服务数据库管理员权限,拥有数据仓库服务所有权限。 系统策略 无 DWS Administrator DWS数据库管理员权限,拥有对数据仓库服务的所有执行权限。 拥有VPC Administrator权限的DWS用户可以创建VPC或子网。 拥有云监控Administrator权限的DWS用户,可以查看DWS集群的监控指标信息。 系统角色 依赖Tenant Guest和Server Administrator策略,需要在同项目中勾选依赖的策略。 DWS Database Access DWS数据库访问权限,拥有该权限的用户,可以基于IAM用户生成临时数据库用户凭证以连接DWS集群数据库。 系统角色 依赖DWS Administrator,需要在同项目中勾选依赖的策略。 下表列出了DWS常用操作与系统权限的授权关系,您可以参照该表选择合适的系统策略。 说明 每个区域的每个项目首次使用弹性IP绑定功能时,系统将提示创建名称为“DWSAccessVPC”委托以授权DWS访问VPC。授权成功后,DWS可以在绑定弹性IP的虚拟机故障时切换至健康虚拟机。 在实际业务中,除了具备策略权限外还需要给不同角色的用户授予不同的资源操作权限。例如创建快照、重启集群等操作,详情请参见《数据仓库服务用户操作指南》中“策略语法:细粒度策略”章节。 默认情况下,只有云帐号或拥有Security Administrator权限的用户才具备查询委托和创建委托的权限。帐号中的IAM用户,默认没有查询委托和创建委托的权限,在使用弹性IP绑定功能时页面会屏蔽绑定按钮,此时需联系有“DWS Administrator”权限的用户在当前页面完成对DWS的委托授权。 DWS常用操作与系统权限的关系 操作 DWS FullAccess DWS ReadOnlyAccess DWS Administrator DWS Database Access 创建/恢复集群 √ x √ x 获取集群列表 √ √ √ x 获取单个集群详情 √ √ √ x 设置自动快照 √ x √ x 设置安全参数/参数组 √ x √ x 重启集群 √ x √ x 扩容集群 √ x √ x 重置密码 √ x √ x 删除集群 √ x √ x 设置可维护时间段 √ x √ x 绑定EIP x x √ x 解绑EIP x x √ x 创建DNS域名 √ x √ x 释放DNS域名 √ x √ x 修改DNS域名 √ x √ x 创建MRS连接 √ x √ x 更新MRS连接 √ x √ x 删除MRS连接 √ x √ x 添加/删除标签 √ x √ x 编辑标签 √ x √ x 创建快照 √ x √ x 获取快照列表 √ √ √ √ 删除快照 √ x √ x 复制快照 √ x √ x
        来自:
        帮助文档
        数据仓库服务
        产品简介
        DWS权限管理
      • 步骤二:AD域控制器部署
        本文介绍如何部署AD域控制器。 前提条件 在AD域控制器的云主机上已经安装AD域服务器。 操作步骤 1. 将域服务器升级升为域控制器。打开“服务器管理器”,点右上角点小旗子图标,点击“服务器提升为域控制器”。 2. 添加新林。由于是第一个AD控制器,点击“添加新林”,根域名处填域名sfs.com,点击“下一步”等待部署配置。 说明: 将域控制器添加到现有域:在现有的域控制器中添加新的域控制器。 将新域添加到现有林:在现有的林中新建域,与林中现有的域不同。 3. 设置目录服务还原密码。 说明: 林功能级别(包含Windows Server 2008到WindowsServer 2016级别):Windows Server 2012 R2。 域功能级别(只包含Windows Server 2012 R2域功能):Windows Server 2012 R2。 指定域控制器功能:默认即可。 键入目录服务还原模式(DSRM)密码:需设置复杂密码,否则无法通过规则校验。 4. 跳过DNS选项,点击“下一步”。用AD域服务器当DNS服务器,不需要单独指定。 5. NetBios域名保持默认,点击“下一步”。 6. 日志及数据配置保持默认,点击“下一步”。 说明: AD DS数据库是AD域服务器用来存放用户信息的地方。 AD DS数据库、日志文件夹和sysvol文件夹,出于安全考虑建议放在其他盘。 7. 检查配置信息,点击“下一步”。 8. 安装前自动进行先决条件检查,检查通过后点击“安装”,系统自动安装并重启。安装需要一段时间请耐心等待。 9. 查看是否安装成功。理论上重启后AD域即部署成功,打开“服务器管理器”,点击“工具>Active Directory用户和计算机”,在弹窗中依次点击“sfs.com>Domain Controllers”,若展示云主机名称即代表AD域部署成功。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        高级管理
        AD域
        搭建AD域
        步骤二:AD域控制器部署
      • 弹性IP绑定/解绑类
        本文主要介绍弹性IP绑定/解绑类问题。 如何通过外部网络访问绑定弹性IP的弹性云主机? 为保证弹性云主机的安全性,每个弹性云主机创建成功后都会加入到一个安全组中,安全组默认Internet对内访问是禁止的,所以需要在安全组中添加对应的入方向规则,才能从外部访问该弹性云主机。 在安全组规则设置界面用户可根据实际情况选择TCP、UDP、ICMP或All类型。 当弹性云主机需要提供由公网可以访问到的服务且知道对端IP地址或无需提供由公网可以访问到的服务时,建议根据业务需要,将源地址设置为允许已知IP地址所在的网段访问该安全组。 当弹性云主机需要提供由公网可以访问到的服务且不知道对端的IP地址时,建议使用默认的源地址0.0.0.0/0,再通过配置端口提高网络安全性。 建议将不同公网访问策略的弹性云主机划分到不同的安全组。 说明:源地址默认的IP地址0.0.0.0/0是指允许所有IP地址访问安全组内的弹性云主机。 如何通过扩展网卡绑定的弹性IP访问公网? 弹性IP绑定扩展网卡后,进入弹性云主机,执行route命令查询路由: route命令如果不清楚可以使用 route help 。 图查看路由信息 执行ifconfig命令查看网卡信息。 图查看网卡信息 配置默认通过扩展网卡访问公网。 a. 执行如下命令删除主网卡默认route。 route del net 0.0.0.0 gw 192.168.0.1 dev eth0 说明:此操作会导致虚拟机流量中断,请谨慎操作,推荐您参考步骤4配置。 b. 执行如下命令配置扩展网卡默认route。 route add default gw 192.168.17.1 按照访问的目标地址配置扩展网卡访问。 配置通过扩展网卡访问某一网段(xx.xx.0.0/16,该网段请按实际情况设置): route add net xx.xx.0.0 netmask 255.255.0.0 gw 192.168.17.1
        来自:
        帮助文档
        弹性IP EIP
        常见问题
        弹性IP绑定/解绑类
      • 添加TCP监听器
        参数 说明 示例 后端主机组 把具有相同特性的后端主机放在一个组。说明:使用已有后端主机组时,请确保此后端主机组未被使用。 并且只能选择前端协议匹配的后端主机组。例如前端协议是TCP时,后端协议只能是TCP。 新创建 名称 后端主机组名称。 servergroupsq4v 后端协议 云主机开通的协议。前端协议为TCP时,后端协议默认为TCP,不支持修改。 TCP 分配策略类型 负载均衡采用的算法。加权轮询算法:根据后端主机的权重,按顺序依次将请求分发给不同的主机。 它用相应的权重表示主机的处理性能,按照权重的高低以及轮询方式将请求分配给各主机, 相同权重的主机处理相同数目的连接数。 加权最少连接:最少连接是通过当前活跃的连接数来估计主机负载情况的一种动态调度算法。 加权最少连接就是在最少连接数的基础上,根据主机的不同处理能力,给每个主机分配不同的权重,使其能够接受相应权值数的服务请求。 源IP算法:将请求的源IP地址进行一致性Hash运算,得到一个具体的数值,同时对后端主机进行编号,按照运算结果将请求分发到对应编号的主机上。 这可以使得对不同源IP的访问进行负载分发,同时使得同一个客户端IP的请求始终被派发至某特定的主机。 说明:用户可以根据自身需求选择相应的算法来分配用户访问流量,提升负载均衡能力。 对于加权轮询算法和加权最少连接,当主机的权重为“0”时,将不会被分发访问请求。 加权轮询算法 会话保持 开启会话保持后,弹性负载均衡将属于同一个会话的请求都转发到同一个主机进行处理。 说明:当分配策略类型为“加权轮询算法”时,可配置会话保持。 会话保持类型 TCP和UDP协议仅支持源IP地址类型。 源IP地址 会话保持时间(分钟) 当分配策略类型选择“加权轮询算法”或“加权最少连接”,会话保持开启后,需添加会话保持时间。 四层会话保持的会话保持时间取值范围为[1,60]。七层会话保持的会话保持时间取值范围为[1,1440]。 20 描述 后端主机组的描述。字数范围:0/255。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        添加TCP监听器
      • 配置网络参数
        多个自定义配置文件可能存在针对相同参数的不同配置值,文件名以 zz 开头是期望推荐配置值最终生效。 参考: cat <<'EOT' >"${netplanconfigdir}zzctims.yaml" network: renderer: NetworkManager ethernets: eth0: addresses: [] dhcp4: true dhcp6: true optional: true dhcp4overrides: routemetric: 100 dhcp6overrides: routemetric: 100 version: 2 EOT elif [ f "$networkinterfaceconfig" ]; then [ ! f "${networkinterfaceconfig}.bak" ] &&; cp "$networkinterfaceconfig" "${networkinterfaceconfig}.bak" cat < "$networkinterfaceconfig" This file describes the network interfaces available on your system and how to activate them. For more information, see interfaces(5). source $networkinterfaceconfig.d/ The loopback network interface auto lo iface lo inet loopback EOT systemctl disable networking else echo 'ERROR: Failed to decide a network configuration system.' fi 通用网络配置 1. 配置 sysctl 支持IPv6功能,如果没有使用IPv6的需求,可以跳过此步骤。 plaintext 多个自定义配置文件可能存在针对相同参数的不同配置值,文件名以 zz 开头是期望推荐配置值最终生效。 参考: cat <<'EOT' >/etc/sysctl.d/zzctims.conf net.ipv6.conf.all.acceptra1 net.ipv6.conf.all.disableipv60 net.ipv6.conf.default.acceptra1 net.ipv6.conf.default.disableipv60 net.ipv6.conf.eth0.acceptra1 net.ipv6.conf.lo.disableipv60 EOT 2. 添加补充配置网络的文件。 Red Hat系列Linux操作系统需要下载99gennetconf.rules.zip文件(请解压后提取99gennetconf.rules文件)后,传入虚拟机 /etc/udev/rules.d/ 目录下,作为 /etc/udev/rules.d/99gennetconf.rules 文件。Debian系列Linux操作系统不需要配置。 3. 修改自定义网络脚本目录下的文件权限。 plaintext chmod 755 /usr/local/ctcloud/net/.sh
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        私有镜像
        创建私有镜像
        制作Linux系统盘镜像文件
        配置网络参数
      • 创建脚本
        本文为您介绍创建脚本的具体操作。 概述 脚本管理提供全生命周期脚本管控,涵盖脚本库的创建、验证、变更、停用、编辑、发布等,实现脚本标准化开发与版本控制;通过脚本黑名单机制拦截高风险脚本以强化安全,脚本历史支持操作追溯与审计。系统环境变量管理保障脚本跨环境兼容性,同时支持对云主机和数据库的自动化脚本执行,兼顾运维灵活性与安全性,降低人工干预风险,提升容灾场景下的操作效率和可靠性。 使用条件 多活容灾服务平台当前仅支持在平台侧执行脚本,不支持上传脚本文件到目标资源。 每种资源类型下同一种语言的脚本数量上限为50,若有扩展需要请联系管理员。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“脚本管理”“脚本库”,进入脚本库列表页。 5. 点击右上角“创建脚本”按钮,跳转至脚本创建页。 6. 创建脚本各配置项说明如下: 参数 是否必填 配置说明 脚本名称 √ 填写脚本名称,脚本名称需唯一。 长度为263字符。 脚本语言 √ 选择脚本语言,当前支持Shell、Python2、Python3。 脚本版本 √ 显示脚本版本,脚本创建时系统默认将脚本版本设置为v1.0。 适用资源类型 √ 选择适用资源类型,当前支持主机、数据库两类。 主机支持Linux/Windows;数据库支持MySQL/Redis/PostgreSQL/MongoDB。 脚本分组 × 选择脚本分组,默认无分组。 脚本来源 √ 选择脚本来源,支持本地脚本、手工录入、克隆、内置脚本。 本地脚本 √ 当脚本来源为本地脚本时显示,上传本地脚本文件。 文件类型限制为扩展名为.py或.sh两种。 源脚本 √ 当脚本来源为克隆时展示,选择源脚本,数据来自当前脚本库中所有脚本。 脚本模板 √ 当脚本来源为内置脚本时展示,选择脚本模板后,脚本内容展示相关脚本模板内容。 脚本内容 √ 当脚本来源为本地脚本时,展示本地上传脚本的内容,支持编辑。 当脚本来源为手工录入时,需用户手动录入脚本内容; 当脚本来源为克隆时,展示源脚本的脚本内容,支持编辑; 当脚本来源为内置脚本时,根据用户选择的脚本语言、适用类型和脚本模板展示脚本内容,支持编辑。 脚本内容长度上限为1000个字符。 脚本参数请求参数 √ 填写参数名称,长度不超过64字符。 选择参数类型,可选数值型、字符型、字符串型、布尔型。 填写参数key,长度不超过64字符,不能与系统环境变量key冲突。 选择参数是否必填,可选是、否。 填写参数描述。 脚本参数返回参数 √ 填写参数名称,长度不超过64字符。 选择参数类型,可选数值型、字符型、字符串型、布尔型。 填写参数key,长度不超过64字符,不能与系统环境变量key冲突。 填写参数描述。 成功标准判定方式 √ 选择成功标准判断方式,可选通过表达式判定、无条件成功。 成功标准表达式 √ 判定方式为表达式判定时展示,填写参数名,数据来源于脚本返回的参数名。 填写表达式符号,若参数类型为数值类型,可选等于/大于/小于/大于等于/小于等于;若参数类型为字符或字符串类型,可选等于/大于/小于/大于等于/小于等于/包含/不包含/以...开头/以...结尾;若参数类型为布尔型,可选等于。 填写表达式参数值,若参数类型为数值类型/字符型/字符串类型,需填写参数值;若参数类型为布尔型,可选择真/假。 成功标准表达式生效 √ 判定方式为表达式判定时展示,选择表达式生效方式,可选满足所有表达式、满足任一表达式。 脚本描述 × 填写脚本的描述。 长度为0100个字符。 7. 脚本信息填写完毕后,点击右下角“立即创建”按钮,完成创建脚本操作。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        脚本管理
        脚本库
        创建脚本
      • 弹性伸缩搭配GPU云主机水平扩展最佳实践
        对比传统部署模式,GPU云主机配合弹性伸缩使用,可以帮助您在推理任务高峰期自动扩容GPU节点减少卡顿,在任务请求低峰期减少GPU服务器规模节约成本,保障业务连续性的同时降低资源、运维成本。 操作步骤 1. 使用大模型镜像创建包年包月的云主机实例 创建一定数量的包年包月GPU实例,用于后续将实例添加到伸缩组,满足大模型业务模块的非高峰或低谷时间段要求。 1. 登录控制中心。 2. 根据业务部署需求选择弹性伸缩组及其管理的云主机实例所在地域。 3. 单击“计算>弹性云主机”,进入弹性云主机管理控制台。 4. 在右上角点击“创建云主机”按钮,进入到弹性云主机创建页面。 5. 在弹性云主机创建页面,完成云主机参数配置。创建成功之后如图: 说明 搭建DeepSeek等大模型云主机选型、部署等说明可参考GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南弹性云主机DeepSeek专题实践指南:DeepSeek驱动高效能云生态 天翼云。 2. 创建使用大模型镜像的伸缩配置 为业务创建可用于自动扩容的云主机模板,即弹性伸缩配置。 1. 登录控制中心,选择弹性伸缩组所在地域(与前一步骤中创建的GPU云主机需保持一致)。 2. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台并切换到伸缩配置页面。 3. 点击右上角“创建伸缩配置”,进入“创建伸缩”配置页面。使用步骤1中创建的实例作为模板创建伸缩配置。 4. 点击“确认”,即可创建伸缩配置成功,创建成功如图所示: 3. 创建伸缩组并添加云主机实例 为低成本、高稳定性业务集群创建弹性伸缩组,并将创建好的云主机实例添加至此伸缩组内,来满足日常业务的需求。 1. 登录控制中心,选择弹性伸缩组所在地域(与前一步骤中创建的GPU云主机需保持一致)。 2. 单击“计算>弹性伸缩服务”,进入弹性伸缩管理控制台。 3. 在“弹性伸缩组”页签中,点击右上角“创建弹性伸缩组”,进入“创建弹性伸缩组>伸缩参数”配置页面。 4. 在“伸缩参数”页面完成基础配置,具体参数配置可参见创建伸缩组。 5. 在“配置来源”页面,选择已有配置,为伸缩组绑定一个或多个配置。 6. 点击“立即创建”伸缩组创建成功,如下图: 7. 伸缩组创建成功之后,进入到伸缩组详情页面,将步骤1中创建包年包月弹性云主机添加至伸缩组内并开启伸缩保护防止实例被移除,用于日常业务需求的满足。具体操作步骤请参见将实例移入伸缩组。添加成功之后如图: 4. 根据业务场景为伸缩组设置自动伸缩策略 为已创建好的伸缩组设置伸缩策略,来满足突发的业务流量变化,确保业务的稳定运行。 1. 进入弹性伸缩管理控制台,点击步骤3创建好的伸缩组名称,进入到伸缩组详情页面。 2. 单击“伸缩策略”进入伸缩策略页签,单击“创建策略”按钮,进入到“创建伸缩策略”页面。 3. 在“创建伸缩策略”页面中完成策略的配置。您可以根据使用场景选择告警、定时等自动伸缩策略,帮助伸缩组在业务高峰期自动扩容大模型实例、在业务低谷期自动释放实例,保证业务稳定的同时最大程度的优化资源使用成本。具体操作步骤可参见创建伸缩策略。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        弹性伸缩搭配GPU云主机水平扩展最佳实践
      • 应用服务网格
        本文主要介绍应用服务网格日志采集。 应用服务网格支持采集控制面(control plane)、数据面(sidecar)日志以及应用服务网格网关日志,您可以在控制台日志中心查看日志。 前提条件 1. 天翼云账号已经开通了云日志服务,如果没有开通可以通过服务网格控制台>网格实例>自定义配置>创建云日志服务。 2. 网格控制面和数据面集群已经安装了日志采集插件logoperator。可以通过ccse控制台>插件>插件市场安装。 启用服务网格日志采集 1. 登录服务网格控制台,在左侧的导航栏中选择网格实例>自定义配置。 2. 选择启用日志服务,可以选择已有的日志项目或者新建日志项目,支持为数据面、控制面和网关分别创建日志单元,您可以参考云日志服务管理日志项目查看已有的项目。如果需要新建项目,应用服务网格控制台会自动为您创建对应名称的项目。 日志中心日志查询 您可以在日志服务控制台查询服务网格控制面和数据面的日志,更多详情可参考云日志服务日志查询。 数据面日志输出格式 目前服务网格的数据面日志访问格式采用Envoy默认格式: plaintext [%STARTTIME%] "%REQ(:METHOD)% %REQ(XENVOYORIGINALPATH?:PATH)% %PROTOCOL%" %RESPONSECODE% %RESPONSEFLAGS% %BYTESRECEIVED% %BYTESSENT% %DURATION% %RESP(XENVOYUPSTREAMSERVICETIME)% "%REQ(XFORWARDEDFOR)%" "%REQ(USERAGENT)%" "%REQ(XREQUESTID)%" "%REQ(:AUTHORITY)%" "%UPSTREAMHOST%"n 以下是一个日志格式的例子: plaintext [20160415T20:17:00.310Z] "POST /api/v1/locations HTTP/2" 204 154 0 226 100 "10.0.35.28" "nsq2http" "cc21d9b0cf5c432b8c7e98aeb7988cd2" "locations" "tcp://10.0.2.1:80" 以下是日志样式字段的说明: 参数 描述 STARTTIME 请求开始时间。 REQ(:METHOD) 请求方法。 REQ(XENVOYORIGINALPATH?:PATH) 请求的原始路径,若无则使用标准路径。 PROTOCOL 请求所使用的协议。 RESPONSECODE 服务器对请求的响应状态码。 RESPONSEFLAGS 响应的标志,提供关于响应的特性信息。 BYTESRECEIVED 接收到的字节数,指示请求消息的大小。 BYTESSENT 发送出去的字节数,指示响应消息的大小。 DURATION 请求处理的持续时间,包括接收到请求到发送响应的时间。 RESP(XENVOYUPSTREAMSERVICETIME) 上游服务的响应时间,表示上游服务处理请求所花费的时间。 REQ(XFORWARDEDFOR) 请求的xff头部。 REQ(USERAGENT) 请求的用户代理,标识发起请求的软件。 REQ(XREQUESTID) 请求的唯一标识符,用于跟踪请求的生命周期。 REQ(:AUTHORITY) 请求的主机名,在HTTP/2中对应请求的authority字段。 RESPONSEFLAGS说明: 完整名称 短名 说明 NoHealthyUpstream UH 没有健康的上游服务,返回503状态码。 UpstreamConnectionFailure UF 连接上游失败,返回503状态码。 UpstreamOverflow UO 上游服务被熔断,返回503状态码。 NoRouteFound NR 找不到路由或者找不到过滤器链,返回404状态码。 UpstreamRetryLimitExceeded URX 超过上游重试次数。 NoClusterFound NC 找不到上游集群。 DurationTimeout DT 请求超时。 DownstreamConnectionTermination DC 下游连接中断。 FailedLocalHealthCheck LH 集群健康检查失败,返回503状态码。 UpstreamRequestTimeout UT 上游服务超时,返回504状态码。 LocalReset LS 连接被本地重置,返回503状态码。 UpstreamRemoteReset UR 连接被上游重置,返回503状态码。 UpstreamConnectionTermination UC 上游连接中断,返回503状态码。 DelayInjected DI 请求被注入了延迟。 FaultInjected FI 请求被注入了错误。 RateLimited RL 请求被限流,返回429错误码。 UnauthorizedExternalService UAEX 请求被外部授权服务拒绝。 RateLimitServiceError RLSE 由于限流服务报错导致请求被拒绝。 InvalidEnvoyRequestHeaders IH 请求头部异常,返回400错误码。 StreamIdleTimeout SI 请求空闲超时,返回408或者504错误。 DownstreamProtocolError DPE 下游请求HTTP协议错误。 UpstreamProtocolError UPE 上游返回的HTTP协议错误。 UpstreamMaxStreamDurationReached UMSDR 请求上游超时。 ResponseFromCacheFilter RFCF 请求通过envoy缓存插件支撑。 NoFilterConfigFound NFCF 由于没有在时间期限内收到filter配置导致请求被中断。 OverloadManagerTerminated OM 请求被过载管理器中断。 DnsResolutionFailed DF DNS解析失败。 DropOverload DO 请求被上游过载保护机制中断,返回503状态码。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务日志接入
        应用服务网格
      • 安全与加速计费概述
        计费构成 计费方式 计费项 计费描述 参考链接 基础套餐 预付费包月 流量计费 流量和带宽计费方式二选一。 按照实际流量计费,按下行流量与上行流量相加。 仅对防护清洗后的干净流量计费,DDoS攻击产生的流量不计费。 基础套餐 预付费包月 月峰值带宽计费 流量和带宽计费方式二选一。 带宽计费暂不支持官网订购,如果您有需要,可通过 基础套餐 预付费包月 DDoS防护次数 在一个自然月内,如果您订购了高级版,则支持防护攻击带宽峰值不超过40Gbps的DDoS攻击2次。 发生DDoS攻击当天(自然天)的攻击算一次。 套餐外超量费用 预付费流量包 流量包 一次性付费,流量包有效期一年。 资费详见 套餐外超量费用 预付费请求数包 动态请求数包 一次性付费,动态请求数包,有效期一年。 您可以通过控制台开启动态能力,开启动态能力后付费 资费详见 套餐外超量费用 动态请求数按需 动态请求数 对所有的动态优化请求进行计费,包含http动态优化请求和https动态优化请求。 资费详见 套餐外超量费用 流量按需 流量计费 按照实际流量计费,按下行流量与上行流量相加。 仅对防护清洗后的干净流量计费,DDoS攻击产生的流量不计费。 资费详见 套餐外超量费用 带宽按需 月峰值带宽计费 在一个自然月内,对每日的峰值进行排序,最大的那个峰值作为计费值。 若未开通带宽按需,当实际使用带宽超过订购带宽峰值时,则触发限速,将导致超过带宽峰值部分的请求被拦截。 资费详见 扩展服务 预付费包月 域名扩展包、DDoS防护带宽、高级Bot管理、API安全、态势感知大屏、专家服务 如果扩展服务与套餐订购时间一致,到期时间与套餐一致;如果扩展服务订购时间晚于套餐服务,开始计费时间为扩展服务订购日期,到期时间与套餐一致。 扩展服务 按需 内容审核 内容审核按日收费。 扩展服务 按需 DDoS弹性防护 在订购扩展服务DDoS防护带宽的基础上,可开启DDoS弹性防护;未开启扩展服务DDoS防护带宽,不允许开启DDoS弹性防护。 弹性峰值攻击峰值DDoS防护带宽, 弹性防护根据弹性峰值进行阶梯计费,按日收费。
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        安全与加速计费模式
        安全与加速计费概述
      • 在CTS事件列表查看云审计事件
        本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录。 场景描述 云审计服务能够为您提供云服务资源的操作记录,记录的信息包括发起操作的用户身份、IP地址、具体的操作内容的信息,以及操作返回的响应信息。根据这些操作记录,您可以很方便地实现安全审计、问题跟踪、资源定位,帮助您更好地规划和利用已有资源、甄别违规或高危操作。 什么是事件 事件即云审计服务追踪并保存的云服务资源的操作日志,操作包括用户对云服务资源新增、修改、删除等操作。您可以通过“事件”了解到谁在什么时间对系统哪些资源做了什么操作。 约束与限制 用户通过云审计控制台只能查询最近7天的操作记录,过期自动删除,不支持人工删除。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志服务(LTS),才可在OBS桶或LTS日志组里面查看历史事件信息。否则,您将无法追溯7天以前的操作记录。 用户对云服务资源做出创建、修改、删除等操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。 在CTS查看审计事件 1. 登录控制台,单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 2. 单击左侧导航栏的“事件列表”,进入事件列表信息页面。 3. 在页面右上方,可以通过筛选时间范围,查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 4. 事件列表支持通过筛选来查询对应的操作事件。 参数名称 说明 事件类型 事件类型分为“管理事件”和“数据事件”。 管理类事件,即用户对云服务资源新建、修改、删除等操作事件。 数据类事件,即OBS服务上报的OBS桶中的数据的操作事件,例如上传数据、下载数据等。 云服务 在下拉选项中,选择触发操作事件的云服务名称。 资源类型 在下拉选项中,选择操作事件涉及的资源类型。 支持的资源类型请参见云审计服务支持的态势感知(专业版)操作列表。 筛选类型 筛选类型分为“资源ID”、“事件名称”和“资源名称”。 资源ID:操作事件涉及的云资源ID。 当该资源类型无资源ID,或资源创建失败时,该字段为空。 事件名称:操作事件的名称。 支持审计的操作事件的名称请参见云审计服务支持的态势感知(专业版)操作列表。 资源名称:操作事件涉及的云资源名称。 当事件所涉及的云资源无资源名称,或对应的API接口操作不涉及资源名称参数时,该字段为空。 操作用户 触发事件的操作用户。 下拉选项中选择一个或多个操作用户。 查看事件中的tracetype的值为“SystemAction”时,表示本次操作由服务内部触发,该条事件对应的操作用户可能为空。 事件级别 可选项包含“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 Normal代表操作成功。 Warning代表操作失败。 Incident代表比操作失败更严重的情况,如引起其他故障等。 5. 选择完查询条件后,单击“查询”。 6. 在事件列表页面,您还可以导出操作记录文件和刷新列表。 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 7. 在需要查看的事件左侧,单击展开该记录的详细信息。 8. 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        使用CTS审计态势感知(专业版)
        在CTS事件列表查看云审计事件
      • 产品规格
        一级功能 二级功能 功能描述 标准版 高级版 仪表盘 从全局视角统计重要资产、防护情况、告警趋势、及安全情况,便于用户更好的进行安全响应处置,提升运营效率。 ✓ ✓ 资产中心 查看集群资产、镜像资产、主机节点资产、应用服务资产、K8S配置详细信息。 ✓ ✓ 告警响应 运行态检测 查看所有容器、主机、K8S入侵告警事件,并对其进行响应处置。 ✓ ✓ 告警响应 镜像告警 查看所有触发安全策略的镜像告警事件,并对其进行响应处置。 ✓ ✓ 告警响应 IaC告警 查看存在未通过高危检查的文件。 × ✓ 告警响应 响应中心 查看告警处置记录,包括隔离Pod列表、暂停容器列表、重启Pod列表、镜像阻断列表,并进行白名单管理、一键封堵。 ✓ ✓ 安全合规 基线管理 对各版本的Linux系统按照等保、CIS的基线要求检测,覆盖主流操作系统的检测。 对各版本的kubernetes按照CIS基线要求检测。 对各个版本容器运行环境按照CIS基线要求检测。 ✓ ✓ 安全合规 基线配置 自定义配置基线扫描周期、安全合规达标率等。 ✓ ✓ 镜像安全 镜像管理 对业务环境主机中和镜像仓库中的镜像资产统一管理、安全扫描,并提供可写入dockerfile的修复建议。 ✓ ✓ 镜像安全 镜像策略 通过漏洞规则、文件规则、软件包规则、及其他规则设置来对风险制品镜像进行告警或阻断管控。 ✓ ✓ 镜像安全 镜像设置 配置节点镜像和仓库镜像扫描周期。 ✓ ✓ 容器安全 实时检测 从命名空间或节点的视角实时检测容器安全状态,对容器进行基线检查、容器审计等。 ✓ ✓ 容器安全 容器策略 创建并管理容器入侵检测策略及入侵检测规则。 ✓ ✓ 容器安全 文件防篡改 创建并管理容器防篡改策略。 × ✓ 容器安全 进程访问控制 创建并管理容器进程访问策略,支持进程阻断/放行。 × ✓ 容器安全 弱口令 弱口令字典管理及弱口令检测。 × ✓ 容器安全 容器设置 设置容器保留时长、容器审计信息保留时长,及容器扫描周期。 ✓ ✓ 节点安全 节点安全 查看节点信息、集群组件信息、防御容器健康状态,对节点实时入侵监测,扫描节点漏洞,开启节点debug日志。 ✓ ✓ 节点安全 节点设置 自定扫描新增节点,设置节点更新周期。 ✓ ✓ IaC安全 IaC检查 对于部署资源所编写的编排文件,支持扫描编写内容是否存在风险以及是否符合编写规范。 × ✓ IaC安全 规则管理 统一管理K8S manifests/helmchart文件规则、Dockerfile文件规则、ConfigMap文件规则等。 × ✓ IaC安全 IaC设置 配置自动扫描、周期扫描策略。 × ✓ 集群安全 组件漏洞 扫描Kubernetes 内的kubelet、calico、etcd等组件漏洞信息。 × ✓ 集群安全 安全检查 对集群进行安全检查,发现未通过检查项及影响范围,提供解决方案及参考链接。 × ✓ 集群安全 插件管理 可通过提供插件的形式,帮助用户验证1day漏洞信息。 × ✓ 集群安全 集群审计 记录了对APIServer的访问事件,通过查看、分析日志,可以了解集群的运行状况、排查异常,发现集群潜在的安全、性能等风险对异常事件支持报警。 × ✓ 集群安全 集群策略 配置集群审计策略,管理集群审计规则,管理集群告警规则。 × ✓ 集群安全 集群设置 配置自动扫描新增集群及集群扫描周期。 × ✓ 网络安全 网络策略 通过对单个业务之间,业务组之间,以及租户之间的网络访问策略配置,实现业务之间隔离,来减小被入侵之后的影响范围。 × ✓ 网络雷达 对容器环境中网络流量进行绘图,打破网络黑洞,支持对命名空间、Pod、主机、集群、外网级别的网络监测。通过对单个业务之间、业务组之间以及多租户之间的网络访问策略配置,通过对业务之间的隔离,来减小被入侵之后的影响范围。通过网络拓扑图从网络层判断入侵的影响范围。 × ✓ 平台管理 日志审计 对系统操作日志进行统计及报表输出。 ✓ ✓ 安装配置 支持天翼云原生集群或非原生集群部署方式。 ✓ ✓ 订单中心 查看用户订单情况,可以进行退订、扩容、续订等操作。 ✓ ✓ 任务中心 查看任务执行情况,可以进行终止、删除、查看详情等操作。 ✓ ✓ 消息中心 查收系统内部消息。 ✓ ✓
        来自:
        帮助文档
        容器安全卫士
        产品介绍
        产品规格
      • 1
      • ...
      • 287
      • 288
      • 289
      • 290
      • 291
      • ...
      • 312
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      AI Store

      科研助手

      智算一体机

      推荐文档

      配置老化周期

      玩转天翼云②:linux系统攻击基本排查方法

      操作类

      产品介绍

      价格

      文档下载

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号