活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼备份_相关内容
      • 科研助手并行计算使用外部镜像仓库
        本案例介绍如何基于科研助手并行计算使用外部镜像仓库。 准备工作 1. 拥有外部的镜像仓库使用权限: 例如,在天翼云官网容器镜像服务天翼云 开通容器镜像服务。个人版免费使用(10G空间),配置用户名和密码,可用于docker登录外部仓库。 创建命名空间(组织名称),需打开自动创建仓库 2. 通过本地电脑安装的docker登录到外部镜像仓库中 获取镜像仓库公网地址 在安装docker的linux系统中,输入docker login 公网地址 –username 用户名 –password 密码 提示Login Succeeded表示成功登录至外部仓库 3. 将镜像推送至外部仓库中 修改镜像名称,改为外部仓库地址,格式如下: docker tag 原镜像名称 公网地址/命名空间/镜像名称:tag名称 例如 docker tag nginx:v1 registrycrswuhu4.ctyun.cn/myns/nginx:v1 将镜像推送至外部仓库 docker push 镜像名称 有提示推送进度,表示正常推送镜像中 推送完成后,可以在平台中看到该镜像
        来自:
        帮助文档
        科研助手
        最佳实践
        科研助手并行计算使用外部镜像仓库
      • 部署HBlock示例
        本节给出部署HBlock单机版示例。 应用场景 服务器IP地址为:192.168.0.32,API端口号为1443,WEB端口号为2443,安装路径为/mnt/stor(挂载磁盘/dev/vdd),数据目录为/mnt/storage01(挂载磁盘/dev/vdc)、/mnt/storage02(挂载磁盘/dev/vda)。 创建卷:本地模式的卷luna1,对应iSCSI Target为targeta,卷容量为100G;缓存模式卷lunb1,对应iSCSI Target为targetb,卷容量为200G;存储模式卷lunc1,对应iSCSI Target为targetc,卷容量为300G。 缓存模式和存储模式卷对应的OOS存储桶为:hblocktest3。 HBlock系统名称为stor1,HBlock登录用户名为storuser,登录密码为hblock12@。 操作步骤 说明 以HBlock 4.0为例。 1. 完成以下准备工作:安装路径/mnt/stor,数据目录/mnt/storage01、/mnt/storage02。OOS存储桶hblocktest3,AK/SK,前缀stor1。 2. 将安装包放到服务器欲安装HBlock的目录下并解压缩,进入解压缩后的文件夹。 plaintext [root@hblockserver stor] ls CTYUNHBlockPlus4.0.0x64.zip [root@hblockserver stor] unzip CTYUNHBlockPlus4.0.0x64.zip …… [root@hblockserver stor] cd CTYUNHBlockPlus4.0.0x64 [root@hblockserver CTYUNHBlockPlus4.0.0x64] 3. 安装并初始化HBlock。 1. 安装HBlock。 plaintext [root@hblockserver CTYUNHBlockPlus4.0.0x64]
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-单机版
        部署HBlock示例
      • 基于Ingress-APISIX网关实现全链路灰度
        本章节介绍基于IngressAPISIX网关实现全链路灰度 概述 APISIX是动态、实时、高性能的API网关,可以提供丰富的流量管理能力,可以作为K8s Ingress控制器。本文介绍安装IngressAPISIX后,通过灵活的路由能力,在无需修改业务代码的情况下,实现全链路灰度能力。 背景信息 在微服务架构下,一次需求可能会同时修改多个微服务应用。在发布应用时,通常将这些应用划分为同一个分组,使灰度流量始终在灰度应用中流转。当上游有灰度流量时,会通过引流的方式将灰度流量引导至灰度分组,在此次链路调用过程中,如果存在一些微服务没有灰度环境,那这些请求在下游时依然能回到灰度环境中,以此实现全链路灰度。 本文将APISIX提供的灵活的路由能力和微服务治理中心的全链路灰度能力相结合,在无需修改业务代码的情况下,轻松实现全链路灰度能力。 本文的演示应用由IngressAPISIX和Spring Cloud应用组成,Spring Cloud应用有3个,分别是appa、appb和appc,服务之间通过Nacos注册中心实现服务注册与发现,部署完成后,通过IngressAPISIX配置路由规则,来访问后端服务。 前提条件 1. 用户已开通微服务治理中心企业版。 2. 用户已开通云容器引擎。 3. 用户已开通注册配置中心Nacos。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        基于Ingress-APISIX网关实现全链路灰度
      • DML
        本文介绍风险管控规则集中DML操作类型对应的规则,该种规则会匹配DMS用户的一切DML操作并识别出风险等级,进而决定该操作是否需要进行审批。 前提条件 组织版本为企业版。 目前只对MySQL和PostgreSQL实例的DML操作进行风险管控。 用户需要具有进入SQL风险页面的菜单权限。菜单权限请参考权限说明。 操作步骤 用户以超级管理员身份登录DMS系统。 在左侧菜单栏依次点击 安全协作 > SQL风险 。 在规则集列表界面点击编辑 按钮,在规则集配置界面点击DML按钮。 注意事项 数据导入工单会被认为是一种DML操作。 功能介绍 DML类型的风险识别规则会拦截用户一切的DML操作,包括在查询窗口执行DML类型的SQL语句、SQL变更工单中的DML语句、数据导入工单中的DML语句,并识别出其中的风险等级,匹配到对应的审批模板,走工单审批流程。若该行为不需要进行审批,则可以直接执行。用户可以自定义DML类型不同风险等级需要通过的审批流程。DML类型支持的风险管控因子如下: 影响行数 影响行数支持的运算符为,!,>, >,<,<。 因子值为正整数,由用户输入。 库/模式名称 库/模式支持的运算符为,!,in, contain,startWith,endWith。 因子值为字符串,由用户输入。 pg系实例会匹配模式名称,其他类型实例匹配库名称。
        来自:
        帮助文档
        数据管理服务
        用户指南
        SQL治理
        规范与风险管理
        SQL风险配置
        DML
      • 产品定义与优势
        本小节介绍微隔离防火墙产品定义和产品优势。 产品定义 微隔离防火墙(CTMIFW Microisolation Firewall)面向数据中心的跨平台统一安全管理软件,能够对数据中心的内部流量进行全面精细的可视化分析和高细粒度的安全策略管理,能够帮助用户快速便捷的实现环境隔离、域间隔离以及端到端隔离。与云下一代防火墙互补,实现纵深防御。 产品优势 基础架构无关 与基础架构无关,与系统适配。 Linux 发行版 CentOS: 5.X(有限支持)/ 6.X/ 7.X/ 8.3.2011; Ubuntu: 14/ 16/ 18.04 LTS/ 20; Debian: 8/ 9/ 10; Suse: 11.4/ 12SP1/ 12SP5; Open Suse: 42.3/ 13.2/ Leap15.0。 Windows Server Windows Server 2008R2; Windows Server 2012/ R2; Windows Server 2016; Windows Server 2019。 国产操作系统 UOS:V20Debian10/V20CentOS7.7/V20CentOS8.2; Kylin: V4/ V7/ V10; EulerOS: SP5; OpenEulerOS: 20.09/ 21.09。 容器平台 K8S+Docker; K8S+CIRO。 系统影响小 采用安全可靠架构设计 全用户态设计,不侵蚀系统内核; 单向控制通信,不额外开放端口; 客户端防卸载、防删除、防停用。 智能优化系统性能开销 连接、阻断关系合并上报; 防火墙策略对象智能聚合。 多项资源占用保护机制 CPU单核占用率降级阈值设定; 连接、阻断关系内存占用限制; Conntrack最大容量动态调整; TCP / UDP超时时间智能调整。
        来自:
        帮助文档
        微隔离防火墙
        产品介绍
        产品定义与优势
      • 组网和资源规划
        本文向您介绍通过企业版VPN实现云上云下网络互通(双活模式)的组网和资源规划。 数据规划 类别 规划项 规划值 VPC 待互通子网 192.168.0.0/24 192.168.1.0/24 VPN网关 互联子网 用于VPN网关和VPC通信,请确保选择的互联子网存在4个及以上可分配的IP地址。 192.168.2.0/24 VPN网关 HA模式 双活 VPN网关 EIP地址 EIP地址在购买EIP时由系统自动生成,VPN网关默认使用2个EIP。本示例假设EIP地址生成如下: 主EIP:1.1.1.2 主EIP2:2.2.2.2 VPN连接 Tunnel接口地址 用于VPN网关和对端网关建立IPsec隧道,配置时两边需要互为镜像。 VPN连接1:169.254.70.1/30 VPN连接2:169.254.71.1/30 用户数据中心 待互通子网 172.16.0.0/16 对端网关 公网IP地址 公网IP地址由运营商统一分配。本示例假设公网IP地址如下: 1.1.1.1 对端网关 Tunnel接口地址 VPN连接1:169.254.70.2/30 VPN连接2:169.254.71.2/30 IKE/IPsec策略 预共享密钥 Test@123 IKE/IPsec策略 IKE策略 版本:v2 认证算法:SHA2256 加密算法:AES128 DH算法:Group 15 生命周期(秒):86400 本端标识:IP Address 对端标识:IP Address IKE/IPsec策略 IPsec策略 认证算法:SHA2256 加密算法:AES128 PFS:DH Group15 传输协议:ESP 生命周期(秒):3600
        来自:
        帮助文档
        VPN连接
        最佳实践
        通过企业版VPN实现云上云下网络互通(双活模式)
        组网和资源规划
      • 监控
        本文向您介绍企业版VPN中监控类常见问题。 VPN监控可以监控哪些内容? VPN网关 可以监控网关IP的带宽信息,包含入网流量、入网带宽、出网流量、出网带宽及出网带宽使用率。 查询VPN网关监控状态,请在VPN网关“网关IP”列中单击EIP后面的进行查看。 VPN连接 可以监控连接的状态信息,包括VPN连接状态、链路往返平均时延、链路往返最大时延、链路丢包率、隧道往返平均时延、隧道往返最大时延、隧道丢包率。 其中,链路往返平均时延、链路往返最大时延、链路丢包率、隧道往返平均时延、隧道往返最大时延、隧道丢包率需要单击VPN连接,在“基本信息”页签通过添加健康检查项进行添加;私网相关指标仅VPN连接使用静态路由模式,且开启NQA检测机制场景下支持配置。 查询VPN连接监控状态,请在VPN连接“监控”列中单击进行查看。 VPN连接中断后会通知我吗? VPN连接的状态监控功能已上线,VPN连接创建后即会向云监控服务CES上报状态信息,但是并不会自动向用户发送告警通知,需要在服务列表中选择“管理与监管>云监控”创建告警规则。 VPN连接状态请在VPN连接“监控”列中单击进行查看。
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        监控
      • 半托管模式迁移任务的创建与管理
        本文为您介绍半托管模式迁移任务的创建与管理。 操作场景 通过对象存储迁移服务的控制台,创建半托管模式的迁移任务,并对半托管模式的迁移任务进行管理操作。 前提条件 您已经创建完成代理,并完成代理的部署,存在至少一个代理为“已连接”状态。 您的源端存在待迁移的数据,您已经在天翼云对象存储ZOS开通Bucket。 请确保您的业务处于空闲阶段或非高峰期,避免迁移执行时影响您的业务。 请确保您的源端数据已经解冻,并在迁移完成前保持解冻状态,避免因源端数据未解冻迁移失败。 创建半托管模式迁移任务 1. 进入“对象存储>对象存储迁移服务>迁移任务 ”控制台,选择“迁移任务列表”分页进入迁移任务列表页面,点击“创建迁移任务 ”。 注意 使用对象存储迁移服务会获取您的AK/SK等认证信息,为确保您一定知情,创建任务时会有使用提示弹窗,需要您阅读并手动勾选服务协议,进行确认。您有权不勾选服务协议,并不使用该服务,请您知悉。 2. 在创建迁移任务的页面,迁移任务模式选择“半托管迁移”,并选择执行任务的代理。填写其他任务相关参数后,点击“下一步:确认任务 ”即可。参数说明如下表: 参数 说明 任务信息 任务名称 输入自定义的任务名称。 说明: 命名规则:必须为大小写字母、数字、横线或下划线,长度在432个字符之间;自定义的任务名称不能与您已存在的任务名称重复。 迁移模式 迁移任务运行模式 选择创建迁移任务的模式,支持全托管模式和半托管模式。 说明: 全托管模式:迁移任务将在服务端执行,适合数据量在10TB以内,或对迁移耗时没有紧急诉求的客户。 半托管模式:迁移任务将运行在客户自己的设备上,客户可通过提供更高的网络带宽和更多的迁移设备,实现更高速的迁移,适合数据量在10TB以上,或对迁移耗时有明确诉求的客户。 注意: 半托管迁移模式依赖您已经部署完成代理,代理设备与迁移服务服务端连通,否则无法创建半托管模式的迁移任务。 迁移模式 选择执行本任务的代理设备 选择执行本任务的代理设备,迁移任务将会下发给指定的代理设备用于执行迁移。 说明: 仅能选择“已连接”状态的代理。 选择源端 源端 选择源端数据的服务提供方。 说明: 目前支持的源端: 支持阿里云(OSS)、华为云(OBS)、腾讯云(COS)迁移至ZOS。 支持天翼云对象存储(ZOS)、天翼云(OOS)迁移至ZOS。 支持AWS(S3)和其他遵循标准S3协议的对象存储服务迁移至ZOS。 选择源端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 注意: 腾讯云COS的Endpoint较为特殊,仅需填写region即可,例如:apbeijing、apshanghai。 选择源端 Access Key 输入您源端的Access Key。 选择源端 Secret Key 输入您源端的Secret Key。 选择源端 存储桶 输入您源端的对象存储桶名称。 选择源端 迁移方式 选择源端数据的迁移方式,支持:指定存储桶、指定文件夹、指定对象、指定前缀。 说明: 指定存储桶 :选择“指定存储桶”时,将会迁移存储桶内的全部对象。 指定文件夹 :选择“指定文件夹”时,将会迁移选中文件夹下的所有对象。仅支持单个文件夹。 指定对象 :选择“指定对象”时,将会迁移选中的对象。最大支持指定100个对象。 指定前缀 :选择“指定前缀”时,将会迁移桶中所有以该前缀开头的对象。仅支持单个前缀。 选择源端 迁移晚于起始时间的对象 选择该选项时,用户可配置“起始时间 ”,任务将仅迁移最后修改时间晚于该“起始时间 ”的对象。 选择源端 迁移早于终止时间的对象 选择该选项时,用户可配置“终止时间 ”,任务将仅迁移最后修改时间早于该“终止时间 ”的对象。 注意: 若您同时设定“起始时间 ”和“终止时间 ”,限制“终止时间 ”需晚于(不包含等于)“起始时间 ”。 选择目的端 目的端 指定为天翼云对象存储ZOS。 选择目的端 EndPoint Endpoint支持输入IP地址或域名。 若使用非默认端口,请输入端口号,格式为IP:Port。 说明: 目的端为ZOS,您可在对象存储ZOS的bucket“概览域名信息”中找到终端节点(Endpoint)信息。 选择目的端 Access Key 输入您目的端的Access Key。 选择目的端 Secret Key 输入您目的端的Secret Key。 选择目的端 存储桶 输入您目的端的对象存储桶名称。 选择目的端 目的端指定前缀 是否在目的端指定前缀: 关闭 目的端指定前缀,则会将源端数据按原有目录结构迁移至目的端存储桶。 开启 目的端指定前缀,可为迁移至目的端的对象(或文件夹)增加指定的前缀,可分为“增加前缀”和“增加前缀目录”。 说明: 增加前缀 :若您输入的前缀不为目录,则为迁移的对象(或文件夹)增加该部分前缀。例如:指定源端桶 bucketA 的文件夹 bucketA/a/folder1 进行迁移,目的端桶为 bucketB,目的端指定前缀为 Test,则迁移至目的端后为 bucketB/Testa/folder1 。 增加前缀目录 :若您输入的前缀为目录,则为迁移的对象(或文件夹)增加该部分前缀目录,实现将对象迁移至指定的目录下的效果。例如:指定源端桶bucketA的对象 bucketA/a/fileA.png 和 bucketA/b/fileB.png 进行迁移,目的端桶为 bucketB,目的端指定前缀为 Test/,则迁移至目的端后为 bucketB/Test/a/fileA.png 和 bucketB/Test/b/fileB.png 。 选择目的端 存储类型 选择迁移数据在目的端的存储类型,支持:匹配源端、标准存储、低频存储、归档存储。 说明: 匹配源端 :会自动匹配源端存储类型,与源端存储类型保持一致。但仅能自动匹配源端的“标准”和“低频”类型,匹配源端的“归档”或“深度归档”类型,请您务必提前对源端归档数据进行手动解冻,并确保迁移任务完成前数据保持解冻状态,否则该部分数据会迁移失败。 标准存储 :将会存储为标准类型。 低频存储 :将会存储为低频类型。 归档存储 :将会存储为归档类型。 不同地域的对象存储ZOS bucket所支持的存储类型不一致,若您此处选择的存储类型,在您的目的端bucket所在地域并不支持,则迁移会失败。您可参考对象存储ZOS产品能力地图,以便确定您的目的端对不同存储类型的支持情况。 选择目的端 ACL配置 选择迁移数据在目的端的ACL配置,支持:匹配源端、私有、公共读。 说明: 匹配源端 :会自动匹配源端的ACL配置,与源端保持一致。 私有 :会将目的端ACL配置为私有。 公共读 :会将目的端ACL配置为公共读。 高级选项 同名文件是否覆盖 选择迁移的同名文件处理策略,支持:同名文件不覆盖、同名文件全覆盖、按最后修改时间判断。 说明: 不覆盖 :对同名文件,不进行任何判断,一律执行跳过。 全覆盖 :对于同名文件,不进行任何判断,一律执行覆盖。 按最后修改时间 :对于同名文件,优先判断二者的Lastmodified(即最后修改时间),仅当源端文件相较目的端修改时间更新时,进行覆盖。若源端与目的端文件最后修改时间一致,则判断两者的文件大小,大小一致则执行跳过,大小不一致则执行覆盖。 注意: 选择“全覆盖 ”将会覆盖您目的端的同名文件,被覆盖的文件无法被恢复,请您配置时慎重评估是否全覆盖,避免不必要的损失。 注意 创建迁移任务的参数涉及您源端存储数据的相关信息,需要您自行在源端获取,部分信息涉及您的隐私,请注意保密。 3. 在确认任务页面,您可以再次检查填写的任务参数,确定无误后,点击“创建任务 ”,这里需要您进行二次确认,确认后即可创建任务。回到迁移任务列表页面,该任务会在列表中展示。 说明 针对半托管模式的迁移任务,创建任务后,迁移服务依赖您的代理对源端进行连通性检查,存在一定的等待时间,若创建任务失败,任务状态会变为“创建失败 请重新创建任务 ”,您可选择该状态后方的问号图标,鼠标悬停查看创建失败的具体错误信息,以帮助您检查配置参数是否有误。 4. 若迁移任务参数校验均通过,则会自动启动任务并变为“启动中 ”状态,启动成功的任务会变为“排队中 ”状态,排队等待您的代理执行任务,无需您再手动执行任务。 注意 若自动启动任务失败,您的任务会变为“已创建”状态,您依旧可以手动开始该任务。
        来自:
        帮助文档
        对象存储 ZOS
        控制台指南
        对象存储迁移服务
        如何使用半托管模式进行迁移
        半托管模式迁移任务的创建与管理
      • 跨账号授权
        本文帮助您了解如何操作跨账号网络实例授权。 使用说明 账号 A(授权方) 1. 在授权前,请从账号 B 处获取以下两项信息: 账号 B 的 唯一账号 ID 账号 B 的 云间高速 ID 2. 执行授权:将 VPC1 与 云专线 授权给账号B。 账号 B(被授权方) 1. 等待授权:确认账号A已完成授权。 2. 加载实例:在区域A的云企业路由器中加载网络实例,务必选择 “资源归属”为“跨账号”,然后加载已授权的VPC1和云专线。 操作步骤 1. 登录控制中心。 2. 登录云间高速(标准版)管理控制台,并在左侧菜单列表中选择“跨账号授权管理”,进入“跨账号授权管理”页面。 3. 在“已授权网络实例 ”页签中,点击“授权 ”按钮,进入“跨账号网络实例授权”页面。 4. 在“跨账号网络实例授权 ”页面,根据页面提示填写对应参数,单击“确定”,完成授权。 参数 说明 您的账号ID 当前登录账号的唯一标识符,用于授权查询与身份验证。 区域 需授权网络资源所在的区域(资源池)。 网络类型 需授权的网络资源类型。 网络实例 需要授权的网络实例,一次只能授权一个。 对方账号ID 被授权方的账号标识符,需对方登录天翼云,并在云间高速跨账号授权管理页面确认。 对方云间高速实例ID 被授权方需先创建的云间高速ID,用于组网授权与连接建立。 备注 输入关于授权资源的说明或备注信息。
        来自:
        帮助文档
        云间高速(标准版)EC
        用户指南
        跨账号授权管理
        跨账号授权
      • 使用APM监控异步任务
        对于通过Spring @Async标签或者Java Executors实现的异步任务,APM默认支持对其进行监控。若您的异步任务出现接口超时等异常,可以通过调用链路查看异步任务上下游以便及时处理潜在问题。 前置条件 该功能要求ARMS探针版本为公测版本v1.1.1及以上。 方式一:默认支持Spring @Async标签 APM默认支持监控使用Spring @Async标签实现的异步任务。对于下列Spring框架中默认的Executor和Task,APM会自动完成增强: Executor: org.springframework.scheduling.concurrent.ConcurrentTaskExecutor org.springframework.core.task.SimpleAsyncTaskExecutor org.springframework.scheduling.quartz.SimpleThreadPoolTaskExecutor org.springframework.core.task.support.TaskExecutorAdapter org.springframework.scheduling.concurrent.ThreadPoolTaskExecutor org.springframework.scheduling.concurrent.ThreadPoolTaskScheduler org.springframework.jca.work.WorkManagerTaskExecutor org.springframework.scheduling.commonj.WorkManagerTaskExecutor Task: org.springframework.aop.interceptor.AsyncExecutionInterceptor$1 org.springframework.aop.interceptor.AsyncExecutionInterceptorLambda$ 方式二:通过增强Runnable接口、Callable接口和Executor 当您没有使用spring框架时,上述场景无法满足需求时,也可以通过自动增强Runnable接口、Callable接口和Executor,在异步线程中完成调用链串联,实现异步任务监控。 增强Runnable接口和Callable接口 public class MyRunnable implements Runnable { @Override public void run() { // 在这里定义需要在新线程中执行的任务逻辑 for (int i 0; i < 5; i++) { System.out.println("Thread ID: " + Thread.currentThread().getId() + " Count: " + i); } } public static void main(String[] args) { // 创建一个Runnable实例 Runnable myRunnable new MyRunnable(); // 创建线程并将Runnable实例传递给线程 Thread thread1 new Thread(myRunnable); Thread thread2 new Thread(myRunnable); // 启动线程 thread1.start(); thread2.start(); } }
        来自:
        帮助文档
        应用性能监控 APM
        最佳实践
        使用APM监控异步任务
      • 控制台登录类
        修改Windows弹性云主机的分辨率 操作场景 远程登录Windows弹性云主机后,修改分辨率设置。 处理方法1:VNC方式登录 不同版本的Windows操作系统,操作略有差异,本节以Windows Server 2016 标准版 64bit为例,介绍如何修改Windows弹性云主机的分辨率。 1. 通过VNC方式登录弹性云主机。 2. 右键单击桌面,选择“显示设置”。 图 显示设置 3. 在“设置”界面,选择“显示”页签,单击“高级显示设置”。 说明 如果远程桌面不显示全屏,可调整“更改文本应用项目的大小”,将缩放比例改为100%,则远程桌面显示正常。 图 设置 4. 在“分辨率”栏的下拉列表中,修改弹性云主机的分辨率。 图 设置分辨率 5. 单击“应用”。 处理方法2:MSTSC方式登录 如果您通过MSTSC方式登录弹性云主机,那么,需在远程桌面连接前,设置Windows弹性云主机的分辨率大小。 1. 在您的用户本地计算机(即客户机)上,单击“开始”菜单。 2. 在“搜索程序和文件”中,输入“mstsc”。 3. 在“远程桌面连接”窗口,单击左下角的“选项”。 图 远程桌面连接 4. 选择“显示”页签,在“显示配置”中设置分辨率大小。 图 显示 5. 分辨率设置完成后,使用MSTSC方式连接弹性云主机。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        控制台登录类
      • 基于微服务治理中心实现无损上线与无损下线
        本章节介绍如何通过接入微服务治理中心实现应用变更时的无损上线与无损下线 概述 无损上线主要通过服务预热和延迟注册实现,无损下线主要通过应用优雅停机实现。假设有应用appa和appb两个应用,appa一直都有请求调用appb,本文演示在appb上线与下线时,如何实现无损上线与下线。 前提条件 用户已开通微服务治理中心企业版。 背景信息 在微服务架构中,在应用变更时,会涉及到应用的上线与下线,若处理不当,此时会造成一些请求异常。因此,在请求量大的应用系统中,为了避免应用变更带来的错误请求,一般会选择在半夜这种流量较小的时候发布。在半夜发布虽然避免了对业务造成较大的影响,但却不能从根本上解决问题,同时也会造成较大的运维成本。基于以上背景,微服务治理中心在应用发布的过程中,提供了服务延迟注册、服务预热、主动通知下线、主动等待等手段,实现了应用变更的无损上线与下线,有效避免了流量损失,降低研发运维成本。 准备工作 部署Demo应用 本文准备两个应用,分别是appa和appb,其中调用关系为appa>appb。 部署一个appa: 部署一个appb: 启动脚本访问appa>appb: 此时查看微服务治理中心控制台,appa和appb都有流量。
        来自:
        帮助文档
        微服务引擎
        最佳实践
        基于微服务治理中心实现无损上线与无损下线
      • 文件外发审计
        背景说明 支持实时监测应用程序的文件外发行为,助力事后溯源取证。 注意 客户端版本:支持Windows客户端,需为2.25.10及以上客户端。 套餐版本:已订购终端管理企业版套餐。 操作步骤 1. 登录边缘安全加速控制台,选择【终端管理】。 2. 在左侧导航栏展开数据安全并点击【文件外发审计】,查看外发审计策略和审计日志相关内容。 外发审计策略 1. 外发审计策略列表主要展示已配置的审计策略详情,含策略名称、管控范围、外发通道、管控动作、管控事件、策略状态、编辑/新增时间等字段信息,支持通过 “策略名称、管控动作、策略状态、时间范围” 搜素或筛选已有的审计策略。 2. 支持对审计策略做 “详情、编辑、删除” 操作。 新增策略 1. 点击【新增策略】支持添加外发审计策略。 1. 当前仅支持针对 AI 应用客户端进行文件外发审计:Kimi 智能助手、AnythingLLM、豆包、腾讯元宝、Cici、智谱清言、Poe、讯飞星火、问小白、夸克、纳米 AI、Cursor、Chatbox、Canva、Cherry Studio、ima.copilot、Trae、通义、办公小浣熊、Windsurf、Warp、JoyCode、墨刀、讯飞绘文、讯飞文书、新华妙笔。 审计日志 1. 外发审计策略下发后,如客户端命中策略,则对应日志会上报到管理平台。 1. 点击【详情】查看日志详情信息。
        来自:
        帮助文档
        边缘安全加速平台
        终端管理
        终端安全
        文件外发审计
      • 连接故障或无法PING通
        本文向您介绍企业版VPN中连接故障或无法PING通类常见问题。 VPN配置完成了,为什么连接一直处于未连接状态? 可能存在信息配置错误,请从以下方面进行排查: 1. 确认两端的预共享密钥和协商信息一致,云上与用户侧数据中心的本端子网/对端子网、本端网关/对端网关互为镜像。 2. 确认用户侧数据中心设备的路由、NAT和安全策略配置无误。 如何防止VPN连接出现中断情况? VPN连接在正常的使用过程中会存在重协商情况,触发重协商的条件有IPsec SA的生命周期即将到期和VPN传输的流量超过20GB,重协商一般不造成连接中断。 大多数的连接中断都是因为两端的配置信息错误造成的,或公网异常导致重协商失败造成的。 常见的连接中断原因有: 两端的ACL不匹配; SA生命周期不匹配; 用户侧数据中心未配置DPD; VPN使用过程中修改了配置信息; 运营商网络抖动。 因此请在配置VPN时确保操作和配置,以进行连接状态保活: 两端的子网配置互为镜像; SA生命周期信息一致; 用户侧数据中心网关开启DPD配置,探测次数不少于3次; 连接过程中修改参数两侧同步修改; 设置用户侧数据中心设备TCP MAXMSS为1300; 确保用户侧数据中心出口有足够的带宽可被VPN使用; 确认VPN连接可被两端触发协商,开启用户侧数据中心设备的主动协商配置;
        来自:
        帮助文档
        VPN连接
        常见问题
        企业版VPN
        连接故障或无法PING通
      • 容量大于2TB,初始化Windows数据盘(Windows 2012)
        本文为您介绍当容量大于2TB时,如何在Windows2012环境下初始化数据盘。 操作场景 本示例以“Windows Server 2012标准版64位中文版”操作系统为例,介绍云硬盘容量大于2TB时在Windows中的数据盘初始化操作,当容量大于2TB时,需要使用GPT分区进行磁盘划分。 不同云主机的操作系统的格式化操作可能不同,本文仅供参考。 前提条件 数据盘已挂载至云主机,且此数据盘没有被初始化。 操作步骤 当新增云硬盘的容量大于2TB,初始化Windows数据盘的操作共分为两步,具体步骤如下: 登录弹性云主机。 初始化磁盘:根据界面提示完成磁盘初始化,当新增云硬盘的容量大于2TB时,分区形式请选择GPT(GUID分区表)。 登录弹性云主机 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击选择“计算>弹性云主机”,进入云主机列表页面。 4. 单击需要初始化数据盘的云主机所在行的“操作>远程登录”,登录此台云主机,具体操作可参见登录Windows弹性云主机。 初始化磁盘(GPT分区) 1. 登录成功之后,单击开始图标,在弹出菜单中选择 “服务器管理器”。跳转至“服务器管理器>仪表板”窗口。 2. 在此页面中,单击右上角的“工具”,在下拉菜单栏中选择“计算机管理”。 3. 在“计算机管理”页面左侧导航栏中,选择“存储>磁盘管理”,进入“磁盘管理”页面。进入磁盘管理页面后,若存在没有初始化的磁盘,系统会自动弹出“初始化磁盘”的窗口,可以看到“磁盘1”处于“没有初始化”状态。因未初始化的磁盘容量大于2TB,因此磁盘分区形式勾选“GPT(GUID分区表)”,点击“确定”。 4. 在磁盘区域,当前有两个磁盘,一个为“磁盘0”,一个为“磁盘1”,经过上一步的“初始化磁盘”后,“磁盘1”的状态已更新为“联机”。右键单击磁盘上空白的未分配的区域,选择“新建简单卷”。 5. 在弹出的“新建简单卷向导”窗口,根据界面提示,点击“下一步”。 6. 用户根据需要指定卷大小(建议用户在初始化之前就计算好磁盘分区的容量),默认为最大值,单击“下一步”。 7. 进入“分配驱动器号和路径”页面,勾选分配驱动器号,单击“下一步”。 8. 进入“格式化分区”窗口,勾选“按下列设置格式化这个卷”,并根据实际情况设置参数,格式化新分区,这里保持默认值,单击“下一步”窗口跳转至完成页面。 9. 单击“完成”,等待片刻让系统完成初始化操作,当卷状态为“状态良好”时,表示初始化磁盘成功。 10. 验证初始化,可以回到桌面,点击下方任务栏中文件管理器的图标打开文件资源管理器查看“E卷”是否创建成功,如图所示,当有E卷时,证明初始化磁盘已成功。
        来自:
        帮助文档
        云硬盘 EVS
        快速入门
        初始化数据盘
        容量大于2TB,初始化Windows数据盘(Windows 2012)
      • 企业通过云上网络安全访问互联网
        本文为您介绍跨域VPC和云专线通过云间高速实现安全访问互联网的操作流程。 前提条件 客户在VPC网络中配置有安全管控服务。 安全管控服务具备互联网访问能力。 此场景仅限天翼云CTYUN4.0资源池 场景示例 在华北2和华东1资源池部署有云上资源。 在广州的IDC需要通过云专线接入华南2资源池,与华北2和华东1的云上资源互访。 三个区域的资源需要通过华东1部署的云上安全服务访问互联网。 组网拓扑 配置步骤 1. 创建云间高速和云企业路由器 创建云间高速 云间高速的创建,具体操作请参见:创建云间高速(标准版)实例云间高速 创建云企业路由器 在华北2、华东1、华南2三个资源池中分别创建云企业路由器。 具体操作请参见:创建云企业路由器实例云间高速 2. 加载网络实例 加载VPC网络实例 在已创建的华北2云企业路由器和华东1云企业路由器中,分别加载对应区域的VPC网络实例。 具体操作请参见:加载VPC网络实例云间高速 加载专线网络实例 在华南2云企业路由器中,加载云专线(CDA)网络实例。 具体操作请参见:加载云专线(CDA)网络实例云间高速
        来自:
        帮助文档
        云间高速(标准版)EC
        最佳实践
        企业通过云上网络安全访问互联网
      • 镜像加速相关问题
        本节介绍了容器镜像服务常见问题:镜像加速。 开启镜像加速后,对象存储Bucket的使用量增加 由于加速镜像同样也是容器镜像,并存放在用户企业版实例中,因此也会产生存储开销,即用户上传了一个300MiB的普通镜像,经过转换后会产生一个约300MiB的加速镜像。 运行加速镜像失败 1. 运行镜像版本Tag带“accelerated”后缀的加速镜像,需要先在集群中安装好加速插件“cubeaccelerationsuite“,并等待插件正常运行后方可正常运行加速。 2. 运行加速镜像的集群对容器运行时有所限制,需要容器运行时是containerd且1.6.23ccse版本的节点方可运行。 安装镜像加速插件失败 1. 集群需要具备标签ctyun.cn/imageaccelerateenabledtrue的Worker节点方可安装。 2. 标签ctyun.cn/imageaccelerateenabledtrue不能打到Master节点上,否则会视为无效,本插件会跳过在所有Master节点上搭建加速环境。 镜像加速插件卸载 卸载插件包含运行环境的清理操作,因此凡是打了ctyun.cn/imageaccelerateenabledtrue标签的节点切莫提前取消标签 命名空间或者镜像仓库已开启镜像加速,但上传镜像后没有加速镜像生成 1. 加速镜像转换需要一定耗时,镜像容量越大,例如转换耗时越长,转换 40GiB 的镜像大约耗时 30 分钟。 2. 镜像容量控制在60GiB以内,否则会增大转换失败的风险,镜像转换重新触发可重新执行镜像push操作,由于镜像之前已上传,因此push可快速完成。
        来自:
        帮助文档
        容器镜像服务
        常见问题
        操作类
        镜像加速相关问题
      • 通过添加黑白名单拦截/放行流量
        本文指导您添加单个黑白名单。 开启防护后,云防火墙默认放行所有流量,您可以通过配置黑/白名单规则,拦截/放行IP地址的访问请求。 本文指导您添加单个黑白名单,如果需要批量添加黑白名单请参见“导入/导出防护策略”。 注意 如果IP为Web应用防火墙(WAF)的回源IP,建议使用白名单或配置放行的防护规则,请谨慎配置黑名单规则,否则可能会影响您的业务。 回源IP的相关信息请参见《Web应用防火墙用户指南》中《放行WAF回源IP》。 配置防护规则请参见“通过添加防护规则拦截/放行流量”。 规格限制 云防火墙最多支持配置2000条黑名单和2000条白名单,当您黑名单IP或白名单IP超出限制时,可通过添加IP地址组,并在防护规则中引用的方式实现拦截/放行效果。 添加IP地址组请参见“添加自定义IP地址组和IP地址”。 添加防护规则请参见“通过添加防护规则拦截/放行流量”。 私网IP防护,需满足专业版防火墙且“开启VPC边界流量防护防护”。 系统影响 将IP或IP地址段配置为黑名单/白名单后,来自该IP或IP地址段的访问,CFW将不会做任何检测,直接拦截(黑名单)/放行(白名单),您可以在“日志查询”中检索该IP或IP地址段查看访问情况和流量情况。 配置黑名单时,如果涉及地址转换或者存在代理的场景,需要谨慎评估拦截IP的影响。
        来自:
        帮助文档
        云防火墙
        用户指南
        配置访问控制策略
        通过添加黑白名单拦截/放行流量
      • 客户端配置
        本节主要介绍Linux客户端挂载HBlock单机版的卷。 前置条件 HBlock服务器端,已经成功创建卷。 准备Linux客户端 注意 需要具有root权限才能配置initiator。 若您客户端为CentOS/RHEL,请安装iscsiinitiatorutils,安装命令如下: plaintext yum y install iscsiinitiatorutils 注意 安装iSCSI initiator 6.2.087410 或以上版本。 若您客户端为Ubuntu/Debian,安装命令如下: plaintext apt install openiscsi 操作步骤 HBlock服务器端 查询要连接的LUN及LUN对应iSCSI Target的详细信息。 plaintext ./stor lun ls { n name } LUNNAME ./stor target ls { n name } TARGETNAME Linux客户端 1. 发现HBlock的Target。 plaintext iscsiadm m discovery t st p SERVERIP 2. 登录 iSCSI 存储。 若您的 iSCSI Target没有开启CHAP认证,请直接执行步骤d登录Target。 1. 开启认证。 plaintext iscsiadm m node T iSCSITARGETIQN o update name node.session.auth.authmethod valueCHAP 2. 输入CHAP用户名。 plaintext iscsiadm m node T iSCSITARGETIQN o update name node.session.auth.username valueUSER 3. 输入CHAP密码。 plaintext iscsiadm m node T iSCSITARGETIQN o update name node.session.auth.password valuePASSWORD 4. 登录Target。 plaintext iscsiadm m node T iSCSITARGETIQN p SERVERIP:port l port为iSCSI端口号 3. 显示会话情况,查看当前iSCSI链接。 plaintext iscsiadm m session 4. 查看 iSCSI 磁盘、磁盘对应的LUN(通过lsscsi i可以查看LUN的wwid) plaintext lsblk lsscsi i
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        客户端操作
        Linux客户端-单机版
        客户端配置
      • 迁移上云
        分布式消息服务Kafka提供全托管、免运维的迁移上云服务,用于自建实例或跨云云实例与分布式消息服务Kafka实例之间的数据同步。本文介绍迁移上云的源实例类型、使用限制、跨VPC数据同步以及使用流程。 背景信息 迁移上云可以把源云分布式消息服务Kafka集群的元数据(Topic和Group配置信息)、消息数据和点位信息同步到目标集群,迁移完成后目标集群的元数据与原集群的元数据保持一致,并且支持持续更新和完成后自动停止任务。 使用限制 1. 此功能不收费,会占用当前实例的服务器资源,请结合业务流量和服务器资源占用情况,在合理的情况下进行迁移。 2. 单机版不支持迁移。 计费说明 分布式消息服务Kafka的迁移上云组件处于公测阶段,不会在分布式消息服务Kafka侧产生费用。同时,天翼云不承诺迁移的SLA,使用迁移上云所依赖的其他产品的SLA和费用说明请以对应产品为准。 环境要求 如果您需要通过迁移上云功能将公网的自建实例的数据同步到分布式消息服务Kafka或者跨地域将某个VPC内的分布式消息服务Kafka的数据同步到另一个VPC的分布式消息服务Kafka,您需要为该实例绑定弹性IP开启公网访问,然后在公网上进行数据同步。 如果您需要将某个VPC内的数据通过迁移上云功能同步到另一个VPC的分布式消息服务Kafka,需要手动打通VPC。具体步骤,请参见:使用VPCEP实现跨VPC访问Kafka
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        集群迁移
        迁移上云
      • 策略管理概述
        本节介绍策略管理功能的使用约束与限制。 态势感知(专业版)的策略管理功能可以简化您在多个账户和资源上的管理和维护任务,支持统一展示所有策略信息、查看人工/自动化拦截记录等操作。 新增策略:策略作为告警一键阻断的止血手段,可根据告警来源选择相应的类型对攻击者进行阻断。 管理策略:介绍如何查看策略、编辑策略、删除策略。 约束与限制 策略目前仅支持CFW/WAF/VPC安全组的黑名单策略。 单用户单工作空间内容最多新增300条支持阻断老化的,全量最多新增2500条。同时,单次下发策略阻断对象数量限制如下: 当需要下发策略至CFW时,单用户单次最多可新增500个IP或域名作为阻断对象。 当需要下发策略至WAF时,单用户单次最多可新增500个IP作为阻断对象。 当需要下发策略至VPC时,单用户单次1分钟内最多可新增500个IP作为阻断对象。 将IP或IP地址段配置为黑名单后,来自该IP或IP地址段的访问,CFW/WAF/VPC将不会做任何检测,直接拦截。 为确保系统稳定性,同时执行的任务数量必须小于等于5个,若检测到已有5个任务正在执行,系统将禁止继续新增、重试或编辑操作。 基本概念 操作连接:应急策略的流程所绑定的资产连接,资产连接是流程中插件节点使用到的连接域名和鉴权参数,通过域名调用的方式可以访问其他云服务或者三方服务。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        风险预防
        策略管理
        策略管理概述
      • 基本概念
        QUIC QUIC全称:Quick UDP Internet Connections,是一种实验性传输层网络协议,提供与TLS/SSL相当的安全性,同时具有更低的连接和传输延迟。QUIC目前主要应用于http协议,基于QUIC的HTTP/3协议(RFC9114),除了拥有HTTP/2的各项优点,同时由于QUIC的特性,在弱网环境下拥有更强大的性能优势。QUIC由Google自研,2012年部署上线,2013年提交IETF,2021年5月,IETF推出标准版RFC9000。功能介绍,详情请见:HTTP3.0(QUIC)协议。 缓存命中率 缓存命中率包括流量命中率和请求命中率。CDN缓存命中率低,会导致源站压力大,静态内容访问效率低。 统计方式: 流量命中率 1 回源流量/流量(5分钟粒度)。 请求命中率 1 回源请求数/请求数(5分钟粒度)。 目前天翼云CDN支持流量命中率、请求命中率的统计与查询。功能介绍,详情请见:用量分析。 DNS解析时间 通过域名解析服务(DNS),将指定的域名解析成IP地址的消耗时间。 TCP建连时间 浏览器或客户端和WEB服务器建立TCP/IP连接的消耗时间。 SSL握手时间 浏览器或客户端和WEB服务器建立安全套接层(SSL)连接的消耗时间。 首包时间 浏览器或客户端发送HTTP请求结束开始,到收到WEB服务器返回的第一个数据包的消耗时间。
        来自:
        帮助文档
        CDN加速
        产品简介
        基本概念
      • 入门指引
        本文向您介绍通过企业版VPN实现数据中心和VPC互通的入门指引。 场景描述 由于业务发展,企业A需要将数据中心和VPC的数据进行互通。此时企业A可以通过VPN服务创建数据中心和VPC的连接,实现云上和云下数据互通。 如果用户数据中心仅有一个对端网关,且对端网关只能配置一个IP地址,推荐VPN网关使用双活模式,组网如下图所示。 双活模式下,如果连接1链路故障,流量自动切换至连接2进行传输,企业业务不受影响;连接1恢复正常后,VPN仍使用连接2进行数据交互。 如果用户数据中心存在两个对端网关,或一个对端网关可以配置两个IP地址,推荐VPN网关使用主备模式,组网下图所示。 主备模式下,连接1和连接2互为主备,主链路为连接1,备链路为连接2。默认情况下流量仅通过主链路进行传输,如果主链路故障,流量自动切换至备链路进行传输,企业业务不受影响;主链路恢复正常后,VPN回切至主链路进行数据交互。 约束与限制 对端网关需要支持标准IKE和IPsec协议。 本地数据中心和VPC间互通的子网需要没有重叠,且数据中心待互通的子网中不能包含100.64.0.0/10和214.0.0.0/8。 如果VPC使用云专线服务和其他VPC互通,则本地数据中心的子网也不能和其他VPC包含的子网存在重叠。
        来自:
        帮助文档
        VPN连接
        快速入门
        通过企业版VPN实现数据中心和VPC互通
        入门指引
      • 容灾策略
        分布式缓存Redis实例存储着大量业务关键数据,在数据库前端缓存、数据存储引擎等各类场景下,数据的可靠性与服务的连续可用性是客户考虑的重要因素。根据对数据与服务的不同可靠性要求,您可以选择将缓存实例部署在单可用区内(单机房),或者跨可用区(同城灾备)。 单资源池单可用区高可用 单可用区灾备策略主要包括进程/服务高可用与数据持久化到磁盘两个方面进行。在单个可用区内,单机或集群单机实例通过进程守护的方式来确保服务的高可用性。当分布式缓存系统监测到Redis实例的进程出现故障时,它会立即启动一个新的进程,以继续提供服务 标准版主备配置包括数据持久化功能,该功能不仅将数据持久化到主节点的磁盘上,还会进行增量同步到备节点,并且备节点也会独立地持久化一份数据。主节点负责处理日常的服务请求,但如果主节点发生故障并满足切换条件,检测进程会进行主备自动切换,即将备节点提升为新的主节点,以实现故障转移并保证高可用性,确保业务的平稳运行。对于原本故障的主节点,在其恢复后,其状态将被更新为备节点。 集群主备实例与标准主备实例类似,其中每个分片节点都拥有持久化文件,并且集群中的每个分片都有自己的主节点和备节点。每个分片独立进行主节点状态检测,如果某个分片的主节点发生故障且满足切换条件,检测进程将把备节点提升为新的主节点,即进行主备切换操作。原本故障的主节点在恢复后,其状态将被更新为备节点。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        安全
        容灾策略
      • 功能概览
        本文介绍全站加速产品的功能概览。 天翼云全站加速功能如下表所示: 功能分类 功能名称 功能描述 相关文档 域名管理 批量配置域名 客户往往会存在多个域名需要配置,而配置又是相同的情况,这时我们提供批量配置域名的方式可以使客户快速、便捷的接入域名。 []( 域名管理 域名操作工单 域名操作工单,指的是全站加速域名管理中的工单,是用于跟踪和记录由客户操作发起的域名新增及域名配置变更任务的状态和执行结果,方便跟进变更的进度以及追溯变更历史,辅助管理客户业务。 []( 标签管理 创建/删除标签和标签组 客户控制台上提供了一种域名分类管理工具——标签和标签组,使用标签可以对具有相同属性的域名进行分类管理,使用标签组可以对具有相同归类属性的标签进行分类管理。客户可自助在控制台上创建/删除标签和标签组。 []( 标签管理 域名绑定标签 标签为域名分类管理工具,通过给域名绑定标签功能,用户可以对具有相同属性的域名进行分类管理。 []( 标签管理 域名解绑标签 标签为域名分类管理工具,通过标签功能对具有相同属性的域名进行分类管理。如果标签已不再适用于您当前某个或多个域名的用途,您可以解绑域名标签。 []( 标签管理 使用标签管理域名 在完成域名绑定标签后,您在日常运营时,就可以使用标签快速筛选对应的域名,进行分组管理。 []( 标签管理 使用标签筛选数据 在完成域名绑定标签后,在日常运营时,如果您需要查询某一属性的域名的数据,就可以基于标签筛选相关域名,查询对应的数据。 []( 基础配置 加速类型 天翼云客户控制台,提供CDN加速、全站加速等多款产品的加速类型配置,您可以根据域名的业务类型选择合适的加速类型。 []( 基础配置 域名类型 天翼云全站加速产品提供三种业务类型的加速:全站加速、上传加速、websocket加速,您可以在添加域名时选择不同的域名类型来对不同的业务进行加速。 1.当您的域名以下行分发为主,且无websocket协议时,请选择“全站加速”域名类型。 2.当您的域名有上传业务时,请选择“全站加速上传加速”域名类型。 3.当您的域名有websocket协议时,请选择“全站加速websocket加速”域名类型。 []( 基础配置 加速区域 天翼云全站加速支持“中国内地”、“全球加速(不含中国内地)”、“全球加速”三种加速区域的选择。 []( 基础配置 IPv6配置 天翼云全站加速产品已经支持接收IPv6协议的请求,开启IPv6后,当您的用户处于IPv6环境时,客户端可以通过IPv6协议访问天翼云全站加速节点。 []( 回源配置 源站配置 回源配置模块支持客户自定义源站。支持IP或域名,支持配置多个源站地址,多源站场景下,支持设置源站的主备优先级和权重,实现负载均衡。 []( 回源配置 动态回源策略 在介绍动态回源策略之前,我们先介绍如何区分动态请求和静态请求。天翼云全站加速产品根据您配置的缓存规则来区分动静态请求,有配置缓存规则的被当作静态请求处理,其他请求将被当作动态请求处理。 如果您的加速域名有多个源站,可以配置合适的回源策略来实现不同的效果。动态回源策略支持择优回源、按权重回源、保持登录三种回源方式;静态回源策略默认轮询回源,无需配置。 1.择优回源:顾名思义,即根据全站加速节点探测源站的结果,选择最快的源站回源。 2.按权重回源:根据每个源站配置的不同权重,轮询回源。 3.保持登录:基于客户端IP进行哈希,保证相同客户端IP的多次请求始终访问到相同的源站。 []( 回源配置 回源协议 回源协议指全站加速节点回源站请求资源时使用的协议。配置该功能后,全站加速节点将根据指定的协议回源。全站加速支持HTTP回源协议,HTTPS回源协议、跟随客户端请求使用的协议回源三种回源协议。 []( 回源配置 回源加密算法 回源协议为HTTPS协议时,全站加速默认使用国际标准加密算法回源,也可以选择使用国密加密算法回源或者跟随客户端加密算法回源;未选择默认使用国际加密算法回源。 回源加密算法 回源配置 回源端口 回源端口,是指源站接收用户请求时所用的端口,一般http协议和https协议使用不同的源站端口。 []( 回源配置 默认回源HOST 当您的源站的同一个IP地址上绑定多个域名或站点时配置回源HOST,全站加速在回源时根据HOST信息去对应站点获取资源。 []( 回源配置 回源HOST带端口 当源站绑定了多个域名,且源站服务运行在非80/443端口(比如8080)时,开启回源HOST带端口功能,全站加速回源时可以在回源HOST中带上具体的端口(如test.ctyun.cn:8080),精准找到源站服务。 回源HOST带端口 回源配置 回源SNI 如果您的源站IP绑定了多个域名,且全站加速回源协议为HTTPS时,需配置回源SNI,在回源SNI内指明所请求的具体域名,并使服务器根据该域名正确地返回对应的SSL证书。 []( 回源配置 回源URI改写 回源URI改写可以实现在用户请求需要回源时进行URI改写, 全站加速节点向源站发送回源请求的时候使用改写后的URI。 []( 回源配置 回源参数改写 回源参数改写,改写的是回源请求URL的查询参数,即问号后的参数值。可支持参数的新增、删除、修改,以及保留或忽略所有参数。 []( 回源配置 Common Name白名单 开启Common Name白名单功能后,全站加速节点以HTTPS协议与源站建连时,将会对请求的SNI和源站返回证书的Common Name进行校验。 []( Name白名单 回源配置 回源302/301跟随 配置302/301跟随回源功能后,全站加速节点会代替用户去处理源站响应的302/301状态码内容,即全站加速节点会直接跳转到源站302/301响应中的Location地址去请求对应资源,不会把源站响应的302/301跳转地址直接返回给用户,让用户自己去请求跳转地址的资源。 []( 回源配置 Range回源 Range回源,是指节点收到用户请求后,会在回源时携带Range请求头,源站在收到Range请求后,会返回对应范围的内容数据给全站加速。Range回源功能开启后,全站加速节点可以以分片的形式缓存文件,对于Range请求而言,可以有效提高文件分发效率,降低首包时延,同时提高缓存利用率,减少不必要的回源。 []( 回源配置 回源超时时间设置(新) 回源超时时间包括回源连接超时时间跟回源请求超时时间: 回源连接超时时间指回源节点与源站服务器建立连接的超时时间。回源请求超时时间指回源节点与源站服务器建连成功后,向源站服务器发送请求的超时时间。 回源超时时间设置(新) 回源配置 分区域分运营商回源 如果您的域名有多个源站,且希望通过全站加速实现多个源站之间负载均衡,您可以按照区域或者运营商划分源站,让不同区域或者运营商的客户端IP回不同的源,从而实现同运营商回源,或者就近回源。 []( 回源配置 区分ipv4/ipv6协议回源 如果您的域名既有ipv4源站,又有ipv6源站,可以配置区分ipv4/ipv6协议回源,可实现ipv4协议的客户端回ipv4的源站,ipv6协议的客户端回ipv6的源站。同时也可基于客户实际需求,设置V4和V6用户按指定权重回对应V4和V6源站。 []( 回源配置 指定源站回源HOST 当您的加速域名配置了多个回源站点,且回源站点与加速域名不同时,您可以使用指定源站回源HOST功能,为不同的源站配置不同的回源HOST,天翼云全站加速产品在回源时会根据配置的回源HOST信息去访问不同站点的资源。 []( 回源配置 高级回源 当客户希望全站基于某些特殊场景回不同源站时,例如需要根据请求的不同文件后缀名、不同目录回不同的源站时,可以使用天翼云高级回源功能。 []( 回源配置 私有Bucket回源 回源地址使用天翼云媒体存储【即对象存储(融合版)】并且Bucket为私有模式的场景。 私有Bucket回源 证书管理 在全站加速控制台上可以新增/查看/删除https证书,也可以替换已过期的证书。 []( HTTPS相关配置 HTTPS配置 在全站加速控制台上可以启用/停用域名的https开关,上传https证书。 []( HTTPS相关配置 国密HTTPS 天翼云全站加速产品支持SM2(椭圆曲线公钥密码算法)和SM3(杂凑算法)标准,提供更加安全的HTTPS传输协议(即国密HTTPS加密能力)。 []( HTTPS相关配置 HTTP2.0配置 HTTP/2也被称为HTTP 2.0,相对于HTTP 1.1新增了多路复用、压缩HTTP头、划分请求优先级和服务端推送等特性,解决了在HTTP 1.1中一直存在的问题,优化了请求性能,同时兼容了HTTP 1.1的语义。 []( HTTPS相关配置 强制跳转 通过配置强制跳转功能,将客户端到边缘节点的原请求方式强制重定向为HTTP或者HTTPS请求。天翼云全站加速产品支持配置HTTP和HTTPS强制跳转,适用场景: 1、已经配置了HTTPS证书的加速域名,可配置强制跳转,通过301或302重定向方式,将客户端到全站加速节点的HTTP请求强制跳转为HTTPS请求,HTTPS请求更安全。 2、对于安全性要求不高的业务应用,对应的加速域名可配置强制跳转,通过301或302重定向方式,将客户端到全站加速节点的HTTPS请求强制跳转为HTTP请求。 []( HTTPS相关配置 OCSP Stapling 启用OCSP Stapling功能后,OCSP信息查询的工作将由全站加速的服务器完成。全站加速服务器通过低频次查询,将查询结果缓存到服务器中(默认缓存时间60分钟)。当客户端向服务器发起TLS握手请求时,全站加速服务器将证书的OCSP信息和证书一起发送到客户端,供用户验证,无需用户向数字证书认证机构(CA)发送查询请求。极大地提高了TLS握手效率,节省了用户验证时间。 []( Stapling HTTPS相关配置 HSTS配置 开启了HSTS后,当您的域名在全站加速产品开启HTTPS安全加速时,在浏览器输入HTTP协议开头的URL链接,用户请求访问到全站加速节点上的时候,在配置了HTTP协议跳转HTTPS协议的情况,全站加速节点会将该HTTP请求301或302重定向到HTTPS,此时全站加速节点会响应一个强制HSTS的头给客户端,告诉客户端只能使用HTTPS协议访问全站加速节点,此后浏览器将直接使用HTTPS协议访问全站加速节点,不再需要HTTP协议强制跳转HTTPS协议了。 []( HTTPS相关配置 TLS协议版本 天翼云全站加速产品提供TLS协议版本控制功能,您可以按需对不同加速域名配置不同的TLS协议版本,低版本的TLS协议将提供对老版本浏览器的支持,但是协议的安全性相对更差一些,高版本的TLS协议将提供更高的安全性,但是对老版本浏览器的兼容性相对差一些。天翼云全站加速产品支持的TLS协议版本包括TLSv1.0、TLSv1.1、TLSv1.2、TLSv1.3。 []( HTTPS相关配置 HTTPS无私钥驻留加速 通常情况下,HTTPS协议的域名,如果需要在全站加速平台配置加速服务,需要将HTTPS公钥和私钥部署到全站加速平台。使用HTTPS无私钥驻留加速方案后,您只需要将公钥部署到全站加速平台,私钥可以由源站唯一保有,即可实现HTTPS业务的加速。 []( HTTPS相关配置 批量HTTPS证书配置 天翼云全站加速产品支持HTTPS加速服务,您可以通过控制台上传证书,并批量关联域名启用HTTPS加速服务,实现全网数据加密传输。 []( HTTPS相关配置 加密套件 介绍天翼云全站加速支持的加密套件及对应套件支持的最低版本的SSL/TLS协议。 加密套件 HTTPS相关配置 双向认证 双向认证,顾名思义,即客户端与服务器双方均需认证对方的身份,在确认对方身份后才可以建立HTTPS连接。在标准的HTTPS中,通常采用单向认证的方式,即服务器向客户端证明自己的身份以建立一个安全加密的通信连接;双向认证在服务器向客户端证明身份的基础上,还需要客户端也提供客户端证书,供服务器验证客户端的身份,客户端与服务器双方都验证通过对方的身份后,才建立HTTPS连接。 双向认证 缓存配置 缓存过期时间 缓存过期时间指源站资源在全站加速节点缓存的时长,达到预设时间,资源将会被全站加速节点标记为失效资源。如果客户端向全站加速节点请求的资源已经失效,全站加速节点会回源站获取最新资源并缓存到全站加速节点上,供其他请求使用。 全站加速产品支持按后缀名、目录、首页、全部文件、全路径文件类型进行缓存。您可以根据业务需求,按指定路径或文件名后缀配置静态资源的缓存过期时间。 []( 缓存配置 状态码过期时间 全站加速节点从源站获取资源时,源站会返回响应状态码,您可以在客户控制台上配置状态码过期时间,当客户端再次请求相同资源时,由全站加速节点直接响应状态码,不会触发回源,减轻源站压力。当状态码在全站加速节点上的存储时长超过设置的过期时间,缓存的状态码会失效,此时针对同一资源的请求需要回源。配置状态码过期时间主要适用于源站响应了异常状态码的情况下,例如4xx、5xx。正常情况下全站加速节点成功从源站获取到所请求的资源,即源站响应了2xx状态码时,会按照天翼云全站加速缓存规则及优先级进行缓存。如果源站无法迅速响应所有状态码(例如非2xx状态码),且不希望所有请求全部由源站响应,那么可以配置状态码过期时间,由全站加速节点直接响应状态码,减轻源站压力。 []( 缓存配置 状态码过期时间(源站优先) 如您希望在源站响应特殊状态码并携带相关缓存头的情况下,源站相关缓存头优先级更高,无相关缓存头时才按全站加速设置的过期时间生效,则可以配置状态码过期时间(源站优先)功能。 []( 缓存配置 缓存key设置 通过自定义缓存key,可以将原始URL形式不同但实际指向同一个文件的请求,缓存为同一份,从而提升缓存命中率,降低回源量。 []( 缓存配置 跨域资源共享 跨域资源共享,允许Web应用服务器进行跨域访问控制,实现跨域数据的安全传输。当客户的业务需要跨域共享或者访问资源时,客户可以通过自定义HTTP响应头来实现。 []( 头部修改 HTTP响应头 HTTP响应头是HTTP响应消息头的组成部分之一,可携带特定响应参数并传递给客户端。通过配置自定义HTTP响应头,当用户请求加速域名下的资源时,全站加速节点返回的响应消息会携带您配置的响应头,从而实现特定功能。常用场景包括:告知客户端全站加速节点响应文件的资源类型,例如添加响应头ContentType: text/html,告知客户端全站加速节点响应文件的格式是HTML格式。当用户请求全站加速节点上某个域名的资源时,可以在全站加速节点返回的响应消息中配置自定义响应头,以实现跨域访问。 []( 头部修改 回源HTTP请求头 当全站加速节点请求回源站拉取资源时,源站可获取到回源请求头中携带的信息。您可以通过该功能,改写用户回源请求中的HTTP Header信息,携带特定的参数信息给源站,实现特定业务需求。例如,通过XForwardFor头部携带真实客户端IP至源站。 []( 头部修改 回源HTTP响应头 如果您需要改写用户源站响应报文中的HTTP Header,可以通过配置回源HTTP响应头实现。可根据您的实际业务需求,选择添加、修改、删除回源HTTP响应头。 []( 文件处理 文件压缩 介绍Gzip和Brotli压缩算法及配置方式。 文件压缩 文件处理 图片处理 开通图片处理功能后,全站加速可以在回源节点上对客户原始图片做自适应WEBP、自动瘦身,或通过客户端携带的URL参数进行缩放、旋转、裁剪、格式转换等处理后进行分发,并缓存在全站加速节点,使得源站保留原图即可;免去源站对图片的各种处理,降低源站压力,节省源站存储空间,同时提升图片处理响应速度。 图片处理 高级配置 错误页面自定义 当页面访问出错时,客户端会显示默认错误页面,例如404 Not Found。默认的报错页面通常不美观,会带给用户不好的体验。为了帮助客户优化用户体验,全站加速节点支持当出现指定错误码的时候,能够让用户跳转到客户自定义页面的功能。 []( 高级配置 访问URL重定向 当客户源站的内容存放路径发生了变更,全站加速节点上的内容存放路径也发生了变更,但是用户请求URL里面包含的内容路径没有变更时,需要全站加速节点改写用户请求里面的内容路径。技术实现方式是通过响应302状态码重定向的方式,让客户端取302响应里面的Location的新URL,重新向全站加速节点发起访问,确保用户能获得正确的内容。 []( 访问控制 IP黑白名单 IP黑/白名单功能通过识别客户端IP来过滤用户请求,拦截特定IP的访问或者允许特定IP的访问,可以用来解决恶意IP盗刷、攻击等问题。 []( 访问控制 Referer防盗链 Referer防盗链,是基于HTTP请求头中Referer字段(例如,Referer黑白名单)来设置访问控制规则,实现对访客的身份识别和过滤,防止网站资源被非法盗用。配置Referer黑白名单后,全站加速会根据名单识别请求身份,允许或拒绝访问请求。允许访问请求,全站加速会返回资源链接;拒绝访问请求,全站加速会返回403响应码。 []( 访问控制 UA黑白名单 可以通过配置访问的UserAgent头部来对访客身份进行识别和过滤,拒绝非法访问。全站加速通过对用户 HTTP 请求头中的 UserAgent 进行规则判断,按需放行或拒绝用户访问。允许访问时,全站加速会返回资源链接;拒绝访问时,全站加速会返回403响应码。 []( 访问控制 URL黑白名单 URL黑白名单是网络安全管理中的一种重要机制,主要用于控制用户对特定资源的访问权限。 []( 访问控制 URL鉴权 为了防止站点资源被恶意下载或者非法盗用,避免产生不必要的带宽浪费,您可以在天翼云全站加速平台上配置URL鉴权功能。配置URL鉴权后,全站加速产品会对加密串及时间戳进行校验,从而有效地保护用户站点资源。 []( 访问控制 远程同步鉴权 可以通过配置远程同步鉴权功能,在全站加速节点收到用户请求后,将请求转发回提前设定的鉴权源站,在源站鉴权许可后,全站加速节点才给用户返回对应内容,从而实现用户鉴权规则由源站全权定义。 远程同步鉴权 访问控制 全网带宽控制 天翼云全网带宽控制功能可通过设置单个域名或多个域名的总带宽值来控制带宽总用量,避免因带宽突发带来更多的带宽费用。带宽控制功能支持全网边缘总带宽限制,支持分时段控制,您可以根据自身带宽需求选择对应的限制策略。带宽超出设置值后,可选择对请求进行限速、拒绝或者重定向操作。 []( 访问控制 有序回源 全站加速的有序回源功能是一种流量控制方法,用于大量请求并发回源时的排队管理。 []( 访问控制 单请求限速 单请求限速功能可以限制全站加速节点响应给用户的下行速率,从而减少域名的整体带宽,节省成本。 []( 访问控制 IP访问限频 IP访问限频功能可以限制单个用户IP在天翼云全站加速单台服务器上的请求频次,防御CC攻击,防止恶意用户盗刷。 []( 页面优化 html页面优化 置了页面优化功能后,全站加速产品会自动删除页面中的冗余内容,例如HTML页面、JavaScript和CSS中的注释内容和重复的空白符,从而达到缩小文件体积、提升文件分发效率。 []( 页面优化 html禁止操作 html禁止操作,支持在客户控制台自助进行html页面的禁止右键操作和禁止复制操作,以防止源站的源码泄露。 []( 视频相关 视频拖拉 视频点播网站或应用,通常都会提供视频拖拉能力,用户可以随意拖动播放器进度条到想要的位置。使用全站加速后,您可以通过配置视频拖拉功能,支持用户的视频拖拉请求。 视频拖拉 视频相关 视频试看 视频点播网站或应用,除免费视频外,通常还会有一些精品付费视频。为吸引用户观看,网站往往会允许用户免费试看一定时间的内容,例如60s或是更短时间。使用全站加速后,视频网站仍可通过全站加速节点来实现视频试看功能。 视频试看 视频相关 HLS标准加密改写 LS标准加密改写功能,是指全站加速节点回源获取到M3U8文件内容后,改写其中的
        来自:
        帮助文档
        全站加速
        产品介绍
        产品功能
        功能概览
      • 部署规划
        您需要在部署天翼云TeleDB数据库之前,规划相关的硬件、网络及基础环境。 1. 先准备好介质独立部署,为方便快速部署,TelePG从1.5.3版本开始支持独立部署功能。前期准备好介质,部署好zk,部署好mysql,借助TelePG控制台进行部署。 2. 通过集团云翼平台直接订购开通部署。 3. 流复制是PostgreSQL 9.0 之后提供的新的传递 WAL 日志的方法。通过流复制,备库不断的从主库同步相应的数据,并在备库应用每个 WAL 文件 。主备模式推荐采用同步及潜在同步至少三节点的方式。 4. 暂不支持自动建立database,需用户手动建立database;支持自动建schema,用户可不用手动建立schema。 内存分配 1.shared buffer pool,共享内存区域:供 PostgreSQL 服务器的所有进程使用。查看 sharedbuffers 参数可以得到其设置值,建议设为内存的四分之一。 2.WAL buffer,预写日志缓冲区:WAL 数据在写入持久存储之前的缓冲区,实例初始化时自动计算。 3.commit log,提交日志:所有事务的状态日志,每个事务占用 2bit,最大512MB。 4.tempbuffers,临时表缓冲区。 5.workmem,工作内存:执行器在执行 sort、distinct 使用该区域对元组做排序,以及存储 merge join、hash join 多表连接的数据,受最大连接数 maxconnections 参数影响,建议用户 session 级别进行设置,不要全局设置。 6.maintenanceworkmem,维护内存:某些类型的维护操作使用该区域(如vacuum、reindex)。 注意 按照小系统上云oltp应用保守设置,如果是大数据、数据仓库,需要再此基础按照测试重新优化调整较大参数值。 最大内存估算可参考如下表: 项目 值(MB) 备注 maxconnections 100 默认值为100 workmem 4 默认值为4,最小值64KB tempbuffers 8 默认值为8,最小值800KB sharedbuffers 128 默认值为8,最小值128KB autovacuummaxworkers 3 默认值为3 maintenanceworkmem 64 默认值为64MB,最小值为1MB。 commit log 48 每个事务2bits,autovacuumfreezemaxage,默认为2亿。 maxconnectionsworkmem+maxconnectionstempbuffers+sharedbuffers+(autovacuummaxworkersmaintenanceworkmem)+clog 1568 wal buffers1 autovacuumworkmem1 操作系统配置规范: 关闭 CPU 的节能模式。 关闭 NUMA。 建议使用 UTF8。 设置时间时区,建议主机工程师设置时间同步服务。 关闭其他服务: systemctl stop tuned.service ktune.service systemctl stop firewalld.service systemctl stop postfix.service systemctl stop avahidaemon.socket systemctl stop avahidaemon.service systemctl stop atd.service systemctl stop bluetooth.service systemctl stop wpasupplicant.service systemctl stop accountsdaemon.service systemctl stop atd.service cups.service systemctl stop postfix.service systemctl stop ModemManager.service systemctl stop debugshell.service systemctl stop rtkitdaemon.service systemctl stop rpcbind.service systemctl stop rngd.service systemctl stop upower.service systemctl stop rhsmcertd.service systemctl stop rtkitdaemon.service systemctl stop ModemManager.service systemctl stop mcelog.service systemctl stop colord.service systemctl stop gdm.service systemctl stop libstoragemgmt.service systemctl stop ksmtuned.service systemctl stop brltty.service systemctl stop avahidnsconfd.service 数据库高可用telePG 数据库高可用telePG组件服务器,bios层需要关闭numa,关闭电源保护模式设置CPU为最大性能模式,让其不降频,cat /proc/cpuinfo grep E "model nameMHz"CPU型号、频率一致。 参数类型 配置项 说明 操作系统内核参数配置 sysctl vm.swappiness5 5~10可选,但不可能阻止使用swap空间 操作系统内核参数配置 vm.minfreekbytes1024000 保证系统空闲内存维持在一定水平,同时保障内存管理low和min水位之间有足够间隔 操作系统内核参数配置 fs.aiomaxnr40960000 aiomaxnr no of process per DB no of databases 4096 操作系统内核参数配置 vm.dirtyratio20 vm.dirtybackgroundratio5 vm.dirtywritebackcentisecs100 vm.dirtyexpirecentisecs500 可选,这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台回写进程运行,将一定缓存的脏页异步地刷入外存 操作系统内核参数配置 vm.vfscachepressure150 vm.swappiness10 vm.minfreekbytes524288">> /etc/sysctl.d/99sysctl.conf && sysctl system 可选,该参数表示内核回收用于directory和inode cache内存的倾向。缺省值100表示内核将根据pagecache和swapcache,把directory和inode cache保持在一个合理的百分比;降低该值低于100,将导致内核倾向于保留directory和inode cache;增加该值超过100,将导致内核倾向于回收directory和inode cache 操作系统内核参数配置 fs.filemax 76724200 该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量 操作系统内核参数配置 net.core.rmemmax 4194304 最大的TCP数据接收缓冲 操作系统内核参数配置 net.core.wmemmax 2097152 最大的TCP数据发送缓冲 操作系统内核参数配置 net.core.wmemdefault 262144 表示接收套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.core.rmemdefault 262144 表示发送套接字缓冲区大小的缺省值(以字节为单位) 操作系统内核参数配置 net.ipv4.tcpsyncookies 1 当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭。 操作系统内核参数配置 net.ipv4.tcptwreuse 1 允许将TIMEWAIT sockets重新用于新的TCP连接,默认为0,表示关闭 操作系统内核参数配置 net.ipv4.tcptwrecycle 1 TCP连接中TIMEWAIT sockets的快速回收,默认为0,表示关闭,注意如果是natnat网络,并与net.ipv4.tcptimestamps 1组合使用,则会出现时断时续的情况 操作系统内核参数配置 net.ipv4.tcpfintimeout 30 修改系統默认的TIMEOUT 时间,避免服务器被大量的TIMEWAIT拖死 操作系统内核参数配置 net.ipv4.iplocalportrange 9000 65000 如果连接数本身就很多,可以再优化一下TCP的可使用端口范围,进一步提升服务器的并发能力,默认值是32768到61000 操作系统内核参数配置 net.ipv4.tcpmaxsynbacklog 8192 SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数 操作系统内核参数配置 net.ipv4.tcpmaxtwbuckets 5000 系统同时保持TIMEWAIT的最大数量,如果超过这个数字,TIMEWAIT将立刻被清除并打印警告信息,默认为180000 操作系统内核参数配置 net.ipv4.conf.all.rpfilter 0 net.ipv4.conf.all.arpfilter 0 net.ipv4.conf.default.rpfilter 0 net.ipv4.conf.default.arpfilter 0 net.ipv4.conf.lo.rpfilter 0 net.ipv4.conf.lo.arpfilter 0 net.ipv4.conf.em1.rpfilter 0 net.ipv4.conf.em1.arpfilter 0 net.ipv4.conf.em2.rpfilter 0 net.ipv4.conf.em2.arpfilter 0 网卡的设置 操作系统内核参数配置 kernel.shmmni 4096 这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是4096 。通常不需要更改kernel.sem 250 32000 100 142 操作系统内核参数配置 kernel.shmall 1073741824 该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值是2097152,可根据kernel.shmmax大小进行调整(kernel.shmmax/41024或者kernel.shmmax/81024) 操作系统内核参数配置 kernel.shmmax 4398046511104 该参数定义了共享内存段的最大尺寸(以字节为单位),此值默认为物理内存的一半 操作系统内核参数配置 kernel.sysrq 0 如无需调试系统排查问题,这个必须为0 telepg的 limits.conf配置 telepg soft nofile1048576 telepg的 limits.conf配置 telepg soft memlock 1 telepg的 limits.conf配置 telepg hard memlock 1 telepg的 limits.conf配置 telepg hard memlock 128849018880 telepg的 limits.conf配置 telepg soft memlock 128849018880 telepg的 limits.conf配置 telepg soft core6291456 telepg的 limits.conf配置 telepg hard core6291456 telepg的 limits.conf配置 telepg hard nproc131072 telepg的 limits.conf配置 telepg soft nproc131072 telepg的 limits.conf配置 telepg hard nofile 1048576 telepg的 limits.conf配置 telepg hard stack 32768 telepg的 limits.conf配置 telepg soft stack 10240 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/enabled 禁用透明大页 echo never> /sys/kernel/mm/transparenthugepage/defrag 网络连通性 确保组件和集群内的网络联通。 确保与相关联组件的网络连通。 确保防火墙关闭。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V1.0.0版本产品文档
        安装部署手册
        安装前准备
        部署规划
      • 自动运维
        本章节为您介绍云堡垒机自动运维的相关内容。 云堡垒机具备自动运维功能,允许用户依照既定步骤自行执行命令和运维脚本,对多个目标进行自动化运维管理。除此之外,系统支持设定任务执行的周期和时间,实现自动化定期执行。同时,它还能够并行处理多种类型的任务步骤,大大提高了效率。 约束限制 仅企业版云堡垒机支持自动运维功能。 仅支持对Linux主机(SSH、Telnet协议类型)资源执行自动运维任务。 暂不支持对Windows主机资源、数据库资源和应用资源执行自动运维任务。 管理员和运维角色都支持自动化运维功能。 用户自动化运维可执行的命令和脚本受到命令权限的限制。 新建自动运维策略 1. 使用“管理角色”或“运维角色”账户登录云堡垒机系统。 2. 在左侧导航栏选择“自动运维”,进入“自动运维”页面。 3. 单击“新增”,开始新增自动运维策略。 4. 在弹出的“新增自动运维策略”对话框中填写相关内容。 配置项 说明 任务名称 自定义运维策略名称。 描述 自定义运维策略的描述内容。 资产账号 单击“添加”选择需要自动化运维的设备及账号。 执行策略 选择运维策略。 手动执行:保存运维策略后可手动执行该策略。 定期执行:选取执行时间,保存后在对应时间执行该策略。 周期执行:选取首次执行时间和执行周期(天),保存后在对应时间执行该策略。 执行方式 选择自动化运维的执行方式。 执行命令:在“执行命令”参数框中填写需要执行的运维的命令。 执行脚本:上传可使用的.sh/.py脚本命令,若有相关脚本参数在“脚本参数”对话框中填写,多个参数使用英文逗号","分隔。 5. 单击“确认”,弹出“验证用户身份”窗口。 6. 在“验证用户身份”窗口输入资产账号的密码,完成输入后单击“提交”即可完成自动运维策略建立。
        来自:
        帮助文档
        云堡垒机(原生版)
        用户指南
        管理员手册
        自动运维
      • 将MySQL迁移到MySQL
        类型名称 使用和操作限制 数据库权限设置 全量迁移最小权限要求: 源数据库账号需要具备如下权限: SELECT、SHOW VIEW、EVENT。 目标数据库账号必须拥有如下权限: SELECT、CREATE、ALTER、DROP、DELETE、INSERT、UPDATE、INDEX、EVENT、CREATE VIEW、CREATE ROUTINE、TRIGGER、REFERENCES、WITH GRANT OPTION。当目标库为8.0.148.0.18版本时,还需要有SESSIONVARIABLESADMIN权限。 全量+增量最小迁移权限要求: 源数据库账号需要具备如下权限: SELECT、SHOW VIEW、EVENT、LOCK TABLES、REPLICATION SLAVE、REPLICATION CLIENT。 目标数据库账号必须拥有如下权限: SELECT、CREATE、ALTER、DROP、DELETE、INSERT、UPDATE、INDEX、EVENT、CREATE VIEW、CREATE ROUTINE、TRIGGER、REFERENCES、WITH GRANT OPTION。当目标库为8.0.148.0.18版本时,还需要有SESSIONVARIABLESADMIN权限。 用户迁移最小权限要求: 用户迁移时,帐户需要有mysql.user的SELECT权限。 目标数据库账号需要有mysql库的SELECT,INSERT,UPDATE,DELETE权限。 源数据库要求 源数据库中的库名不能包含:'<>/"以及非ASCII字符。 源数据库中的表名、视图名不能包含:'<>/"以及非ASCII字符。 源数据库中的库名不允许为iblogfile。 MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。 源数据库expirelogsdays参数值为0,可能会导致迁移失败。 增量迁移时,必须设置MySQL源数据库的serverid。如果源数据库版本小于或等于MySQL5.6,serverid的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,serverid的取值范围在1-4294967296之间。 MySQL源数据库建议开启skipnameresolve,减少连接超时的可能性。 源数据库GTID状态建议为开启状态。 源库不支持mysql binlog dump命令。 源数据库和目标数据库字符集需保持一致,否则迁移失败。 源数据库logslaveupdates参数需设置为开启状态,否则会导致迁移失败。 源数据库的binlogrowimage参数需设置为FULL,否则会导致迁移失败。 源数据库MySQL8.0目前不支持参数lowercasetablenames等于0的迁移。 目标数据库要求 不支持从高版本迁移到低版本。 建议MySQL目标库的binlog日志格式为Row格式,否则增量迁移可能出错。 目标数据库实例的运行状态必须正常。 目标数据库实例必须有足够的磁盘空间。 除了MySQL系统数据库之外,目标数据库不能包含与源数据库同名的数据库。 建议目标库的事务隔离级别至少保证在已提交读。 DRS迁移时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置大一点,使其大于100MB。 目标数据库GTID状态建议为开启状态。 源数据库和目标数据库的参数serveruuid相同, 将导致增量迁移失败。 源数据库和目标数据库的参数collationserver需保持一致,否则可能导致迁移失败。 所选迁移对象和外键依赖的表需一起进行迁移,否则会导致迁移失败。 源数据库和目标数据库的参数timezone需保持一致,否则可能导致迁移失败。 源数据库和目标数据库的sqlmode参数值需保持一致,否则可能导致迁移失败。 迁移的对象中包含引擎为MyISAM的表,则目标数据库sqlmode不能包含noenginesubstitution参数,否则可能会导致迁移失败。 源数据库和目标数据库的innodbstrictmode参数值需保持一致,否则可能导致迁移失败。 目标数据库和源数据库的lowercasetablenames参数需保持一致,否则可能导致迁移失败。 目标数据库的logbintrustfunctioncreators参数需设置为on,否则可能导致迁移失败。 迁移对象约束 支持数据库、表、视图、索引、约束、函数、存储过程、触发器(TRIGGER)和事件(EVENT)的迁移。 不支持系统库的迁移以及事件状态的迁移。 不支持非MyISAM和非InnoDB表的迁移。 操作须知 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。常见的关联关系:视图引用表、视图引用视图、存储过程/函数/触发器引用视图/表、主外键关联表等。 不支持外键级联操作。 由于MySQL本身限制,若源库的一次性事件(EVENT)设定的触发时间在迁移开始前,该事件(EVENT)不会迁移到目标库。 多对一场景下,创建迁移任务时,目标库读写设置需要跟已有任务设置为一致。 由于无主键表缺乏行的唯一性标志,网络不稳定时涉及少量重试,表数据存在少量不一致的可能性。 不支持目标数据库恢复到全量迁移时间段范围内的PITR操作。 源库和目标库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。 如果源库MySQL不支持TLS1.2协议,或者为版本较低的自建库(低于5.6.46或在5.75.7.28之间),需提交运维申请才能使用SSL测试连接。 如果源数据库为自建库,并且安装了Percona Server for MySQL 5.6.x或Percona Server for MySQL 5.7.x时,内存管理器必须使用Jemalloc库,以避免因系统表频繁查询带来的内存回收不及时,并最终导致数据库Out of Memory问题。 迁移任务目标数据库可以设置“只读”和“读写”。 只读:目标数据库实例将转化为只读、不可写入的状态,迁移任务结束后恢复可读写状态,此选项可有效的确保数据迁移的完整性和成功率,推荐此选项。 读写:目标数据库可以读写,但需要避免操作或接入应用后会更改迁移中的数据(注意:无业务的程序常常也有微量的数据操作),进而形成数据冲突、任务故障、且无法修复续传,充分了解要点后可选择此选项。 建议将expirelogday参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。 在任务启动、任务全量迁移阶段,不建议对源数据库做删除类型的DDL操作,比如删除数据库、索引、视图等,这样可能会引起任务迁移失败。 迁移过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 为了保持数据一致性,不允许对正在迁移中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 迁移过程中,不允许源库写入binlog格式为statement的数据。 迁移过程中,不允许源库执行清除binlog的操作。 迁移过程中,不允许在源库创建库名为iblogfile的数据库。 选择表级对象迁移时,增量迁移过程中不支持对表进行重命名操作。 增量迁移场景下,不支持源数据库进行恢复到某个备份点的操作(PITR)。 增量迁移阶段,支持断点续传功能,在主机系统崩溃的情况下,对于非事务性的无主键的表可能会出现重复插入数据的情况。 增量迁移支持DDL语句。 当源和目标库是同一个大版本且为整实例迁移时,增量迁移支持DCL语句,不支持通过更新mysql.user表进行的账号变更。相关DCL语句可参考
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        入云
        将MySQL迁移到MySQL
      • 技术类
        本章节主要介绍故障演练服务技术类问题。 故障演练的实现原理是什么? 不同类型的故障动作实现原理各不相同,详细说明请参考故障动作库中的具体文档,下表简要概述了各类动作的核心原理: 分类 资源类型 动作类型 动作 简介 原理描述 计算 云主机 主机资源 主机宕机 使用云主机接口对实例进行关机 通过调用云主机关机OpenAPI触发关机 计算 云主机 CPU资源 CPU高负载 使用内部自研工具实施CPU高负载 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是启动自定义程序,空跑for循环来消耗CPU时间片 计算 云主机 内存资源 内存高负载 使用内部自研工具实施内存高负载 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是启动自定义程序不断申请内存,模拟主机内存负载升高 注意:设置高负载的内存故障注入后,可能会使得机器无法登入与控制,请谨慎使用 计算 云主机 磁盘资源 IO高负载 使用内部自研工具实施磁盘IO高负载 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是先通过dd命令将数据写入文件中,然后再通过循环读写文件占用磁盘带宽 计算 云主机 磁盘资源 IO Hang 模拟磁盘产生IO Hang效果 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过fsfreeze命令模拟磁盘夯死表现 注意:设置磁盘夯死故障注入后,可能会导致应用无法读写文件产出异常,请谨慎使用 计算 云主机 磁盘资源 磁盘填充 使用内部自研工具实施磁盘填充 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过dd命令将数据写入文件 计算 云主机 网络资源 网络丢包 使用TC和Netem模拟主机内网络丢包 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过增加TC和Netem规则模拟主机内网络丢包 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 计算 云主机 网络资源 网络延迟 使用TC和Netem模拟主机内网络延迟 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过增加TC和Netem规则模拟主机内网络延迟 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 计算 云主机 网络资源 网络包重复 使用TC和Netem模拟主机内网络包重复 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过增加TC和Netem规则模拟主机内网络包重复 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 计算 云主机 网络资源 网络包乱序 使用TC和Netem模拟主机内网络包乱序 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过增加TC和Netem规则模拟主机内网络包乱序 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 计算 云主机 网络资源 网络包损坏 使用TC和Netem模拟主机内网络包损坏 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过增加TC和Netem规则模拟主机内网络包损坏 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 计算 云主机 网络资源 端口占用 模拟指定端口占用 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是启动自定义程序, 创建Socket对象并绑定到指定端口 计算 云主机 网络资源 DNS篡改 篡改指定域名解析到指定IP 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过修改本地DNS解析文件实现 计算 云主机 网络资源 DNS不可用 DNS解析不可用 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过修改本地DNS解析文件或防火墙规则实现 注意:该动作风险较大,请谨慎操作 计算 云主机 JVM故障 JVM延迟 向特定JVM进程注入方法调用延迟故障 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令 原理是通过Java Agent在JVM进程内插入sleep代码来实现 中间件 Redis 集群资源 主从切换 Redis主从切换 通过调用Redis主从切换OpenAPI,触发Redis集群实例进行主从切换 中间件 Redis 节点资源 Redis节点故障 Redis节点发生故障 通过调用Redis停止Redis服务OpenAPI,模拟Redis节点故障,故障会触发Redis HA机制进行自动恢复 中间件 Redis 节点资源 Proxy节点故障 Proxy节点发生故障 通过调用Redis停止Proxy服务OpenAPI,模拟Proxy节点不可用 中间件 Redis 节点资源 节点主机宕机 Redis节点关机 通过关闭节点主机,模拟节点宕机 中间件 Redis 节点资源 CPU高负载 Redis节点CPU高负载 在节点启动自定义程序,空跑for循环来消耗CPU时间片 中间件 Redis 节点资源 内存高负载 Redis节点内存高负载 在节点启动自定义程序不断申请内存,模拟主机内存负载升高 注意:设置高负载的内存故障注入后,可能会使得机器无法登入与控制,请谨慎使用 中间件 Redis 节点资源 磁盘IO高负载 Redis节点磁盘IO高负载 在节点先通过dd命令将数据写入文件中,然后再通过循环读写文件占用磁盘带宽 中间件 Redis 节点资源 磁盘IO Hang Redis节点磁盘IO Hang 在节点通过fsfreeze命令模拟磁盘夯死表现 中间件 Redis 节点资源 网络丢包 Redis节点网络丢包 在节点通过增加TC和Netem规则模拟主机内网络丢包 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 中间件 Kafka 节点资源 Broker节点主机宕机 Broker节点关机 指定或随机一个Broker节点进行关机 中间件 Kafka 节点资源 Broker节点CPU高负载 Broker节点CPU高负载 指定或随机一个Broker节点启动自定义程序,空跑for循环来消耗CPU时间片 中间件 Kafka 节点资源 Broker节点磁盘IO高负载 Broker节点磁盘IO高负载 指定或随机一个Broker节点先通过dd命令将数据写入文件中,然后再通过循环读写文件占用磁盘带宽 中间件 Kafka 节点资源 分区Leader不可用 分区Leader发生故障 指定一个或多个分区Leader,通过调用Kafka模拟Leader故障OpenAPI,触发Leader重新选举 中间件 RCC 集群资源 停止服务 注册配置中心集群服务故障 通过调用RCC停止集群OpenAPI,模拟RCC集群服务故障 中间件 RCC 节点资源 停止节点 注册配置中心节点故障 通过调用RCC停止节点OpenAPI,模拟RCC节点故障 云容器 容器集群 节点资源 托管Master节点宕机 关闭云容器引擎Master节点主机 通过关闭云容器引擎Master节点主机,模拟Master节点宕机(支持托管版本和智算版) 云容器 容器集群 节点资源 节点宕机 关闭云容器引擎纳管的节点主机 通过关闭云容器引擎纳管的节点主机,模拟节点宕机(支持Worker节点或专有版容器Master节点) 云容器 容器集群 节点资源 Etcd节点宕机 停止Etcd服务,模拟Etcd节点宕机 通过停止Etcd节点上的服务,模拟Etcd节点宕机 云容器 集群Node CPU资源 CPU高负载 使用内部自研工具实施CPU高负载 启动自定义程序,空跑for循环来消耗CPU时间片 云容器 集群Node 内存资源 内存高负载 使用内部自研工具实施内存高负载 启动自定义程序不断申请内存,模拟主机内存负载升高 注意:设置高负载的内存故障注入后,可能会使得机器无法登入与控制,请谨慎使用 云容器 集群Node 磁盘资源 IO高负载 使用内部自研工具实施磁盘IO高负载 先通过dd命令将数据写入文件中,然后再通过循环读写文件占用磁盘带宽 云容器 集群Node 磁盘资源 磁盘填充 使用内部自研工具实施磁盘填充 通过dd命令将数据写入文件 云容器 集群Node 网络资源 网络丢包 使用TC和Netem模拟Node内网络丢包 通过增加TC和Netem规则模拟Node内网络丢包 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Node 网络资源 网络延迟 使用TC和Netem模拟Node内网络延迟 通过增加TC和Netem规则模拟Node内网络延迟 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Node 网络资源 网络包重复 使用TC和Netem模拟Node内网络包重复 通过增加TC和Netem规则模拟Node内网络包重复 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Node 网络资源 网络包乱序 使用TC和Netem模拟Node内网络包乱序 通过增加TC和Netem规则模拟Node内网络包乱序 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Node 网络资源 网络包损坏 使用TC和Netem模拟Node内网络包损坏 通过增加TC和Netem规则模拟Node内网络包损坏 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Node 网络资源 DNS篡改 篡改指定域名解析到指定IP 通过修改本地DNS解析文件实现 云容器 集群Node 应用进程 进程停止 终止节点上的指定进程 通过kill 9停止节点上的指定进程 云容器 集群Node 应用进程 进程挂起 挂起节点上的指定进程 通过kill STOP挂起节点上的指定进程 云容器 集群Pod CPU资源 CPU高负载 使用内部自研工具实施CPU高负载 启动自定义程序,空跑for循环来消耗CPU时间片 云容器 集群Pod 内存资源 内存高负载 使用内部自研工具实施内存高负载 启动自定义程序不断申请内存,模拟主机内存负载升高 注意:设置高负载的内存故障注入后,可能会使得机器无法登入与控制,请谨慎使用 云容器 集群Pod 磁盘资源 IO高负载 使用内部自研工具实施磁盘IO高负载 先通过dd命令将数据写入文件中,然后再通过循环读写文件占用磁盘带宽 云容器 集群Pod 磁盘资源 磁盘填充 使用内部自研工具实施磁盘填充 通过dd命令将数据写入文件 云容器 集群Pod 网络资源 网络丢包 使用TC和Netem模拟Pod内网络丢包 通过增加TC和Netem规则模拟Pod内网络丢包 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Pod 网络资源 网络延迟 使用TC和Netem模拟Pod内网络延迟 通过增加TC和Netem规则模拟Pod内网络延迟 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Pod 网络资源 网络包重复 使用TC和Netem模拟Pod内网络包重复 通过增加TC和Netem规则模拟Pod内网络包重复 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Pod 网络资源 网络包乱序 使用TC和Netem模拟Pod内网络包乱序 通过增加TC和Netem规则模拟Pod内网络包乱序 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Pod 网络资源 网络包损坏 使用TC和Netem模拟Pod内网络包损坏 通过增加TC和Netem规则模拟Pod内网络包损坏 注意:只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败 云容器 集群Pod 网络资源 DNS篡改 篡改指定域名解析到指定IP 通过修改本地DNS解析文件实现 云容器 集群Pod Pod资源 Pod删除 删除指定Pod 调用云容器引擎K8S API删除Pod 云容器 集群Pod 应用进程 进程停止 终止节点上的指定进程 通过kill 9停止节点上的指定进程 云容器 集群Pod 应用进程 进程挂起 挂起节点上的指定进程 通过kill STOP挂起节点上的指定进程 云容器 集群Pod JVM故障 JAVA方法调用延迟 指定JVM进程与方法增加调用延迟 通过Java Agent拦截指定JVM进程内方法,增加sleep操作模拟调用延迟 云容器 集群Pod JVM故障 JAVA方法抛自定义异常 指定JVM进程与方法抛出自定义异常 通过Java Agent拦截指定JVM进程内方法,增加thow操作模拟抛出异常 云容器 容器镜像 Harbor服务 Harbor服务不可用 停止Harbor服务,模拟容器镜像仓库不可用 通过调用容器镜像服务OpenAPI,停止Harbor服务,模拟容器镜像仓库不可用
        来自:
        帮助文档
        应用高可用
        常见问题
        故障演练服务
        技术类
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 系统盘扩展磁盘分区和文件系统
        本文将为您介绍系统盘扩展磁盘分区的两种方式,扩大原有MBR分区与新增MBR分区。 扩大原有MBR分区 本示例以“CentOS 7.6 64bit”为例,原有系统盘/dev/vda已有分区/dev/vda1,容量为40GB,已在控制台为其扩容10GB,下列步骤会将新增的10GB扩容至原有的/dev/vda1中。 1. 输入 growpart命令,检查此云主机是否已安装growpart扩容工具。若出现图中回显信息,则说明已经安装,无需手动安装。 注意 若没有图示信息,请执行命令“yum install cloudutilsgrowpart”手动安装growpart工具。 2. 执行 fdisk l命令,查看此台云主机系统盘/dev/vda的总容量。回显信息如图所示: 3. 执行命令 df TH,查看系统盘分区/dev/vda1的现有容量,回显信息如图所示: 从两个命令的回显信息可见,当前系统盘/dev/vda容量为50GB,但是分区/dev/vda1的容量仅有40GB,需要扩大分区/dev/vda1。 4. 执行命令 growpart /dev/vda 1扩大磁盘分区,指定系统盘/dev/vda,待扩容分区的编号为1,回显信息如图所示: 说明 如果出现报错“NOCHANGE:partition 1 is size xxxxxxx. it cannot be grown”,说明可能是云主机磁盘已满(占用率100%)导致的磁盘无法正常扩容,在此情况下请您做好数据备份后清理不必要的文件或程序来释放一部分磁盘空间。清理磁盘空间步骤可参见最佳实践“解决Linux云主机磁盘空间不足的问题”。 5. 执行命令 xfsgrowfs /dev/vda1,将原有分区/dev/vda1的文件系统进行扩充。回显信息如图所示: 说明 当磁盘分区文件系统为xfs格式时,请使用xfsgrowfs工具进行磁盘分区扩容。 当磁盘分区文件系统为ext格式时,请使用resize2fs工具进行磁盘分区扩容。 6. 执行命令 df TH,查看扩容后系统盘分区/dev/vda1的容量。回显信息如图所示: 从图中可以看到原有分区已经扩容至50GB。 若需要设置开机自动挂载磁盘分区,请参见设置开机自动挂载磁盘。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        扩容云硬盘
        Linux扩展磁盘分区和文件系统
        系统盘扩展磁盘分区和文件系统
      • 在CTS事件列表查看云审计事件
        本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录。 场景描述 云审计服务能够为您提供云服务资源的操作记录,记录的信息包括发起操作的用户身份、IP地址、具体的操作内容的信息,以及操作返回的响应信息。根据这些操作记录,您可以很方便地实现安全审计、问题跟踪、资源定位,帮助您更好地规划和利用已有资源、甄别违规或高危操作。 什么是事件 事件即云审计服务追踪并保存的云服务资源的操作日志,操作包括用户对云服务资源新增、修改、删除等操作。您可以通过“事件”了解到谁在什么时间对系统哪些资源做了什么操作。 约束与限制 用户通过云审计控制台只能查询最近7天的操作记录,过期自动删除,不支持人工删除。如果需要查询超过7天的操作记录,您必须配置转储到对象存储服务(OBS)或云日志服务(LTS),才可在OBS桶或LTS日志组里面查看历史事件信息。否则,您将无法追溯7天以前的操作记录。 用户对云服务资源做出创建、修改、删除等操作后,1分钟内可以通过云审计控制台查询管理类事件操作记录,5分钟后才可通过云审计控制台查询数据类事件操作记录。 在CTS查看审计事件 1. 登录控制台,单击左上角,选择“管理与部署 > 云审计服务 CTS”,进入云审计服务页面。 2. 单击左侧导航栏的“事件列表”,进入事件列表信息页面。 3. 在页面右上方,可以通过筛选时间范围,查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 4. 事件列表支持通过筛选来查询对应的操作事件。 参数名称 说明 事件类型 事件类型分为“管理事件”和“数据事件”。 管理类事件,即用户对云服务资源新建、修改、删除等操作事件。 数据类事件,即OBS服务上报的OBS桶中的数据的操作事件,例如上传数据、下载数据等。 云服务 在下拉选项中,选择触发操作事件的云服务名称。 资源类型 在下拉选项中,选择操作事件涉及的资源类型。 支持的资源类型请参见云审计服务支持的态势感知(专业版)操作列表。 筛选类型 筛选类型分为“资源ID”、“事件名称”和“资源名称”。 资源ID:操作事件涉及的云资源ID。 当该资源类型无资源ID,或资源创建失败时,该字段为空。 事件名称:操作事件的名称。 支持审计的操作事件的名称请参见云审计服务支持的态势感知(专业版)操作列表。 资源名称:操作事件涉及的云资源名称。 当事件所涉及的云资源无资源名称,或对应的API接口操作不涉及资源名称参数时,该字段为空。 操作用户 触发事件的操作用户。 下拉选项中选择一个或多个操作用户。 查看事件中的tracetype的值为“SystemAction”时,表示本次操作由服务内部触发,该条事件对应的操作用户可能为空。 事件级别 可选项包含“所有事件级别”、“Normal”、“Warning”、“Incident”,只可选择其中一项。 Normal代表操作成功。 Warning代表操作失败。 Incident代表比操作失败更严重的情况,如引起其他故障等。 5. 选择完查询条件后,单击“查询”。 6. 在事件列表页面,您还可以导出操作记录文件和刷新列表。 单击“导出”按钮,云审计服务会将查询结果以CSV格式的表格文件导出,该CSV文件包含了本次查询结果的所有事件,且最多导出5000条信息。 单击按钮,可以获取到事件操作记录的最新信息。 7. 在需要查看的事件左侧,单击展开该记录的详细信息。 8. 在需要查看的记录右侧,单击“查看事件”,会弹出一个窗口显示该操作事件结构的详细信息。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        使用CTS审计态势感知(专业版)
        在CTS事件列表查看云审计事件
      • 1
      • ...
      • 200
      • 201
      • 202
      • 203
      • 204
      • ...
      • 281
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      训推服务

      应用托管

      科研助手

      智算一体机

      人脸属性识别

      人脸活体检测

      推荐文档

      如何修改账号的密码?

      文档下载

      数据库访问

      VPC安全组删除规则

      常见问题

      mstsc 远程登录报错-要求的函数不受支持

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号