云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      分布式关系型数据库_相关内容
      • 识别任务列表
        在任务列表中可查看敏感数据识别任务的详细信息 前提条件 已添加OBS、数据库、大数据源资产或MRS,具体操作请参见资产列表。 查看识别任务列表 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,选择选择“安全 > 数据安全中心”,进入数据安全中心总览界面。 4. 在左侧导航树中,单击“敏感数据识别(新) > 识别任务”,进入识别任务界面查看任务详情,相关参数如下表。 参数 说明 任务名称 识别任务名称。 单击任务名称前方的,查看任务下各个对象执行扫描的具体时间以及识别状态,并在具体对象所在行的“操作”列,可执行以下操作: 单击“停止”,停止对该任务下具体对象的扫描。 单击“立即识别”,立即执行对该任务下具体对象的扫描。 单击“识别结果”,查看该任务下具体对象的扫描结果。 单击“删除”,删除该任务下具体对象。 识别模板 识别模板名称。 执行周期 识别任务的具体执行周期。说明如下: 单次:识别任务仅执行一次。 每天:每天固定时间执行一次识别任务。 每周:每周固定时间执行一次识别任务。 每月:每月固定时间执行一次识别任务。 状态 识别任务的执行状态。 待识别:识别任务在队列中,等待识别。 识别中:正在执行的识别任务。 识别完成:目标任务下的所有识别对象都已成功完成了扫描。 识别异常:目标任务下至少存在一个识别对象执行识别任务失败。 识别终止:正在识别中的任务,被强行停止。 上次识别时间 上一次执行该任务的具体时间。 上次识别结果 上一次该任务扫描的结果,包含内置级别和自定义级别,详情参见新增分级章节。 操作 用户可以在操作栏中,执行以下操作: 立即执行识别任务,具体的参见启动识别任务章节。 查看识别结果,单击“识别结果”,跳转到“ 结果明细”页面,DSC为您提供了详细的结果分析报告,具体的参见查看识别结果章节。 开启任务,当该任务处于关闭状态时,单击“更多> 开启任务”,具体请参见启动识别任务章节。 编辑扫描任务,单击“更多>编辑”,具体请参见配置识别任务。 删除扫描任务,单击“更多>删除”,具体请参见删除识别任务。
        来自:
        帮助文档
        数据安全中心
        用户指南
        敏感数据识别(新)
        敏感数据识别任务
        识别任务列表
      • 安装Windows Server 2008 R2应用服务器
        本小节介绍安装Windows Server 2008 R2应用服务器。 安装环境介绍 以下为安装AD域环境的服务器信息: Windows Server版本:Windows Server 2008 R2(所有软件包已经全部安装完成) IP:192.168.X.X/X 网关:192.168.X.X DNS:192.168.X.X 域名:example.com 计算机名:server 安装AD域 修改计算机名和服务器静态IP 修改服务IP地址,并且将DNS地址指向本机,然后修改计算机名为server。安装AD域服务之后,机器名称会自动变成“主机名+域名”的形式。 说明 安装AD域 在命令行下输入 dcpromo.exe ,安装AD域和DNS服务器,不能使用添加角色向导的方式将AD域和DNS服务器安装在一起。 AD域服务安装向导 1 安装AD域,单击“下一步”。 2 单击“下一步”。 3 选择“在新林中新建域”,单击“下一步”。 4 单击“下一步”。 5 设置林功能级别,在下拉菜单中选择“Windows Server 2008 R2”,单击“下一步”。 6 勾选“DNS服务器”,单击“下一步”。 7 界面显示“无法创建DNS委派”,单击“是”,然后继续。 8 选择数据库文件和日志文件的目录,采用默认配置即可,单击“下一步”。 9 设置目录还原模式的密码,还原模式的Administrator密码不等于系统密码,单击“下一步”。 10 界面显示信息概要,单击“下一步”。 11 勾选“完成后重新启动”。 12 重启后,用域用户登录。 13 AD域环境安装完成。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        安装应用发布服务器
        安装Windows Server 2008 R2应用服务器
      • 购买云安全中心实例
        本节介绍如何购买云安全中心实例。 云安全中心支持包年/包月计费方式,目前提供标准版的主资源,两种扩展资源:日志分析量、态势大屏。您可以根据业务规模选择云安全中心规格。 前提条件 已注册天翼云账号并完成实名认证。 规格限制 态势大屏只可购买一次。 日志分析量扩展资源的购买资源最小单位为50G,即购买时只能选择50G的整数倍。 约束条件 同一账号在同一个区域只能开通一个云安全中心实例,对应一个服务版本。 开通云安全中心实例,必须购买主资源,主资源生效期间,支持叠加购买扩展资源,扩展资源与主资源绑定,到期时间与主资源一致,不支持单独续订、退订。 适用场景 用户购买了天翼云上的安全服务“Web应用防火墙(原生版)、服务器安全卫士(原生版)、云等保专区、数据库审计、云堡垒机(原生版)企业版、云防火墙(原生版)”并部署在天翼云上。 操作步骤 1. 登录天翼云控制中心。 2. 在控制台列表页,选择“安全 > 云安全中心”,进入云安全中心控制台。 3. 单击“立即购买”,进入购买页面。 4. 选择版本信息、扩展资源、购买时长。 参数 说明 基本信息 版本选择 支持“标准版”。规格详情请参见产品规格。 基本信息 计费模式 支持“包年包月”。 扩展配置 购买态势大屏 默认为“现在购买”,也可以选择“暂不购买”。 说明 态势大屏只可购买一次。 扩展配置 购买日志分析量 默认为“现在购买”,也可以选择“暂不购买”。 说明 云安全中心标准版免费提供50G的日志分析额度,如果您需要额外的额度,请另外购买。 日志分析量扩展资源的购买资源最小单位为50G,即购买时只能选择50G的整数倍。 订购 购买时长 拖动时间轴设置购买时长。 订购 自动续订 开启“自动续订”后,当服务到期前,系统会自动按照默认的续费周期生成续费订单并进行续费,无须用户手动续费。 按月购买,自动续费周期默认为3个月。 按年购买,自动续费周期默认为1年。 如需要修改自动续费周期,可进入天翼云“费用中心 > 订单管理 > 续订管理”页面,找到对应的资源进行修改。 5. 确认配置参数和配置费用,阅读《云安全中心服务协议》并勾选“我已阅读,理解并接受《云安全中心服务协议》”,单击“立即购买”。 6. 进入“付款”页面,完成付款。
        来自:
        帮助文档
        云安全中心
        快速入门
        购买云安全中心实例
      • 权限模型
        本章节主要介绍权限模型。 基于角色的权限控制 FusionInsight通过采用RBAC(rolebased access control,基于角色的权限控制)方式对大数据系统进行权限管理,将系统中各组件零散的权限管理功能集中呈现和管理,对普通用户屏蔽掉了内部的权限管理细节,对管理员简化了权限管理的操作方法,提升权限管理的易用性和用户体验。 FusionInsight权限模型由“用户-用户组-角色-权限”四类对象构成。 权限模型 权限 由组件侧定义,允许访问组件某个资源的能力。不同组件针对自己的资源,有不同的权限。 例如: −HDFS针对文件资源权限,有读、写、执行等权限。 −HBase针对表资源权限,有创建、读、写等权限。 角色 组件权限的一个集合,一个角色可以包含多个组件的多个权限,不同的角色也可以拥有同一个组件的同一个资源的权限。 用户组 用户的集合,当用户组关联某个或者多个角色后,该用户组内的用户就将拥有这些角色所定义的组件权限。 不同用户组可以关联同一个角色,一个用户组也可以不关联任何角色,该用户组原则上将不具有任何组件资源的权限。 说明 部分组件针对特定的默认用户组,系统默认赋予了部分权限。 用户 系统的访问者,每个用户的权限由该用户关联的用户组和角色所对应的权限构成,用户需要加入用户组或者关联角色来获得对应的权限。 基于策略的权限控制 Ranger组件通过PBAC(policybased access control,基于策略的权限控制)方式进行权限管理,可对HDFS、Hive、HBase等组件进行更加细粒度的数据访问控制。 说明 组件同时只支持一种权限控制机制,当组件启用Ranger权限控制策略后,通过FusionInsight Manager创建的角色中关于该组件的权限将失效(HDFS与Yarn的组件ACL规则仍将生效),用户需通过Ranger管理界面添加策略进行资源的赋权。 Ranger的权限模型由多条权限策略组成,权限策略主要由以下几方面组成: 资源 组件所提供的可由用户访问的对象,例如HDFS的文件或文件夹、Yarn中的队列、Hive中的数据库/表/列等。 用户 系统的访问者,每个用户的权限由该用户关联的策略来获得。LDAP中的用户、用户组、角色信息会周期性的同步至Ranger。 权限 策略中针对资源可配置各种访问条件,例如文件的读写,具体可以配置允许条件、拒绝条件以及例外条件等。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全概述
        权限模型
      • 云容器集群节点网络包乱序
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎节点。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎节点实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包乱序动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 重排序概率:数据包被立即发送的百分比。 和上一包的相关性:控制数据包重排序的随机性和规律性之间的平衡,取值范围 0~100,例如,设置为 50 表示有 50% 的可能性下一个数据包的重排序决策会受到前一个数据包的影响。值越高,乱序模式越规律;值越低,越随机。 包序列大小:定义了重排序数据包之间的距离,即有多少个数据包会按照正常顺序发送后才会出现一个重排序的数据包,例如,当 gap 设置为 2 时,意味着每 2 个正常顺序的数据包之后会有一个数据包被重排序。 网络包延迟时间(毫秒):对被选中的乱序数据包施加的延迟时长。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群节点网络包乱序
      • 云容器集群节点网络包乱序(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎节点。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎节点实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包乱序动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 重排序概率:数据包被立即发送的百分比。 和上一包的相关性:控制数据包重排序的随机性和规律性之间的平衡,取值范围 0~100,例如,设置为 50 表示有 50% 的可能性下一个数据包的重排序决策会受到前一个数据包的影响。值越高,乱序模式越规律;值越低,越随机。 包序列大小:定义了重排序数据包之间的距离,即有多少个数据包会按照正常顺序发送后才会出现一个重排序的数据包,例如,当 gap 设置为 2 时,意味着每 2 个正常顺序的数据包之后会有一个数据包被重排序。 网络包延迟时间(毫秒):对被选中的乱序数据包施加的延迟时长。
        来自:
      • 配置审计日志转储
        本章节主要介绍翼MapReduce的配置审计日志转储操作。 操作场景 Manager的审计日志默认保存在数据库中,如果长期保留可能引起数据目录的磁盘空间不足问题,管理员如果需要将审计日志保存到其他归档服务器,可以在FusionInsight Manager设置转储参数及时自动转储,便于管理审计日志信息。 若用户未配置审计日志转储,当审计日志达到十万条,系统自动将这十万条审计日志保存到文件中。保存路径为主管理节点“${BIGDATADATAHOME}/dbdataom/dumpData/iam/operatelog”,保存的文件名格式为“OperateLogstoreYYMMDDHHMMSS.csv”,保存的审计日志历史文件数最大为50。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“审计 > 配置”。 3. 单击“审计日志转储”右侧的开关。 “审计日志转储”默认为不启用,开关显示为表示启用。 4. 根据下表填写转储参数。 审计日志转储参数 参数名 参数解释 参数值 SFTP IP 模式 目标IP的IP地址模式,可选择“IPv4”或者“IPv6”。 IPv4 SFTP IP 指定审计日志转储后存放的SFTP服务器,建议使用基于SSH v2的SFTP服务,否则存在安全风险。 192.168.10.51(举例) SFTP端口 指定审计日志转储后存放的SFTP服务器连接端口。 22(举例) 保存路径 指定SFTP服务器上保存审计日志的路径。 /opt/omm/oms/auditLog(举例) SFTP用户名 指定登录SFTP服务器的用户名。 root(举例) SFTP密码 指定登录SFTP服务器的密码。 SFTP服务器的密码 SFTP公共秘钥 可选参数,指定SFTP服务器的公共密钥,建议配置SFTP的公共密钥,否则可能存在安全风险。 转储模式 指定转储模式 “按数量”:日志到达指定条数(默认10万条)时开始转储 “按时间”:指定某一日期开始转储,转储频率为一年一次。 按数量 按时间 转储日期 当选择“按时间”转储模式时可用。选择一个转储日期后,系统将在此日期开始转储。转储的日志范围为当前年份1月1日0时之前的所有审计日志。 1106(举例) 说明 SFTP公共密钥为空时,系统将进行安全风险提示,确定安全风险后再保存配置。 5. 单击“确定”,设置完成。 说明 审计日志转储文件关键字段参考: “USERTYPE”表示用户类型,“0”表示“人机”用户,“1”表示“机机”用户。 “LOGLEVEL”表示安全级别,“0”表示高危,“1”表示危险,“2”表示一般,“3”表示提示。 “OPERATERESULT”表示操作结果,“0”表示成功,“1”表示失败。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        审计
        配置审计日志转储
      • 快速创建ClickHouse集群
        本章节主要介绍如何快速创建ClickHouse集群。 本章节为您介绍如何快速创建一个ClickHouse集群,ClickHouse是一个用于联机分析的列式数据库管理系统,具有极致压缩率和极速查询性能。被广泛的应用于互联网广告、App和Web流量、电信、金融、物联网等众多领域。 ClickHouse集群包含的组件: MRS 3.1.0版本:ClickHouse 21.3.4.25、ZooKeeper 3.5.6。 CPU架构为鲲鹏计算的ClickHouse集群表引擎不支持使用HDFS和Kafka。 快速创建ClickHouse集群 1.登录MRS管理控制台。 2.单击“创建集群”,进入“创建集群”页面。 3.在创建集群页面,选择“快速创建”页签。 4.参考下列参数说明配置集群基本信息,参数详细信息请参考创建自定义集群。 区域:默认即可。 集群名称:可以设置为系统默认名称,但为了区分和记忆,建议带上项目拼音缩写或者日期等。例如:“mrs20201121”。 版本类型:默认选择普通版(不同版本提供的组件有所不同,请根据需要选择版本类型)。 集群版本:默认选择最新版本即可(不同版本集群提供的组件有所不同,请根据需要选择集群版本)。 组件选择:选择“ClickHouse集群”。 可用区:默认即可。 虚拟私有云:默认即可。如果没有虚拟私有云,请单击“查看虚拟私有云”进入虚拟私有云,创建一个新的虚拟私有云。 子网:默认即可。 CPU架构:默认即可。 集群节点:请根据自身需要选择集群节点规格数量等。MRS 3.x及之后版本集群Master节点规格不能小于64GB。 用户名:默认为“root/admin”,root用于远程登录ECS机器,admin用于登录集群管理页面。 密码:设置root用户和admin用户密码。 确认密码:再次输入设置的root用户和admin用户密码。 5.勾选“确认授权”开通通信安全授权,通信安全授权详情请参考授权安全通信。 6.单击“立即申请”。 当集群开启Kerberos认证时,需要确认是否需要开启Kerberos认证,若确认开启请单击“继续”,若无需开启Kerberos认证请单击“返回”关闭Kerberos认证后再创建集群。 7.单击“返回集群列表”,可以查看到集群创建的状态。单击“访问集群”,可以查看集群详情。 集群创建的状态过程请参见 集群概览章节查看集群状态部分 集群列表参数中的“状态”参数说明。 集群创建需要时间,所创集群的初始状态为“启动中”,创建成功后状态更新为“运行中”,请您耐心等待。 MRS系统界面支持同一时间并发创建10个集群,且最多支持管理100个集群。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        快速创建集群
        快速创建ClickHouse集群
      • 通过快照创建克隆卷
        本节主要介绍通过快照创建克隆卷的步骤。 前提条件 CSI中已经存在快照。 操作步骤 1. 创建克隆卷的StorageClass配置文件(可选)。 说明 如果下列参数在克隆卷的StorageClass和源卷StorageClass都存在,但是取值不同,则以克隆卷StorageClass中的取值为准。 plaintext apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: csistorsclocal provisioner: stor.csi.k8s.io parameters: clusterID: clusterID storageMode: Local sectorSize: sectorSize localStorageClass: localStorageClass minReplica: minReplica redundancyOverlap: redundancyOverlap ECfragmentSize: ECfragmentSize highAvailability: highAvailability writePolicy: writePolicy isMultipath: isMultipath pool: pool cachePool: cachePool flattenVolumeFromSnapshot: "false" maxCloneDepth: maxCloneDepth maxSessions: maxSessions serverNumbers: serverNumbers faultDomains: faultDomains chapEnable: "false" chapUser: username chapPassword: password reclaimPolicy: Delete volumeBindingMode: Immediate allowVolumeExpansion: true 克隆卷的StorageClass配置文件参数: 参数 描述 是否必填 metadata.name StorageClass的名称。 是 provisioner HBlock CSI驱动名称。 取值:HBlock CSI安装时的驱动名称。 是 parameters.clusterID csiconfigMap.yaml中配置的HBlock的标识。 是 parameters.storageMode 卷的存储类型。 取值:Local。默认与源卷保持一致。 否 parameters.sectorSize 扇区大小。根据客户端文件系统 I/O 操作的最小单位设定卷扇区大小。 取值:"512"、"4096",单位是bytes。默认值为源卷的扇区大小。 否 parameters.localStorageClass 本地存储冗余模式。单机版不能设置此参数。 注意 如果设置了克隆卷的minReplica或redundancyOverlap,则必须同时指定该参数。 取值: singlecopy:单副本; 2copy:两副本; 3copy:三副本; EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M<128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的卷冗余模式。 否 parameters.minReplica 最小副本数(仅集群版支持)。 注意 如果指定该参数,则必须指定克隆卷的localStorageClass。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的最小副本数。 如果指定了克隆卷的localStorageClass:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC卷,取值范围是[N, N+M],默认值为N。 否 parameters.redundancyOverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定该参数,则必须指定克隆卷的localStorageClass。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的折叠副本数。 如果指定了克隆卷的localStorageClass:对副本模式,取值范围是[1,副本数];对于EC卷,取值范围是[1, N+M]。默认值为1。 否 parameters.ECfragmentSize 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 否 parameters.highAvailability 是否选择高可用模式。单机版不能设置此参数。 取值: ActiveStandby:启动主备,该卷关联对应Target下的所有IQN。 Disabled:禁用高可用模式,该卷关联对应Target下的一个IQN。 默认值为源卷的高可用类型。 否 parameters.writePolicy 卷的写策略。 取值: WriteBack:回写,即数据写入到内存后,立刻返回给客户端写成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough:透写,即数据同时写入内存和磁盘,并在两处都写成功后,再返回客户端写成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround:绕写,即数据写入磁盘后即释放相应内存,写入磁盘成功后,立刻返回客户端写成功。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 否 parameters.isMultipath 是否使用Multipath。 取值: "true"。 "false"。 默认值为"true"。 注意 这里需要输入字符串,即"true"或"false"。 如果HBlock集群版使用的HBlock卷没有启用高可用模式,即highAvailability为Disabled,此处需要设置为"false",否则会导致pod启动失败。 如果是HBlock单机版,此处需要设置为"false"。 条件 parameters.path 指定存储卷数据的数据目录(仅单机版支持)。 如果创建卷时不指定数据目录,默认与源卷配置保持一致。 否 parameters.pool 存储池名称,表示最终存储池,卷数据最终落在该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 注意: pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.cachePool 存储池名称,表示高速缓存存储池,卷数据首先写入该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.flattenVolumeFromSnapshot 是否断开克隆卷与快照的关系链。 取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.maxCloneDepth 最大克隆卷深度,当超过设置的最大深度时,新创建的克隆卷会自动执行断链。 取值:整数,取值范围是[0, 15],默认值为5。 否 parameters.maxSessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 注意 卷模式为filesystem,取值只能为1。 否 parameters.serverNumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 parameters.faultDomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 parameters.chapEnable 是否使用CHAP认证,取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.chapUser CHAP认证的用户名。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的用户名使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 parameters.chapPassword CHAP认证的密码。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的密码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是12~16,必须包含大写字母、小写字母、数字、下划线()中的至少两种字符,字母区分大小写。 否 parameters.IOPS 每秒能够进行读写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.readIOPS 每秒能够进行读操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.writeIOPS 每秒能够进行写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.Bps 每秒可传输数据量的最大值。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.readBps 读带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBps 写带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurst 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:只有当IOPS大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.readIOPSBurst 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:只有当readIOPS大于等于1时,此项设置为1或(readIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.writeIOPSBurst 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:只有当writeIOPS大于等于1时,此项设置为1或(writeIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.BpsBurst 使用Burst功能时,每秒可传输的数据量最大值。 取值:只有当Bps大于等于1时,此项设置为1或(Bps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.readBpsBurst 使用Burst功能时,读带宽上限。 取值:只有当readBps大于等于1时,此项设置为1或(readBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBpsBurst 使用Burst功能时,写带宽上限。 取值:只有当writeBps大于等于1时,此项设置为1或(writeBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在read IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在write IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.BpsBurstSecs 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readBpsBurstSecs 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在read Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeBpsBurstSecs 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在write Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 2. 创建克隆卷的配置文件。 plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: name: clonepvcfromsnapshot
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        创建克隆卷
        通过快照创建克隆卷
        通过快照创建克隆卷
      • 天翼云AOne SDK儿童个人信息保护政策及监护人须知
        本文提供天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK 儿童个人信息保护政策及监护人须知 儿童个人信息保护政策及监护人须知发布日期:【2025年5月13日】 本须知仅适用于由天翼云科技有限公司提供的天翼云边缘安全加速平台零信任服务天翼云AOne SDK服务。 版本生效日期:【2025年5月13日】 如果您有任何疑问、意见或建议,请通过以下联系方式与我们联系: 电子邮件:service@chinatelecom.cn;ctpip.ctyun@chinatelecom.cn 电话:4008109889 天翼云门户:管理中心新建工单;智能客服 为了更好地在您使用我们服务的过程中保障您的个人信息,我们对《 天翼云AOne SDK儿童个人信息保护政策及监护人须知 》进行了更新,此版本主要更新内容包括: 1、更新天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK儿童个人信息保护政策及监护人须知 天翼云AOne SDK产品由天翼云科技有限公司(“天翼云”)运营,是一款为移动应用开发者(以下简称“开发者”)提供调用零信任内网连接等能力服务的软件开发工具包(SDK)。我们致力于保护儿童个人信息,本须知中的“儿童”,是指满14周岁的未成年人。为此,我们专门制定了《天翼云AOne SDK儿童个人信息保护政策及监护人须知》(简称“本须知”),向您说明我们处理儿童个人信息的规则。您作为儿童的父母或其他监护人(统称“监护人”),请在您或您所监护的儿童(简称“被监护人”)使用本应用前务必仔细阅读并充分理解本须知,特别是以粗体标识的条款应重点阅读,在确认充分理解并同意全部条款后再开始使用或允许您的孩子使用。 本须知为在《天翼云AOne SDK隐私和信息处理规则》基础上制定的特别规则,除另有约定外,本须知所用术语和缩略词与《天翼云AOne SDK隐私和信息处理规则》中的术语和缩略词具有相同的涵义;与《天翼云AOne SDK隐私和信息处理规则》如有不一致之处,以本须知为准;本须知未载明之处,适用《天翼云AOne SDK隐私和信息处理规则》。为了维护儿童的合法权益,儿童应当在其监护人的指导下使用我们的服务。 《天翼云AOne SDK隐私和信息处理规则》详见天翼云AOne SDK隐私和信息处理规则 监护人特别说明: 您的理解和配合对我们保护被监护人的个人信息和隐私安全非常必要,为了维护被监护人的合法权益,我们希望您可以协助我们,确保被监护人在您的同意和指导下使用本应用和向我们提交个人信息。我们将根据本须知采取特殊措施保护我们获得的被监护人的个人信息。请您仔细阅读和选择是否同意本声明。如果您不同意本须知的内容,请您要求被监护人立即停止访问/使用我们的产品及服务。 儿童特别说明: 任何儿童参加网上活动都应事先取得监护人的同意。如果您是儿童,请务必通知您的监护人共同阅读本须知,并在您使用我们的产品及服务、提交个人信息之前,寻求您的监护人的同意和指导。 我们严格按照《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》 《 电信和互联网用户个人信息保护规定》(工业和信息化部令第 24 号)《儿童个人信息网络保护规定》等法律法规的相关要求,在业务活动中处理儿童的个人信息。 本部分向您告知以下内容: 一、我们如何收集和使用儿童的个人信息 二、我们如何共享、转让和公开披露儿童的个人信息 三、我们如何存储儿童的个人信息 四、我们如何保护儿童的个人信息 五、我们如何管理儿童的个人信息 六、本须知的适用 七、本须知的修订 八、如何联系我们 一、我们如何收集和使用儿童的个人信息 1.1 在儿童使用我们的产品及服务过程中,我们会严格履行法律法规规定的儿童个人信息保护义务与责任,遵循正当必要、知情同意、目的明确、安全保障、依法利用的原则,在征得监护人的同意后收集和使用儿童个人信息。具体请查阅《天翼云AOne SDK隐私和信息处理规则》“各业务功能中的用户信息收集使用规则”章节,详细了解我们收集和使用的儿童个人信息。 1.2 此外,我们也会通过Cookie等同类技术自动收集您或被监护人的个人信息,具体请您查阅《天翼云AOne SDK隐私和信息处理规则》“我们如何使用 Cookie和同类技术”章节进行详细了解。 1.3 我们提供的与儿童有关的服务是不断发展的。如我们需要超出上述收集范围收集您或被监护人的个人信息,我们将再次告知您,并征得您的同意。 1.4 根据相关法律法规规定,以下情形中收集儿童的信息无需征得儿童监护人的授权同意: (1)与我们履行法律法规规定的义务相关的; (2)与国家安全、国防安全、公共安全、公共卫生、重大公共利益有关的; (3)与犯罪侦查、起诉、审判和判决执行等有关的; (4)出于维护儿童的生命、财产等重大合法权益但又很难得到监护人同意的; (5)所收集的信息是儿童或监护人自行向社会公众公开的; (6)从合法公开披露的信息中收集信息的,如合法的新闻报道、政府信息公开等渠道; (7)根据与您或被监护人签订和履行相关协议或其他书面文件所必需的; (8)法律法规规定的其他情形。 请您理解,您可以选择是否填写或向我们提供特定的信息,但您如果不填写或提供某些特定的信息,将可能导致我们的产品及服务无法正常运行,或者无法达到我们拟达到的服务效果,您和被监护人可能无法正常使用我们的产品、服务或相关的具体业务功能。 二、我们如何共享、转让和公开披露儿童的个人信息 我们承诺对儿童个人信息进行严格保密,我们遵照法律法规的规定,严格限制共享、转让、披露儿童个人信息的情形,仅在《天翼云AOne SDK隐私和信息处理规则》约定和您明确授权同意的情况下对外提供儿童信息。 除了《天翼云AOne SDK隐私和信息处理规则》“我们如何共享、转让、公开披露您的个人信息”章节部分所述的内容外,对于儿童个人信息,我们还将会采取如下措施来保护儿童个人信息在共享、转让和公开披露过程中的安全: 2.1 如果为了本须知所述目的而需要将儿童信息共享至第三方,我们将评估该第三方收集儿童个人信息的合法性、正当性、必要性,并采用加密、匿名化、去标识化处理等手段保障您和被监护人的信息安全。 2.2 我们将要求第三方对儿童个人信息采取保护措施,并且严格遵守相关法律法规与监管要求。我们会要求接收儿童个人信息的第三方遵守严格的保密义务及采取有效的保密措施,禁止其将这些儿童个人信息用于未经儿童及其监护人授权的用途,并要求受托公司依法履行以下义务: (1)按照法律、行政法规的规定和我们的要求处理儿童个人信息; (2)协助我们回应儿童监护人提出的申请; (3)采取措施保障信息安全,并在发生儿童个人信息泄露安全事件时,及时向我们反馈; (4)委托关系解除时及时删除儿童个人信息; (5)不得转委托; (6)其他依法应当履行的儿童个人信息保护义务。 2.3 另外,我们会按照法律法规的要求征得您的同意,或确认第三方已经征得您同意。 三、我们如何储存儿童的个人信息 3.1 我们在中华人民共和国境内运营中收集和产生的儿童个人信息,将存储在中国境内(为本须知之目的,不含香港、澳门、台湾地区)。 3.2 我们会采取合理可行的措施,尽力避免收集和处理无关的儿童的个人信息。我们只会在达成本须知所述目的所需的期限内保留儿童的个人信息,除非法律有强制的留存要求。关于我们如何确定儿童个人信息存储期限请参见《天翼云AOne SDK隐私和信息处理规则》“我们如何保存您的个人信息或关联组织信息”章节。如我们终止服务或运营,我们将及时停止继续收集儿童个人信息的活动,同时会遵守相关法律法规要求提前向您通知,并在终止服务或运营后对儿童的个人信息进行删除或匿名化处理,但法律法规或监管部门另有规定的除外。 四、我们如何保护儿童的个人信息 我们非常重视儿童的隐私安全,并采取一切合理可行的措施保护儿童个人信息: 4.1 我们会严格控制儿童个人信息的访问权限,对可能接触到儿童个人信息的工作人员采取最小够用授权原则,并采取技术措施对处理儿童个人信息的行为进行记录和管控,避免违法复制、下载儿童个人信息。 4.2 我们会定期组织内部相关人员进行培训,使其掌握岗位职责和应急处置策略和规程。在不幸发生儿童个人信息安全事件后,我们将按照法律法规的要求,及时向您告知:安全事件的基本情况和可能的影响、我们已采取或将要采取的处置措施、您及被监护人可自主防范和降低风险的建议、对您及被监护人的补救措施等。我们将及时将事件相关情况以APP推送通知、发送邮件/短消息等方式告知您。难以逐一告知时,我们会采取合理、有效的方式发布相关警示信息。同时,我们还将按照监管部门要求,主动上报儿童个人信息安全事件的处置情况。若被监护人的合法权益受损,我们将承担相应的法律责任。 4.3 如您希望了解更多,请查阅《天翼云AOne SDK隐私和信息处理规则》“我们如何保护您的个人信息或关联组织信息”章节,详细了解上述措施外,我们还采取了哪些措施保护儿童个人信息。 五、我们如何管理儿童的个人信息 5.1 为了您或被监护人在使用我们的产品及服务期间可以更加便捷地访问和管理被监护人的个人信息,同时保障注销账户的权利,我们在产品及服务中为您和被监护人提供了相应的操作设置,您和被监护人可以按照《天翼云AOne SDK隐私和信息处理规则》中的“您的权利及如何管理您的个人信息”章节指引进行操作。 5.2 如存在以下情况,您和被监护人可以请求我们删除收集、使用和处理的儿童个人信息。我们会在完成身份验证后,及时采取措施予以删除。 (1)若我们违反法律、行政法规的规定或者本须知的约定收集、存储、使用、转让、披露儿童个人信息; (2)若我们超出本须知目的范围或者必要期限收集、存储、使用、转让、披露儿童个人信息; (3)您撤回同意; (4)您或被监护人通过注销等方式终止使用产品或者服务的。 但请注意,若您和被监护人要求我们删除特定儿童个人信息,可能导致被监护人无法继续使用我们的产品和服务或产品和服务中的某些具体业务功能。 如您发现在未事先征得您同意的情况下收集了被监护人的个人信息,请及时联系我们,我们会设法尽快删除相关数据。 六、本须知的适用 绝大多数情形下我们无法识别且不会判断收集和处理的个人信息是否属于儿童个人信息,我们将按照《天翼云AOne SDK隐私和信息处理规则》收集和处理用户的个人信息。 七、本须知的修订 我们可能会根据我们的产品及服务的更新情况及法律法规的相关要求适时修改本须知的条款,该等修改构成本须知的一部分,我们会在专门页面上展示最新修改版本。当本须知的条款发生变更时,我们会以APP弹窗方式进行提示并再次取得您的同意,详见《天翼云AOne SDK隐私和信息处理规则》“本隐私和信息处理规则如何更新”章节的规定。 八、如何联系我们 8.1 如您对本隐私和信息处理规则或您信息的相关事宜有任何问题、意见、建议或申诉,您可以通过天翼云提交工单、联系智能客服、或拨打我们的客服电话4008109889与我们取得联系,您还可通过发送邮件至service@chinatelecom.cn或ctpip.ctyun@chinatelecom.cn,与天翼云边缘安全加速平台零信任服务的个人信息保护负责人进一步沟通。 8.2 一般情况下,我们将会在3个工作日内回复,特殊情形下,最长将在不超过15个工作日做出答复。 8.3 如果您对我们的回复不满意,特别是我们的信息处理行为损害了您的合法权益,您还可以通过以下外部途径寻求解决方案:向被告所在地有管辖权的人民法院提起诉讼。
        来自:
        帮助文档
        边缘安全加速平台
        相关协议
        天翼云AOne SDK儿童个人信息保护政策及监护人须知
      • 运维任务
        此小节介绍云堡垒机的运维任务。 支持分步骤同时对多个SSH协议资源批量执行多种运维操作,可同时运维操作包括执行命令、执行脚本、传输文件。 新建运维任务 云堡垒机支持自动运维任务功能,用户可按步骤自动执行命令和脚本方式运维多个目标资源,并可设置自动执行步骤将系统磁盘文件或本地文件快速上传到多个目标主机路径。此外,可设置执行周期和时间定期执行任务,并可同时执行多种任务步骤类型,实现多台资源设备自动化运维,提高运维效率。 运维任务执行后,按照步骤顺序依次自动执行操作,并返回执行结果。 约束限制 仅专业版云堡垒机支持快速运维功能。 仅支持对Linux主机(SSH协议类型)资源执行自动运维任务。 暂不支持对Windows主机资源、数据库资源和应用资源执行自动运维任务。 运维任务仅能由个人帐户管理,不能被系统内其他用户管理。 前提条件 已获取“运维任务”模块管理权限。 已获取资源访问控制权限,即已配置访问控制策略或访问授权工单已审批通过。 资源主机网络连接正常。 操作步骤 1 登录云堡垒机系统。 2 选择“运维 > 运维任务 > 任务列表”,进入运维任务列表页面。 3 单击“新建”,弹出新建运维任务窗口。 4 配置任务基本信息。 运维任务基本信息参数说明 参数 说明 :: 任务名称 自定义的运维任务名称,系统内“任务名称”不能重复。 执行方式 选择运维任务执行的方式,包括“手动执行”、“定时执行”、“周期执行”。 “定时执行”和“周期执行”需同时配置动作执行时间或周期。 手动执行:手动触发执行任务。 定时执行:定期自动触发执行任务。仅执行一次。 周期执行:周期自动触发执行任务。可按周期执行多次。 执行时间 定期执行任务的日期。默认执行时刻为日期的凌晨零点。 执行周期 执行周期同步,需输入任务执行周期。 可选择每分钟、每小时、每天、每周、每月。 需同时选择“结束时间”,否则将无限期按周期执行任务。 更多选项 (可选)用户对资源账户执行任务权限不够时,需勾选上“提权执行”,用户需在该主机资源的Sudoers文件下执行任务。 任务描述 简要描述运维任务信息。 5 单击“下一步”,配置执行帐户或帐户组,选择已创建的SSH协议类型资源账户或帐户组。 配置执行资源账户 6 单击“下一步”,配置任务步骤。 单击“添加任务步骤”,选择添加任务类型“执行命令”、“执行脚本”或“传输文件”。 选择一个或多个任务类型,并配置任务参数。 运维任务步骤数不限制,一个任务可添加多个执行步骤。 7 单击“确定”,返回任务列表页面,查看新建的运维任务。 任务执行完成后,可以下载执行日志,获取任务执行结果。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        运维任务
      • 产品应用场景
        虚拟私有云产品广泛应用于多种场景,本文带您更快了解虚拟私有云产品经典应用场景。 应用场景一:云上私有网络 场景说明 不同的VPC之间逻辑隔离。您可以将业务系统部署在天翼云上,构建云上的专属私有网络环境。如果您的实际应用中会有Web业务系统、APP业务系统、数据库服务器等各个不同的系统。这些系统之间通常需要做分层隔离,那么可以通过使用多个VPC进行业务隔离。当有互相通信的需求时,可以在两个VPC之间建立对等连接。 搭配使用 弹性云主机、对等连接。 应用场景二:Web应用或网站托管 场景说明 您可以将Web应用或网站等服务托管在 VPC 中的弹性云主机上,并通过弹性IP或NAT网关连接弹性云主机与Internet,运行弹性云主机上部署的Web应用程序。当您有较多服务器来部署复且公网流量较大的业务时,可以使用负载均衡CTELB。负载均衡CTELB可以实现自动分配云中多个弹性云主机实例间应用程序的访问流量,让您实现更高水平的应用程序容错能力。 VPC内的云资源连接公网(Internet),可以通过如下云产品实现。 云产品 应用场景 描述 相关操作 弹性IP 单个ECS连接公网 弹性IP是可以独立申请的公网IP地址,将弹性IP地址和子网中关联的弹性云主机绑定和解绑,可以实现VPC中的弹性云主机通过固定的公网IP地址与互联网互通。 云主机通过弹性IP 访问互联网 NAT网关(NAT Gateway) 多个ECS共享弹性IP连接公网 NAT网关(NAT Gateway)是一种支持 IP 地址转换的网络云服务,能够为虚拟私有云(Virtual Private Cloud,VPC)内的计算实例提供网络地址转换(Network Address Translation),分为SNAT和DNAT两个功能。通过SNAT可使多个弹性云主机共享使用弹性IP访问Internet。通过DNAT可使多个弹性云主机提供互联网服务。NAT网关是 VPC 内的一个公网流量的出入口,保护私有网络信息不直接对公网暴露。 NAT网关操作指南 弹性负载均衡(CTELB, Elastic Load Balancing) 通过将访问流量均衡分发到多个ECS的方式对外提供服务,比如社交媒体等高并发访问场景 弹性负载均衡通过将访问流量自动分发到多台云主机,扩展应用系统对外的服务能力,实现更高水平的应用程序容错性能。 弹性负载均衡快速入门
        来自:
        帮助文档
        虚拟私有云 VPC
        产品简介
        产品应用场景
      • 云主机错误状态及解决方案
        本文介绍云主机错误状态及解决方案。 一、引言 随着云计算技术的快速发展,云主机已经成为企业、个人和开发者们进行互联网应用的首选。然而,使用云主机的过程并非完全顺利,可能会遇到各种错误状态。本文将详细探讨云主机错误状态的类型、原因以及解决方案,帮助用户更好地管理和维护自己的云主机。 二、云主机错误状态类型 1. 网络错误 网络错误是云主机使用过程中最常见的错误类型之一。网络错误可能包括网络连接超时、无法连接到远程服务器或网络连接中断等。这些错误通常是由于网络配置问题、网络设备故障或网络拥堵等原因引起的。 2. 服务器错误 服务器错误通常包括服务器启动失败、运行异常、过载等。这类错误可能是由于服务器硬件故障、软件问题、操作系统故障或服务器资源不足等原因引起的。 3. 应用程序错误 应用程序错误是指运行在云主机上的应用程序出现错误。这类错误可能包括应用程序崩溃、运行缓慢、内存泄漏等。这些错误可能是由于应用程序本身的问题,如代码错误、不兼容性或配置问题等引起的。 4. 安全错误 安全错误是指与安全相关的错误,如身份验证失败、权限问题或安全策略冲突等。这些错误可能是由于用户名或密码错误、权限配置错误或安全策略设置不当等原因引起的。 三、云主机错误状态原因分析 1. 网络问题 网络问题可能是由于网络设备故障、网络连接问题或网络配置不当等原因引起的。例如,如果云主机的网络设备出现故障,或者网络连接被中断,那么就会出现网络错误。此外,如果网络配置不正确,例如DNS解析不正确,也可能会导致无法连接到远程服务器。 2. 服务器硬件故障 服务器硬件故障可能是由于服务器硬件设备出现故障或服务器资源不足等原因引起的。例如,如果服务器的硬盘出现故障,那么服务器可能无法启动或运行异常。此外,如果服务器的资源不足,例如内存不足或CPU过载,也可能会导致服务器运行异常。 3. 应用程序问题 应用程序问题可能是由于应用程序本身的问题,如代码错误、不兼容性或配置问题等引起的。例如,如果应用程序的代码存在错误,那么应用程序可能无法正常运行。此外,如果应用程序的配置不正确,例如数据库连接不正确或文件路径错误,也可能会导致应用程序运行异常。 4. 安全问题 安全问题可能是由于身份验证失败、权限问题或安全策略冲突等原因引起的。例如,如果用户名或密码不正确,那么身份验证可能会失败。此外,如果权限配置不正确,例如权限设置过于宽松或过于严格,也可能会导致权限问题。另外,如果安全策略设置不当,例如过于宽松的安全策略或过于严格的安全策略,也可能会导致安全问题。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        云主机错误状态处理方式
        云主机错误状态及解决方案
      • 产品规格
        一级菜单 二级菜单 功能概述 基础版 企业版 旗舰版 增值服务 安全概览 查看待处理风险、防护状态、风险趋势、实时动态 ✓ ✓ ✓ 资产管理 资产概览 查看资产概况、主机概况趋势图、服务器区域统计,和账号、端口、进程、软件应用、自启动项的统计情况 不支持资产指纹统计 ✓ ✓ 资产管理 服务器列表 查看主机资产信息、安全风险等功能,支持模糊检索、筛选、开启防护、关闭防护、切换版本,方便用户快速管理服务器 ✓ ✓ ✓ 资产管理 资产指纹 查看账号、端口、进程、软件应用、自启动项、Web服务6种指纹的详细信息 仅支持采集端口和账户2种指纹信息,不支持手动资产指纹采集和资产历史变更 ✓ ✓ 风险管理 基线检测 对服务器操作系统、数据库、关键应用软件配置等进行检测,帮助用户提前识别出可能导致安全漏洞的不安全配置项。 × ✓ ✓ 风险管理 漏洞扫描 支持扫描Linux软件漏洞、Windows系统漏洞、WebCMS漏洞、应用漏洞,并提供漏洞的修复建议和一键修复功能。 仅支持扫描Win/Linux漏洞,不支持配置扫描策略,不支持一键修复 ✓ ✓ 风险管理 弱口令检测 通过与弱口令库对比,检测系统账号和应用账号口令是否属于常用的弱口令,提示用户修改不安全的口令。 × ✓ ✓ 入侵检测 告警中心 汇总所有入侵检测模块的告警信息,帮助用户快速了解整体安全告警概况 仅支持系统暴力破解、异常登录告警 ✓ ✓ 入侵检测 白名单管理 汇总所有白名单规则,可手动新增、删除白名单规则 不支持自定义白名单规则 ✓ ✓ 网页防篡改(原生版) 防护状态 查看防护的总体情况,帮助您实时掌握所有云上网站被篡改的总体态势。 × × × ✓ 网页防篡改(原生版) 防护管理 可为您账号下的云主机和物理机添加防护目录,可采用白名单或黑名单的方式进行添加。 可展示当前已添加的服务器的防护目录和备份目录,并进行添加、编辑和删除。 × × × ✓ 网页防篡改(原生版) 防护配额 展示订购配额的总体情况,同时可进行配额订购、续订和退订。 × × × ✓ 文件安全 病毒查杀 病毒查杀功能,支持对挖矿木马、蠕虫、勒索病毒等进行有效的检测,通过简单操作即可完成对病毒的处理。 × ✓ ✓ 文件安全 文件完整性保护 可实时监控主机上的文件,对创建文件、修改文件、删除文件及文件提权操作进行监控和告警。 × × ✓ 设置中心 安全配置 安全配置用于统一管理和配置各防护模块的规则、白名单等。 仅支持异常登录非常用IP登录设置。 不支持端口蜜罐、勒索诱饵防护、文件完整性保护。 ✓ 设置中心 配额管理 展示购买配额的情况 ✓ ✓ ✓ 设置中心 告警通知 发生入侵时实时发送告警通知 ✓ ✓ ✓ 设置中心 报表管理 周期性自动生成安全报表 仅周报 ✓ ✓
        来自:
        帮助文档
        服务器安全卫士(原生版)
        产品介绍
        产品规格
      • 教程:新物理集群划分为逻辑集群
        本章节演示一套全新6节点物理集群(无业务数据)划分为2套逻辑集群的操作。 场景介绍 本章节演示一套全新6节点物理集群(无业务数据)划分为2套逻辑集群的操作。 前提条件 创建6个节点的集群。 划分逻辑集群 1. 在集群管理页面,单击指定集群名称进入集群详情页面,左导航栏单击“逻辑集群管理”。 2. 进入逻辑集群页面,单击右上角“添加逻辑集群”,从右侧勾选1个主机环(3个节点)到左侧列表中,并输入逻辑集群名称lc1,单击“确定”。 等待约2分钟,逻辑集群添加成功。 3. 重复以上步骤,划分第二套逻辑集群lc2。 创建逻辑集群关联用户并跨逻辑集群查询数据 1. 以系统管理员dbadmin连接数据库,执行以下SQL语句查看逻辑集群创建成功。 SELECT groupname FROM PGXCGROUP; 2. 创建两个用户u1和u2,分别关联逻辑集群lc1和逻辑集群lc2。 CREATE USER u1 NODE GROUP "lc1" password ' {password} '; CREATE USER u2 NODE GROUP "lc2" password ' {password} '; 3. 切换到用户u1,创建表t1,并插入数据。 SET ROLE u1 PASSWORD ' {password} '; CREATE TABLE u1.t1 (id int); INSERT INTO u1.t1 VALUES (1),(2); 4. 切换到用户u2,创建表t2,并插入数据。 SET ROLE u2 PASSWORD ' {password} '; CREATE TABLE u2.t2 (id int); INSERT INTO u2.t2 VALUES (1),(2); 5. 同时使用u2查询u1.t1表。返回结果提示没有权限。 SELECT FROM u1.t1; 6. 切换回系统管理员dbadmin,查询表u1.t1和u2.t2分别创建到了集群lc1和lc2中,分别对应企业的两块业务,实现了基于逻辑集群的数据隔离。 SET ROLE dbadmin PASSWORD ' {password} '; SELECT p.oid,relname,pgroup,nodeoids FROM pgclass p LEFT JOIN pgxcclass pg ON p.oid pg.pcrelid WHERE p.relname 't1'; SELECT p.oid,relname,pgroup,nodeoids FROM pgclass p LEFT JOIN pgxcclass pg ON p.oid pg.pcrelid WHERE p.relname 't2'; 7. 将逻辑集群lc1的访问权限授予用户u2,同时将SCHEMA u1访问权限、表u1.t1访问权限授予用户u2。 GRANT usage ON NODE GROUP lc1 TO u2; GRANT usage ON SCHEMA u1 TO u2; GRANT select ON TABLE u1.t1 TO u2; 说明 划分逻辑集群后,相当于在原来物理集群的基础上,再增加一层逻辑集群(NODE GROUP)的权限隔离。所以跨逻辑集群访问数据,首先要授权用户有逻辑集群(NODE GROUP层)权限,其次是SCHEMA权限,最后是单张表TABLE权限。如果没有授予逻辑集群的权限,会提示类似permission denied for node group xx的错误信息。 8. 再次切换到u2用户,查询u1.t1表,查询成功,逻辑集群既实现了数据隔离,又可以在用户授权后进行跨逻辑集群访问。 SET ROLE u2 PASSWORD ' {password} '; SELECT FROM u1.t1;
        来自:
        帮助文档
        数据仓库服务
        用户指南
        逻辑集群管理
        教程:新物理集群划分为逻辑集群
      • 扩容集群
        本章节主要介绍如何扩容集群。 MRS的扩容不论在存储还是计算能力上,都可以简单地通过增加Core节点或者Task节点来完成,不需要修改系统架构,降低运维成本。集群Core节点不仅可以处理数据,也可以存储数据。可以在集群中添加Core节点,通过增加节点数量处理峰值负载。集群Task节点主要用于处理数据,不存放持久数据。 背景信息 MRS集群支持Core与Task节点总数最大为500个。如果用户需要的Core/Task节点数大于500,可以联系支持人员或者调用后台接口修改数据库。 目前支持扩容Core节点和Task节点,不支持扩容Master节点。此处扩容的最大Core/Task节点数为(500 集群Core/Task节点数)。例如:当前集群Core节点数为3,此处扩容的Core节点数必须小于等于497。如果集群扩容失败,用户可重新进行扩容操作。 如果在创建集群时,没有扩容节点,用户可以在扩容时添加节点个数,但不能指定具体节点扩容。 选择的版本不同,扩容集群的操作也不同。 操作步骤 1.登录MRS管理控制台。 2.选择 “集群列表 > 现有集群” ,选中一个运行中的集群并单击集群名称,进入集群信息页面。 3.选择“节点管理”页签,在需要扩容的节点组的“操作”列单击“扩容”,进入扩容集群页面。 只有运行中的集群才能进行扩容操作。 4.设置“扩容节点数量”、“启动组件”和“执行引导操作”参数,并单击“确定”。 说明 若集群中没有Task节点组,请参考添加Task节点配置Task节点。 如果创建集群时添加了引导操作,则“执行引导操作”参数有效,开启该功能时扩容的节点会把创建集群时添加的引导操作脚本都执行一遍。 如果“新节点规格”参数有效,则表示与原有节点相同的规格已售罄或已下架,新扩容的节点将按照“新节点规格”增加。 扩容集群前需要检查集群安全组是否配置正确,要确保集群入方向安全组规则中有一条全部协议,全部端口,源地址为可信任的IP访问范围的规则。 5.进入“扩容节点”窗口,单击“确定”。 6.弹出扩容节点提交成功提示框。 集群扩容过程说明如下: 扩容中:集群正在扩容时集群状态为“扩容中”。已提交的作业会继续执行,也可以提交新的作业,但不允许继续扩容和删除集群,也不建议重启集群和修改集群配置。 扩容成功:集群扩容成功后集群状态为“运行中”。 扩容失败:集群扩容失败时集群状态为“运行中”。用户可以执行作业,也可以重新进行扩容操作。 扩容成功后,可以在集群详情的“节点管理”页签查看集群的节点信息。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        节点管理
        扩容集群
      • 服务流程
        本小节介绍渗透测试的服务流程,帮助您了解服务开展过程。 渗透测试服务以人工服务为主,我们的渗透测试人员在取得您的授权后,将对目标系统进行全面的渗透测试工作,总体流程如下: 1. 客户订购与需求匹配的服务规格并下单付款。 2. 客户经理会与您取得联系,协助您完成《业务需求单》及《渗透测试授权书》的填写,您需要如实填写以下内容: 域名备案信息比对,必须为真实、合法信息。 被检测的IP主机信息。 如您为天翼云托管用户,需要提供域名清单,解析后必须为天翼云主机IP,才可提供渗透测试服务。 您所提供的应用URL描述须写明功能是什么或用途是什么。 业务接口人联系方式,您需提供一个具有对渗透测试方案及渗透测试过程中出现的问题有决定权的业务接口人联系人。 如您有安全防护设备,应在渗透测试开始阶段将渗透测试所用的公网IP加入安全防护设备白名单,避免因渗透测试工作带来的告警。(如在渗透测试开始阶段客户未将渗透测试所用的公网IP加入安全防护设备白名单,由此产生的告警及对渗透测试结果的影响,我方不承担责任。) 您需签订渗透测试授权书。 3. 我们会根据您提供的信息,与您进行沟通,编写渗透测试方案,并与您确认测试细节,双方确认无误后,将进入渗透测试环境,渗透测试工作主要包含如下步骤: 明确目标:确定渗透测试的范围,如IP、域名、内外网、整站或部分模块,确定规则,如能渗透到什么程度,是发现漏洞为止还是继续利用漏洞,确定需求,如Web应用的漏洞,业务逻辑漏洞,人员权限管理漏洞。 信息收集:在信息收集阶段要尽量收集关于项目软件的各种信息,例如,对于一个Web应用程序,要收集脚本类型、服务器类型、数据库类型以及项目所用到的框架、开源软件等。 漏洞探测:进行漏洞探测,包括手动和自动探测。 漏洞验证:对探测出的漏洞进行验证,确定其真实存在。 信息分析:对收集到的信息进行分析,尝试利用漏洞获取数据。 利用漏洞获取数据:如果能够利用漏洞获取数据,则进行数据获取。 信息整理:对获取到的数据进行整理,方便后续分析。 形成报告:根据渗透测试的实际情况,形成详细、专业的报告。 4. 形成报告后,我们会将报告发送给您,您可以根据报告内容,发现系统漏洞,及时加固完善。 以上为渗透测试的基本服务流程,如您在服务过程中有任何问题,请您与客户经理联系并反馈,我们会尽快为您处理。
        来自:
        帮助文档
        渗透测试
        用户指南
        服务流程
      • 快速添加多条规则与一键放通常见端口
        本章节向您介绍如何快速添加多条安全组规则与在安全组中一键放通常见端口。 快速添加多条安全组规则 操作场景 通过安全组快速添加功能,您可以快速添加部分常用端口协议对应的规则,包括远程登录和ping测试、常用Web服务和数据库服务所需的端口协议。 操作步骤 1. 登录管理控制台,进入“虚拟私有云>访问控制>安全组”。 2. 在安全组列表中,单击目标安全组所在行的操作列下的“配置规则”,进入安全组规则配置页面。 3. 在“入方向规则”页签,单击“快速添加规则”,弹出“快速添加入方向规则”对话框。 4. 根据界面提示,设置入方向规则参数。 5. 入方向规则设置完成后,单击“确定”,返回入方向规则列表,可以查看添加的入方向规则。 6. 在“出方向规则”页签,单击“快速添加规则”,弹出“快速添加出方向规则”页签。 7. 根据界面提示,设置出方向规则参数。 8. 出方向规则设置完成后,单击“确定”,返回出方向规则列表,可以查看添加的出方向规则。 下表是入、出方向规则参数说明表。 参数 说明 取值样例 优先级 安全组规则优先级。 优先级可选范围为1100,默认值为1,即最高优先级。优先级数字越小,规则优先级级别越高。 1 常见协议端口 提供常用的协议端口供您快速设置,选择类型如下: 远程登录和ping Web服务 数据库 SSH(22) 入方向 策略 安全组规则策略,支持的策略如下:如果“策略”设置为允许,表示允许源地址访问安全组内云主机的指定端口。 如果“策略”设置为拒绝,表示拒绝源地址访问安全组内云主机的指定端口。 安全组规则匹配流量时,首先按照优先级进行排序,其次按照策略排序,拒绝策略高于允许策略。 允许 出方向 策略 安全组规则策略,支持的策略如下:如果“策略”设置为允许,表示允许安全组内的云主机访问目的地址的指定端口。 如果“策略”设置为拒绝,表示拒绝安全组内的云主机访问目的地址的指定端口。 安全组规则匹配流量时,首先按照优先级进行排序,其次按照策略排序,拒绝策略高于允许策略。 允许 类型 支持的IP地址类型,如下: IPv4 IPv6 IPv4 入方向 协议端 安全组规则中用来匹配流量的网络协议类型,目前支持TCP、UDP、ICMP和GRE协议。 安全组规则中用来匹配流量的目的端口,取值范围为:1~65535。 在入方向规则中,表示外部访问安全组内实例的指定端口。 端口填写支持下格式: 单个端口:例如22 连续端口:例如2230 多个端口:例如22,2330,一次最多支持20个不连续端口组, 端口组之间不能重复。 全部端口:为空或165535。 TCP 22或2230或20,2230 出方向 协议 安全组规则中用来匹配流量的网络协议类型,目前支持TCP、UDP、ICMP和GRE协议。 安全组规则中用来匹配流量的目的端口,取值范围为:1~65535。 在出方向规则中,表示安全组内实例访问外部地址的指定端口。 端口填写支持下格式: 单个端口:例如22 连续端口:例如2230 多个端口:例如22,2330,一次最多支持20个不连续端口组, 端口组之间不能重复。 全部端口:为空或165535。 TCP 22或2230或20,2230 源地址 在入方向规则中,用来匹配外部请求的源地址,支持以下格式: IP地址 :表示源地址为某个固定的IP地址。当源地址选择IP地址时,您可以在一个框内同时输入或者粘贴多个IP地址,不同IP地址以“,”隔开。一个IP地址生成一条安全组规则。 单个IP地址:IP地址/掩码。单个IPv4地址示例为192.168.10.10/32;单个IPv6地址示例为2002:50::44/128。 IP网段:IP地址/掩码。IPv4网段示例为192.168.52.0/24;IPv6网段示例为2407:c080:802:469::/64。 所有IP地址:0.0.0.0/0表示匹配所有IPv4地址;::/0表示匹配所有IPv6地址。 安全组 :表示源地址为另外一个安全组,您可以在下拉列表中,选择同一个区域内的其他安全组。当安全组A内有实例a,安全组B内有实例b,在安全组A的入方向规则中,放通源地址为安全组B的流量,则来自实例b的内网访问请求被允许进入实例a。 IP地址组:表示源地址为一个IP地址组,IP地址组是一个或者多个IP地址的集合。您可以在下拉列表中,选择可用的IP地址组。对于安全策略相同的IP网段和IP地址,此处建议您使用IP地址组简化管理。 IP地址: 192.168.52.0/24,10.0.0.0/24 目的地址 在出方向规则中,用来匹配内部请求的目的地址。支持以下格式: IP地址 :表示目的地址为某个固定的IP地址。当目的地址选择IP地址时,您可以在一个框内同时输入或者粘贴多个IP地址,不同IP地址以“,”隔开。一个IP地址生成一条安全组规则。 单个IP地址:IP地址/掩码。单个IPv4地址示例为192.168.10.10/32;单个IPv6地址示例为2002:50::44/128。 IP网段:IP地址/掩码。IPv4网段示例为192.168.52.0/24;IPv6网段示例为2407:c080:802:469::/64。 所有IP地址:0.0.0.0/0表示匹配所有IPv4地址;::/0表示匹配所有IPv6地址。 安全组 :表示源地址为另外一个安全组,您可以在下拉列表中,选择同一个区域内的其他安全组。当安全组A内有实例a,安全组B内有实例b,在安全组A的入方向规则中,放通源地址为安全组B的流量,则来自实例b的内网访问请求被允许进入实例a。 IP地址组 :表示源地址为一个IP地址组,IP地址组是一个或者多个IP地址的集合。您可以在下拉列表中,选择可用的IP地址组。对于安全策略相同的IP网段和IP地址,此处建议您使用IP地址组简化管理。 IP地址: 192.168.52.0/24,10.0.0.0/24 描述 安全组规则的描述信息,非必填项。描述信息内容不能超过255个字符,且不能包含“ ”。
        来自:
        帮助文档
        虚拟私有云 VPC
        用户指南
        安全组
        快速添加多条规则与一键放通常见端口
      • 翼MapReduce MRS支持的事件列表
        翼MapReduce(翼MR)是一种基于云计算平台的数据处理分析服务,打造了高可靠、高安全、易使用的运行维护平台,对外提供大容量数据的存储和分析能力,可解决用户实时性要求不高的海量数据存储和处理需求,可以独立申请和使用托管Hadoop、Spark、HBase和Hive组件。 支持的事件列表如下: 事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 DBServer主备倒换 dbServerSwitchover 次要 DBServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响Hive服务正常使用,导致Hive服务不可用。 Flume Channel溢出 flumeChannelOverflow 次要 Flume Channel溢出 确认flume的channel配置是否合理,业务量是否有突增。 Flume任务无法正常写入数据到后端。 NameNode主备倒换 namenodeSwitchover 次要 NameNode主备倒换 主备倒换需要和运维人员确认是否为正常操作导致。 连续触发主备倒换可能影响HDFS服务正常使用,读写HDFS文件可能失败。 ResourceManager主备倒换 resourceManagerSwitchover 次要 ResourceManager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Yarn服务正常使用,导致任务出现异常甚至失败 JobHistoryServer主备倒换 jobHistoryServerSwitchover 次要 JobHistoryServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响MapReduce服务正常使用,导致任务日志读取异常 HMaster主备倒换 hmasterFailover 次要 HMaster主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响HBase服务正常使用 Hue发生主备切换 hueFailover 次要 Hue发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响HUE服务正常使用,导致页面无法使用等问题 Impala HaProxy服务发生主备切换 impalaHaProxyFailover 次要 Impala HaProxy服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 Impala StateStoreCatalog服务发生主备切换 impalaStateStoreCatalogFailover 次要 Impala StateStoreCatalog服务发生主备切换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响Impala服务正常使用 LdapServer主备倒换 ldapServerFailover 次要 LdapServer主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 连续触发主备倒换可能影响LdapServer服务正常使用 Loader主备倒换 loaderSwitchover 次要 Loader主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 主备倒换可能影响Loader服务正常使用 Manager主备倒换 managerSwitchover 提示 Manager主备倒换 主备倒换需要和运维人员确认是否为正常操作导致 Manager主备倒换可能导致Manager页面无法正常访问,部分监控可能出现异常数值 作业执行失败 jobRunningFailed 提示 作业执行失败 查看作业管理页面,确认失败任务是否有异常 作业执行过程出现失败 作业被终止 jobkilled 提示 作业被终止 确认任务是否人为下发终止命令 作业执行过程被终止 Oozie工作流执行失败 oozieWorkflowExecutionFailure 次要 Oozie工作流执行失败 查看Oozie日志,确认任务失败原因 Oozie工作流执行失败 Oozie定时任务执行失败 oozieScheduledJobExecutionFailure 次要 Oozie定时任务执行失败 查看Oozie日志,确认任务失败原因 Oozie定时任务执行失败 ClickHouse服务不可用 clickHouseServiceUnavailable 紧急 ClickHouse服务不可用 请参考《MapReduce服务用户指南》的“ALM45425 ClickHouse服务不可用”章节。 ClickHouse服务异常,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 DBService服务不可用 dbServiceServiceUnavailable 紧急 DBService服务不可用 请参考《MapReduce服务用户指南》的“ALM27001 DBService服务不可用”章节。 数据库服务不可用,无法对上层服务提供数据入库、查询等功能,使部分服务异常。 DBService主备节点间心跳中断 dbServiceHeartbeatInterruption BetweentheActiveAndStandbyNodes 重要 DBService主备节点间心跳中断 请参考《MapReduce服务用户指南》的“ALM27003 DBService主备节点间心跳中断”章节。 DBService主备间心跳中断时只有一个节点提供服务,一旦该节点故障,再无法切换到备节点,就会服务不可用。 DBService主备数据不同步 dataInconsistencyBetween ActiveAndStandbyDBServices 紧急 DBService主备数据不同步 请参考《MapReduce服务用户指南》的“ALM27004 DBService主备数据不同步”章节。 主备DBServer数据不同步,如果此时主实例异常,则会出现数据丢失或者数据异常的情况。 数据库进入只读模式 databaseEnterstheReadOnlyMode 紧急 数据库进入只读模式 请参考《MapReduce服务用户指南》的“ALM27007 数据库进入只读模式”章节。 数据库进入只读模式,业务数据丢失。 Flume服务不可用 flumeServiceUnavailable 紧急 Flume服务不可用 请参考《MapReduce服务用户指南》的“ALM24000 Flume服务不可用”章节。 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 Flume Agent异常 flumeAgentException 重要 Flume Agent异常 请参考《MapReduce服务用户指南》的“ALM24001 Flume Agent异常”章节。 产生告警的Flume Agent实例无法正常启动,定义在该实例下的数据传输任务暂时中断,对于实时数据传输,会丢失实时数据。 Flume Client连接中断 flumeClientDisconnected 重要 Flume Client连接中断 请参考《MapReduce服务用户指南》的“ALM24003 Flume Client连接中断”章节。 产生告警的Flume Client无法与Flume Server端进行通信,Flume Client端的数据无法传输到Flume Server端。 Flume读取数据异常 exceptionOccursWhenFlumeReadsData 重要 Flume读取数据异常 请参考《MapReduce服务用户指南》的“ALM24004 Flume读取数据异常”章节。 如果数据源有数据,Flume Source持续读取不到数据,数据采集会停止。 Flume传输数据异常 exceptionOccursWhenFlumeTransmitsData 重要 Flume传输数据异常 请参考《MapReduce服务用户指南》的“ALM24005 Flume传输数据异常”章节。 Flume Channel的磁盘空间使用量有继续增长的趋势,将会使数据导入到指定目的地的时间增长,当Flume Channel的磁盘空间使用量达到100%时会导致Flume Agent进程暂停工作。 Flume 证书文件非法或已损坏 flumeCertificateFileIsinvalid 重要 Flume 证书文件非法或已损坏 请参考《MapReduce服务用户指南》的“ALM24010 Flume证书文件非法或已损坏”章节。 Flume证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume 证书文件即将过期 flumeCertificateFileIsAboutToExpire 重要 Flume 证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24011 Flume证书文件即将过期”章节。 Flume证书文件即将失效,对系统目前运行无影响。 Flume 证书文件已过期 flumeCertificateFileIsExpired 重要 Flume 证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24012 Flume证书文件已过期”章节。 Flume证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件失效 flumeMonitorServerCertificateFileIsInvalid 重要 Flume MonitorServer证书文件失效 请参考《MapReduce服务用户指南》的“ALM24013 Flume MonitorServer证书文件非法或已损坏”章节。 MonitorServer证书文件已经非法或损坏,功能受限,Flume客户端将无法访问Flume服务端。 Flume MonitorServer证书文件即将过期 flumeMonitorServerCertificate FileIsAboutToExpire 重要 Flume MonitorServer证书文件即将过期 请参考《MapReduce服务用户指南》的“ALM24014 Flume MonitorServer证书文件即将过期”章节。 MonitorServer证书文件即将失效,对系统目前运行无影响。 Flume MonitorServer证书文件已过期 flumeMonitorServerCertificateFileIsExpired 重要 Flume MonitorServer证书文件已过期 请参考《MapReduce服务用户指南》的“ALM24015 Flume MonitorServer证书文件已过期”章节。 MonitorServer证书文件已过期,功能受限,Flume客户端将无法访问Flume服务端。 HDFS服务不可用 hdfsServiceUnavailable 紧急 HDFS服务不可用 请参考《MapReduce服务用户指南》的“ALM14000 HDFS服务不可用”章节。 无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 NameService服务异常 nameServiceServiceUnavailable 重要 NameService服务异常 请参考《MapReduce服务用户指南》的“ALM14010 NameService服务异常”章节。 无法为基于该NameService服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 DataNode数据目录配置不合理 datanodeDataDirectoryIsNotConfiguredProperly 重要 DataNode数据目录配置不合理 请参考《MapReduce服务用户指南》的“ALM14011 DataNode数据目录配置不合理”章节。 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。不合理的DataNode数据目录配置,会造成HDFS的性能下降。 Journalnode数据不同步 journalnodeIsOutOfSynchronization 重要 Journalnode数据不同步 请参考《MapReduce服务用户指南》的“ALM14012 Journalnode数据不同步”章节。 当一个JournalNode节点工作状态异常时,其数据就会与其他JournalNode节点的数据不同步。如 果超过一半的JournalNode节点的数据不同步时,NameNode将无法工作,导致HDFS服务不可用。 NameNode FsImage文件更新失败 failedToUpdateTheNameNodeFsImageFile 重要 NameNode FsImage文件更新失败 请参考《MapReduce服务用户指南》的“ALM14013 NameNode FsImage文件更新失败”章节。 如果主NameNode数据目录的FsImage没有更新,则说明HDFS元数据合并功能异常,需要修复。 如不修复,HDFS在运行一段时间后,Editlog会一直增长。此时如果重启HDFS,由于要加载非常多的Editlog,会导致启动非常耗时。另外,该告警的产生也说明备NameNode功能异常,导致NameNode的HA机制失效。一旦主NameNode故障,则整个HDFS服务将不可用。 DataNode磁盘故障 datanodeDiskFault 重要 DataNode磁盘故障 请参考《MapReduce服务用户指南》的“ALM14027 DataNode磁盘故障”章节。 上报DataNode磁盘故障告警时,表示该DataNode节点上存在故障的磁盘分区,可能会导致已写入的文件丢失。 Yarn服务不可用 yarnServiceUnavailable 紧急 Yarn服务不可用 请参考《MapReduce服务用户指南》的“ALM18000 Yarn服务不可用”章节。 集群无法提供Yarn服务。用户无法执行新的application。已提交的application无法执行。 NodeManager心跳丢失 nodemanagerHeartbeatLost 重要 NodeManager心跳丢失 请参考《MapReduce服务用户指南》的“ALM18002 NodeManager心跳丢失”章节。 丢失的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 NodeManager不健康 nodemanagerUnhealthy 重要 NodeManager不健康 请参考《MapReduce服务用户指南》的“ALM18003 NodeManager不健康”章节。 故障的NodeManager节点无法提供Yarn服务。容器减少,集群性能下降。 Yarn 任务执行超时 yarnApplicationTimeout 次要 Yarn 任务执行超时 请参考《MapReduce服务用户指南》的“ALM18020 Yarn任务执行超时”章节。 任务执行超时后的运行时间内,该告警一直存在,但任务仍继续正常执行,没有任何影响。 Mapreduce服务不可用 mapreduceServiceUnavailable 紧急 Mapreduce服务不可用 请参考《MapReduce服务用户指南》的“ALM18021 Mapreduce服务不可用”章节。 集群无法提供Mapreduce服务,如无法通过Mapreduce查看任务日志,无法提供Mapreduce服务的日志归档功能等。 Yarn队列资源不足 insufficientYarnQueueResources 次要 Yarn队列资源不足 请参考《MapReduce服务用户指南》的“ALM18022 Yarn队列资源不足”章节。 应用任务结束时间变长。新应用提交后长时间无法运行。 HBase服务不可用 hbaseServiceUnavailable 紧急 HBase服务不可用 请参考《MapReduce服务用户指南》的“ALM19000 HBase服务不可用”章节。 无法进行数据读写和创建表等操作。 HBase系统表目录或文件丢失 systemTablePathOrFileOfHBaseIsMissing 紧急 HBase系统表目录或文件丢失 请参考《MapReduce服务用户指南》的“ALM19012 HBase系统表目录或文件丢失”章节。 HBase服务重启/启动失败。 Hive服务不可用 hiveServiceUnavailable 紧急 Hive服务不可用 请参考《MapReduce服务用户指南》的“ALM16004 Hive服务不可用”章节。 Hive无法提供数据加载,查询,提取服务。 Hive数据仓库被删除 hiveDataWarehouseIsDeleted 紧急 Hive数据仓库被删除 请参考《MapReduce服务用户指南》的“ALM16045 Hive数据仓库被删除”章节。 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 Hive数据仓库权限被修改 hiveDataWarehousePermissionIsModified 紧急 Hive数据仓库权限被修改 请参考《MapReduce服务用户指南》的“ALM16046 Hive数据仓库权限被修改”章节。 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 HiveServer已从Zookeeper注销 hiveServerHasBeenDeregisteredFromZookeeper 重要 HiveServer已从Zookeeper注销 请参考《MapReduce服务用户指南》的“ALM16047 HiveServer已从Zookeeper注销”章节。 当无法在Zookeeper上读取到Hive的配置,将会导致HiveServer不可用。 tez或者spark库路径不存在 tezlibOrSparklibIsNotExist 重要 tez或者spark库路径不存在 请参考《MapReduce服务用户指南》的“ALM16048 Tez或者Spark库路径不存在”章节。 Tez或者Spark库路径不存在,会影响Hive on Tez,Hive on Spark的功能。 Hue服务不可用 hueServiceUnavailable 紧急 Hue服务不可用 请参考《MapReduce服务用户指南》的“ALM20002 Hue服务不可用”章节。 系统无法提供数据加载,查询,提取服务。 Impala服务不可用 impalaServiceUnavailable 紧急 Impala服务不可用 请参考《MapReduce服务用户指南》的“ALM29000 Impala服务不可用”章节。 Impala服务异常,无法通过FusionInsight Manager对Impala进行集群操作,无法使用Impala服务功能。 Kafka服务不可用 kafkaServiceUnavailable 紧急 Kafka服务不可用 请参考《MapReduce服务用户指南》的“ALM38000 Kafka服务不可用”章节。 集群无法对外提供Kafka服务,用户无法执行新的Kafka任务。 Kafka默认用户状态异常 statusOfKafkaDefaultUserIsAbnormal 紧急 Kafka默认用户状态异常 请参考《MapReduce服务用户指南》的“ALM38007 Kafka默认用户状态异常”章节。 Kafka默认用户状态异常,会影响Broker之间的元数据同步,以及Kafka与ZooKeeper之间的交互,进而影响业务生产、消费和Topic的创建、删除等操作。 Kafka数据目录状态异常 abnormalKafkaDataDirectoryStatus 重要 Kafka数据目录状态异常 请参考《MapReduce服务用户指南》的“ALM38008 Kafka数据目录状态异常”章节。 Kafka数据目录状态异常,会导致该数据目录上所有Partition的当前副本下线,多个节点同时出现数据目录状态异常,可能会导致部分Partition不可用。 存在单副本的Topic topicsWithSingleReplica 警告 存在单副本的Topic 请参考《MapReduce服务用户指南》的“ALM38010 存在单副本的Topic”章节。 单副本的Topic存在单点故障风险,当副本所在节点异常时,会直接导致Partition没有leader,影响该Topic上的业务。 KrbServer服务不可用 krbServerServiceUnavailable 紧急 KrbServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25500 KrbServer服务不可用”章节。 告警发生时,不能对集群中的组件KrbServer进行任何操作。其它组件的KrbServer认证将受影响。集群中依赖KrbServer的组件运行状态将为故障。 Kudu服务不可用 kuduServiceUnavailable 紧急 Kudu服务不可用 请参考《MapReduce服务用户指南》的“ALM29100 Kudu服务不可用”章节。 用户无法使用Kudu服务。 LdapServer服务不可用 ldapServerServiceUnavailable 紧急 LdapServer服务不可用 请参考《MapReduce服务用户指南》的“ALM25000 LdapServer服务不可用”章节。 告警发生时,不能对集群中的KrbServer和LdapServer用户进行任何操作。 例如,无法在FusionInsight Manager页面添加、删除或修改任何用户、用户组或角色,也无法修改用户密码。集群中原有的用户验证不受影响。 LdapServer数据同步异常 abnormalLdapServerDataSynchronization 紧急 LdapServer数据同步异常 请参考《MapReduce服务用户指南》的“ALM25004 LdapServer数据同步异常”章节。 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 Nscd服务异常 nscdServiceIsAbnormal 重要 Nscd服务异常 请参考《MapReduce服务用户指南》的“ALM25005 Nscd服务异常”章节。 nscd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 Sssd服务异常 sssdServiceIsAbnormal 重要 Sssd服务异常 请参考《MapReduce服务用户指南》的“ALM25006 Sssd服务异常”章节。 sssd服务异常时,可能会影响该节点从LdapServer上同步数据,此时,使用id命令可能会获取不到ldap中的数据,影响上层业务。 Loader服务不可用 loaderServiceUnavailable 紧急 Loader服务不可用 请参考《MapReduce服务用户指南》的“ALM23001 Loader服务不可用”章节。 如果Loader服务不可用,数据加载,导入,转换的功能也不可用。 Oozie服务不可用 oozieServiceUnavailable 紧急 Oozie服务不可用 请参考《MapReduce服务用户指南》的“ALM17003 Oozie服务不可用”章节。 无法使用Oozie服务提交作业。 Ranger服务不可用 rangerServiceUnavailable 紧急 Ranger服务不可用 请参考《MapReduce服务用户指南》的“ALM45275 Ranger服务不可用”章节。 当Ranger服务不可用时,Ranger无法正常工作,Ranger原生UI无法访问。 RangerAdmin状态异常 abnormalRangerAdminStatus 重要 RangerAdmin状态异常 请参考《MapReduce服务用户指南》的“ALM45276 RangerAdmin状态异常”章节。 当存在单个RangerAdmin状态异常时,不影响Ranger原生UI访问;当两个RangerAdmin状态异常时,Ranger原生UI无法访问,无法执行创建、修改、删除策略等操作。 Spark2x服务不可用 spark2xServiceUnavailable 紧急 Spark2x服务不可用 请参考《MapReduce服务用户指南》的“ALM43001 Spark2x服务不可用”章节。 用户提交的Spark任务执行失败。 Storm服务不可用 stormServiceUnavailable 紧急 Storm服务不可用 请参考《MapReduce服务用户指南》的“ALM26051 Storm服务不可用”章节。 集群无法对外提供Storm服务,用户无法执行新的Storm任务。 ZooKeeper服务不可用 zooKeeperServiceUnavailable 紧急 ZooKeeper服务不可用 请参考《MapReduce服务用户指南》的“ALM13000 ZooKeeper服务不可用”章节。 ZooKeeper无法为上层组件提供协调服务,依赖ZooKeeper的组件可能无法正常运行。 ZooKeeper中组件顶层目录的配额设置失败 failedToSetTheQuotaOfTopDirectoriesOf ZooKeeperComponent 次要 ZooKeeper中组件顶层目录的配额设置失败 请参考《MapReduce服务用户指南》的“ALM13005 ZooKeeper中组件顶层目录的配额设置失败”章节。 组件可以向对应的ZooKeeper顶层目录中写入大量数据,导致Zookeeper服务不可用。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        翼MapReduce MRS支持的事件列表
      • Python Redis客户端
        本章介绍使用同一VPC内弹性云主机ECS上的Python Redis客户端redispy连接Redis实例的方法。 介绍使用同一VPC内弹性云主机ECS上的Python Redis客户端redispy连接Redis实例的方法。更多的客户端的使用方法请参考Redis客户端。 说明 连接单机、主备、Proxy集群实例建议使用redispy,Cluster集群实例建议使用redispycluster。 前提条件 已成功申请Redis实例,且状态为“运行中”。 已创建弹性云主机,创建弹性云主机的方法,请参见《弹性云主机用户指南》。 如果弹性云主机为Linux系统,该弹性云主机必须已经安装python编译环境。 操作步骤 步骤 1 查看并获取待连接Redis实例的IP地址和端口。 具体步骤请参见查看实例信息。 步骤 2 登录弹性云主机。 本章节以弹性云主机操作系统为centos为例介绍通过python redis客户端连接实例。 步骤 3 连接Redis实例。 如果系统没有自带Python,可以使用yum方式安装。 yum install python 说明 要求系统python版本为3.6+,当默认python版本小于3.6时,可通过以下操作修改python默认版本。 1. 删除python软链接文件: rm rf python 2. 重新创建新指向python:ln s pythonX.X.X python,其中X为python具体版本号。 若是单机、主备、proxy集群实例。 a. 安装Python和Python Redis客户端redispy。 i. 如果系统没有自带Python,可以使用yum方式安装。 ii. 下载并解压redispy。 wget unzip master.zip iii. 进入到解压目录后安装Python Redis客户端redispy。 python setup.py install 安装后执行python命令,返回如下信息说明成功安装redispy: 执行python b. 使用redispy客户端连接实例。以下步骤以命令行模式进行示例(也可以将命令写入python脚本中再执行): i. 执行python命令,进入命令行模式。返回如下信息说明已进入命令行模式: 进入命令行模式 ii. 在命令行中执行以下命令,连接Redis实例。 r redis.StrictRedis(host'XXX.XXX.XXX.XXX', port6379, password''); 其中,XXX.XXX.XXX.XXX为Redis实例的IP地址,“6379”为Redis实例的端口。IP地址和端口获取见步骤1,请按实际情况修改后执行。 为创建Redis实例时自定义的密码,请按实际情况修改后执行。 界面显示一行新的命令行,说明连接Redis实例成功。可以输入命令对数据库进行读写操作。 连接redis成功 若是Cluster集群实例。 b. 安装redispycluster客户端。 i. 执行以下命令下载released版本。 wget ii. 解压压缩包。 tar xvf redispycluster2.1.3.tar.gz iii. 进入到解压目录后安装Python Redis客户端redispycluster。 python setup.py install c. 使用redispycluster客户端连接Redis实例。 以下步骤以命令行模式进行示例(也可以将命令写入python脚本中再执行): i. 执行python命令,进入命令行模式。 ii. 在命令行中执行以下命令,连接Redis实例。如果实例为免密访问,则省略命令中的, password'' >>> from rediscluster import RedisCluster >>> startupnodes [{"host": "192.168.0.143", "port": "6379"},{"host": "192.168.0.144", "port": "6379"},{"host": "192.168.0.145", "port": "6379"},{"host": "192.168.0.146", "port": "6379"}] >>> rc RedisCluster(startupnodesstartupnodes, decoderesponsesTrue, password'') >>> rc.set("foo", "bar") True >>> print(rc.get("foo")) 'bar'
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        Python Redis客户端
      • 云容器集群Pod网络包乱序
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包乱序动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 重排序概率:数据包被立即发送的百分比。 和上一包的相关性:控制数据包重排序的随机性和规律性之间的平衡,取值范围 0~100,例如,设置为 50 表示有 50% 的可能性下一个数据包的重排序决策会受到前一个数据包的影响。值越高,乱序模式越规律;值越低,越随机。 包序列大小:定义了重排序数据包之间的距离,即有多少个数据包会按照正常顺序发送后才会出现一个重排序的数据包,例如,当 gap 设置为 2 时,意味着每 2 个正常顺序的数据包之后会有一个数据包被重排序。 网络包延迟时间(毫秒):对被选中的乱序数据包施加的延迟时长。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        云容器
        云容器引擎
        云容器集群Pod网络包乱序
      • 云容器集群Pod网络包乱序(1)
        2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云容器引擎Pod。 添加实例 :单击添加实例 ,勾选上一步中添加的云容器引擎Pod实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包乱序动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 重排序概率:数据包被立即发送的百分比。 和上一包的相关性:控制数据包重排序的随机性和规律性之间的平衡,取值范围 0~100,例如,设置为 50 表示有 50% 的可能性下一个数据包的重排序决策会受到前一个数据包的影响。值越高,乱序模式越规律;值越低,越随机。 包序列大小:定义了重排序数据包之间的距离,即有多少个数据包会按照正常顺序发送后才会出现一个重排序的数据包,例如,当 gap 设置为 2 时,意味着每 2 个正常顺序的数据包之后会有一个数据包被重排序。 网络包延迟时间(毫秒):对被选中的乱序数据包施加的延迟时长。 容器选择模式:选择攻击pod中容器,可以“按资源定义的首个容器”,也可以“指定容器名称”,当选择指定容器名称时,需要输入容器的名称。 容器名称:填写攻击目标的容器名
        来自:
      • 云主机错误状态及解决方案
        本文介绍云主机错误状态及解决方案。 一、引言 随着云计算技术的快速发展,云主机已经成为企业、个人和开发者们进行互联网应用的首选。然而,使用云主机的过程并非完全顺利,可能会遇到各种错误状态。本文将详细探讨云主机错误状态的类型、原因以及解决方案,帮助用户更好地管理和维护自己的云主机。 二、云主机错误状态类型 1. 网络错误。 网络错误是云主机使用过程中最常见的错误类型之一。网络错误可能包括网络连接超时、无法连接到远程云主机或网络连接中断等。这些错误通常是由于网络配置问题、网络设备故障或网络拥堵等原因引起的。 2. 云主机错误。 云主机错误通常包括云主机启动失败、运行异常、过载等。这类错误可能是由于云主机硬件故障、软件问题、操作系统故障或云主机资源不足等原因引起的。 3. 应用程序错误。 应用程序错误是指运行在云主机上的应用程序出现错误。这类错误可能包括应用程序崩溃、运行缓慢、内存泄漏等。这些错误可能是由于应用程序本身的问题,如代码错误、不兼容性或配置问题等引起的。 4. 安全错误。 安全错误是指与安全相关的错误,如身份验证失败、权限问题或安全策略冲突等。这些错误可能是由于用户名或密码错误、权限配置错误或安全策略设置不当等原因引起的。 三、云主机错误状态原因分析 1. 网络问题。 网络问题可能是由于网络设备故障、网络连接问题或网络配置不当等原因引起的。例如,如果云主机的网络设备出现故障,或者网络连接被中断,那么就会出现网络错误。此外,如果网络配置不正确,例如DNS解析不正确,也可能会导致无法连接到远程云主机。 2. 云主机硬件故障。 云主机硬件故障可能是由于云主机硬件设备出现故障或云主机资源不足等原因引起的。例如,如果云主机的硬盘出现故障,那么云主机可能无法启动或运行异常。此外,如果云主机的资源不足,例如内存不足或CPU过载,也可能会导致云主机运行异常。 3. 应用程序问题。 应用程序问题可能是由于应用程序本身的问题,如代码错误、不兼容性或配置问题等引起的。例如,如果应用程序的代码存在错误,那么应用程序可能无法正常运行。此外,如果应用程序的配置不正确,例如数据库连接不正确或文件路径错误,也可能会导致应用程序运行异常。 4. 安全问题。 安全问题可能是由于身份验证失败、权限问题或安全策略冲突等原因引起的。例如,如果用户名或密码不正确,那么身份验证可能会失败。此外,如果权限配置不正确,例如权限设置过于宽松或过于严格,也可能会导致权限问题。另外,如果安全策略设置不当,例如过于宽松的安全策略或过于严格的安全策略,也可能会导致安全问题。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        高频故障案例
        云主机错误状态及解决方案
      • 安装混合备份客户端
        本节介绍如何安装混合备份客户端。 操作场景 混合备份通过客户端提供备份服务。备份操作前,需要在备份目标机器中安装客户端,可在控制台进行客户端安装操作。 约束与限制 操作系统限制:支持Windows7/10/11系列、Windows Server 2008/2012/2016/2019/2022系列、Ubuntu16/18/20系列、Centos6/7/8系列、统信UOS20、银河麒麟V10、阿里龙蜥8、其他通用Linux系列64位操作系统。 由于云备份服务需要与存储库端网络可达,请在目标机器端放行880、8888、8899端口。 备份目标机器必须处于开机状态,与存储库端网络可达。 每个目标机器仅允许安装一个客户端。若想更新客户端至最新版本,可以升级客户端。 操作步骤 1. 登录控制中心。 2. 在控制中心左上角点击,选择地域,此处选择华东华东1。 3. 选择“存储>云备份>混合备份(存储版)”,进入“主机列表”页签,点击“下载客户端”按钮,根据目标机器的CPU架构和操作系统选择对应的和客户端类型。 4. 若选择Windows类型 1. 选择存储库和网络传输方式。 1. 若选择公网方式,无需填写对应IP。 2. 若选择非公网方式,需先创建连接备份服务(华东1的备份服务实例ID为endpseryanvu0zc7z)的终端节点VPCE,创建好终端节点后在下载备份客户端界面填写终端节点IP地址。 2. 点击“下载”按钮,并将安装包拷贝到对应备份主机上。 3. 解压安装包,得到app.config文件和exe安装程序。 4. 确保解压出的两个文件在同级目录下,以管理员权限运行exe安装程序。 5. 选择安装路径,默认安装路径为:“C:Program Filesxclient”。 6. 点击下一步,等待安装完成,安装成功后,在“主机列表”页签中,查看目标机器为“在线”状态,即可为目标机器进行不同类型的数据备份。 5. 若选择Linux类型(Ubuntu、CentOS、统信、银河麒麟、阿里龙蜥、通用Linux) 1. 选择存储库和网络传输方式。 1. 若选择公网方式,无需填写对应IP。 2. 若选择非公网方式,需先创建连接备份服务(华东1的备份服务实例ID为endpseryanvu0zc7z)的终端节点VPCE,创建好终端节点后在下载备份客户端界面填写终端节点IP地址。 2. 点击“生成脚本”按钮,复制下载命令到对应备份主机上执行,获取客户端安装脚本。 3. 选择系统账户(备份oracle数据库时需要选择oracle账户,其他备份选择系统账户),点击“复制在线脚本”或“复制离线脚本”。 4. 在对应备份主机上执行上一步的脚本,等待客户端安装完成,安装成功后,在“主机列表”页签中,查看目标机器为“在线”状态,即可为目标机器进行不同类型的数据备份。
        来自:
        帮助文档
        云备份 CBR
        快速入门
        安装客户端
        安装混合备份客户端
      • 使用云硬盘存储卷
        参数 参数说明 云存储类型 云硬盘:云硬盘的使用方式与传统服务器硬盘完全一致。同时,云硬盘具有更高的数据可靠性,更高的I/O吞吐能力和更加简单易用等特点,适用于文件系统、数据库或者其他需要块存储设备的系统软件或工作负载。 注意 如需挂载云硬盘,创建工作负载时的实例数量必须选择为1个实例,即单实例,选择多实例后挂载云硬盘的选项将置灰,无法挂载。 创建有状态工作负载并添加云存储时,云硬盘暂不支持使用已有存储。 云硬盘不支持跨可用区挂载,且暂时不支持被多个工作负载、同一个工作负载的多个实例或多个任务使用。 分配方式 使用已有存储 选择已创建的存储,您需要提前创建好存储。 针对同一集群和命名空间,创建无状态工作负载时可以选择“使用已有存储”。 创建有状态工作负载时暂不支持选择“使用已有存储”,只能使用“自动分配存储”。 自动分配存储 选择自动分配存储后,需要配置如下选项: 1. 访问模式:是用来对PV进行访问模式的设置,用于描述用户应用对存储资源的访问权限。 ReadWriteOnce (RWO): 基于云硬盘非共享卷提供容器负载单Pod单独单写块存储的功能,但是该卷只能被单个节点挂载。v1.13.10r1开始支持RWO模式的存储卷。 ReadWriteMany (RWX): 基于云硬盘共享卷提供容器负载访问块存储的功能。由于容器侧不支持跨节点的共享卷读写一致性能力,在老集群(<1.15.6)下受限使用(需要确保单负载单实例单独单写),1.15开始只支持创建和使用RWO模式的非共享卷 2. 可用区:存储所在的可用区,自动分配存储仅支持Node节点所在可用区。 3. 子类型:选择存储的子类型。 高I/O:指由SAS存储介质构成的云硬盘。 普通I/O:指由SATA存储介质构成的云硬盘。 超高I/O:指由SSD存储介质构成的云硬盘。 4. 存储容量:输入存储容量,单位为GB。请不要超过存储容量配额,否则会创建失败。 添加容器挂载 1. 单击“添加容器挂载”。 2. 挂载路径:输入数据卷挂载到容器上的路径。 须知 请不要挂载在系统目录下,如“ / ”、“ /var/run” 等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 挂载高危目录的情况下 ,建议使用低权限帐号启动,否则可能会造成宿主机高危文件被破坏。 3. 设置权限。 只读:只能读容器路径中的数据卷。 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        存储管理
        云硬盘存储卷
        使用云硬盘存储卷
      • 计费方式
        本文主要介绍计费方式 1、计费项 数据库复制服务从配置和数据传输两个方面收取费用,其中数据传输费为公网访问产生的数据流量费,云内网络产生的流量不进行计费。 2、收费方式 (1)预存后付费方式:提前充值现金到天翼云账户中,现金账户余额不低于100元,之后系统按照用户实际使用量进行结算。 (2)计费周期:按小时计费,以自然小时为计费单位(均以北京时间为准),不满一小时按照一小时计费。费用从用户账户现金余额中扣费。开通时间建议整点开通,开通不足一个自然小时,按一小时收费。提前删除也按照自然小时收费。 3、计费样例 以下均以北京2的MySQL全量+增量实时迁移为例进行说明。 • 场景一:免费期内入云迁移 客户A在20211201 8:00启动入云迁移,并于20211203 12:00结束任务,使用时间未超过一周,不收取费用。 • 场景二:超过免费期入云迁移 客户A在20211128 8:00启动入云迁移,并于20211206 12:00结束任务。则截止20211205 8:00为免费期,从20211205 8:00到结束任务期间按照配置费用每小时2.4元收费。 • 场景三:出云迁移 客户A使用公网网络在20211228 8:00启动出云迁移,并于20211230 8:00结束任务,DRS迁移出云100GB数据。则由启动任务到结束任务,按照每小时2.4元收取配置费用,即配置费用为2天24小时2.4元/小时115.2元。同时,出云迁移的数据传输也会计费,传输费用为100GB1.5元/GB150元,总额为115.2+150265.2元。 • 场景四:DRS开始收费前启动任务 客户A在20211126 8:00启动入云迁移,并于20211206 12:00结束任务,使用时间超过一周,但该任务在开始计费(20211127 00:00)前启动,不收取费用。 • 场景五:多任务迁移 客户A在20211201 8:00启动入云迁移任务1,并于20211206 12:00结束任务。使用公网网络在20211201 8:00启动出云迁移任务2,并于20211206 8:00结束任务,迁移出云数据200GB。 则任务1截止20211205 8:00为免费期,从20211205 8:00到结束任务期间按照每小时2.4元收取配置费用,入云传输免费。任务1收取费用(1天24小时+4小时)2.4元/小时67.2元。 则任务2从启动到结束按照每2.4元/小时收取配置费用,按照1.5元/GB收取传输费用。任务2收取费用配置费用+传输费用5天24小时2.4元/小时+200GB1.5元/GB588元。 • 场景六:非公网网络迁移 客户A使用VPC网络在20211201 8:00启动出云迁移,并于20211203 8:00结束任务,DRS迁移出云100GB数据,DRS只对公网网络按照标准收取费用,所以该任务不收取费用。 以下均以北京2的MySQL实时同步为例进行说明。 • 场景一:入云同步 客户A在20211201 8:00启动入云同步,并于20211203 12:00结束任务,任务启动到结束,按照3.53元/小时收取配置费用,即收取费用(2天24小时+4小时)3.53元/小时183.56元。 • 场景二:出云同步 客户A使用公网网络在20211228 8:00启动出云同步,并于20220102 8:00结束任务,传输数据100GB。则从启动到结束任务期间按照每3.53元/小时收取配置费用、1.5元/GB收取传输费用。即收取费用配置费用+传输费用5天24小时3.53元/小时+100GB1.5元/GB573.6元。
        来自:
        帮助文档
        数据库复制
        计费说明
        计费方式
      • 通过PVC创建克隆卷
        本节主要介绍通过PVC创建克隆卷的步骤。 前提条件 CSI中已经存在HBlock相关的PVC,且对应的HBlock卷为Local模式。 在执行此操作之前,请确保源卷(PVC)的所有数据已持久化,即如果源卷已被客户端挂载,需确保客户端的数据都已经同步到卷上。创建克隆卷前: 如果是block模式的卷:在客户端执行sync命令。 如果是filesystem模式的卷:如果客户端支持sync f(可以通过sync help命令查看是否支持),在客户端执行sync f命令;否则在客户端执行sync命令。 操作步骤 1. 创建克隆卷的StorageClass配置文件(可选)。 说明 如果下列参数在克隆卷的StorageClass和源卷StorageClass都存在,但是取值不同,则以克隆卷StorageClass中的取值为准。 plaintext apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: csistorsclocal provisioner: stor.csi.k8s.io parameters: clusterID: clusterID storageMode: Local sectorSize: sectorSize localStorageClass: localStorageClass minReplica: minReplica redundancyOverlap: redundancyOverlap ECfragmentSize: ECfragmentSize highAvailability: highAvailability writePolicy: writePolicy isMultipath: isMultipath pool: pool cachePool: cachePool flattenVolumeFromSnapshot: "false" maxCloneDepth: maxCloneDepth maxSessions: maxSessions serverNumbers: serverNumbers faultDomains: faultDomains chapEnable: "false" chapUser: username chapPassword: password reclaimPolicy: Delete volumeBindingMode: Immediate allowVolumeExpansion: true 克隆卷的StorageClass配置文件参数: 参数 描述 是否必填 metadata.name StorageClass的名称。 是 provisioner HBlock CSI驱动名称。 取值:HBlock CSI安装时的驱动名称。 是 parameters.clusterID csiconfigMap.yaml中配置的HBlock的标识。需要与源卷的clusterID保持一致。 是 parameters.storageMode 卷的存储类型。 取值:Local。默认与源卷保持一致。 否 parameters.sectorSize 扇区大小。根据客户端文件系统 I/O 操作的最小单位设定卷扇区大小。 取值:"512"、"4096",单位是bytes。默认值为源卷的扇区大小。 否 parameters.localStorageClass 本地存储冗余模式。单机版不能设置此参数。 注意 如果设置了克隆卷的minReplica或redundancyOverlap,则必须同时指定该参数。 取值: singlecopy:单副本; 2copy:两副本; 3copy:三副本; EC N+M:纠删码模式。其中N、M为正整数,N>M,且N+M<128。表示将数据分割成N个片段,并生成M个校验数据。 默认值为源卷的卷冗余模式。 否 parameters.minReplica 最小副本数(仅集群版支持)。 注意 如果指定该参数,则必须指定克隆卷的localStorageClass。 对于副本模式的卷,假设卷副本数为X,最小副本数为Y(Y必须≤X),该卷每次写入时,至少Y份数据写入成功,才视为本次写入成功。对于EC N+M模式的卷,假设该卷最小副本数设置为Y(必须满足N≤Y≤N+M),必须满足总和至少为Y的数据块和校验块写入成功,才视为本次写入成功。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的最小副本数。 如果指定了克隆卷的localStorageClass:对于副本卷,取值范围是[1, N],N为副本模式卷的副本数,默认值为1;对于EC卷,取值范围是[N, N+M],默认值为N。 否 parameters.redundancyOverlap 卷的折叠副本数(仅集群版支持)。在数据冗余模式下,同一份数据的不同副本/分片默认分布在不同的故障域,当故障域损坏时,允许根据卷的冗余折叠原则,将多份数据副本放在同一个故障域中,但是分布在不同的path上。 注意 如果存储池故障域级别为path,此参数不生效。如果指定该参数,则必须指定克隆卷的localStorageClass。 取值:整数。 如果没有指定克隆卷的localStorageClass:默认值为源卷的折叠副本数。 如果指定了克隆卷的localStorageClass:对副本模式,取值范围是[1,副本数];对于EC卷,取值范围是[1, N+M]。默认值为1。 否 parameters.ECfragmentSize 纠删码模式分片大小。卷冗余模式为EC模式时,此设置才生效,否则忽略。 取值:1、2、4、8、16、32、64、128、256、512、1024、2048、4096,单位是KiB。默认值为源卷的纠删码模式分片大小。 否 parameters.highAvailability 是否选择高可用模式。单机版不能设置此参数。 取值: ActiveStandby:启动主备,该卷关联对应Target下的所有IQN。 Disabled:禁用高可用模式,该卷关联对应Target下的一个IQN。 默认值为源卷的高可用类型。 否 parameters.writePolicy 卷的写策略。 取值: WriteBack:回写,即数据写入到内存后,立刻返回给客户端写成功,之后再异步写入磁盘。适用于对性能要求较高,稳定性要求不高的场景。 WriteThrough:透写,即数据同时写入内存和磁盘,并在两处都写成功后,再返回客户端写成功。适用于稳定性要求较高,写性能要求不高,且最近写入的数据会较快被读取的场景。 WriteAround:绕写,即数据写入磁盘后即释放相应内存,写入磁盘成功后,立刻返回客户端写成功。适用于稳定性要求较高,性能要求不高,且写多读少的场景。 默认值为源卷的写策略。 否 parameters.isMultipath 是否使用Multipath。 取值: "true"。 "false"。 默认值为"true"。 注意 这里需要输入字符串,即"true"或"false"。 如果HBlock集群版使用的HBlock卷没有启用高可用模式,即highAvailability为Disabled,此处需要设置为"false",否则会导致pod启动失败。 如果是HBlock单机版,此处需要设置为"false"。 条件 parameters.path 指定存储卷数据的数据目录(仅单机版支持)。 如果创建卷时不指定数据目录,默认与源卷配置保持一致。 否 parameters.pool 存储池名称,表示最终存储池,卷数据最终落在该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.cachePool 存储池名称,表示高速缓存存储池,卷数据首先写入该存储池内(仅集群版支持)。 取值:长度范围是1~16,只能由字母、数字和短横线()、下划线()组成,字母区分大小写,且仅支持以字母和数字开头。默认值与源卷的配置一致。 注意 pool与cachePool不能设置为同一个存储池。 当克隆卷的pool和cachePool配置与源卷一致,无需额外设置。若单独设置了克隆卷的pool或cachePool,则不再沿用源卷的pool和cachePool,而是采用所设参数值。例如,源卷同时有cachePool和pool,若克隆卷仅重新设置了pool而未设置cachePool,则克隆卷使用新设置的pool,无cachePool;反之,若克隆卷设置了cachePool,则必须同时设置pool,或者让pool使用基础存储池。 否 parameters.flattenVolumeFromSnapshot 是否断开克隆卷与快照的关系链。 取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.maxCloneDepth 最大克隆卷深度,当超过设置的最大深度时,新创建的克隆卷会自动执行断链。 取值:整数,取值范围是[0, 15],默认值为5。 否 parameters.maxSessions iSCSI Target允许建立的最大会话数。 取值:整数,取值范围是[1, 1024],默认值为1。 注意 卷模式为filesystem,取值只能为1。 否 parameters.serverNumbers Target所在的服务器数量(仅集群版支持)。 整数形式,取值为[2, n],n为集群内服务器的数量。默认值为2。 否 parameters.faultDomains 卷的服务端连接位置信息。根据存储池的故障域,创建Target所在服务器的列表(仅集群版支持),以便创建LUN时,LUN关联的Target优先从该服务器列表中选择所在服务器。例如存储池为rack级别,其拓扑图涵盖rack1、rack2、rack3、rack4中的节点,且faultDomains指定rack1、rack2,那么创建LUN时,LUN关联的Target优先从rack1、rack2所包含的此存储池的服务器列表里进行选择。 注意 存储池的故障域为path级别时,不能设置该参数。 如果LUN指定了高速缓存池和最终存储池,则从高速缓存池池中选择节点列表。如果LUN只指定了最终存储池,则从最终存储池中选择节点列表。 取值:以节点的形式添加,节点的级别可以到room、rack、server。可以指定多个节点,但是节点的个数要小于等于serverNumbers。支持一个节点添加多次,但是每次只能选一个server,并且选择的server不能与前面重复。如果一个节点出现的次数过多导致节点内的全部server都被选择,则系统会忽略此节点,从后面的节点中继续选择。 否 parameters.chapEnable 是否使用CHAP认证,取值: "true"。 "false"。 默认值为"false"。 注意 这里需要输入字符串,即"true"或"false"。 否 parameters.chapUser CHAP认证的用户名。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的用户名使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是3~64,只能由字母、数字、句点( . )、短横线( )、下划线( )、冒号( : )组成,字母区分大小写,且仅支持以字母或数字开头。 否 parameters.chapPassword CHAP认证的密码。如果配置文件csisecretdecrypt.yaml中的decryptFlag为true,需要对CHAP认证的密码使用DecryptData配置的密钥对进行AES(ECP、paddingcs7)加密,加密后的结果进行Base64编码,具体详见配置加密模式。 加密前取值:字符串形式,长度范围是12~16,必须包含大写字母、小写字母、数字、下划线()中的至少两种字符,字母区分大小写。 否 parameters.IOPS 每秒能够进行读写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.readIOPS 每秒能够进行读操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.writeIOPS 每秒能够进行写操作次数的最大值。 取值:整型,取值范围为[1, 999999999],默认值为1。1表示不限制。 否 parameters.Bps 每秒可传输数据量的最大值。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.readBps 读带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBps 写带宽上限。 取值:整型,取值范围为[1, 4096000000000],默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurst 使用Burst功能时,每秒能够进行读写操作次数的最大值。 取值:只有当IOPS大于等于1时,此项设置为1或(IOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.readIOPSBurst 使用Burst功能时,每秒能够进行读操作次数的最大值。 取值:只有当readIOPS大于等于1时,此项设置为1或(readIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.writeIOPSBurst 使用Burst功能时,每秒能够进行写操作次数的最大值。 取值:只有当writeIOPS大于等于1时,此项设置为1或(writeIOPS, 999999999]内的正整数方可生效。默认值为1,表示不限制。 否 parameters.BpsBurst 使用Burst功能时,每秒可传输的数据量最大值。 取值:只有当Bps大于等于1时,此项设置为1或(Bps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.readBpsBurst 使用Burst功能时,读带宽上限。 取值:只有当readBps大于等于1时,此项设置为1或(readBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.writeBpsBurst 使用Burst功能时,写带宽上限。 取值:只有当writeBps大于等于1时,此项设置为1或(writeBps, 4096000000000]内的正整数方可生效,默认值为1,单位是B/s。1表示不限制。 否 parameters.IOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读写操作所能持续的时间。 注意 只有在IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行读操作所能持续的时间。 注意 只有在read IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeIOPSBurstSecs 使用Burst功能时,按照Burst上限的能力进行写操作所能持续的时间。 注意 只有在write IOPS Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.BpsBurstSecs 使用Burst功能时,按照Burst上限的流量能力所能持续的时间。 注意 只有在Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.readBpsBurstSecs 使用Burst功能时,按照Burst上限的读流量能力所能持续的时间。 注意 只有在read Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 parameters.writeBpsBurstSecs 使用Burst功能时,按照Burst上限的写流量能力所能持续的时间。 注意 只有在write Bps Burst功能启用时,此配置才生效。 取值:整型,取值范围为[1, 999999999],默认值为1。 否 2. 创建克隆卷的配置文件。 plaintext apiVersion: v1 kind: PersistentVolumeClaim metadata: name: clonepvcfrompvcblock
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        创建克隆卷
        通过PVC创建克隆卷
        通过PVC创建克隆卷
      • 云主机网络包损坏
        本章节介绍云主机网络包损坏故障演练。 背景介绍 由于物理链路噪声、网络设备故障或恶意攻击,数据包在传输过程中可能被篡改,导致其内容发生变化。接收端的 TCP/IP 协议栈会通过校验和检查发现这种损坏,丢弃该数据包并请求重传。虽然这确保了数据的完整性,但频繁的重传会显著增加网络延迟、降低有效吞吐量,并可能导致应用层超时。本演练模拟此场景,帮助您评估应用在恶劣网络条件下的健壮性。 基本原理 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令。 原理是通过增加TC和Netem规则模拟主机内网络包损坏。 注意 只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云主机 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云主机 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云主机。 添加实例 :单击添加实例 ,勾选上一步中添加的云主机实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包损坏动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 包损坏百分比:数据包被损坏的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被损坏。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        计算
        弹性云主机
        云主机网络包损坏
      • 云主机网络包损坏(1)
        本章节介绍云主机网络包损坏故障演练。 背景介绍 由于物理链路噪声、网络设备故障或恶意攻击,数据包在传输过程中可能被篡改,导致其内容发生变化。接收端的 TCP/IP 协议栈会通过校验和检查发现这种损坏,丢弃该数据包并请求重传。虽然这确保了数据的完整性,但频繁的重传会显著增加网络延迟、降低有效吞吐量,并可能导致应用层超时。本演练模拟此场景,帮助您评估应用在恶劣网络条件下的健壮性。 基本原理 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令。 原理是通过增加TC和Netem规则模拟主机内网络包损坏。 注意 只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云主机 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云主机 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云主机。 添加实例 :单击添加实例 ,勾选上一步中添加的云主机实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包损坏动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 包损坏百分比:数据包被损坏的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被损坏。
        来自:
      • 云主机网络包重复(1)
        本章节介绍云主机网络包重复故障演练。 背景介绍 在网络传输过程中,因设备配置错误(如交换机端口镜像)、中间件异常(如负载均衡重复转发)或协议缺陷,可能导致数据包被复制并多次送达目标主机。虽然 TCP 协议能够识别并丢弃重复的数据包以保证数据完整性,但这个过程会消耗额外的网络带宽和CPU资源。更严重的是,对于应用层协议,如果缺乏幂等性设计,重复的请求可能导致业务逻辑被错误地执行多次(如重复下单、重复扣款)。本演练模拟此场景,帮助您检验系统的处理能力和业务逻辑的幂等性。 基本原理 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令。 原理是通过增加TC和Netem规则模拟主机内网络包重复。 注意 只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云主机 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云主机 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云主机。 添加实例 :单击添加实例 ,勾选上一步中添加的云主机实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包重复动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 包重复百分比:数据包被复制的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被复制并重复发送一次。
        来自:
      • 管理单个作业
        本章节主要介绍管理单个作业。 已存在的CDM作业支持查看、修改、删除、启动、停止等操作,这里主要介绍作业的查看和修改。 查看 查看作业状态 作业状态有New,Pending,Booting,Running,Failed,Succeeded。 其中“Pending”表示正在等待系统调度该作业,“Booting”表示正在分析待迁移的数据。 查看历史记录 查看作业的历史执行记录、读取和写入的统计数据,在历史记录界面还可查看作业执行的日志信息。 查看作业日志 在历史记录界面可查看作业所有的日志。 也可以在作业列表界面,选择“更多 > 日志”来查看该作业最近的一次日志。 查看作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置 源目的统计查询 可对已经配置好的数据库类作业打开预览窗口,预览最多1000条数据内容。可对比源和目的端的数据,也可以通过对比记录数来看迁移结果是否成功、数据是否丢失。 查看历史作业 CDM可以保留最近1个月已执行的作业,包括一次性作业(运行完自动删除的作业)和周期重复执行的作业,都支持在“历史作业”页签下查看、重新执行。 对于周期重复执行的作业,每次执行时(无论成功失败)都会在“历史作业”的页签下生成一个历史作业,执行了多少次便生成多少个历史作业。由于原作业名相同,所以历史作业的作业名会随机增加一个字符串以做区分。 修改 修改作业参数 可重新配置作业参数,但是不能重新选择源连接和目的连接。 编辑作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置。 操作步骤 1.进入CDM主界面,单击左侧导航上的“集群管理”,选择集群后的“作业管理”。 2.单击“历史作业”可以查看最近1个月所有执行过的历史作业。 CDM可以保留最近1个月已执行的作业,包括一次性作业(运行完自动删除的作业)和周期重复执行的作业,都支持在“历史作业”页签下查看、重新执行。 对于周期重复执行的作业,每次执行时(无论成功失败)都会在“历史作业”的页签下生成一个历史作业,执行了多少次便生成多少个历史作业。由于原作业名相同,所以历史作业的作业名会随机增加一个字符串以做区分。 3.单击“表/文件迁移”显示作业列表,可对单个作业执行如下操作: 修改作业参数:单击作业操作列的“编辑”可修改作业参数。 运行作业:单击作业操作列的“运行”可手动启动作业。 查看历史记录:单击作业操作列的“历史记录”进入历史记录界面,可查看该作业的历史执行记录、读取和写入的统计数据。在历史记录界面单击“日志”,可查看作业执行的日志信息。 删除作业:选择作业操作列的“更多 > 删除”可删除作业。 停止作业:选择作业操作列的“更多 > 停止”可停止作业。 查看作业JSON:选择作业操作列的“更多>查看作业JSON”,可查看该作业的JSON定义。 l编辑作业JSON:选择作业操作列的“更多>编辑作业JSON”,可直接编辑该作业的JSON文件,作用等同于修改作业的参数配置。 配置定时任务:选择作业操作列的“更多 > 配置定时任务”,可选择在有效期内周期性启动作业,具体请参考 配置定时任务。 4.修改完成后单击“保存”或“保存并运行”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        管理单个作业
      • 云主机网络包重复
        本章节介绍云主机网络包重复故障演练。 背景介绍 在网络传输过程中,因设备配置错误(如交换机端口镜像)、中间件异常(如负载均衡重复转发)或协议缺陷,可能导致数据包被复制并多次送达目标主机。虽然 TCP 协议能够识别并丢弃重复的数据包以保证数据完整性,但这个过程会消耗额外的网络带宽和CPU资源。更严重的是,对于应用层协议,如果缺乏幂等性设计,重复的请求可能导致业务逻辑被错误地执行多次(如重复下单、重复扣款)。本演练模拟此场景,帮助您检验系统的处理能力和业务逻辑的幂等性。 基本原理 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令。 原理是通过增加TC和Netem规则模拟主机内网络包重复。 注意 只对出方向流量生效,不会影响入流量;如果系统已配置有TC规则,动作执行会失败。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云主机 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云主机 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云主机。 添加实例 :单击添加实例 ,勾选上一步中添加的云主机实例。 添加故障动作 :单击立即添加 ,在列表中选择网络包重复动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 本地端口:仅对源端口为指定端口的流量生效。例如,可设置为您对外提供服务的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 远程端口:仅对目标端口为指定端口的流量生效。例如,可设置为您的应用访问数据库的端口。可以指定多个,使用逗号分隔或者连接符表示范围,例如 80,80008080。 排除端口:排除指定端口的流量。可以指定多个,使用逗号分隔或者连接符表示范围,例如 22,8000 或者 80008010。 这个参数不能与本地端口或者远程端口参数一起使用。 目标IP: 支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 网卡设备:指定在哪个网络接口上实施故障,网卡可通过ifconfig命令查询,例如 eth0。 排除IP:排除受影响的 IP,支持通过子网掩码来指定一个网段的IP地址, 例如 192.168.1.0/24. 则 192.168.1.0~192.168.1.255 都生效。也可以指定固定的 IP,如 192.168.1.1 或者 192.168.1.1/32,还可以通过逗号分隔多个参数,例如 192.168.1.1,192.168.2.1。 包重复百分比:数据包被复制的概率(取值 0100)。例如,设置为 10 表示每100个包中约有10个会被复制并重复发送一次。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        计算
        弹性云主机
        云主机网络包重复
      • 1
      • ...
      • 249
      • 250
      • 251
      • 252
      • 253
      • ...
      • 290
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      AI Store

      模型推理服务

      应用托管

      推荐文档

      启动会议

      Microsoft SQL Server

      域名实名认证

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号