活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      等保咨询_相关内容
      • 数据处理
        本章节为媒体存储数据处理能力概述。 媒体存储支持图片处理与视频截帧能力,用户可对存储在媒体存储中的数据进行一站式的数据处理操作。 图片处理 针对媒体存储内存储的图片文件(Object),用户可以在GetObject请求中携带图片处理参数对图片文件进行处理。例如添加图片水印、转换格式等,支持直接使用一个或多个参数处理图片,存在多个图片处理参数时,将按照参数顺序对图片进行处理。 具体可参考:图片处理概述 。 适用区域 本功能目前仅部分资源池支持,具体可参考:资源池与区域节点。 如需使用,可联系客户经理或提交工单申请。 处理参数 图片处理 参数 说明 图片缩放 resize 将图片缩放至指定大小。 格式转换 format 转换图片格式。 旋转 rotate 按指定角度以顺时针方向旋转图片。 EXIF信息 info/strip 获取或删除图片的exif信息。 质量变换 quality 调整JPG和WebP格式图片的质量。 亮度 bright 调整图片亮度。 渐进显示 interlace 将JPG格式的图片调整为渐进显示。 模糊 blur 对图片进行模糊处理。 自定义裁剪 crop 裁剪指定大小的矩形图片。 图片水印 watermark 为图片添加图片或文字水印。 自适应方向 autoorient 将携带旋转参数的图片进行自适应旋转。 获取平均色调 averagehue 获取图片平均色调信息。 锐化 sharpen 通过锐化参数,提高原图的清晰度。 对比度 contrast 调整原图的对比度。 内切圆 circle 将图片处理成内切圆。 圆角矩形 roundedcorners 将图片的4个角切成圆角。 索引切割 indexcrop 按指定大小分割原图并截取需要的图片。
        来自:
        帮助文档
        媒体存储
        用户指南
        数据处理
      • Flink作业权限管理
        本章节主要介绍 Flink作业权限管理。 Flink作业权限操作场景 针对不同用户,可以通过权限设置分配不同的作业,不同用户之间的作业效率互不影响,保障作业性能。 管理员用户和作业的所有者拥有所有权限,不需要进行权限设置且其他用户无法修改其作业权限。 Flink作业权限相关操作步骤 1. 在DLI管理控制台的左侧,选择“作业管理”>“Flink作业”。 2. 选择待设置的作业,单击其“操作”列中的“更多”>“权限管理”。“用户权限信息”区域展示了当前具备此作业权限的用户列表。 权限设置有3种场景:为新用户赋予权限,为已有权限的用户修改权限,回收某用户具备的所有权限。 为新用户赋予权限 新用户指之前不具备此作业权限的用户。 1. 单击“权限信息”右侧的“授权”,弹出“授权”对话框。 2. 填写“用户名”,并勾选对应权限。 3. 单击“确定”,完成新用户的添加。 待设置的参数说明如下表所示。 参数名称 描述 用户名 被授权用户的名称。 说明 该用户名称是已存在的IAM用户名称。并且该用户需要登录过云,才能进行授权操作。 权限设置 查看作业详情:查看此作业的作业详情。 更新作业:编辑修改此作业。 删除作业:删除此作业。 启动作业:启动该作业权限。 停止作业:停止该作业。 导出作业:导出该作业。 赋权:当前用户可将作业的权限赋予其他用户。 回收:当前用户可回收其他用户具备的该作业的权限,但不能回收该作业所有者的权限。 查看其他用户具备的权限:当前用户可查看其他用户具备的该作业的权限。 为已有权限的用户赋予权限或回收权限。 1. 在对应作业“用户权限信息”区域的用户列表中,选择需要修改权限的用户,在“操作”列单击“权限设置”。 2. 在作业“权限设置”对话框中,对当前用户具备的权限进行修改。详细权限描述如下表所示。 当“权限设置”中的选项为灰色时,表示您不具备修改此作业权限的权限。可以向管理员用户、作业所有者等具有赋权权限的用户申请“作业的赋权”和“作业权限的回收”权限。 3. 单击“确定”完成权限设置。 回收某用户具备的所有权限。 在对应作业“权限信息”区域的用户列表中,选择需要删除权限的用户,在“操作”列单击“回收”。在“回收”对话框中单击“确定”后,此用户将不具备该作业的任意权限。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        Flink作业权限管理
      • 创建向量索引
        类型 参数 说明 Index settings参数 vector 当需要使用向量索引加速时,需要设置该值为true。 Field mappings参数 type 字段类型,“vector”表示该字段为向量字段。 Field mappings参数 dimension 向量数据维度。 取值范围:[1, 4096] Field mappings参数 indexing 是否开启向量索引加速。 可选值: l false:表示关闭向量索引加速,向量数据仅写入docvalues,只支持使用ScriptScore以及Rescore进行向量查询。 l true:表示开启向量索引加速,系统将创建额外的向量索引,索引算法由"algorithm"字段指定,写入数据后可以使用VectorQuery进行查询。 默认值:false。 Field mappings参数 algorithm 索引算法。仅当“indexing”为“true”时生效。 可选值: l FLAT:暴力计算,目标向量依次和所有向量进行距离计算,此方法计算量大,召回率100%。适用于对召回准确率要求极高的场景。 l GRAPH:图索引,内嵌深度优化的HNSW算法,主要应用在对性能和精度均有较高要求且单shard中文档数量在千万个以内的场景。 l GRAPHPQ:将HNSW算法与PQ算法进行了结合,通过PQ降低原始向量的存储开销,能够使HNSW轻松支撑上亿规模的检索场景。 l IVFGRAPH:算法将IVF与HNSW结合,对全量空间进行划分,每一个聚类中心向量代表了一个子空间,极大地提升检索效率,同时会带来微小的检索精度损失。适用于数据量在上亿以上同时对检索性能要求较高的场景。 l IVFGRAPHPQ:PQ算法与IVFHNSW的结合,PQ可以通过配置选择与HNSW结合和IVF结合,进一步提升系统的容量并降低系统开销,适用于shard中文档数量在十亿级别以上同时对检索性能要求较高的场景。 默认值:GRAPH。 说明 当选择IVFGRAPH或者IVFGRAPHPQ索引时,需要额外进行预构建中心点索引以及注册等步骤,具体内容请参考 Field mappings参数 见下表“可选参数说明” 当使用向量索引加速时(即“indexing”为“true”时),为了获得更高的查询性能以及查询精度,ES提供了与向量索引相关的可选参数配置。 Field mappings参数 metric 计算向量之间距离的度量方式。 可选值: l euclidean:欧式距离。 l innerproduct:内积距离。 l cosine:余弦距离。 l hamming:汉明距离。 默认值:euclidean
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        向量检索
        创建向量索引
      • 管理运维计划
        配置项名称 配置项描述 样例 运维任务 Vacuum(目前仅支持Vacuum运维任务)。 Vacuum 任务简介 智能任务的简要描述。 该运维任务可帮助用户定期调用系统Vacuum命令,以实现空间回收。 备注 备注信息。 调度模式 支持以下三种调度模式: · 自动 :智能运维将在指定时间窗内扫描数据库,依据用户业务负载、用户表可回收空间,自动下发表级Vacuum任务。 · 指定目标 :用户可选择指定Vacuum目标,智能运维将在指定时间窗内,自动下发表级Vacuum任务。 · 优先级模式 :用户可配置优先Vacuum目标,若时间窗剩余,智能运维将自动扫描其他可Vacuum的表,并下发表级Vacuum任务。 建议使用指定目标方式进行Vacuum和VacuumFull,同时不建议对列存宽表进行VacuumFull,以防止内存膨胀。 指定目标 自动Vacuum目标 支持:系统表Vacuum或用户表VacuumFull。 · 对于 系统表Vacuum ,会持有系统表五级锁(share update exclusive锁),不会阻塞用户业务,仅会阻塞系统表DDL进程。 · 对于 用户表Vacuum Full ,会持有系统表的八级锁(access exclusive锁),期间所有访问会被阻塞,并等待Vacuum Full结束,建议用户合理安排调度时间,在业务负载低峰期执行Vacuum Full操作,避免锁表影响业务。 Vacuum Full操作相当于开辟一块和表数据大小相同的空间(表真实数据大小约为表总大小 (1 –脏页率)), 因此表空间会先增后降,请提前计算好 Vacuum Full 所需要的空间再行处理。 用户表VacuumFull 优先Vacuum目标 用户可配置优先Vacuum目标,其中一行对应一张表,每张表以数据库名、模式名、表名表示,以空格进行分割。 高级配置 选择“自定义”时,可以设置Vacuum膨胀率和目标表可回收空间高级配置参数(满足其中一个条件即触发自动Vacuum),如果选择“默认配置”,将使用它们的默认值。 Vacuum膨胀率:在数据库中频繁执行UPDATE、DELETE等操作后被删除或更新的行不会从表中物理删除,仅从数据库中被逻辑删除,在完成VACUUM之前这些过期数据仍然存储在磁盘中,从而导致表膨胀。当膨胀率达到运维任务中用户设置的百分比后,就会自动触发Vacuum。 默认配置(Vacuum膨胀率80%;目标表可回收空间100GB)
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群运维
        智能运维
        管理运维计划
      • 创建并使用签名密钥
        本章主要介绍创建并使用签名密钥。 操作场景 签名密钥用于后端服务验证API网关的身份,在API网关请求后端服务时,保障后端服务的安全。 签名密钥是由一对Key和Secret组成,签名密钥需要绑定到API才能生效。当签名密钥绑定API后,API网关向后端服务发送此API的请求时,会增加相应的签名信息,此时需要后端服务依照同样方式进行签名,通过比对签名结果和API网关传过来的Authorization头中签名是否一致来校验API的合法性。 说明 每个用户最多创建30个签名密钥。 同一个环境中一个API只能被一个签名密钥绑定,一个签名密钥可以绑定多个API。 使用流程 1. 在控制台创建签名密钥。 2. 将新创建的签名密钥绑定API。 3. API网关将签名后的请求发送到后端服务,此时Authorization头中包含签名信息。后端服务通过不同的开发语言(例如Java、Go、Python、JavaScript、C 、PHP、C++、C、Android等)进行签名,比对签名结果和API网关传过来的Authorization头中签名是否一致来校验API的合法性。 图 签名密钥流程图 创建签名密钥 步骤 1 进入API网关控制台页面。 步骤 2 根据实际业务在左侧导航栏上方选择实例。 步骤 3 在左侧导航栏选择“API管理 > API策略”。 步骤 4 在“策略管理”页面,单击“创建策略”。 步骤 5 选择策略类型,单击“签名密钥”,弹出“创建密钥”对话框。 步骤 6 填写如表 所示信息。 表 密钥信息 信息项 描述 密钥名称 自定义名称,用于识别不同的密钥。 类型 选择签名密钥的认证类型,可选择“HMAC”、“Basic Auth”、“AES”。 签名算法 选择aes的签名算法,包含以下两种: l aes128cfb l aes256cfb Key 根据选择的密钥类型,填写不同的密钥信息。 l HMAC:填写APP认证所使用密钥对的Key。 l Basic Auth:填写basic认证所使用的用户名。 l aes:填写aes认证所使用的密钥key。 l Public Key:填写publickey认证所使用的公钥。 Secret 根据选择的密钥类型,填写不同的密钥信息。 l HMAC:填写APP认证所使用密钥对的Secret。 l Basic Auth:填写basic认证所使用的密码。 l aes:填写aes认证所使用的向量。 l Public Key:填写Public Key认证所使用的私钥。 确认Secret 填写与Secret一致的值。 步骤 7 单击“确定”,完成密钥的创建。
        来自:
        帮助文档
        API网关
        开放API网关
        签名密钥
        创建并使用签名密钥
      • ALM-45426 ClickHouse服务在ZooKeeper的数量配额使用率超过阈值
        本章节主要介绍ALM45426 ClickHouse服务在ZooKeeper的数量配额使用率超过阈值的告警。 告警解释 告警模块按60秒周期检测ClickHouse服务在ZooKeeper的数量配额使用百分比,当检测到使用百分比超过阈值(90%),系统产生此告警。 当系统检测到使用百分比低于阈值,且告警处理完成时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 45426 重要(默认级别) 是 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称 服务名 产生告警的服务名称 角色名 产生告警的角色名称 主机名 产生告警的主机名 对系统的影响 ClickHouse在ZooKeeper的数量配额超过阈值后,无法通过FusionInsight Manager对ClickHouse进行集群操作,无法使用ClickHouse服务功能。 可能原因 ClickHouse在使用过程中,如表创建、插入或删除表数据等操作时,ClickHouse会在ZooKeeper的节点中创建znode,随着业务量的增加该znode实际数量可能会超过配置的阈值。 处理步骤 检查ClickHouse在ZooKeeper的znode节点创建数量 登录ZooKeeper客户端所在主机节点,执行以下命令登录ZooKeeper客户端工具。 切换到客户端安装目录。 例如:cd /opt/client 执行以下命令配置环境变量。 source bigdataenv 执行以下命令进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 执行以下命令登录客户端工具。 zkCli.sh server ZooKeeper 角色实例所在节点业务IP : ClientPort 1. 执行如下命令查看ZooKeeper上ClickHouse使用的配额情况,计算返回的结果中Output stat的count值与Output quota的count值之比是否大于0.9。 listquota /clickhouse absolute path is /zookeeper/quota/clickhouse Output quota for /clickhouse count 200000,bytes1000000000 Output stat for /clickhouse count 2667,bytes60063 如上,Output stat对应的count为:2667,Output quota的count为:200000。 是,执行步骤4。 否,等待五分钟查看告警是否清除,如果还没有清除请执行步骤5。 2. 在FusionInsight Manager首页,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置”,搜索“clickhouse.zookeeper.quota.node.count”参数,将该参数的值调整为步骤2中Output stat的count值的2倍。 3. 重启告警信息对应的ClickHouse实例,等待五分钟,查看告警是否消除。 是,处理完毕。 否,再次执行步骤4,等待五分钟,查看告警是否消除,如果还没有清除请执行步骤5。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-45426 ClickHouse服务在ZooKeeper的数量配额使用率超过阈值
      • 更新客户端(3.x之前版本)
        全量更新主Master节点的原始客户端 场景描述 用户创建集群时,默认在集群所有节点的“/opt/client”目录安装保存了原始客户端。以下操作以“/opt/Bigdata/client”为例进行说明。 MRS普通集群,在console页面提交作业时,会使用master节点上预置安装的客户端进行作业提交。 用户也可使用master节点上预置安装的客户端来连接服务端、查看任务结果或管理数据等。 对集群安装补丁后,用户需要重新更新master节点上的客户端,才能保证继续使用内置客户端功能。 操作步骤 1.登录MRS Manager页面,具体请参见访问MRSManager(MRS2.x及之前版本),然后选择“服务管理”。 2.单击“下载客户端”。 “客户端类型”选择“完整客户端”,“下载路径”选择“服务器端”,单击“确定”开始生成客户端配置文件,文件生成后默认保存在主管理节点“/tmp/MRSclient”。文件保存路径支持自定义。 3.查询并登录主Master节点。 4.在弹性云服务器,切换到root用户,并将安装包复制到目录“/opt”。 sudo su root cp /tmp/MRSclient/MRSServicesClient.tar /opt 5.在“/opt”目录执行以下命令,解压压缩包获取校验文件与客户端配置包。 tar xvf MRSServicesClient.tar 6.执行以下命令,校验文件包。 sha256sum c MRSServicesClientConfig.tar.sha256 界面显示如下: MRSServicesClientConfig.tar: OK 7.执行以下命令,解压“MRSServicesClientConfig.tar”。 tar xvf MRSServicesClientConfig.tar 8.执行以下命令,移走原来老的客户端到/opt/Bigdata/clientbak目录下 mv /opt/Bigdata/client /opt/Bigdata/clientbak 9.执行以下命令,安装客户端到新的目录,客户端路径必须为“/opt/Bigdata/client”。 sh /opt/MRSServicesClientConfig/install.sh /opt/Bigdata/client 查看安装输出信息,如有以下结果表示客户端安装成功: Compon ents client installation is complete. 10.执行以下命令,修改/opt/Bigdata/client目录的所属用户和用户组。 chown omm:wheel /opt/Bigdata/client R 11.执行以下命令配置环境变量: source /opt/Bigdata/client/bigdataenv 12.如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS 集群用户 例如, kinit admin 13.执行组件的客户端命令。 例如,执行以下命令查看HDFS目录: hdfs dfs ls /
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        更新客户端
        更新客户端(3.x之前版本)
      • 库表数据恢复:恢复到指定时间点
        本节包含库表数据恢复:恢复到指定时间点的相关内容。 操作场景 为了保证数据的完整性,以及降低对原实例的性能影响,会进行库表级时间点恢复。库表级恢复是为选择的某个库表恢复到指定时间点。在进行库表级时间点恢复备份时,会从OBS备份空间中选择一个该时间点最近的全量备份下载到临时实例上进行全量恢复,再在临时实例上重放WAL到指定时间点,完成之后将对应库表的数据回写到原实例的目标库表,恢复时长和实例的数据量有关。 由于需要对实例的所有数据进行备份及恢复操作,对于数据量较大的实例,所需时间较长,请耐心等待。通过库表级时间点恢复备份,将不会导致实例数据被覆盖,您可以根据需要恢复库表。 RDS for PostgreSQL支持恢复单个实例的库表数据。 使用限制 执行表级恢复时,请谨慎,避免因操作不当导致实例或业务异常。 为避免恢复失败和对原数据产生影响,表级恢复会去除外键约束,继承关系,分区关系,触发器,重命名索引及相关联序列,库级恢复则不恢复订阅。 表级恢复时,单个实例一次最多恢复20000张表。当需要恢复的表数量超过20000张时,建议您使用恢复到指定时间点功能进行恢复,具体请参考全量数据恢复:恢复到指定时间点。 库级恢复时,单个实例一次最多恢复2000个库,单个实例一次最多恢复20000张表。如果不满足条件,建议您使用恢复到指定时间点功能进行恢复,具体请参考全量数据恢复:恢复到指定时间点。 RDS for PostgreSQL库表级时间点恢复期间不允许主备实例和只读实例做规格变更,重启,删除等操作。 进行库表级时间点恢复时,要恢复的库、表信息是在所选时间点前最新一次全量备份中读取的。由于所选时间点可以是恢复时间区间内的任意时间点,所以库表级时间点恢复支持恢复到存在指定库、表信息的最早的一次全量备份时间点。 如果恢复时间点表不存在,则恢复流程依旧会完成,但是不会产生对应的恢复数据。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据恢复
        恢复到云上PostgreSQL数据库
        库表数据恢复:恢复到指定时间点
      • 排查Redis实例带宽使用率高的问题
        本节主要介绍排查Redis实例带宽使用率高的问题 概述 Redis实例作为更靠近应用服务的数据层,通常会执行较多的数据存取并消耗网络带宽。不同的实例规格对应的最大带宽有所不同,当超过该规格的最大带宽时,将对应用服务的数据访问性能造成影响。本节讲述如何排查Redis实例带宽使用率高的问题。 操作步骤 步骤 1 查询带宽使用率。 查询实例在指定时段的带宽使用率。具体操作请参见查看监控指标。 通常来说,“网络瞬时输入流量”和“网络瞬时输出流量”快速上升,并持续大于实例最大带宽的80%时,需引起注意,可能流量不足。 需关注的监控指标为带宽使用率如下图。带宽使用率的计算公式:带宽使用率(网络瞬时输入流量+网络瞬时输出流量)/(2最大带宽限制) 100%。 带宽使用率示例 其中,带宽使用率超过100%,不一定导致限流,有没有被流控需要看流控次数指标。 带宽使用率没有超过100%,也有可能有限流,因为带宽使用率是上报周期实时值,一个上报周期检查一次。流控检查是秒级的,有可能存在上报周期间隔期间,流量有秒级冲高,然后回落,待上报带宽使用率指标时已恢复正常。 步骤 2 优化带宽使用率。 1. 当业务的访问量与预期带宽消耗不匹配,例如带宽使用率的增长趋势和QPS的增长趋势明显不一致(可结合网络瞬时输入流量和网络瞬时输出流量,分析业务是读业务和还是写业务导致的流量上涨)。对于单个节点带宽使用率上涨,您可以通过缓存分析功能,发现实例中存在的大Key,具体操作请参见缓存分析。对大Key(通常大于10 KB)进行优化,例如将大Key拆分、减少对大Key的访问、删除不必要的大Key等。 2. 经过上述步骤优化后流量使用率依旧较高,可评估升级至更大内存的规格,以承载更大的网络流量。具体操作请参见变更实例规格。 说明 在正式升级实例的规格前,您可以先创建一个实例,测试要升级到的目标规格是否能够满足业务的负载需求,测试完成后可将其释放。释放实例请参考
        来自:
        帮助文档
        分布式缓存服务Redis版
        故障排除
        排查Redis实例带宽使用率高的问题
      • 扩容缩容与实例升级
        Redis实例变更失败的原因 检查是否有其他任务在执行。 实例变更过程中,同时有其他任务在执行。例如实例正在重启的同时,执行删除或扩容操作,或者实例正在扩容的时候,执行删除操作。 遇到实例变更操作失败,可以稍后尝试,如果仍然存在问题,请技术支持。 执行实例变更规格,建议在业务低峰期操作。业务高峰期(如实例在内存利用率、CPU利用率达到90%以上或写入流量过大)变更规格可能会失败,若变更失败,请在业务低峰期再次尝试变更。 如果是主备变更为Proxy集群,请确认主备实例DB0以外的DB是否有数据,如果非DB0外的其他DB上有数据(如DB1有数据),会出现变更失败。 数据必须是只存储在DB0上的主备实例才支持变更为Proxy集群。 使用Lettuce连接Cluster集群实例时,规格变更的异常处理 问题现象 使用lettuce连接Cluster集群实例,实例执行规格变更后,分片数有变化时,部分槽位(Slot)会迁移到新分片上,当客户端连接到新分片时会出现以下异常问题: 图 异常现象 详情可参考Lettuce社区:Connection to X not allowed. This connection point is not known in the cluster view. 问题分析 Cluster集群规格变更原理: 客户端根据RESP2协议的内容,启动后从Cluster集群获取节点拓扑信息(Cluster Nodes),并将其拓扑关系维护在客户端的内存数据结构中。 对于数据访问,客户端会根据Key值按照CRC16算法进行Hash计算Slot信息,根据内存中保存的节点拓扑关系和Slot的对应信息进行请求自动路由。 在扩容/缩容过程中,当实例分片数发生变化时,存在节点拓扑关系和Slot对应信息的变化,需要客户端进行拓扑关系的自动更新,否则可能造成请求路由失败或者路由位置错误等,造成客户端访问报错。 例如,3分片Cluster集群实例扩容为6分片Cluster集群实例时,节点拓扑关系和Slot对应信息变化如下图所示: Cluster集群实例扩容前 图 Cluster集群实例扩容后
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        扩容缩容与实例升级
      • 告警通知或误告警
        告警规则在何种情况下会触发“数据不足”? 当某一个告警规则监控的告警指标连续三个小时内未上报监控数据,此时告警规则的状态将变为“数据不足”。 特殊情况下,如果指标的上报周期大于三个小时,连续三个周期均未上报监控数据,则告警规则状态变为“数据不足”。 如何查看数据盘的磁盘使用率和创建告警通知? 磁盘使用率指标需要您安装主机监控Agent。安装Agent后,如果需要创建磁盘使用率的告警通知,请在创建主机监控的告警通知时,告警策略选择“(Agent)磁盘使用率(推荐)”,并选择磁盘挂载点。 安装Agent后,您可以在管理控制台查看数据盘的磁盘使用率。查看方法如下:在操作系统监控指标查看页面,选择“磁盘”页签,然后选择右侧的挂载点。 如何修改告警通知中云帐号联系人和主题订阅者的电话、邮箱等信息? 云监控的告警通知对象可以是“云帐号联系人”也可以是主题的订阅者。 下面为您介绍当通知对象分别是“云帐号联系人”或主题的订阅者时的电话和邮箱修改方法。 云帐号联系人为告警通知对象时 当您设置的告警通知联系人为“云帐号联系人”时,表示告警发送对象是您注册时的手机号码和邮箱。 可在“帐号中心”查询和更新您的手机号码和邮箱。更新相关信息后,告警通知系统会自动发送到新的手机号码和新邮箱中。查询和更新电话号码的步骤如下: 1. 登录管理控制台。 2. 在管理控制台右上角的用户名下单击“基本信息”。 进入“帐号中心”。 3. 单击“手机号码”或“注册邮箱”后的“修改”。 4. 根据页面提示完成手机号码或邮箱的修改。 如何将告警通知发送给子帐号? 如您想要将告警通知发给子帐号,可以通过5创建主题并添加订阅(在订阅信息中配置您的手机号码或邮箱),然后在创建告警规则时选择告警通知对象为您创建的主题。 为什么在带宽的监控数据中没有超限记录,但还是收到了带宽超限的告警通知短信? 出现此种情况,可能是您的事件监控的告警机制配置的“立即触发”,而带宽的监控数据聚合方式默认为5分钟内的平均值。因此您收到了事件告警的短信通知,但监控数据是正常的。
        来自:
        帮助文档
        云监控服务
        常见问题
        告警通知或误告警
      • 实例概述
        本章节主要介绍物理机实例概述。 实例概述 物理机实例即您创建的一台物理机服务器。不同实例类型提供不同的计算能力、存储空间、网络性能,您可以基于业务需求选择不同类型的实例。当天翼云向您交付一个实例时,您将获得这台服务器完整的控制权限,包括开机、关机、带内管理等。 实例类型 目前天翼云提供的物理机CPU,均为x86架构,根据业务需求选购不同配置的物理机服务器。 x86 V4实例(CPU采用Intel Broadwell架构) x86 V5实例(CPU采用Intel Skylake架构) x86 V6实例(CPU采用Intel Cascade Lake架构) 其他说明 基于本地盘的物理机服务器,系统盘默认RAID 1,数据盘默认直通盘。如果需要更改数据盘RAID配置,可以联系管理员变更。系统盘RAID不支持变配。 常用的RAID级别 RAID 0 RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O要求高,但数据安全性要求低的场合。 图1 RAID 0数据存储原理 RAID 1 RAID 1又称镜像(Mirror或Mirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半以下,因此常用于对容错要求较高的应用场合,如财政、金融等领域。 图2 RAID 1数据存储原理 RAID 5 RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。 图3 RAID 5数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 6 在RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块磁盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的磁盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。 图4 RAID 6数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。 RAID 10 RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 0+RAID 1的组合形式,第一级是RAID 1,第二级是RAID 0。RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。 图5 RAID 10数据存储原理 RAID 50 RAID 50被称为镜像阵列条带,即RAID 5 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图6 RAID 50数据存储原理 其中,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。 RAID 60 RAID 60同RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个磁盘上。 图7 RAID 60数据存储原理 其中,PA为A0、A1和A2的第一个校验信息块,QA为第二个校验信息块;PB为B0、B1和B2的第一个校验信息块,QB为第二个校验信息块,以此类推。
        来自:
        帮助文档
        物理机 DPS
        产品简介
        实例规格说明
        实例概述
      • 云审计服务支持的关键操作
        操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 审计日志转储:支持将审计日志周期性的转储至对象存储服务(ZOS)下的ZOS桶。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。若您使用云审计提供的转储功能,需要开通对象存储服务并支付产生的费用,该费用以对象存储产品的计费为准,参考计费说明对象存储。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 事件名称 从主机组移除主机(批量) 给日志资源创建或更新标签 为指定的资源解绑标签 为指定日志单元创建索引 编辑ZOS对象存储导入任务 删除导入任务 删除采集规则 定时SQL任务关闭 创建定时SQL任务 启用告警规则 删除仪表盘订阅 更新加工任务 重命名项目 创建过滤器 重命名仪表盘 日志单元更新 创建采集规则 创建模拟接入任务 更新告警规则 更新消费组 启动加工任务 日志告警规则另存为模板 停止kafka投递任务 仪表盘订阅启用 为日志资源绑定标签 修改采集规则 定时SQL运行实例 重试 专属日志单元取消关联日志服务 删除重建索引任务 投递任务停止 创建主机组 创建分布式消费服务Kafka导入任务 停用采集规则 批量停止告警规则 删除主机组 创建关注 启动模拟接入任务 删除终端节点 更新日志单元索引 将日志采集规则应用于目标主机组 更新某个指定日志项目的描述信息 删除过滤器 更新采集规则 更新Processors 新增消费组关联日志单元 加工任务启动 自动生成行首正则 创建或者修改数据加工任务 删除数据导入任务 给日志资源创建或更新标签 删除检索历史记录 删除模拟接入任务 批量启动告警规则 更新仪表盘描述 匹配的容器信息预览 停用告警规则 停用采集规则 批量删除接口 导入数据预览 修改仪表盘订阅 重命名快速查询 批量停用接口 删除仪表盘订阅 升级agent 删除加工任务 取消关注 主机组解绑采集规则 删除下载任务 创建ZOS对象存储导入任务 删除消费组关联日志单元 删除仪表盘 修改过滤器 更新日志单元配置 删除采集规则 删除日志单元 删除主机组 停用重建索引任务 更新定时SQL任务 创建产品委托授权 从指定主机组中移除主机 创建项目 卸载agent 修改项目标签 创建下载任务 重新生成下载任务 加工任务重新执行 删除目标日志项目 编辑主机组基础信息(名称、备注) 删除消费组关联日志单元 创建一个快速查询 创建仪表盘 加工任务删除 删除消费组 更新主机组描述 更新主机组 停止加工任务 创建主机组 创建或者更新数据投递任务 创建仪表盘订阅 创建vpce 新增消费组关联日志单元 重命名告警规则 创建快速查询 更新主机组 全量容器信息预览 加工任务重新执行 添加主机到主机组 删除kafka投递任务 批量删除告警规则 删除项目 删除日志单元 删除告警规则 创建/更新日志单元索引字段 修改仪表盘 删除主机组 更新告警规则 更新日志单元描述 批量启动接口 停止模拟接入任务 创建日志项目 添加主机到指定主机组 修改仪表盘 编辑日志单元 创建对象存储投递任务 编辑分布式消费服务Kafka导入任务 创建仪表盘 创建下载任务 创建告警规则 更新模拟接入任务 更新日志告警规则模板 创建专属日志单元 删除定时SQL任务 更新检索条件 启动kafka投递任务 删除日志告警规则模板 创建日志单元 删除快速查询 安装插件 更新消费组 新增主机到主机组 创建采集规则 更新对象存储投递任务 编辑项目 启用采集规则 从目标主机组中移除关联的日志采集规则 采集配置解除关联主机组 采集规则启停 更新日志单元存储时长 更新数据导入任务 投递任务启动 停止对象存储投递任务 更新一个快速查询 删除一个快速查询 更新触发条件 删除仪表盘模板 定时SQL任务启动 创建产品委托授权 划词生成正则 更新检查频率 重命名日志单元 创建加工任务 创建消费组 删除对象存储投递任务 启动对象存储投递任务 开启或者关闭服务日志 删除仪表盘 更新项目描述 创建Ingress仪表盘 更新通知策略 创建消费组 创建日志投递Kafka任务 更新仪表盘订阅名称 新建数据导入任务 创建重建索引任务 投递任务删除 创建告警规则 启用采集规则 删除下载任务 移除主机组中主机 新增仪表盘模板 主机组绑定采集规则 创建日志单元 创建主机组
        来自:
        帮助文档
        云日志服务
        用户指南
        云审计服务支持的关键操作
      • DubboConsumer监控
        本文主要介绍 DubboConsumer监控 介绍APM采集的DubboConsumer监控指标的类别、名称、含义等信息。 表DubboConsumer监控指标说明 指标类别 指标 指标名称 指标说明 单位 数据类型 默认聚合方式 ::::::: 方法调用(invocation,方法调用指标集。) serviceUniqueName serviceUniqueName 服务唯一标识(group+interface+version) ENUM LAST 方法调用(invocation,方法调用指标集。) method method 方法 ENUM LAST 方法调用(invocation,方法调用指标集。) lastError lastError 错误信息 STRING LAST 方法调用(invocation,方法调用指标集。) slowTraceId slowTraceId 慢调用traceId STRING LAST 方法调用(invocation,方法调用指标集。) errorTraceId errorTraceId 错误traceId STRING LAST 方法调用(invocation,方法调用指标集。) range1 range1 响应时间在010ms范围请求数 INT SUM 方法调用(invocation,方法调用指标集。) range2 range2 响应时间在10100ms范围请求数 INT SUM 方法调用(invocation,方法调用指标集。) range3 range3 响应时间在100500ms范围请求数 INT SUM 方法调用(invocation,方法调用指标集。) range4 range4 响应时间在5001000ms范围请求数 INT SUM 方法调用(invocation,方法调用指标集。) range5 range5 响应时间在110s范围请求数 INT SUM 方法调用(invocation,方法调用指标集。) range6 range6 响应时间在10s以上请求数 INT SUM 方法调用(invocation,方法调用指标集。) invokeCount invokeCount 调用次数 INT SUM 方法调用(invocation,方法调用指标集。) totalTime 总响应时间 总响应时间 ms INT SUM 方法调用(invocation,方法调用指标集。) maxTime 最大响应时间 最大响应时间 ms INT MAX 方法调用(invocation,方法调用指标集。) errorCount errorCount 错误数 INT SUM 方法调用(invocation,方法调用指标集。) runningCount runningCount 当前正在执行数量 INT SUM 方法调用(invocation,方法调用指标集。) concurrentMax concurrentMax 最大并发数 INT MAX 方法调用(invocation,方法调用指标集。) source source 调用源 ENUM LAST 主机汇总(cluster,按照主机汇总指标集。) cluster cluster 主机 ENUM LAST 主机汇总(cluster,按照主机汇总指标集。) range1 range1 响应时间在010ms范围请求数 INT SUM 主机汇总(cluster,按照主机汇总指标集。) range2 range2 响应时间在10100ms范围请求数 INT SUM 主机汇总(cluster,按照主机汇总指标集。) range3 range3 响应时间在100500ms范围请求数 INT SUM 主机汇总(cluster,按照主机汇总指标集。) range4 range4 响应时间在5001000ms范围请求数 INT SUM 主机汇总(cluster,按照主机汇总指标集。) range5 range5 响应时间在110s范围请求数 INT SUM 主机汇总(cluster,按照主机汇总指标集。) range6 range6 响应时间在10s以上请求数 INT SUM 主机汇总(cluster,按照主机汇总指标集。) invokeCount invokeCount 调用次数 INT SUM 主机汇总(cluster,按照主机汇总指标集。) totalTime 总响应时间 总响应时间 ms INT SUM 主机汇总(cluster,按照主机汇总指标集。) maxTime 最大响应时间 最大响应时间 ms INT MAX 主机汇总(cluster,按照主机汇总指标集。) errorCount errorCount 错误数 INT SUM 主机汇总(cluster,按照主机汇总指标集。) runningCount runningCount 当前正在执行数量 INT SUM 主机汇总(cluster,按照主机汇总指标集。) concurrentMax concurrentMax 最大并发数 INT MAX 返回码汇总(resultCode,返回码汇总指标集。) code code 返回码 ENUM LAST 返回码汇总(resultCode,返回码汇总指标集。) count count 调用次数 INT SUM 返回码汇总(resultCode,返回码汇总指标集。) lastMethod lastMethod 最近异常类型 STRING LAST 汇总(total,汇总指标集。) lastError lastError 错误信息 STRING LAST 汇总(total,汇总指标集。) slowTraceId slowTraceId 慢调用traceId STRING LAST 汇总(total,汇总指标集。) errorTraceId errorTraceId 错误traceId STRING LAST 汇总(total,汇总指标集。) range1 range1 响应时间在010ms范围请求数 INT SUM 汇总(total,汇总指标集。) range2 range2 响应时间在10100ms范围请求数 INT SUM 汇总(total,汇总指标集。) range3 range3 响应时间在100500ms范围请求数 INT SUM 汇总(total,汇总指标集。) range4 range4 响应时间在5001000ms范围请求数 INT SUM 汇总(total,汇总指标集。) range5 range5 响应时间在110s范围请求数 INT SUM 汇总(total,汇总指标集。) range6 range6 响应时间在10s以上请求数 INT SUM 汇总(total,汇总指标集。) invokeCount invokeCount 调用次数 INT SUM 汇总(total,汇总指标集。) totalTime 总响应时间 总响应时间 ms INT SUM 汇总(total,汇总指标集。) maxTime 最大响应时间 最大响应时间 ms INT MAX 汇总(total,汇总指标集。) errorCount errorCount 错误数 INT SUM 汇总(total,汇总指标集。) runningCount runningCount 当前正在执行数量 INT SUM 汇总(total,汇总指标集。) concurrentMax concurrentMax 最大并发数 INT MAX 线程池(threadPool,线程池指标集。) poolId poolId 线程池唯一标示 ENUM LAST 线程池(threadPool,线程池指标集。) poolType poolType dubbo自定义线程池类型(fixed、cached、limited等) STRING LAST 线程池(threadPool,线程池指标集。) activeCount activeCount 当前激活个数 INT SUM 线程池(threadPool,线程池指标集。) corePoolSize corePoolSize 核心线程数 INT SUM 线程池(threadPool,线程池指标集。) maximumPoolSize maximumPoolSize 最大核心线程数 INT SUM 线程池(threadPool,线程池指标集。) poolSize poolSize 线程池大小 INT SUM 线程池(threadPool,线程池指标集。) queueSize queueSize 等待队列大小 INT SUM 线程池(threadPool,线程池指标集。) taskCount taskCount 任务数 INT SUM 客户端版本(version ,客户端版本指标集。) version version 版本 STRING LAST
        来自:
        帮助文档
        应用性能管理
        产品介绍
        指标总览
        外部调用
        DubboConsumer监控
      • 编辑参数模板
        本章节会介绍如何编辑数据库参数模板。 为确保关系型数据库服务发挥出最优性能,用户可根据业务需求对用户创建的参数模板里边的参数进行调整。 操作场景 您可以修改用户创建的数据库参数模板中的参数值,但不能更改默认数据库参数模板中的参数值。对用户创建的参数模板参数模板中的参数所做的更改,将应用于与此数据库参数模板关联的所有数据库实例。 如果您更改一个参数值,则所做更改的应用时间将由该参数的类型决定。 关系型数据库服务的管理控制台显示与数据库实例关联的数据库参数模板的状态。例如,如果数据库实例未使用与其关联的数据库参数模板所做的最新更改,则关系型数据库服务的管理控制台将显示状态为“等待重启”。您将需要手动重启数据库实例,以使最新的参数更改对该数据库实例生效。 说明 系统提供的默认参数模板不允许修改,只可单击参数模板名进行查看。当用户参数设置不合理导致数据库无法启动时,可参考默认参数模板重新配置。 批量修改参数 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“参数模板管理”页面,选择需要编辑的自定义参数模板,单击参数模板名称。 步骤 5 根据需要修改相关参数。 相关参数说明如下: 各参数的详细说明请参见PostgreSQL官网。 参数“logstatement”配置为“ddl”、“mod”或“all”,会记录创建及删除数据库用户的操作,包含数据库用户的密码等敏感信息,同时也会影响数据库的性能,请确认后进行配置。 参数“searchpath”值,必需配置为以逗号分隔的模式名序列,并需确保该模式名存在,否则会影响数据库的使用。 开启参数“loghostname”、“logduration”、“logconnections”和“logdisconnections”会影响数据库的性能,请确认后进行配置。 开启参数“logduration”,可能会在日志中记录带有敏感信息的SQL语句,建议关闭该配置。 参数“logmindurationstatement”配置为0时,会在日志中记录带有敏感信息的SQL语句,建议关闭该配置(默认值1,表示关闭)。 可进行的操作如下: 说明 参数模板修改后,某些参数会立即应用到当前使用实例中,请谨慎操作。 单击“保存”,在弹出框中单击“确定”,保存修改。 单击“取消”,放弃本次设置。 单击“预览”,可对比参数修改前和修改后的值。 说明 有关参数模板状态,请参见参数模板状态。 对于某些运行参数修改,您需在实例列表中,选择对应的实例,单击实例名称,在“基本信息”页签中查看参数模板状态,如果显示“等待重启”,则需重启关联的实例使之生效。 修改主实例的某些参数(如果是主备实例,备实例的参数也会被同步修改),需重启主实例使之生效。 修改只读实例的某些参数,需要重启该只读实例使之生效。 修改当前实例的参数模板 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择指定的实例,单击实例名称。 步骤 5 在左侧导航栏中选择“参数修改”,在“参数”页签修改相应参数。 参数相关说明如下: 各参数的详细说明请参见PostgreSQL官网。 参数“logstatement”配置为“ddl”、“mod”或“all”,会记录创建及删除数据库用户的操作,包含数据库用户的密码等敏感信息,同时也会影响数据库的性能,请确认后进行配置。 参数“searchpath”值,必需配置为以逗号分隔的模式名序列,并需确保该模式名存在,否则会影响数据库的使用。 开启参数“loghostname”、“logduration”、“logconnections”和“logdisconnections”会影响数据库的性能,请确认后进行配置。 开启参数“logduration”,可能会在日志中记录带有敏感信息的SQL语句,建议关闭该配置。 参数“logmindurationstatement”配置为0时,会在日志中记录带有敏感信息的SQL语句,建议关闭该配置(默认值1,表示关闭)。 可进行的操作如下: 注意 参数模板修改后,会立即应用到当前实例。 有关参数模板状态,请参见参数模板状态。 部分参数修改后,您需在实例列表中查看状态,如果显示参数模板变更,等待重启,则需重启实例使之生效。 修改主实例的某些参数(如果是主备实例,备实例的参数也会被同步修改),需重启主实例使之生效。 修改只读实例的某些参数,需要重启该只读实例使之生效。 单击“保存”,在弹出框中单击“确定”,保存修改。 单击“取消”,放弃本次设置。 单击“预览”,可对比参数修改前和修改后的值。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        参数模板管理
        编辑参数模板
      • 场景二:创建OBS自建桶迁移任务
        本节主要介绍场景二:创建OBS自建桶迁移任务 介绍OBS自建桶场景下的备份迁移。您可以将本地数据库备份文件上传到OBS桶,然后通过下载OBS桶里的备份文件,对已有数据库实例进行备份数据迁移。 本小节主要介绍通过数据库复制控制台创建备份迁移任务的配置流程。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足备份移支持的数据库类型,参见备份迁移。 满足备份迁移的限制条件,参见使用须知。 操作步骤 以下操作流程仅以Microsoft SQL Server引擎为示例,详细介绍数据库备份迁移任务的配置流程,其他存储引擎的配置流程类似。 1、在“备份迁移管理”页面,单击“创建迁移任务”。 2、在“选定备份”页面输入任务名称和描述,填选备份文件信息,单击“下一步”。 图 任务信息 表 任务信息 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 备份文件信息 表 备份文件信息 参数 描述 数据库类型 备份文件的数据库类型,选择Microsoft SQL Server。 备份文件来源 选择OBS自建桶。 桶名 选择备份文件所在的桶名,以及该桶目录下的备份文件。 说明 Microsoft SQL Server的备份文件需要选择OBS桶目录下“.bak”格式的文件名,且可以同时选择多个备份文件。 不支持将一个库分割成不同文件上传。 该桶的桶名、备份文件名或者路径中不能包含中文。 3、在“选定目标”页面,根据所选数据库类型,配置相应的数据库信息,单击“下一步”。 图 Microsoft SQL Server数据库信息 表 Microsoft SQL Server数据库信息 参数 描述 目标RDS实例名称 选择目标RDS实例。若没有合适的目标RDS数据库实例,请先创建所需的目标数据库实例。 待恢复备份类型 请根据业务需求,选择全量备份或增量备份类型。 全量备份:指备份文件是完整备份类型的备份。 增量备份:指备份文件是日志类型的备份。 说明 进行增量备份恢复前,需要先执行一次全量备份恢复的操作。 一次性数据库迁移,则需要停止业务,上传全量备份进行恢复。 如果需要数据库迁移中业务不中断,则需要使用全量备份和多次增量日志备份的恢复来实现业务中断最小化。 最后一个备份 一次典型的增量恢复过程,会涉及多次恢复增量备份。每个增量备份恢复均会使目标数据库保持还原中状态,此时数据库不可读写,直至最后一个增量备份恢复完成后,数据库才能变成可用状态。此后数据库将无法继续进行增量恢复,所以确定为最后一个备份的场景有: 一次性全量迁移,后续将不再进行增量恢复,选择“是”。 增量恢复流程中,最后割接阶段的最后一个增量备份选择“是”。 覆盖还原 覆盖还原是指目标端数据库实例已经存在同名的数据库,备份还原中是否要覆盖已存在的数据库。您可以根据业务需求,选择是否进行覆盖还原。 说明: 若选择此项,目标数据库实例中与待还原数据库同名的数据库将会被覆盖,请谨慎操作。 执行预校验 备份迁移任务是否执行预校验,默认为是。 是:为保证迁移成功,提前识别潜在问题,在恢复前对备份文件的合法性、完整性、连续性、版本兼容性等进行校验。 否:不执行预校验,迁移速度更快,但需要用户判断备份文件的合法性、完整性、连续性、版本兼容性等问题。 指定需要恢复的数据库 您可以选择将全部数据库或部分数据库进行恢复,默认恢复全部数据库。 全部数据库:恢复备份文件中所有的数据库,不需要填写待还原的数据库名。 部分数据库:恢复备份文件中的部分数据库,需要填写待还原的数据库名。全量备份与增量备份需要保证指定恢复的数据库始终一致。 重置数据库名 当选择的指定恢复数据库类型为“全部数据库”时,您可以选择重置数据库名。该功能将忽略备份文件中原有的数据库名,通过DRS将其恢复为指定的新数据库名。 使用条件: 备份文件中只有一个数据库。 备份文件是全量备份类型(待恢复备份类型选择:全量备份),且是一次性恢复(最后一个备份选择:是)。 说明: 仅支持“待恢复备份类型”为“全量备份”,且“指定需要恢复的数据库类型”为“全部数据库”时重置数据库名。 待还原数据库名称 当选择的指定恢复数据库类型为“部分数据库”时,需要输入待还原数据库名称。 待还原数据库名称必须与备份文件中的数据库名称一致,区分大小写,长度为1~256个字节,可以包含中文、字母,数字、中划线和下划线,不能包含其他特殊字符。 此处,数据库复制服务还提供待还原数据库别名设置的功能,具体使用场景如下: 如果您选择的是全量备份下的部分数据库恢复,那么可以在填写待还原数据库名称时,根据需求为待还原数据库进行别名设置,该别名也将存储于目标端数据库。 如果是增量备份下部分数据库恢复,则不支持待还原数据库别名设置功能。 说明: 待还原数据库支持重命名,最大配额为100个。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 备份迁移
        场景二:创建OBS自建桶迁移任务
      • ClickHouse
        介绍APM监控详情里数据库监控中的ClickHouse相关指标的名称、含义等信息。 ClickHouse指标说明表 指标类别 指标 指标说明 数据类型 异常(Exception ,SQL调用发送的异常统计信息) exceptionstacktrace 异常产生的堆栈信息 String 异常(Exception ,SQL调用发送的异常统计信息) exceptiontype 异常类型 String 异常(Exception ,SQL调用发送的异常统计信息) exceptioncount 错误数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) sql SQL String SQL监控(SQL,以SQL为维度统计SQL调用详情) failedCount 错误数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) count 请求数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) totalCost 总耗时 Long SQL监控(SQL,以SQL为维度统计SQL调用详情) ms0To10Count 010ms次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) ms10To100Count 10100ms次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) ms100To500Count 100500ms次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) ms500To1000Count 5001000ms次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) ms1000To10000Count 110s次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) msMorethan10000Count 10s以上次数 Int 汇总(Total,SQL调用的汇总数据统计) count 请求数 Int 汇总(Total,SQL调用的汇总数据统计) totalCost 总耗时 Long 汇总(Total,SQL调用的汇总数据统计) failedCount 错误数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) name 数据库名称 String 数据库连接(Connection,以数据库为维度统计SQL调用详情) failedCount 错误数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) count 请求数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) maxCost 最大耗时 Long 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms0To10Count 010ms次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms10To100Count 10100ms次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms100To500Count 100500ms次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms500To1000Count 5001000ms次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms1000To10000Count 110s次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) msMorethan10000Count 10s以上次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) totalCost 总耗时 Long
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        数据库监控
        ClickHouse
      • MySQL
        介绍APM监控详情里数据库监控中的Mysql相关指标的名称、含义等信息。 MySQL指标说明表 指标类别 指标 指标说明 数据类型 异常(Exception ,SQL调用发送的异常统计信息) exceptionstacktrace 异常产生的堆栈信息 String 异常(Exception ,SQL调用发送的异常统计信息) exceptiontype 异常类型 String 异常(Exception ,SQL调用发送的异常统计信息) exceptioncount 错误数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) sql SQL String SQL监控(SQL,以SQL为维度统计SQL调用详情) failedCount 错误数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) count 请求数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) totalCost 总耗时 Long SQL监控(SQL,以SQL为维度统计SQL调用详情) ms0To10Count 010ms次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) ms10To100Count 10100ms次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) ms100To500Count 100500ms次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) ms500To1000Count 5001000ms次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) ms1000To10000Count 110s次数 Int SQL监控(SQL,以SQL为维度统计SQL调用详情) msMorethan10000Count 10s以上次数 Int 汇总(Total,SQL调用的汇总数据统计) count 请求数 Int 汇总(Total,SQL调用的汇总数据统计) totalCost 总耗时 Long 汇总(Total,SQL调用的汇总数据统计) failedCount 错误数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) name 数据库名称 String 数据库连接(Connection,以数据库为维度统计SQL调用详情) failedCount 错误数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) count 请求数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) maxCost 最大耗时 Long 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms0To10Count 010ms次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms10To100Count 10100ms次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms100To500Count 100500ms次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms500To1000Count 5001000ms次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) ms1000To10000Count 110s次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) msMorethan10000Count 10s以上次数 Int 数据库连接(Connection,以数据库为维度统计SQL调用详情) totalCost 总耗时 Long
        来自:
        帮助文档
        应用性能监控 APM
        产品介绍
        指标总览
        数据库监控
        MySQL
      • 登录系统故障
        此小节介绍登录系统故障。 登录云堡垒机系统异常怎么办? 问题现象 IP地址无法连接,网页打不开,不能通过互联网页面正常登录。 登录系统后界面异常无法显示。 登录系统提示授权未生效。 AD域认证的用户登录失败。 堡垒机不能正常登录,公网地址也不能访问。 可能原因 原因一:系统磁盘空间满了,磁盘空间使用率过高。 原因二:系统软件版本未更新,存在磁盘空间被占用,未被释放可能。 原因三:用户登录使用浏览器或浏览器版本,与系统不兼容。 原因四:实例配置安全组不合理。 原因五:实例配置VPC内,网络ACL规则配置不合理,或登录IP被网络ACL限制。 原因六:配置AD域认证时,未禁用SSL加密认证。 原因七:堡垒机版本较低。 解决办法 原因一: 定期“手动删除”指定日期前的日志、视频等历史数据。设置磁盘空间满时日志“自动删除”,保证磁盘有足够空间。 对云堡垒机实例进行规格变更,满足大容量磁盘需求。 建议配置系统性能的磁盘空间使用率告警通知,当磁盘空间使用率超过设定阈值时,提示系统消息告警。 原因二: 在云堡垒机管理控制台“重启”云堡垒机实例,检查故障是否解决。若不能解决,需“升级”云堡垒机到最新版本,并根据实际需求进行规格变更。 原因三: 更换浏览器或升级浏览器版本,Web登录推荐使用浏览器及版本。 原因四: 若因安全组配置不合理导致异常,请先排查安全组规则,并根据CBH建议安全组规则,配置安全组规则,再重新登录云堡垒机系统。 原因五: 若因网络ACL配置不合理导致异常,请先排查网络ACL规则,并参考CBH安全组规则放开出/入方向端口,再重新登录云堡垒机系统。 若因云堡垒机登录IP被网络ACL限制,请先排查网络ACL规则,并重新配置ACL规则,添加云堡垒机公网IP(即弹性IP)为允许。 说明 浏览器登录云堡垒机需放开入方向TCP协议22333端口,SSH客户端登录云堡垒机需放开入方向TCP协议2222端口。 原因六: 系统管理员admin登录云堡垒机系统,重新配置AD域认证,取消SSL加密认证。 检查用户登录IP地址和MAC地址是否被加入用户访问限制,请参见用户登录限制。 检查访问控制策略是否限制了用户IP地址,请参见访问控制限制。 如果通过上述排查,仍然无法登录云堡垒机系统,请单击管理控制台右上方的“工单”,填写工单反馈问题现象,联系技术支持。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        故障排除
        登录系统故障
      • 新增/测试/编辑/删除非天翼云数据库
        本文为您介绍新增/测试/编辑/删除非天翼云数据库的具体操作。 新增非天翼云数据库 使用条件 单次同步天翼云数据库实例上限为10个。 进行同步或新增数据库等相关资源同步操作前,需创建命名空间。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源管理”“数据库”,进入数据库列表页。 5. 点击列表上方标签页中“非天翼云数据库”栏,进入非天翼云数据库列表页。 6. 在列表上方下拉菜单中选择需要进行新增非天翼云数据库操作的命名空间。 7. 点击页面右上角“新增非天翼云数据库”按钮,弹出新增非天翼云数据库弹窗。 8. 填写新增非天翼云数据库相关信息,各配置项信息如下: 参数 是否必填 配置说明 数据库实例名 √ 填写数据库实例名,同命名空间下非天翼云数据库名称需唯一。 长度为263字符。 所属分区 √ 选择当前命名空间下数据库所属分区。 数据库类型 √ 选择数据库类型,可选MySQL/Redis/ PostgreSQL/MongoDB。 连接地址 √ 填写数据库实例配置的公网IP地址,默认回显当前公网IP,无公网IP不展示。 连接端口 √ 填写数据库实例配置的连接端口。所选数据库类型为MySQL时,默认为3306,所选数据库类型为Redis时,默认为6379,所选数据库类型为PostgreSQL时,默认为5432,所选数据库类型为MongoDB时,默认为27017。 端口范围为165535。 数据库名 √ 填写数据库实例配置的数据库名,Redis类型数据,不展示属性。 长度最多为63位。 用户名 √ 填写数据库实例配置的用户名,非Redis类型数据库,用户名为必填项,Redis类型数据库用户名为选填项。 长度最多为63位。 密码 √ 填写数据库实例密码。 长度最多为63位。 描述 × 填写描述。 长度为0100个字符。 连接状态 √ 调试当前数据库状态,点击“测试”按钮进行连接测试,测试状态可为未知、连接成功、连接失败、测试中。 9. 点击“确定”按钮,完成新增非天翼云数据库。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源管理
        同步数据库资源
        新增/测试/编辑/删除非天翼云数据库
      • 使用Python第三方库psycopg2连接集群
        本章节主要介绍如何使用Python第三方库psycopg2连接集群。 用户在创建好数据仓库集群后使用psycopg2第三方库连接到集群,则可以使用Python访问DWS ,并进行数据表的各类操作。 连接集群前的准备 DWS 集群已绑定弹性IP。 已获取DWS 集群的数据库管理员用户名和密码。 注意 由于MD5算法已经被证实存在碰撞可能,已严禁将之用于密码校验算法。当前DWS 采用默认安全设计,默认禁止MD5算法的密码校验,可能导致开源客户端无法正常连接的问题。建议先检查一下数据库参数passwordencryptiontype参数是否为1,如果取值不为1,需要修改,修改方法参见《用户指南》的“修改数据库参数”章节;然后修改一次准备使用的数据库用户的密码。 说明 当前DWS出于安全考虑,已经默认不再使用MD5存储密码摘要了,这将导致使用开源驱动或者客户端无法正常连接数据库。需要您调整一下密码策略后再创建一个新用户或者对老用户做一次密码修改,方可使用开源协议中的MD5认证算法。 数据库中是不会存储用户的密码原文,而是存储密码的HASH摘要,在密码校验时与客户端发来的密码摘要进行比对(中间会有加盐操作)。故当您改变了密码算法策略时,数据库也是无法还原您的密码,再生成新的HASH算法的摘要值的。必须您手动修改一次密码或者创建一个新用户,这时新的密码将会采用您设置的HASH算法进行摘要存储,用于下次连接认证。 已获取DWS 集群的公网访问地址,含IP地址和端口。具体请参见 获取集群连接地址。 已安装psycopg2第三方库。下载地址: 说明 CentOS、Redhat等操作系统中使用yum命令安装,命令为:yum install pythonpsycopg2。 psycopg2的使用依赖于PostgreSQL的libpq动态库(32位的psycopg2需要对应32位的libpq;64位的psycopg2对应64位的libpq),Linux中可以依赖yum命令解决。在Windows系统使用psycopg2需要先安装libpq,主要方式有两种: 安装PostgreSQL,并配置libpq、ssl、crypto动态库位置到环境变量PATH中。 安装psqlodbc,使用PostgreSQL ODBC驱动携带的libpq、ssl、crypto动态库。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        连接集群
        使用Python第三方库psycopg2连接集群
      • 添加UDP监听器
        本文帮助您快速熟悉负载均衡服务UDP监听器的添加。 添加UDP监听器 操作场景 UDP协议适用于对实时性要求较高,对可靠性要求相对不高的业务,如语音、视频、证券行情实时推送等。 前提条件 您已经创建了弹性负载均衡实例。具体操作参考创建弹性负载均衡器。 约束与限制 UDP监听器不支持分片包。 UDP监听器的前端端口当前不支持4789。若使用会造成监听器的流量不通。 UDP监听器支持的最大MTU为1500,请确保与ELB通信的网卡的MTU不大于1500(有些应用程序需要根据此MTU值同步修改其配置文件),否则数据包可能会因过大被丢弃。 操作步骤 步骤一:创建监听器 1. 登录弹性负载均衡控制台。 2. 在顶部右侧选择负载均衡所属区域,本文选择华东华东1。 3. 选择以下一种方法打开监听器配置向导。 在负载均衡器列表页面,找到目标实例,在操作列单击“监听器配置向导”。 在ip类型/监听器端口/健康检查/服务器组列下方单击“开始配置”。 在负载均衡器列表页面,找到目标实例,单击实例名称进入实例详情页,单击“添加监听器”。 4. 在协议&监听配置向导参考UDP监听器配置说明,完成相关配置,然后点击“下一步”。 UDP监听器配置说明 监听配置 说明 名称 设置监听器的名称,名称应为232位,英文开头,支持大小写英文和数字。 负载均衡器协议/端口 下拉列表选择UDP协议,输入监听端口 描述 可选,填写监听器描述 新建连接限速(CPS限速) 开启新建连接限速,可设置此监听服务的新建连接速度,减轻高访问量服务切换过程中后端服务器压力。输入范围10~500000,单位连接数/秒,缺省 1000。仅集群模式资源池支持设置新建连接限速,主备、集群模式资源池列表见产品简介>产品类型和规格>按资源池区分, 实际情况以控制台展现为准。 访问控制 选择是否开启访问控制。开启访问控制后,选择一种访问控制方式:黑名单、白名单。并设置访问策略组作为该监听器的白名单或黑名单。 白名单:允许特定IP访问负载均衡,仅转发来自所选访问策略组中设置的IP地址或地址段的请求,白名单适用于只允许特定IP访问的场景。 黑名单:禁止特定IP访问负载均衡,不转发来自所选访问策略组中的IP或地址段,黑名单适用于只限制特定IP访问的场景
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        监听器
        添加监听器
        添加UDP监听器
      • 在线卸载磁盘
        卸载须知 对于Windows弹性云主机,在线卸载云硬盘时,如果云硬盘处于非“脱机”状态,系统会强制卸载云硬盘。此时,弹性云主机后台可能会出现xenvbd告警提示,这种情况是正常的。 查看云硬盘状态的方法如下: 1. 选择“开始”,右键单击“计算机”,选择“管理”。弹出“计算机管理”窗口。 2. 在左侧导航树中,选择“存储 > 磁盘管理”。在右侧窗格中出现磁盘列表。 3. 查看磁盘列表中对应磁盘的“状态”栏。 1. 弹性云主机启动、关机、重启等操作过程中,不建议进行在线卸载云硬盘的操作。 2. 对于支持在线卸载云硬盘的操作系统以外其他操作系统的弹性云主机,不建议进行在线卸载云硬盘操作。 3. 对于Linux弹性云主机,在线卸载云硬盘后重新挂载云硬盘,可能会存在挂载前后盘符发生变化的情况。这是由于Linux系统的盘符分配机制造成的,属于正常情况。 4. 对于Linux弹性云主机,在线卸载云硬盘后重启弹性云主机,可能会存在重启前后盘符发生变化的情况。这是由于Linux系统的盘符分配机制造成的,属于正常情况。 支持在线卸载云硬盘的操作系统 支持在线卸载云硬盘的操作系统包括如下两个部分: 表支持在线卸载云硬盘的操作系统 操作系统 版本 :: CentOS 7.3 64bit CentOS 7.2 64bit CentOS 6.8 64bit CentOS 6.7 64bit Debian 8.6.0 64bit Debian 8.5.0 64bit Fedora 25 64bit Fedora 24 64bit SUSE SUSE Linux Enterprise Server 12 SP2 64bit SUSE SUSE Linux Enterprise Server 12 SP1 64bit SUSE SUSE Linux Enterprise Server 11 SP4 64bit SUSE SUSE Linux Enterprise Server 12 64bit OpenSUSE 42.2 64bit OpenSUSE 42.1 64bit Oracle Linux Server release 7.3 64bit Oracle Linux Server release 7.2 64bit Oracle Linux Server release 6.8 64bit Oracle Linux Server release 6.7 64bit Ubuntu Server 16.04 64bit Ubuntu Server 14.04 64bit Ubuntu Server 14.04.4 64bit Windows(不支持在线卸载SCSI类型的云硬盘) Windows Server 2008 R2 Enterprise 64bit Windows(不支持在线卸载SCSI类型的云硬盘) Windows Server 2012 R2 Standard 64bit Windows(不支持在线卸载SCSI类型的云硬盘) Windows Server 2016 R2 Standard 64bit Redhat Linux Enterprise 7.3 64bit Redhat Linux Enterprise 6.8 64bit 说明 对于其他操作系统的弹性云主机,请先关机然后再进行卸载磁盘操作,避免由于云硬盘设备与弹性云主机在线卸载不兼容而产生未知问题。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云硬盘
        在线卸载磁盘
      • 开启网卡IPv6功能
        本节介绍了开启网卡IPv6功能的操作场景、约束与限制、操作步骤。 操作场景 IPv4/IPv6双栈网络,支持为云主机提供两个版本的IP地址,包括IPv4地址和IPv6地址。 您可以在购买云主机时,选择支持IPv6的规格和已开启IPv6的主网卡,这样在云主机购买成功后,即可同时拥有IPv4地址和IPv6地址。 如果购买云主机时未开启IPv6,则云主机不支持在IPv4/IPv6的双栈网络模式下运行,云主机仅拥有IPv4地址。此时,您可以通过“开启IPv6”功能为已创建的云主机开启IPv6功能。 本文介绍如何为已创建的云主机开启IPv6功能。 约束与限制 请确保云主机的规格支持创建后开启IPv6功能。 当前v7及v7以上代系版本的规格支持创建后开启IPv6功能,例如C7n、M7n等。 您可以在云主机详情页的“弹性网卡”页签进行查看,如果右上角有“开启IPv6”,则表示支持创建后开启IPv6功能。 同一个网卡上,只能绑定一个IPv6地址。 操作步骤 步骤一:开启子网的IPv6网段(可选) 说明 云主机所属子网的IPv6功能开启后会自动分配IPv6网段,开启后不允许关闭。 若在创建子网时已勾选“开启IPv6”,则系统会自动为子网分配IPv6网段,无需执行下面步骤。 1. 登录控制台,进入弹性云主机列表页面。 2. 单击待开启IPv6的云主机的名称,进入云主机详情页。 3. 在“基本信息”页签的“网卡”区域,单击子网名称,进入子网详情页。 4. 在子网详情页的“基本信息”页签,单击“开启IPv6”。 5. 单击“确定”,完成子网IPv6网段的开启。 步骤二:开启云主机网卡的IPv6功能 1. 单击弹性云主机列表页。 2. 单击待开启IPv6的云主机的名称,进入云主机详情页。 3. 在“弹性网卡”页签,单击网卡折叠面板右上角的“开启IPv6”。 说明 仅当云主机规格支持创建后开启IPv6功能时,显示“开启IPv6/关闭IPv6”。 您可以参考“约束与限制”判断云主机规格是否支持创建后开启IPv6。 开启IPv6后,如果云主机未获取IPv6地址,建议您重启云主机后重新查看,或参考[动态获取IPv6地址](
        来自:
      • 配置HBlock访问地址
        如何在配置文件中配置HBlock的访问地址。 注意 若Kubernetes集群中部署了多套HBlock CSI,需在各自对应的安装路径下,配置HBlock访问地址。多套HBlock CSI可以对接同一HBlock。 HBlock CSI插件通过调用HBlock 的HTTP RESTful API进行存储卷的管理操作,例如创建卷、删除卷、扩容卷等。需要配置插件访问HBlock RESTful API的URL地址和端口。 说明 支持对接多个HBlock,包括:HBlock单机版本、HBlock集群版。 可以按照下列步骤配置HBlock访问地址。 1. 修改配置文件 修改deploy/csipluginconf/csiconfigMap.yaml配置文件,apiEndPointList配置为HBlock HTTP RESTful API地址和端口,storProvider配置为HBlock。 plaintext apiVersion: v1 kind: ConfigMap metadata: name: csipluginstor namespace: @DRIVERNAMESPACE@ data: config.json: [ { "clusterID": "cluster1", "apiEndPointList": [ " " " ], "storProvider": "HBlock", "csiApiTimeout": csiApiTimeout }, { "clusterID": "cluster2", "apiEndPointList": [ " ], "storProvider": "HBlock", "csiApiTimeout": csiApiTimeout }, { "clusterID": "cluster3", "apiEndPointList": [ " " " ], "storProvider": "HBlock", "csiApiTimeout": csiApiTimeout } ] 参数 参数 描述 是否必填 metadata.name ConfigMap资源的资源名称。 取值csipluginstor,不可更改。 是 metadata.namespace 绑定的Kubernetes命名空间。 取值: 如果已经安装 HBlock CSI,命名空间已确定,直接将该字段值修改为对应命名空间值。完成csiconfigMap.yaml文件的修改、保存并应用后,相关配置即可自动生效。 如果还未安装HBlock CSI,此字段取值保持为@DRIVERNAMESPACE@,执行deploy安装脚本时,即可自动替换为对应的命名空间。 是 clusterID 指定HBlock的标识,在csiconfigMap中唯一。 取值:字符串形式,长度范围是1~256,可以包含字母、数字、和短横线(),字母区分大小写。 是 storProvider HBlock产品名称。 取值:HBlock。 是 apiEndPointList HBlock的服务器IP地址及API端口号;或者已经关联了HBlock IP和API端口号的Kubernetes service域名。 是 csiApiTimeout 指定HBlock创建LUN的等待时间,在等待时间内LUN创建失败,会报错,然后重试。 取值:正整数,默认值为480,单位是秒。 注意 建议使用默认值。 否 示例:对接集群版HBlock和单机版HBlock。 plaintext apiVersion: v1 kind: ConfigMap metadata: name: csipluginstor namespace: default data: config.json: [ { "clusterID": "stor1", "apiEndPointList": [ " " " ], "storProvider": "HBlock", "csiApiTimeout": 480 }, { "clusterID": "stor2", "apiEndPointList": [ " ], "storProvider": "HBlock" } ] 2. 应用配置文件。 plaintext [root@server csipluginconf]
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        脚本方式使用指南
        配置插件
        配置HBlock访问地址
      • Redis客户端通过CCSE连接Redis
        业务场景 将 Redis 客户端部署到 CCSE 集群中,以通过 CCSE 连接到 Redis,并访问和操作 Redis 数据。 业务需求 1. 将 Redis 客户端容器化,以便更好地管理和部署。 2. 用 CCSE 提供的容器编排能力,实现高可用和负载均衡。 3. 确保 Redis 客户端能够安全地连接到 Redis,并正常地进行数据读写操作。 需求分析 1. 准备 Redis 客户端容器镜像,包含 Redis 客户端的依赖和配置。 2. 创建 CCSE 集群,配置网络和节点资源。 3. 部署 Redis 客户端容器到 CCSE 集群中。 4. 配置容器环境变量,指定连接 Redis 的相关信息。 5. 运行 Redis 客户端容器,并测试连接和数据操作功能。 实现方案 1. 准备 Redis 客户端容器镜像:创建一个 Dockerfile,并在其中指定 Redis 客户端的版本和依赖。例如: FROM redis:latest 配置客户端所需的其他依赖和配置 ... 2. 创建 CCSE 集群:在 CCSE 控制台创建一个集群,并配置网络和节点资源。根据实际需求选择合适的规格和数量。 3. 部署 Redis 客户端容器:使用 CCSE 控制台或命令行工具,在创建的 CCSE 集群中部署 Redis 客户端容器。指定前面准备的 Redis 客户端容器镜像。 4. 配置容器环境变量:在 Redis 客户端容器中配置连接 Redis 的环境变量,包括 Redis 服务器的地址、端口、密码等。例如,在容器启动时,设置以下环境变量 export REDISHOSTyourdcshost export REDISPORTyourdcsport export REDISPASSWORDyourdcspassword 5. 测试连接和数据操作:启动 Redis 客户端容器,并使用适当的客户端库和代码进行连接测试和数据操作。例如,使用 Java 语言的 Jedis 客户端库: import redis.clients.jedis.Jedis; public class RedisClientExample { public static void main(String[] args) { // 获取环境变量 String host System.getenv("REDISHOST"); int port Integer.parseInt(System.getenv("REDISPORT")); String password System.getenv("REDISPASSWORD"); // 创建 Jedis 客户端实例 Jedis jedis new Jedis(host, port); jedis.auth(password); // 进行数据操作 jedis.set("key", "value"); String value jedis.get("key"); System.out.println("Value: " + value); // 关闭连接 jedis.close(); } } 以上示例代码展示了如何使用 Java 的 Jedis 客户端库连接 Redis,并进行数据操作。您可以根据自己的需求和使用的编程语言选择适当的客户端库,并根据环境变量配置连接参数。 通过以上步骤,您可以将 Redis 客户端部署到 CCSE 集群容器中,并通过 CCSE 连接到Redis,实现对 Redis 数据的访问和操作。
        来自:
        帮助文档
        分布式缓存服务Redis版
        最佳实践
        Redis客户端通过CCSE连接Redis
      • 敏感数据
        本章节为您介绍敏感数据资产的相关内容 若数据库、表、字段的名称或类型发生改变,请及时对所属资产重新扫描,否则容易造成您配置的部分规则失效。 自主扫描 数据库安全网关自主扫描通过配置资产的数据库连接信息,自动获取数据库中的元数据(如库、表、字段等),并对这些数据进行分级和分类。 在数据库安全网关开始扫描前,您可以选择性的在“规则配置 > 敏感数据发现”页面自定义一些敏感数据的发现规则,这将丰富扫描出的敏感数据类型。 1.登录数据库安全网关。 2.在左侧菜单栏选择“资产 > 敏感数据 > 敏感数据扫描”进入敏感数据扫描任务页面。 3.单击“新增”按钮,在弹出的“新增敏感数据扫描任务”页面编辑相关信息后。 选择需要扫描的资产或是Oralce集群,配置登录信息,单击“获取扫描配置”按钮,系统将自动检索并显示“ Schema/数据库名”的列表,同时还会显示每个数据库所包含的数据表数量。 说明 新增敏感数据扫描任务时,若选择已配置默认数据源的资产(默认数据源在“新增资产”时配置),系统会自动识别并填充相应的用户名和密码。 4.勾选需要扫描的“Schema/数据库名”,系统将自动检索出数据库下的所有数据表。 配置项 说明 名称 非必填项,不填则自动生成。填写必须为中文字符、字母、数字、“”、“ .”或“ ” ,长度不超过 64 字符。 所属资产 设置数据来源所隶属的资产。 数据库环境 (仅限MySQL资产填写)根据实际情况选择原生环境或分片环境。 用户名 填写数据库的用户名。 密码 填写数据库的密码。 数据库名 填写数据库名。 获取扫描配置 点击获取扫描配置,系统将自动检索并显示“Schema/数据库名”的列表。 扫描配置 展示所属资产的“Schema/数据库”和“数据表”信息。 5.勾选需要扫描的数据表 ,单击“保存并启动”。保存敏感数据扫描任务配置并立即执行任务。任务状态为“扫描中”。 说明 有且仅有一个敏感数据扫描任务在扫描中,若同时存在多个扫描任务则排队扫描。 6.元数据获取完成后,任务状态会显示“扫描完成”,元数据将保存在“敏感数据管理” 中。 7.单击敏感数据扫描任务条目中的“配置敏感数据列的数字”,将会跳转到“资产 > 敏感数据 > 敏感数据管理”页面 ,且默认带上“扫描任务”和“是否敏感数据”两个查询条件。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据库安全网关操作指导
        资产
        敏感数据
      • 通过智能网关实例上开通SSL VPN客户端实现移动办公
        本教程介绍如何通过在智能网关实例上开通SSL VPN客户端服务,实现移动办公。 应用场景 客户本地/云资源上已经部署了一台企业版CPE/企业增强版CPE/vCPE实例,随着业务不断发展,企业员工需要通过移动端远程访问本地/云上资源。针对此种需求,天翼云SDWAN可支持在智能网关实例上开通VPN客户端服务,满足移动办公员工快速、安全、实时接入内网的访问需求。 前提条件 注册天翼云账号,并完成实名认证。 CPE规格需为足企业版/企业增强版/vCPE,CPE在线且按照串接方式激活成功。 CPE已经部署安装SSL VPN服务。 操作步骤 步骤一:开通“VPN客户端”服务 1. 登录天翼云SDWAN控制台,选择“智能网关”,点击目标“智能网关”名称,进入详情页面,单击“VPN客户端” 2. 单击“开启服务”,配置客户端接入的地址池。如地址已完成配置,可直接进入下一步,添加客户端账号。 3. 单击客户端账号“添加”,填写客户端用户名和密码,也可通过上传附件方式,批量导入用户名和密码,点击“确定”,完成客户端账号分配。 步骤二:安装“VPN客户端”软件 根据操作系统类型下载对应的SSL VPN客户端软件进行安装,请参考VPN客户端下载 步骤三:建立客户端连接 在移动终端上打开SSL VPN客户端,建立连接。 1.首次配置客户端时,点击“立即新建”,进入新建 SSL 连接页面;已添加连接时,可通过点击连接列表上方的“添加连接”,进入新建 SSL VPN 连接页面。 2.配置连接信息,点击“保存”,完成新建连接。连接参数填写说明如下: 参数 填写说明 VPN 名称 输入自定义名称 网关IP 可通过天翼云SDWAN控制台“智能网关”详情页“VPN客户端”模块获取“服务器地址IP” 端口号 可通过天翼云SDWAN控制台“智能网关”详情页“VPN客户端”模块获取“服务器地址端口号” 用户名 可通过天翼云SDWAN控制台“智能网关”详情页“VPN客户端”模块获取“客户端用户名” 证书认证 选择配置“不启用” UDP 传输加速 选择配置“不启用” 描述 选择配置“不启用” 3.选中需进行连接的VPN名称,跳转至连接详情页。 4.点击“连接”按钮,输入客户端密码,可通过天翼云SDWAN控制台“智能网关”详情页“VPN客户端”模块获取“客户端密码”。 5.点击“提交”,完成内网连接。 6.连接成功后,可通过连接详情页查看连接的在线状态、在线时长、以及数据上下行传输信息、服务器信息、IP 地址等信息。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        通过智能网关实例上开通SSL VPN客户端实现移动办公
      • SpringBoot集成Lettuce
        连接超时时间 spring.redis.timeout60s 连接池最大连接数(使用负值表示没有限制) spring.redis.lettuce.pool.maxactive50 连接池中的最小空闲连接 spring.redis.lettuce.pool.minidle5 连接池中的最大空闲连接 spring.redis.lettuce.pool.maxidle50 连接池最大阻塞等待时间(使用负值表示没有限制) spring.redis.lettuce.pool.maxwait5000 eviction线程调度时间间隔 spring.redis.lettuce.pool.timebetweenevictionruns2000 k. redis配置类RedisConfiguration,请务必开启集群自动刷新拓扑配置。 @Bean public LettuceConnectionFactory lettuceConnectionFactory() { GenericObjectPoolConfig genericObjectPoolConfig new GenericObjectPoolConfig(); genericObjectPoolConfig.setMaxIdle(maxIdle); genericObjectPoolConfig.setMinIdle(minIdle); genericObjectPoolConfig.setMaxTotal(maxActive); genericObjectPoolConfig.setMaxWait(Duration.ofMillis(maxWait)); genericObjectPoolConfig.setTimeBetweenEvictionRuns(Duration.ofMillis(timeBetweenEvictionRunsMillis)); String[] nodes clusterNodes.split(","); List listNodes new ArrayList(); for (String node : nodes) { String[] ipAndPort node.split(":"); RedisNode redisNode new RedisNode(ipAndPort[0], Integer.parseInt(ipAndPort[1])); listNodes.add(redisNode); } RedisClusterConfiguration redisClusterConfiguration new RedisClusterConfiguration(); redisClusterConfiguration.setClusterNodes(listNodes); redisClusterConfiguration.setPassword(password); redisClusterConfiguration.setMaxRedirects(maxRedirects); // 配置集群自动刷新拓扑 ClusterTopologyRefreshOptions topologyRefreshOptions ClusterTopologyRefreshOptions.builder() .enablePeriodicRefresh(Duration.ofSeconds(period)) //按照周期刷新拓扑 .enableAllAdaptiveRefreshTriggers() //根据事件刷新拓扑 .build(); ClusterClientOptions clusterClientOptions ClusterClientOptions.builder() //redis命令超时时间,超时后才会使用新的拓扑信息重新建立连接 .timeoutOptions(TimeoutOptions.enabled(Duration.ofSeconds(period))) .topologyRefreshOptions(topologyRefreshOptions) .build(); LettuceClientConfiguration clientConfig LettucePoolingClientConfiguration.builder() .commandTimeout(Duration.ofSeconds(timeout)) .poolConfig(genericObjectPoolConfig) .readFrom(ReadFrom.REPLICAPREFERRED) // 优先从副本读取 .clientOptions(clusterClientOptions) .build(); LettuceConnectionFactory factory new LettuceConnectionFactory(redisClusterConfiguration, clientConfig); return factory; } @Bean public RedisTemplate redisTemplate(LettuceConnectionFactory lettuceConnectionFactory) { lettuceConnectionFactory.setShareNativeConnection(false); RedisTemplate template new RedisTemplate<>(); template.setConnectionFactory(lettuceConnectionFactory); //使用Jackson2JsonRedisSerializer替换默认的JdkSerializationRedisSerializer来序列化和反序列化redis的value值 Jackson2JsonRedisSerializer jackson2JsonRedisSerializer new Jackson2JsonRedisSerializer<>(Object.class); ObjectMapper mapper new ObjectMapper(); mapper.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY); mapper.activateDefaultTyping(LaissezFaireSubTypeValidator.instance, ObjectMapper.DefaultTyping.NONFINAL, JsonTypeInfo.As.PROPERTY); jackson2JsonRedisSerializer.setObjectMapper(mapper); StringRedisSerializer stringRedisSerializer new StringRedisSerializer(); //key采用String的序列化方式 template.setKeySerializer(stringRedisSerializer); // hash的key也采用String的序列化方式 template.setHashKeySerializer(stringRedisSerializer); // value序列化方式采用jackson template.setValueSerializer(jackson2JsonRedisSerializer); // hash的value序列化方式采用jackson template.setHashValueSerializer(jackson2JsonRedisSerializer); template.afterPropertiesSet(); return template; } 说明 host为Redis实例的IP地址,port为Redis实例的端口,请按实际情况修改后执行,pwd为创建Redis实例时自定义的密码,请按实际情况修改后执行。推荐使用连接池方式。超时时间(TimeOut),最大连接数(MaxTotal),最小空闲连接(MinIdle),最大空闲连接(MaxIdle),最大等待时间(MaxWait)等相关参数,请根据业务实际来调优。
        来自:
        帮助文档
        分布式缓存服务Redis版
        快速入门
        连接实例
        多语言连接
        SpringBoot集成Lettuce
      • 创建专属云Kafka
        前提条件: 1、提前开通专属云(计算独享型),并存留足够未分配的计算资源; 2、提前开通VPC、安全组等网络侧资源; 操作步骤: 步骤一: 登录天翼云账号,切换至专属云(计算独享型)节点; 如已购买了专属云(计算独享型),在控制台的右上角节点区域,可见有独立专属云“dec”标识的节点,选择用户需要进行Kafka购买的专属云节点进入。 图 带专属云“dec”标识的节点如下: 步骤二: 进入专属云节点后,在控制台中的产品列表中选择“分布式消息服务”,进入到服务控制台,在左侧菜单栏选择“Kafka专享版”,进入Kafka专享版实例列表页面。 图 专享版Kafka订购入口 步骤三: 点击“购买Kafka实例”,进入订购页面,按提示进行相关规格选择与配置。 1)计费方式为“包年包月”; 2)可用区:客户可自行根据资源池多AZ支持情况选择可用区进行创建。 说明:专享版Kafka的实例为集群模式,支持选择1个或者3个及以上可用区。不支持选择2个可用区,选择时需要注意;该可用区选择后不支持更换。 3)实例名称及企业项目:按命名规范自定义,也可以默认系统分配的名称; 4)Kafka版本:当前支持2种版本选择,2.3.0和1.1.0,推荐时间2.3.0版本; 5)CPU架构:当前仅支持“x86计算”,保持默认值即可; 图 购买Kafka订购页 6)选择具体的队列规格类型,在规格的描述与说明中会有该队列的底层资源类型、代理数量、分区上限、消费组数量,供客户与业务系统需求匹配规格。 说明:当前订购规格后,暂不支持规格变更,请在订购时做好业务整体需求评估。 7)选择存储空间:此处有2种存储可以选择,分别是公有云的云硬盘、专属分布式存储。存储的类型均支持高IO、超高IO。 说明:1、选择云硬盘时,具体价格以公有云的云硬盘价格为准; 2、选择转属分布式存储时,需提前已购买了专属云(存储独享型),在“可用存储”右侧的“存储池”列表中进行选择。 3、根据实际需要选择存储Kafka数据的总磁盘大小。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 • 基准带宽为100MB/s时,存储空间取值范围:600GB ~ 90000GB。 • 基准带宽为300MB/s时,存储空间取值范围:1200GB ~ 90000GB。 • 基准带宽为600MB/s时,存储空间取值范围:2400GB ~ 90000GB。 • 基准带宽为1200MB/s时,存储空间取值范围:4800GB ~ 90000GB 图 订购页界面 图 选择云硬盘时存储类别 图 选择专属分布式存储时,需要提前购买专属存储,并在存储池列表中选择 8)选择私有云、安全组; 虚拟私有云可以为您的Kafka专享实例构建隔离的、能自主配置和管理的虚拟网络环境。 虚拟私有云和子网在Kafka专享版实例创建完成后,不支持修改。 安全组是一组对弹性云服务器的访问规则的集合,为同一个VPC内具有相同安全保护需求并相互信任的弹性云服务器提供访问策略。 可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 9)设置Kafka Manager的用户名、密码; Kafka Manager是开源的kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 10)选择订购时长; 11)点击“立即购买”之前,还可进入“更多配置”也进行高级配置。 1、SASLSSL开关,开启后则对数据进行加密传输,但会对性能造成下降; 客户端连接Kafka专享版实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 创建实例后,Kafka SASLSSL开关不支持修改,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您需要设置连接Kafka专享版实例的用户名和密码。 2、自动创建Topic,开关开启后,Topic将根据配置API接口自动创建。 选择开启“Kafka自动创建Topic”,表示生产或消费一个未创建的Topic时,会自动创建一个包含3个分区和3个副本的Topic。 12)点击“立即购买”,进入支付前规格确认界面。显示详细kafka 实例信息,价格。 13)确认实例信息无误且阅读并同意服务协议后,点击“去支付”进入购买支付环节,完成付款后则开启Kafka创建。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明: 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        专属云分布式消息服务Kafka
        快速入门
        创建专属云Kafka
      • ACL策略管理
        ACL 策略指为用户自定义的一组权限规则,允许/拒绝用户通过 IP 或网段 生产/消费 Topic 资源。当前提供有2种匹配方式: 1)预设策略:新建策略时不关联到Topic,新建或编辑Topic时可关联到该ACL策略。 2)前缀模糊匹配策略:前缀模糊匹配策略提供了一种高效的批量授权方式,特别适用于对具有相同前缀的多个Topic进行统一授权管理。当生产环境中存在遵循统一命名规范的Topic时(例如:项目相关Topic都以"project"开头,包括project1、projectb等),可以通过前缀模糊匹配策略快速完成授权配置。一次配置即可覆盖所有匹配前缀的Topic,包括后续新增的Topic。 创建ACL策略 (1)登录管理控制台,进入Kafka管理控制台。 (2)在实例列表页操作列,目标实例行单击“管理”>“用户管理”>“创建用户”。 (3)创建用户,输入用户密码后点击确认,完成用户的创建。如果已经创建了则可以跳过此步骤。 (4)单击”ACL策略管理”>“创建策略”进入配置 ACL 策略页面。 (5)选择其中一种匹配方式(预设策略或前缀模糊匹配)。 (6)如选择前缀模糊匹配策略,则输入Topic前缀字符串,将匹配所有以输入内容为前缀的Topic。 "匹配Topic"里展示的是当前已经匹配到的Topic,后面新建的Topic也能自动匹配上。 (7)输入规则名称,单击“添加规则”绑定策略对应的规则。 规则参数说明: 参数 说明 权限 ACL 策略的操作权限分为两类:允许和拒绝。 若只设置允许规则,则除允许的规则外的其他IP或网段都无法连接实例。 若只设置拒绝规则,则除拒绝的规则外的其他IP或网段需要设置了允许规则后才可以连接实例。 若同时设置允许规则和拒绝规则,则只有允许规则中的IP或网段可以连接实例,其他IP或网段都无法连接实例。 用户 选择需要设置权限的用户。 IP或网段 填写需要设置权限的 IP 或网段,用 ; 隔开,若 IP 为空,则默认为全部 IP 添加权限。 操作 选择策略生效的动作,即向 Topic 生产或消费消息。 自动应用后续所有新增topic 开启后,后续页面上创建的Topic会自动关联此规则,多个策略只允许一条策略开启。 (8)单击“确定”,完成 ACL 策略创建。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        ACL策略管理
      • 创建资源栈
        参数 是否必填 参数说明 参考样例 资源栈名称 是 自动填充默认值。 最长可输入128字符。 仅允许输入中英文、数字、下划线和中划线,且必须以字母或中文开头。 stack202509281651MaWnRD 资源栈说明 否 可简要说明资源栈的组成/用途,最长可输入255字符 批量创建5台云主机 选择模板及版本 是 可选择一个模板及其版本,用来创建资源栈。如果没有可用的模板或版本,您可单击 新建 跳转创建。参考 配置模板参数 否 如果模板中定义了自定义变量,您还需要完成变量配置,变量的配置需要符合模板中定义的校验规则。 如果您在模板中设置参数的“sensitive”值为“true”,ROS将使用天翼云云产品 企业项目 是 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 指定的企业项目会传递给资源栈内所有资源,该设置会在下次部署时生效。 注意:资源栈暂不支持设置企业项目,企业项目仅会传递给资源栈内所有资源 default 资源并发量 否 指单次部署可同时变更的资源数量上限 如需提升配额,请提交工单处理 10 失败时回滚 否 默认不开启。开启失败时回滚,将在资源创建失败时,删除已成功创建的资源,资源栈回滚至上一次部署成功的状态。 不开启 删除保护 否 默认不开启。删除保护打开时,将无法手动删除资源栈,需手动关闭该配置后才可继续删除。 不开启 跳过资源预检 否 默认不开启。开启跳过资源预检,将在部署/创建执行计划/删除/回滚时跳过资源最新配置检查(refresh),直接按模板执行,可提升操作速度 若资源曾被控制台等非 ROS 渠道修改过,开启该功能可能导致部署结果偏离预期,需谨慎操作。建议仅在资源完全由 ROS 托管、不脱离ROS控制台操作时开启。 不开启
        来自:
      • 1
      • ...
      • 272
      • 273
      • 274
      • 275
      • 276
      • ...
      • 296
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      应用托管

      科研助手

      人脸检测

      人脸比对

      通用型OCR

      推荐文档

      代金券使用后是否可以退换?

      术语解释

      入门教程④:Windows Service 2008系统扩容卷功

      天翼云进阶之路⑥:Windows和Linux绑定多网卡多EIP

      域名相关常见问题

      FTP搭建部署(附软件下载地址)

      拍照核验相关问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号