活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      可视化大屏开发工具_相关内容
      • 创建Flink SQL作业
        本章节主要介绍创建Flink SQL作业 。 Flink SQL是一种由用户根据自己的逻辑需求编写作业的方式。用SQL表达业务逻辑,可以简便快捷的实现业务。目前Flink SQL作业支持两种Flink SQL语句编辑方式:SQL编辑器和可视化编辑器。本章节主要介绍使用SQL编辑器编写Flink SQL作业的方式。 前提条件 创建Flink SQL作业时,需要事先准备数据源以及数据输出通道,具体内容请参见准备Flink作业数据。 创建Flink SQL作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 1. 当前Flink作业支持访问的外部数据源详情请参考增强型跨源连接概述。 2. 创建跨源连接操作请参见增强型跨源连接。创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考测试地址连通性。 创建FLink SQL作业 1. 在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入“Flink作业”页面。 2. 在“Flink作业”页面右上角单击“创建作业”,弹出“创建作业”对话框。 3. 配置作业信息。 详见下表:作业配置信息 参数 参数说明 类型 选择“Flink SQL”:用户通过编辑SQL语句来启动作业。 名称 作业名称,只能由字母、中文、数字、中划线和下划线组成,并且长度为1~57字节。 说明 作业名称必须是唯一的。 描述 作业的相关描述,长度为0~512字节。 模板名称 用户可以选择样例模板或自定义的作业模板。关于模板的详细信息,请参见Flink模板管理。 4. 单击“确定”,进入作业“编辑”页面。 5. 编辑SQL作业。 在SQL语句编辑区域,输入详细的SQL语句。相关SQL语句请参考《数据湖探索SQL语法参考》。 6. 单击“语义校验”,确保语义校验成功。 只有语义校验成功后,才可以执行“调试”或“启动”作业的操作。 如果校验成功,提示“SQL语义校验成功”。 如果校验失败,会在错误的SQL语句前面显示红色的“X”记号,鼠标移动到“X”号上可查看详细错误,请根据错误提示修改SQL语句。 7. 设置作业运行参数 参见下表:作业运行参数说明 参数 参数说明 所属队列 默认选择“共享队列”,用户也可以选择自定义的独享队列。 说明 当子用户在创建作业时,子用户只能选择已经被分配的队列。 当所选择队列的剩余容量不能满足作业需求时,系统会自动扩容。当队列空闲时,系统也会自动缩容。 UDF Jar 选择“独享队列”时可配置该参数。 用户自定义UDF文件,在选择UDF Jar之前需要将对应的jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,具体操作请参考创建程序包。 用户可以在SQL中调用插入Jar包中的自定义函数。 CU数量 CU数量为DLI的计算单元数量和管理单元数量总和,1CU1核4G。 当前配置的CU数量为运行作业时所需的CU数,不能超过其绑定队列的CU数量。 管理单元 管理单元CU数量。 并行数 并行数是指同时运行Flink SQL作业的最大任务数。适度增加并行数会提高作业整体算力,但也须考虑线程增多带来的切换开销。 说明 最大并行数不能大于计算单元(CU数量管理单元)的4倍。 该界面并行数优先级低于代码中并行数设置。 TaskManager配置 用于设置TaskManager资源参数。 勾选后需配置下列参数: “单TM所占CU数”:每个TaskManager占用的资源数量。 “单TM Slot”:每个TaskManager包含的Slot数量。 OBS桶 选择OBS桶用于保存用户作业日志信息、checkpoint等信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 保存作业日志 设置是否将作业运行时的日志信息保存到OBS。日志信息的保存路径为:“桶名/jobs/logs/作业id开头的目录”。在作业列表中,单击对应的作业名称,在“运行日志”页签,可以单击页面提供的OBS链接跳转至对应的路径下。 注意 该参数建议勾选,否则作业运行完成后不会生成运行日志,后续如果作业运行异常则无法获取运行日志进行定位。 勾选后需配置下列参数: “OBS桶”:选择OBS桶用于保存用户作业日志信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 作业异常告警 设置是否将作业异常告警信息,如作业出现运行异常或者欠费情况,以SMN的方式通知用户。 勾选后需配置下列参数: “SMN主题”: 选择一个自定义的SMN主题。如何自定义SMN主题,请参见《消息通知服务用户指南》中“创建主题”章节。 开启Checkpoint 设置是否开启作业快照,开启后可基于Checkpoint(一致性检查点)恢复作业。 勾选后需配置下列参数: “Checkpoint间隔”:Checkpoint的时间间隔,单位为秒,输入范围1~999999,默认值为30s。 “Checkpoint模式”:支持如下两种模式: − At least once:事件至少被处理一次。 − Exactly once:事件仅被处理一次。 “OBS桶”:选择OBS桶用于保存用户Checkpoint。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。 Checkpoint保存路径为:“桶名/jobs/checkpoint/作业id开头的目录”。 说明 如果同时勾选了“开启Checkpoint”和“保存作业日志”,OBS授权一次即可。 异常自动重启 设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 勾选后需配置下列参数: “异常重试最大次数”:配置异常重试最大次数。单位为“次/小时”。 − 无限:无限次重试。 − 有限:自定义重试次数。 “从Checkpoint恢复”:需要同时勾选“开启Checkpoint”才可配置该参数。 空闲状态保留时长 用于清除GroupBy或Window经过最大保留时间后仍未更新的中间状态,默认设置为1小时。 脏数据策略 选择处理脏数据的策略。支持如下三种策略:“忽略”,“抛出异常”和“保存”。 说明 “保存”是指将脏数据保存到OBS桶中。 脏数据转储地址 “脏数据策略”选择“保存”时,配置该参数。单击地址框选择保存脏数据的OBS路径。 8. (可选)根据需要调试参数。作业调试功能只用于验证SQL逻辑,不会有数据写入操作。 具体操作请参见 调试Flink作业。 9. (可选)根据需要设置自定义配置。自定义配置为用户自定义。 10. 单击“保存”,保存作业和相关参数。 11. 单击“启动”,进入“启动Flink作业”页面,确认作业规格后,单击“立即启动”,启动作业。 启动作业后,系统将自动跳转到Flink作业管理页面,新创建的作业将显示在作业列表中,在“状态”列中可以查看作业状态。作业提交成功后,状态将由“提交中”变为“运行中”。运行完成后显示“已完成”。 如果作业状态为“提交失败”或“运行异常”,表示作业提交或运行失败。用户可以在作业列表中的“状态”列中,将鼠标移动到状态图标上查看错误信息,单击可以复制错误信息。根据错误信息解决故障后,重新提交。 说明 其他功能按钮说明如下: 另存为:将新建作业另存为一个新作业。 调试:对作业进行调试。具体操作请参见 格式化:对SQL语句进行格式化。 设为模板:将新创建的作业设置为作业模板。 主题设置:设置页面主题,可以设置字体大小,自动换行和页面风格。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink SQL作业
      • 磁盘类型及功能特性
        本节介绍了云硬盘性能、云硬盘IOPS上限计算方法、云硬盘突发能力及原理。 根据IO性能划分云硬盘的磁盘类型,各种类型的云硬盘具体介绍如下。不同类型云硬盘的性能和价格有所不同,您可根据应用程序要求选择您所需的云硬盘。 云硬盘性能 云硬盘性能的主要指标包括: IOPS:云硬盘每秒进行读写的操作次数。 吞吐量:云硬盘每秒成功传送的数据量,即读取和写入的数据量。 IO读写时延:云硬盘连续两次进行读写操作所需要的最小时间间隔。 不同类型云硬盘的单队列访问时延如下: 普通IO:5 ms ~ 10 ms 高IO:1 ms ~ 3 ms 通用型SSD:1 ms 超高IO:1 ms 极速型SSD:亚毫秒级 说明 云硬盘的性能指标除了受到其本身的规格限制,还会受到挂载实例的存储QoS限制。 云硬盘性能相关的最大IOPS、最大吞吐量、IOPS突发上限三个指标受所挂载的实例规格、负载情况、网络环境及数据块大小等因素影响,无服务等级协议(SLA)承诺,建议用户结合业务场景进行实测验证。 云硬盘性能数据表 参数 普通IO 高IO 通用型SSD 超高IO 极速型SSD :::::: 每GB云硬盘的IOPS 2 6 8 50 50 单个云硬盘的最大IOPS 2200 5000 20000 33000 128000 单个云硬盘的基线IOPS 500 1200 1500 1500 1800 单个云硬盘IOPS上限 min (2200, 500 +2 × 容量) min (5000, 1800 + 8 × 容量) min (20000, 1800 + 12 × 容量) min (33000, 1800 + 50 × 容量) min (128000, 1800 + 50 × 容量) 单个云硬盘的IOPS突发上限 2200 5000 8000 16000 64000 云硬盘吞吐量性能计算公式 50 MB/s min (150, 100 + 0.15 × 容量) MB/s min (250, 100 + 0.5 × 容量) MB/s min (350, 120 + 0.5 × 容量) MB/s min (1000, 120 + 0.5 × 容量) MB/s 最大吞吐量 50 MB/s 150 MB/s 250 MB/s 350 MB/s 1000 MB/s API名称 说明 此处API名称为云硬盘API接口中“volumetype”参数的取值,不代表底层存储设备的硬件类型。 SATA SAS GPSSD SSD ESSD API名称 说明 此处API名称为云硬盘API接口中“volumetype”参数的取值,不代表底层存储设备的硬件类型。 SATA SAS GPSSD SSD ESSD API名称 说明 此处API名称为云硬盘API接口中“volumetype”参数的取值,不代表底层存储设备的硬件类型。 SATA SAS GPSSD SSD ESSD 典型应用场景 适用于大容量、读写速率中等、事务性处理较少的应用场景,例如企业的日常办公应用或者小型测试等。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 典型应用场景 如果应用需要更高的IO性能,建议您选择超高IO或高IO云硬盘。 一般工作负载的应用场景。 普通开发测试 各种主流的高性能、低延迟交互应用场景。 企业办公 大型开发测试 转码类业务 Web服务器日志 容器等高性能系统盘 适用于超高IO,超大带宽的读写密集型应用场景,例如高性能计算应用场景,用来部署分布式文件系统,或者I/O密集型应用场景,用来部署各类NoSQL/关系型数据库。典型的数据库有MongoDB、Oracle、SQL Server、MySQL 和PostgreSQL等。 数据库 Oracle SQL Server ClickHouse AI场景 单队列访问时延 5 ms ~ 10 ms 1 ms ~ 3 ms 1 ms 1 ms 亚毫秒级 说明 a:最大IOPS、最大吞吐量、IOPS突发上限三个参数的值均为读写总和。比如最大IOPSIOPS读+IOPS写。 b:以单块超高IO云硬盘吞吐量性能计算公式为例说明:起步120 MiB/s,每GiB增加0.5 MiB/s,上限为350 MiB/s。 c:以单块超高IO云硬盘IOPS性能计算公式为例说明:起步1800,每GiB增加50,上限为50000。 d:单队列指队列深度为1,即并发度为1。单队列访问时延是所有IO请求串行处理时IO的时延,表格中数据是4KiB数据块能达到的时延。 e:API名称代表云硬盘API接口中“volumetype”参数的取值,不代表底层存储设备的硬件类型。 f:高IO(专属分布式存储高IO除外)云硬盘由普通硬盘(HDD)提供支持,适合一般工作负载的应用场景,提供的性能中,基准吞吐量为每TiB 40MiB/s,最大吞吐量为每块云硬盘150MiB/s;对于负载较高的应用,建议使用更高规格的云硬盘,它们由固态硬盘(SSD)提供支持。 云硬盘的性能与数据块大小密切相关: 同一数据块大小,当最大IOPS或最大吞吐量中有一项指标达到最大值时,此时云硬盘性能达到最大,另一项指标无法再继续上升。 不同数据块大小,云硬盘性能达到最大的指标可能不同。 对于小数据块,例如4KiB和8KiB,性能可达到最大IOPS。 对于≥ 16 KiB的大数据块,性能可达到最大吞吐量。
        来自:
        帮助文档
        云硬盘 EVS
        产品简介
        磁盘类型及功能特性
      • 安全组概述
        本文帮助您了解什么是安全组,安全组规则和一些安全组实践建议。 什么是安全组 安全组是一种网络安全防护机制,用于防止未经授权的访问和保护计算机网络免受恶意攻击。它是一种虚拟防火墙,用于限制入向和出向网络流量通行。安全组工作在网络层和传输层,它通过检查数据包的源地址、目标地址、协议类型和端口号等信息来决定是否允许通过。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云主机加入该安全组后,即受到这些访问规则的保护。 不同资源池的安全组存在部分差异,如表1所示: 表1 可用区资源池和地域资源池的差异 对比项 多可用区资源池 地域资源池 作用机制 “白名单”机制,即不匹配规则时,默认拒绝所有访问。 “白名单”机制,即不匹配规则时,默认拒绝所有访问。 创建安全组 需指定和VPC的关联关系 无需指定和VPC的关联关系 默认安全组 一个VPC一个默认安全组 一个资源池一个默认安全组 自定义模板安全组的默认规则 自定义模板类型的安全组不存在默认规则 每个自定义模板类型的安全组存在两条默认规则 默认安全组规则 存在默认安全组规则,具体规则以表3为准 存在默认安全组规则,具体规则以表2为准 安全组是否有状态 出/入方向均有状态 仅出向有状态 安全组模板 自定义、通用Web服务器、开放全部端口 自定义、通用Web服务器、开放全部端口 默认安全组: 对于地域资源池,系统会为每个用户默认创建一个安全组,多个VPC可以共用同一个安全组。默认安全组的默认规则可参考表2“地域资源池默认安全组规则”。 对于可用区资源池,系统会为每个VPC默认创建一个安全组。一般来讲不同VPC之间是不同的业务,VPC之间是相互隔离的,相同业务一般部署在一个VPC。大多数情况下,不同的VPC由于业务的差异,所使用的安全组规则应该是不一样的。每个VPC自动建立一个默认安全组,可以满足用户不同业务需要不同安全组的场景。默认安全组的默认规则可参考表3“可用区资源池默认安全组规则”。 安全组状态: 对于地域资源池来说,安全组出向是有状态的。如果您从实例发送一个出站请求,且该安全组的出站规则是放通的话,那么无论其入站规则如何,都将允许该出站请求的响应流量流入。 对于可用区资源池来说,安全组出/入方向均有状态的。如果您从实例发送一个出站请求,且该安全组的出站规则是放通的话,那么无论其入站规则如何,都将允许该出站请求的响应流量流入。同理,如果该安全组的入站规则是放通的,那无论出站规则如何,都将允许入站请求的响应流量可以出站。 自定义安全组: 对于地域资源池来说,用户创建安全组时,模板类型为自定义的安全组会存在两条默认规则,即出向默认放通所有IP地址(0.0.0.0/0、::/0)流量的数据报文通过。 对于可用区资源池来说,用户创建安全组时,模板类型为自定义的安全组不存在默认规则,如未添加规则,则默认安全组出、入方向将均拒绝所有访问。 不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        安全
        安全组
        安全组概述
      • CCE集群的网络地址段规划实践
        服务网段 Service也是Kubernetes内的概念,每个Service都有自己的地址,在CCE中创建集群时,可以指定service的地址段(即服务网段)。同样,服务网段也不能和子网网段重合,而且服务网段也不能和容器网段重叠。服务网段只在集群内使用,不能在集群外使用。 容器网段、服务网段、子网网段和VPC网段关系请参见下图: 单VPC+单集群场景 这是最简单的情形。VPC网段在创建VPC的时候就已经确定,创建CCE集群时,选择目标VPC网段即可。 单VPC+多集群场景 一个VPC下创建多个CCE集群。 在“VPC网络”模式下,Pod的报文需要通过VPC路由转发,CCE会自动在VPC路由上配置到每个容器网段的路由表。 注意 • VPC地址还是创建VPC时确定的,当创建集群时,为每个集群选择一个不重叠的地址段,不仅不能和VPC地址重叠,也不和其他容器网段重叠。 • 所有集群的容器网段不能重叠,但服务网段可以重叠。在此情况下CCE集群部分互通,一个集群的Pod可以直接访问另外一个集群的Pod,但不能访问另外一个集群的Service。 • VPC网络模式下每个节点占用一条VPC路由规则,组网规模受限于VPC路由表配额。 在“容器隧道网络”模式下,容器网络是承载于VPC网络之上的Overlay网络平面,具有付出少量隧道封装性能损耗,获得了通用性强、互通性强、高级特性支持全面(例如Network Policy网络隔离)的优势,可以满足大多数应用需求。 注意 • VPC地址还是创建VPC时确定的,创建集群时,为每个集群选择一个不重叠的地址段,不仅不能和VPC地址重叠,也不和其他容器网段重叠。 • 所有集群的容器网段可以重叠,服务网段也可以重叠。 • 跨集群的容器之间访问,建议通过ELB实现。 VPC互联场景 两个VPC网络互联的情况下,可以通过路由表配置哪些报文要发送到对端VPC里。 在“VPC网络”模式下,创建对等连接后,需要在两端VPC内添加对等连接路由信息,才能使两个VPC互通。 注意 • VPC地址是在创建VPC的时候确定的,创建集群的时候,为每个集群选择一个不重叠的地址段,不仅不能和VPC地址重叠,也不和其他容器网段重叠。 • 所有集群的容器网段不能重叠,但服务网段可以重叠。 • 对等连接的路由表中需要添加对端容器网段的地址。示例操作如下: 同样,在“容器隧道网络”模式下,创建对等连接后,您需要在两端VPC内添加对等连接路由信息,才能使两个VPC互通。 注意 • VPC地址是在创建VPC的时候确定的,创建集群的时候,为每个集群选择一个不重叠的地址段,不仅不能和VPC地址重叠,也不和其他容器网段重叠。 • 所有集群的容器网段可以重叠,服务网段也可以重叠。 • 对等连接的路由表中需要添加对端集群节点子网网段的地址。 VPC网络到IDC的场景 和VPC互联场景类似,同样存在VPC里部分地址段路由到IDC,则CCE集群的Pod地址就不能和这部分地址重叠。IDC里如果需要访问集群里的Pod地址,同样需要在IDC端配置到专线VBR的路由表。
        来自:
        帮助文档
        云容器引擎
        最佳实践
        网络
        CCE集群的网络地址段规划实践
      • 脚本模式生成API
        配置 说明 API名称 支持中文、英文、数字、下划线,且只能以英文或中文开头,364个字符。 API目录 一个特定功能或场景的API集合,类似文件夹,是数据服务中API的最小组织单元,也是API网关中的最小管理单元。 您可单击“新建”进行新建,也可选择已创建的API分组。 请求Path API访问路径,例如:/v2/{projectid}/streams。 请求Path即完整的url中,域名之后、查询参数之前的部分,如下图中的“/blogs/188138”。详见下图: 统一资源定位符url说明 在请求路径中,可以使用大括号{}标识路径中的参数作为通配符。如“/blogs/{blogid}”表示/blogs后可以携带任何参数,例如“/blogs/188138”和“/blogs/0”均会匹配至/blogs/{blogid},由此API统一处理。 此外,相同域名下,不允许重复的请求路径出现。路径参数作为通配符时,名称不具备唯一性,例如“/blogs/{blogid}”和“/blogs/{xxxx}”,会被视作相同路径。 参数协议 用于传输请求的协议,支持HTTP和HTTPS协议。 HTTP属于基础的网络传输协议,无状态、无连接、简单、快速、灵活、使用明文传输,在使用上较为便捷,但是安全性欠佳。 HTTPS是在HTTP协议上进行了SSL或TLS加密校验的协议,能够有效验证身份以及保护数据完整性。相对的,访问HTTPS的API,需要配置相关的SSL证书或跳过SSL校验,否则将无法访问。 请求方式 HTTP请求方式,表示请求什么类型的操作,包含GET、POST等,遵循resultful风格。 GET:请求服务器返回指定资源,推荐使用GET请求。 POST:请求服务器新增资源或执行特殊操作,仅在注册API时使用。POST请求当前不支持body体,而是直接透传。 描述 对API进行简要描述。 标签 对API设置标签。用于标记当前API的属性,创建后可以通过标签快速检索定位API。单个API最多可设置20个标签。 审核人 拥有API的审核权限。 单击“新建”,进入“审核中心>审核人管理”页面,新建审核人。 安全认证 API认证方式: APP认证:表示由API网关服务负责接口请求的安全认证,安全级别最高。 IAM认证:表示借助IAM服务进行安全认证,安全级别中等。 无认证:属于无防护的模式,无需认证即可访问,安全级别低,不推荐使用。 服务目录可见性 发布后,所选范围内的用户均可以在服务目录中看到此API。 当前工作空间可见 当前项目可见 当前租户可见 访问日志 勾选,则此API的查询结果将会产生记录并被保留7天,可以在“运营管理>访问日志”处通过选择“请求日期”的方式查看对应日期的日志。 最低保留期限 API解绑前预留的最低期限。0表示不设限制。 API进行停用/下线/取消授权时,会通知已授权用户,并为用户预留至少X小时,直到所有授权用户均完成解除或处理,或者到达截止时间,API才会停用/下线/取消授权。 入参定义 配置API请求中的参数,包含资源路径中的动态参数,请求URI中的查询参数和Header参数。 添加入参定义时,如果参数设定为必填,则API在访问时,必须传入指定参数;如果非必填,则在API访问时,未传入的参数,会使用默认值进行代替。 参数大小限制如下: query+path,url最大32KB header,最大128KB body, 最大128KB 以配置资源路径中的动态参数为例进行说明,例如资源路径(请求Path)设置为: /v2/{projectid}/streams,资源路径中的{projectid}为动态参数,需要在此进行配置。 1. 单击“添加”,参数名配置为projectid。 2. 参数位置选择PATH。 3. 类型设置为STRING。 4. 选择性配置示例值和描述。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        创建API
        脚本模式生成API
      • Lua脚本规范
        本节主要介绍Lua脚本规范。 Lua是一种脚本语言,目的是为了嵌入应用程序中,为应用程序提供灵活的扩展和定制功能。GeminiDB Redis使用的是Lua5.1.5版本,与开源Redis5.0使用的Lua版本是一致的。 与开源Redis Lua的区别 1. EVAL/EVALSHA命令 命令格式: EVAL script numkeys key [key …] arg [arg …] EVALSHA sha1 numkeys key [key …] arg [arg …] 上述命令的语法与操作与开源Redis一致。用户需自己保证将脚本中使用到的Redis key显式的通过key参数传入,而不是直接在脚本中编码,并且如果带有多个key参数,则要求所有的key参数必须拥有相同的hash tag。 如果不遵循上述约束,则在Lua中执行涉及这些key的Redis操作时,可能会返回类似“partition not found”的错误信息。 2. SCRIPT命令 SCRIPT命令包含了一组管理Lua脚本的子命令,具体可以通过SCRIPT HELP命令查询具体的操作。 SCRIPT大部分命令都与开源Redis兼容,其中需要特别说明的命令如下: SCRIPT KILL GeminiDB Redis是多线程执行的环境,允许同时执行多个Lua脚本,执行SCRIPT KILL,会终止所有正在运行的Lua脚本。 为了方便使用,GeminiDB Redis扩展了SCRIPT KILL命令,用户可以通过‘SCRIPT KILL SHA1’来终止指定哈希值的脚本。若同一时间存在多个节点在执行哈希值相同的脚本,那么这些脚本都会被终止。 另外,由于用户无法设置Lua超时时间(config set luatimelimit),因此在任意时刻执行SCRIPT KILL都能直接终止脚本,而不是等待脚本超时后才终止。 SCRIPT DEBUG 目前GeminiDB Redis不支持DEBUG功能,所以该命令执行无效。 3. Lua脚本中执行Redis命令 与开源Redis一致,GeminiDB Redis的Lua环境中也提供了一个全局的“redis”表,用于提供各类和Redis Server交互的函数。 如下表为GeminiDB Redis目前支持和不支持的操作列表。 支持的操作 不支持的操作 redis.call() redis.pcall() redis.sha1hex() redis.errorreply() redis.statusreply() redis.log() redis.LOGDEBUG redis.LOGVERBOSE redis.LOGNOTICE redis.LOGWARNING redis.replicatecommands() redis.setrepl() redis.REPLNONE redis.REPLAOF redis.REPLSLAVE redis.REPLREPLICA redis.REPLALL redis.breakpoint() redis.debug() 4. Lua执行环境限制 开源Redis对Lua脚本的执行有一定的限制,比如限制脚本操作全局变量,限制随机函数的结果,限定能够使用的系统库和第三方库等。 GeminiDB Redis也继承了绝大多数的限制,但是针对如下情况,GeminiDB Redis与开源Redis存在差异: Write Dirty 开源Redis规定,如果某个脚本已经执行了写操作,那么就不能被SCRIPT KILL停止执行,必须使用SHUTDOWN NOSAVE来直接关闭Redis Server。 GeminiDB Redis不支持执行SHUTDOWN命令,因此这条限制不会被执行,用户仍然可以通过SCRIPT KILL来停止脚本的执行。 Random Dirty 由于主从复制的原因,开源Redis规定,若脚本执行了带有随机性质的命令(Time, randomkey),则不允许再执行写语义的命令。 例如,如下Lua脚本: local t redis.call("time") return redis.call("set", "time", t[1]); 当该脚本的执行传递到从节点时,Time命令获取到的时间一定晚于主节点,因此从节点执行的Set命令的值就会和主节点产生冲突。开源Redis引入了replicatecommands来允许用户决定这种场景下的行为模式。 对于GeminiDB Redis来说,由于没有主从的概念,数据在逻辑上只有一份,因此也就不存在该限制。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        用户指南
        实例开发规范与命令兼容
        Lua脚本规范
      • 关联MySQL设置
        本章节主要介绍分组管理中的关联MySQL设置相关操作,用于设置实例关联的后端数据库属性,大部分情况下按默认设置即可。 注意事项 设置属性后,需要重启服务节点后才能生效。 仅V2.9.0及以后版本创建的实例,支持设置自定义读写分离权重。 关联MySQL实例后,该MySQL实例将无法直接被退订。如果您的业务不再需要使用该MySQL实例,您可以解除关联后,在MySQL > 实例管理页面退订该MySQL实例。 操作步骤 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 分布式关系型数据库 ,进入分布式关系型数据库产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择DRDS > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,找到目标实例,单击操作 列的管理 ,进入实例基本信息页面。 4. 单击分组管理,进入分组管理页面。 5. 在分组列表中,找到目标分组,单击操作 列的属性设置 ,进入分组配置面板。 6. 单击关联RDS设置页签。 7. 单击操作 列的设置属性 ,然后在设置属性面板中配置服务节点连接MySQL的行为参数。 属性列表 关联MySQL可配置属性如下所示: 属性编码 属性名称 说明 maxCon 最大连接数 实例连接池的最大连接。 secondsBehindMaster 主备延迟阈值(秒) 如果主备延迟时间超过设置的阈值,备库将被剔除读写分离,默认值0表示永不剔除,请谨慎设置。 maxIdle 最大空闲连接数个数 实例连接池的最大空闲连接数个数,默认32。 idleTimeout 空闲的超时时间(毫秒) 实例连接池连接空闲的超时时间。 connectTimeout 获取连接超时(毫秒) 实例连接池连接获取连接超时时间。 balance 读写分离配置 读写分离属性配置,支持配置为: 关闭 :即balance 0,表示不开启读写分离,所有语句均发往写节点。 读语句发往读库 :即balance 1,表示开启读写分离,所有事务外(autocommit1)的SELECT语句发往读节点;所有事务内(autocommit0)的语句发往写节点。 读语句随机发往读库和写库 :即balance 2,表示开启读写分离,所有事务外(autocommit1)的SELECT语句随机发往读节点或写节点;所有事务内(autocommit0)的语句发往写节点。 自定义权重 :即banlance 3,表示开启读写分离,支持根据实际情况,设置自定义读写分离权重。 说明 在对数据库有少量写请求,但有大量读请求的应用场景下,为了实现读取能力的弹性扩展,防止MySQL实例主备节点性能差异导致的节点过载,您可以通过读写分离特性,将读语句发送到指定的节点满足大量的数据库读取需求。DRDS的读写分离功能运行机制如下: 如果会话未开启事务,读语句将直接发送到salve(从节点)执行。 如果会话已开启事务,读语句将发送到master(主节点)上执行。 weights 读写分离权重配置 仅读写分离配置 设置为自定义权重时,需要配置该参数,表示开启读写分离,并且您需要设置读节点的权重。 注意 新增的从节点权重默认为0,表示读请求不会发往新增的从节点,您可以根据实际情况修改该节点的权重。 dbType 后端连接的数据库类型 指定后端连接的数据库类型,目前支持二进制的MySQL协议,目前暂时支持MySQL和MariaDB,后面会逐渐支持其他数据库。 dbDriver 连接后端数据库使用的Driver 指定连接后端数据库使用的Driver,目前可选的值有native和JDBC,使用native的话,因为这个值执行的是二进制的MySQL协议,所以可以使用MySQL和MariaDB。其他类型的数据库则需要使用JDBC驱动来支持。但是目前还暂时不支持。 heartbeatSQL 心跳检查的语句 用于和后端数据库进行心跳检查的语句。例如,MYSQL可以使用select user()。
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        节点与分组管理
        分组管理
        关联MySQL设置
      • 安全运营中心
        本节介绍态势感知基本概念。 安全运营中心(Security Operations Center,SOC)一个集中式功能或团队,负责全天候检测端点、服务器、数据库、网络应用程序、网站和其他系统的所有活动,以实时发现潜在的威胁;对网络安全事件进行预防、分析和响应,以改进企业的网络安全态势。SOC还使用最新的威胁情报来掌握威胁组和基础结构的最新信息,并在攻击者利用系统或流程漏洞之前识别和处理这些漏洞,从而主动开展安全工作。大多数SOC每周7天全天候运行,跨多个国家/地区的大型企业/组织可能还依赖于全球安全运营中心(GSOC)来掌控全球安全威胁,并协调多个本地SOC之间的检测和响应。 SOC的功能 SOC团队承担以下职能来帮助防止、响应攻击并在遭到攻击后恢复。 资产和工具清单 为了消除覆盖范围中的盲点和缺口,SOC需要了解它保护的资产,并深入了解它用于保护企业/组织的工具。这意味着考虑到本地和多个云中的所有数据库、云服务、标识、应用程序和客户端。该团队还跟踪企业/组织中使用的所有安全解决方案,例如防火墙、反恶意软件、反勒索软件和监视软件。 减少攻击面 SOC的主要责任是减少企业/组织的攻击面。为此,SOC会维护包含所有工作负载和资产的清单、将安全修补程序应用于软件和防火墙、识别错误配置,并新资产联机时添加这些资产。团队成员还负责研究新出现的威胁并分析风险。 持续监视 SOC团队使用安全分析解决方案全天候监视整个环境 本地、云、应用程序、网络和设备,来发现异常或可疑行为;其中这些解决方案包括安全信息企业管理(SIEM)解决方案、安全编排、自动化和响应(SOAR)解决方案和扩展检测和响应(XDR)解决方案。这些工具会收集遥测数据、聚合数据,并在某些情况下自动进行事件响应。 威胁情报 SOC还使用数据分析、外部源和产品威胁报告来深入了解攻击者行为、基础结构和动机。这种情报提供了有关Internet上正在发生的情况的全局视图,并帮助团队了解威胁组是如何运作的。借助此信息,SOC可快速发现威胁,并加强企业/组织对新出现的风险的应对。 威胁检测 SOC团队使用SIEM和XDR解决方案生成的数据来识别威胁。这首先会从实际问题中筛选掉误报。然后,按严重性和对业务的潜在影响确定威胁的优先级。 日志管理 SOC还负责收集、维护和分析每个客户端、操作系统、虚拟机、本地应用和网络事件生成的日志数据。分析有助于建立正常活动的基线,并揭示可能指示恶意软件、勒索软件或病毒的异常。 事件响应 识别到网络攻击后,SOC会快速采取措施,在尽可能减少业务中断的情况下限制对企业/组织的损害。措施可能包括关闭或隔离受影响的客户端和应用程序、暂停被入侵的账户、移除遭到感染的文件,以及运行防病毒和反恶意软件。 发现和修正 在攻击之后,SOC负责将公司恢复到其原始状态。团队将擦除并重新连接磁盘、标识、电子邮件和客户端,重启应用程序,直接转换到备份系统,并恢复数据。 根本原因调查 为了防止类似的攻击再次发生,SOC进行了彻底的调查,来确定漏洞、效果不佳的安全流程和其他导致事件的教训。 安全性优化 SOC使用事件期间收集的任何情报来解决漏洞、改进流程和策略,并更新安全路线图。 合规性管理 SOC职责的一个关键部分是确保应用程序、安全工具和流程符合隐私法规,例如,《PCI DSS安全遵从包》、《ISO 27701安全遵从包》和《ISO 27001安全遵从包》等。团队定期审核系统来确保合规性,并确保在数据泄露后通知监管机构、执法人员和客户。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        产品介绍
        基本概念
        安全运营中心
      • 配置模式生成API
        配置 说明 API名称 支持中文、英文、数字、下划线,且只能以英文或中文开头,364个字符。 API目录 一个特定功能或场景的API集合,类似文件夹,是数据服务中API的最小组织单元,也是API网关中的最小管理单元。 您可单击“新建”进行新建,也可选择新建API目录已创建的API分组。 请求Path API访问路径,例如:/v2/{projectid}/streams。 请求Path即完整的url中,域名之后、查询参数之前的部分,如下图中的“/blogs/188138”。 统一资源定位符url说明 在请求路径中,可以使用大括号{}标识路径中的参数作为通配符。如“/blogs/{blogid}”表示/blogs后可以携带任何参数,例如“/blogs/188138”和“/blogs/0”均会匹配至/blogs/{blogid},由此API统一处理。 此外,相同域名下,不允许重复的请求路径出现。路径参数作为通配符时,名称不具备唯一性,例如“/blogs/{blogid}”和“/blogs/{xxxx}”,会被视作相同路径。 参数协议 用于传输请求的协议,支持HTTP和HTTPS协议。 HTTP属于基础的网络传输协议,无状态、无连接、简单、快速、灵活、使用明文传输,在使用上较为便捷,但是安全性欠佳。 HTTPS是在HTTP协议上进行了SSL或TLS加密校验的协议,能够有效验证身份以及保护数据完整性。相对的,访问HTTPS的API,需要配置相关的SSL证书或跳过SSL校验,否则将无法访问。 请求方式 HTTP请求方式,表示请求什么类型的操作,包含GET、POST等,遵循resultful风格。 GET:请求服务器返回指定资源,推荐使用GET请求。 POST:请求服务器新增资源或执行特殊操作,仅在注册API时使用。POST请求当前不支持body体,而是直接透传。 描述 对API进行简要描述。 标签 对API设置标签。用于标记当前API的属性,创建后可以通过标签快速检索定位API。单个API最多可设置20个标签。 审核人 拥有API的审核权限。 单击“新建”,进入“审核中心>审核人管理”页面,新建审核人。 安全认证 API认证方式: APP认证:表示由API网关服务负责接口请求的安全认证,安全级别最高。 IAM认证:表示借助IAM服务进行安全认证,安全级别中等。 无认证:属于无防护的模式,无需认证即可访问,安全级别低,不推荐使用。 服务目录可见性 发布后,所选范围内的用户均可以在服务目录中看到此API。 当前工作空间可见 当前项目可见 当前租户可见 访问日志 勾选,则此API的查询结果将会产生记录并被保留7天,可以在“运营管理>访问日志”处通过选择“请求日期”的方式查看对应日期的日志。 最低保留期限 API解绑前预留的最低期限。0表示不设限制。 API进行停用/下线/取消授权时,会通知已授权用户,并为用户预留至少X小时,直到所有授权用户均完成解除或处理,或者到达截止时间,API才会停用/下线/取消授权。 入参定义 配置API请求中的参数,包含资源路径中的动态参数,请求URI中的查询参数和Header参数。 添加入参定义时,如果参数设定为必填,则API在访问时,必须传入指定参数;如果非必填,则在API访问时,未传入的参数,会使用默认值进行代替。 参数大小限制如下: query+path,url最大32KB header,最大128KB body, 最大128KB 以配置资源路径中的动态参数为例进行说明,例如资源路径(请求Path)设置为: /v2/{projectid}/streams,资源路径中的{projectid}为动态参数,需要在此进行配置。 1. 单击“添加”,参数名配置为projectid。 2. 参数位置选择PATH。 3. 类型设置为STRING。 4. 选择性配置示例值和描述。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据服务
        开发API
        创建API
        配置模式生成API
      • 安全组概述
        本文帮助您了解什么是安全组,安全组规则和一些安全组实践建议。 什么是安全组 安全组是一种网络安全防护机制,用于防止未经授权的访问和保护计算机网络免受恶意攻击。它是一种虚拟防火墙,用于限制入向和出向网络流量。安全组工作在网络层和传输层,它通过检查数据包的源地址、目标地址、协议类型和端口号等信息来决定是否允许通过。安全组创建后,用户可以在安全组中定义各种访问规则,当弹性云主机加入该安全组后,即受到这些访问规则的保护。 不同资源池的安全组存在部分差异,如表1所示: 表1 可用区资源池和地域资源池的差异 对比项 多可用区资源池 地域资源池 作用机制 “白名单”机制,即不匹配规则时,默认拒绝所有访问。 “白名单”机制,即不匹配规则时,默认拒绝所有访问。 创建安全组 需指定和VPC的关联关系 无需指定和VPC的关联关系 默认安全组 一个VPC一个默认安全组 一个资源池一个默认安全组 自定义模板安全组的默认规则 自定义模板类型的安全组不存在默认规则 每个自定义模板类型的安全组存在两条默认规则 默认安全组规则 存在默认安全组规则,具体规则以表3为准 存在默认安全组规则,具体规则以表2为准 安全组是否有状态 出/入方向均有状态 仅出向有状态 安全组模板 自定义、通用Web服务器、开放全部端口 自定义、通用Web服务器、开放全部端口 默认安全组: 对于地域资源池,系统会为每个用户默认创建一个安全组,多个VPC可以共用同一个安全组。默认安全组的默认规则可参考表2“地域资源池默认安全组规则”。 对于可用区资源池,系统会为每个VPC默认创建一个安全组。一般来讲不同VPC之间是不同的业务,VPC之间是相互隔离的,相同业务一般部署在一个VPC。大多数情况下,不同的VPC由于业务的差异,所使用的安全组规则应该是不一样的。每个VPC自动建立一个默认安全组,可以满足用户不同业务需要不同安全组的场景。默认安全组的默认规则可参考表3“可用区资源池默认安全组规则”。 安全组状态: 对于地域资源池来说,安全组出向是有状态的。如果您从实例发送一个出站请求,且该安全组的出站规则是放通的话,那么无论其入站规则如何,都将允许该出站请求的响应流量流入。安全组入向是无状态的,如果您的入站规则是放通的,但是出站规则没有放通,那么相应的请求流量是不可以出站的。 对于可用区资源池来说,安全组出/入方向均有状态的。如果您从实例发送一个出站请求,且该安全组的出站规则是放通的话,那么无论其入站规则如何,都将允许该出站请求的响应流量流入。同理,如果该安全组的入站规则是放通的,那无论出站规则如何,都将允许入站请求的响应流量可以出站。 自定义安全组: 对于地域资源池来说,用户创建安全组时,模板类型为自定义的安全组会存在两条默认规则,即出向默认放通所有IP地址(0.0.0.0/0、::/0)流量的数据报文通过。 对于可用区资源池来说,用户创建安全组时,模板类型为自定义的安全组不存在默认规则,如未添加规则,则默认安全组出、入方向将均拒绝所有访问。 不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。
        来自:
        帮助文档
        虚拟私有云 VPC
        安全组
        安全组概述
      • 安装客户端
        本章节主要介绍客户端的安装。 前提条件 当安装客户端节点为集群外节点时,该节点必须能够与集群内节点网络互通,否则安装会失败。 待安装客户端节点必须启用NTP服务,并保持与服务端的时间一致,否则安装会失败。 在节点上安装客户端,可以使用root 用户或任意操作系统用户进行操作,要求该用户对客户端文件存放目录和安装目录具有操作权限,两个目录的权限为 775 。 需要允许用户使用密码方式登录Linux弹性云服务器(SSH方式)。 安装客户端 1. 请先在服务器上配置时间同步服务(ntpd或chronyd),并确认同步状态正常。 ps aux grep 'ntpdchronyd' 2. 服务器上需要安装好Kerberos客户端相关rpm包(krb5workstation或krb5client),如有sudo权限但未安装会自动进行安装。 说明 如果使用root用户执行安装脚本,则不需要再安装了,会自行安装。 3. 服务器上需要安装好jdk,并新建/usr/jdk64/目录,然后将/usr/jdk64/current软链到${JAVAHOME}。 执行java version确认是否已经安装jdk。如果使用的是天翼云的jdk,已经做好软链,不需要额外操作。 如何判断是否是天翼云的jdk?可以执行下面语句,如果能匹配出带有ccdp的内容则代表是天翼云的jdk;否则需要自己软链(下图表示不是天翼云的jdk)。 配置环境变量:sudo vim /etc/profile 软链:ln sf {JAVAHOME} /usr/jdk64/current 4. /etc/hosts内需要写入server端服务器的IP和主机名。 5. 将下载的clientconfig.tar.gz和CCDPclient.tar.gz两个安装包以及keytab文件放在同一目录。 6. tar zxvf CCDPclient.tar.gz解压,进入CCDPclient目录,目录下有md5文件和安装包,可用md5文件进行校验, 例子:md5sum c CCDP3.3.3x8664client.tar.gz.md5。 7. 再次tar zxvf CCDPclient.tar.gz解压,进入CCDPclient目录,可看到安装脚本install.sh与各组件目录。 8. 进入二次解压后的CCDPclient目录,执行sh install.sh安装客户端。可以直接用root用户安装。 9. krb5.conf配置文件拷贝需要root或有sudo权限的用户。若安装用户没有权限,则需提前使用root权限将krb5.conf拷贝到/etc/目录,随后使用安装用户执行sh install.sh s跳过krb5.conf配置,直接安装大数据客户端。 10. 安装运行的日志保存在/tmp/emrbigdataclientinstall.log中。 11. 使用客户端前需要执行source bigdataenv获取环境变量(要在同一个窗口,不能多个窗口)。source每次重新登录都要执行。 12. 集群默认启用Kerberos认证,执行以下命令认证当前用户。请用实际的keytab文件的路径替换/path/to/username.keytab。 kinit kt /path/to/username.keytab klist kt /path/to/username.keytab sed n 4p awk '{print $NF}' 13. 直接执行组件的客户端命令。 例如:使用HDFS客户端命令查看HDFS根目录文件,执行 hdfs dfs ls / 14. 客户端安装完成后,可参考“各组件客户端使用实践”使用客户端。 说明 操作步骤可参考软件包目录下的README.txt。 如需卸载客户端,可直接删除安装目录。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用翼MR客户端
        安装客户端
      • 自定义IPS特征
        本节介绍如何添加自定义IPS特征。 CFW支持自定义网络入侵特征规则,添加后,CFW将基于签名特征检测数据流量是否存在威胁。 自定义IPS特征支持添加HTTP、TCP、UDP、POP3、SMTP、FTP的协议类型。 注意 自定义的特征建议具体化,避免太宽泛,否则可能会导致大部分流量匹配到该特征规则,影响流量转发性能。 约束条件 仅“专业版”支持自定义IPS特征。 最多支持添加500条特征。 自定义的IPS特征不受修改基础防御防护模式的影响。 特征设置“方向”为“客户端到服务器”且“协议类型”为“HTTP”时,“内容选项”才能设置为“URI”。 自定义IPS特征 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“攻击防御> 入侵防御”。单击“自定义IPS特征”中的“查看规则”,进入“自定义IPS特征”页面。 5. 在“自定义IPS特征”页签中,单击列表右上角“添加自定义IPS特征”,填写规则如下表所示。 参数名称 参数说明 名称 需要添加的特征名称。 命名规则如下: 可输入中文字符、英文大写字母(A~Z)、英文小写字母(a~z)、数字(0~9)和特殊字符()。 长度不能超过255个字符。 风险等级 设置特征的风险等级。 攻击类型 选择特征的攻击类型。 影响软件 选择受影响的软件。 操作系统 选择操作系统。 方向 选择该特征匹配流量的方向。 Any:任意方向,符合其他条件的任意方向的流量都会匹配到当前规则。 服务器到客户端 客户端到服务器 协议类型 选择特征的协议类型。 源类型 选择源端口类型。 Any:任意端口类型,等同于包含所有类型。 包含 排除 说明 建议您优先选择“Any”。 源端口 “源类型”选择“包含”或“排除”时,设置源端口。 支持设置单个或多个端口,多个端口之间用半角逗号(,)隔开,如:80,100。 支持连续端口组,中间使用“”隔开,如:80443。 目的类型 选择目的端口类型。 Any:任意端口类型,等同于包含所有类型。 包含 排除 说明 建议您优先选择“Any”。 目的端口 “目的类型”选择“包含”或“排除”时,设置目的端口。 支持设置单个或多个端口,多个端口之间用半角逗号(,)隔开,如:80,100。 支持连续端口组,中间使用“”隔开,如:80443。 动作 防火墙检测到该特征流量时,采取的动作。 观察:仅对攻击事件进行检测并记录到日志中,日志记录查询请参见“日志查询”。 拦截:实施自动拦截操作。 说明 建议您优先选择“观察”,确认“攻击事件日志”记录正确后,再切换至“拦截”。 内容 特征规则中匹配的内容。 内容:跟特征匹配的内容字段,例如:cfw。 内容选项:选择“内容”匹配的限制规则。 十六进制:匹配十六进制时,“内容”需填写十六进制格式,例如:0x1F。 忽略大小写:匹配时不区分大小写。 URL:匹配URL中跟“内容”一致的字段。 相对位置:匹配特征时,指定开始的位置。 头部:从报文“偏移”值的位置开始匹配特征,例如偏移:10,则该条内容从第11位开始。 说明 当“内容选项”选择“URL”时,头部的匹配位置从域名结束(包含端口)开始计算。 例如:www.example.com/test,偏移为0,则该条内容从com后的/开始。 或www.example.com:80/test,偏移为0,则该条内容从80后的/开始。 上一个内容之后:报文中截取的位置从指定位置开始。 公式:上一条“内容”字段长度+上一条“偏移”值+“偏移”值+1 例如:上一条设置内容:test,偏移:10,本条偏移:5,则该条内容的匹配位置从第20(4+10+5+1)位开始。 偏移:匹配特征时开始的位置,例如偏移:10,则代表该条内容的匹配位置从第11位开始。 深度:匹配特征时,截止匹配的位置,例如深度:65535 ,则代表该条内容的匹配位置到第65535位截止。 说明 “深度”值需大于“内容”字段长度。 一条IPS特征中最多添加4条内容。 6. 单击“确认”,完成添加IPS特征。
        来自:
        帮助文档
        云防火墙
        用户指南
        拦截恶意攻击
        IPS规则管理
        自定义IPS特征
      • 弹性伸缩概述
        弹性伸缩是根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。 背景介绍 随着Kubernetes已经成为云原生应用编排、管理的事实标准,越来越多的应用选择向Kubernetes迁移,用户也越来越关心在Kubernetes上应用如何快速扩容面对业务高峰,以及如何在业务低谷时快速缩容节约资源与成本。 在Kubernetes的集群中,“弹性伸缩”一般涉及到扩缩容Pod个数以及Node个数。Pod代表应用的实例数(每个Pod包含一个或多个容器),当业务高峰的时候需要扩容应用的实例个数。所有的Pod都是运行在某一个节点(虚拟机)上,当集群中没有足够多的节点来调度新扩容的Pod,那么就需要为集群增加节点,从而保证业务能够正常提供服务。 弹性伸缩在CCE上的使用场景非常广泛,典型的场景包含在线业务弹性、大规模计算训练、深度学习GPU或共享GPU的训练与推理、定时周期性负载变化等。 弹性伸缩分为如下两个维度: 工作负载弹性伸缩:即调度层弹性,主要是负责修改负载的调度容量变化。例如,HPA是典型的调度层弹性组件,通过HPA可以调整应用的副本数,调整的副本数会改变当前负载占用的调度容量,从而实现调度层的伸缩。 集群/节点弹性伸缩:即资源层弹性,主要是集群的容量规划不能满足集群调度容量时,会通过弹出ECS等资源的方式进行调度容量的补充。 两个维度的弹性组件与能力可以分开使用,也可以结合在一起使用,并且两者之间可以通过调度层面的容量状态进行解耦。 CCE弹性伸缩组件介绍 CCE支持的两种弹性伸缩对比 表CCE支持的两种弹性伸缩对比 弹性伸缩 基于Kubernetes插件实现(推荐) 基于AOM服务实现 实现方式 基于CCE提供的插件ccehpacontroller实现工作负载弹性伸缩 基于CCE提供的插件autoscaler实现节点弹性伸缩 基于AOM服务实现弹性伸缩,伸缩指标和触发伸缩均由AOM服务提供 使用入口 工作负载伸缩 1. 在CCE左侧导航栏中选择“弹性伸缩”,进入“工作负载伸缩”。 2. 在左侧导航栏中选择“工作负载 > 无状态负载 Deployment/有状态负载 StatefulSet”,进入工作负载详情页,在“伸缩”页签下“弹性伸缩 HPA”。 节点伸缩 在CCE左侧导航栏中选择“弹性伸缩”,进入“节点伸缩”。 工作负载伸缩 在CCE左侧导航栏中选择“工作负载 > 无状态负载 Deployment/有状态负载 StatefulSet”,单击工作负载名称进入工作负载详情页,在“伸缩”页签下选择“弹性伸缩 AOM”。详情请参见弹性伸缩AOM。 节点扩容 在CCE左侧导航栏中选择“资源管理 > 集群管理”,进入集群详情页,选择“弹性扩容”页签。详情请参见集群弹性扩容。 约束与限制 请在使用的集群中安装对应的插件,详情请参见“创建工作负载弹性伸缩(HPA)”、“创建节点伸缩策略”。 节点伸缩仅针对节点池下的节点,使用弹性伸缩的节点池需开启弹性扩缩容功能(在创建/编辑节点池时指定)。 当前区域的AOM服务支持伸缩功能,并且CCE集群版本低于v1.17。 使用须知 支持监控指标伸缩和定时伸缩两种策略的负载伸缩。 支持调度扩容(在负载实例无法调度时自动从节点池中扩容节点)、监控指标扩容、定时扩容三种节点扩容策略。 节点缩容仅支持资源分配率缩容机制,当集群下CPU和内存分配率低于用户设置的门限(在安装/编辑autoscaler时设置)时将对节点池下节点启动缩容(该功能可以关闭)。 defaultpool仅用于兼容非节点池创建的节点。 支持监控指标伸缩和定时伸缩两种策略的负载伸缩。 支持监控指标和定时两种策略的节点扩容,不支持节点缩容。 节点仅支持设置一个节点配置(在集群详情页的“弹性扩容”页签下进行设置),且节点模板支持的节点可配参数较少。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        弹性伸缩
        弹性伸缩概述
      • 创建告警规则
        本章节主要为您讲述如何使用默认告警模板为云服务资源创建告警规则。 云监控服务提供使用告警模板创建告警规则的功能,能够让用户在为资源或者云服务添加告警规则时轻松自如,特别是对于大批量资源或者云服务同时创建告警规则,或是在日常运维中对多个资源或者云服务修改告警规则,都能够提供极大的工作便利。 创建告警规则 1.登录管理控制台。 2.单击“管理与部署 > 云监控>告警管理 > 告警规则” 。 3.单击右上角“创建告警规则”。 4.在“创建告警规则”界面,根据界面提示配置参数。 根据界面提示,配置规则信息参数。 配置规则信息 参数 参数说明 取值样例 ::: 名称 系统会随机产生一个名称,用户也可以进行修改。 alarmcgnw 描述 告警规则描述(此参数非必填项)。 5、配置告警内容参数。 存储库告警配置 事件告警配置 如果资源类型选择云备份,则可以监控存储库维度的两个指标。参数说明下表所示。 参数 参数说明 取值样例 资源类型 此处以选择“云备份”为例 云备份 维度 默认以“存储库”为维度进行监控 存储库 监控范围 根据业务需求勾选监控的存储库 backpolicy1 选择类型 根据需要可选择从模板导入或自定义创建 模板 选择需要导入的模板 告警策略 触发告警规则的告警策略。当资源类型选择具体的云服务时,告警策略为一个周期性的动作。 当资源类型选择事件监控时,具体的事件为一个瞬间的操作动作,而不是周期性动作。 目前支持配置的云备份告警策略有:· 存储库使用率· 存储库使用量 告警级别 根据告警的严重程度不同等级,可选择紧急、重要、次要、提示 重要 如果资源类型选择事件监控,则可以针对云服务备份的多个事件进行监控。参数说明下表所示。 参数 参数说明 取值样例 资源类型 此处以选择“事件监控”为例 事件监控 维度 用于指定告警规则对应指标的维度名称 系统事件 监控范围 创建事件监控针对的资源范围。默认取值:全部资源 选择类型 选择自定义创建 自定义创建 告警策略 触发告警规则的告警策略 云备份事件告警规则 事件来源 事件名称 事件级别 事件说明 处理建议 事件影响 :::::: CBR 备份失败 紧急 创建备份失败 尝试手动创建备份或者提单 可能造成数据丢失 CBR 恢复失败 紧急 使用备份恢复资源失败 尝试使用其他备份恢复或者提单 可能造成数据丢失 CBR 备份删除失败 紧急 备份删除失败 稍后重试或者提交工单 可能造成计费异常 CBR 存储库删除失败 紧急 存储库删除失败 稍后重试或者提交工单 可能造成计费异常 CBR 备份复制失败 紧急 备份复制失败 稍后重试或者提交工单 可能造成数据丢失 CBR 备份成功 重要 创建备份成功 无 无 CBR 恢复成功 重要 使用备份恢复资源成功 观察数据是否已成功恢复 无 CBR 备份删除成功 重要 备份删除成功 无 无 CBR 存储库删除成功 重要 存储库删除成功 无 无 CBR 备份复制成功 重要 备份复制成功 无 无 6、 根据界面提示,配置告警通知参数。 配置告警通知 参数 参数说明 取值样例 发送通知 配置是否发送邮件、短信、HTTP和HTTPS通知用户。启用(推荐选择), 会发送通知;不启用,不会发送通知。 通知对象 需要发送告警通知的主题名称。当发送通知选择“是”时, 需要选择已有的主题名称,若此处没有需要的主题则需先创建主题。 触发条件 可以选择“出现告警”,作为触发告警通知的条件。 7、配置完成后,单击“立即创建”,完成告警规则的创建。 告警规则添加完成后,当监控指标触发设定的阈值或发生相关的云服务备份事件时,云监控会在第一时间通告知您云备份资源异常,以免因此造成业务损失。其他详情可参考云监控产品帮助中心。
        来自:
        帮助文档
        云服务备份
        监控
        创建告警规则
      • 提交导入任务
        输入内容 说明 数据库类型 选择导入的数据库类型,支持MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle。 目标数据库 选择数据导入的数据库/模式,数据来源于在DMS控制台中添加的数据库实例,其中MySQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle可选择到库级别,PostgreSQL可选择到模式级别。当前仅支持单选一个目标库/模式。 注意 如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 导入文件类型 选择导入数据的上传文件类型: SQL:目前支持DDL和DML语句, 请每条SQL语句以英文分号 (;)收尾,并做好换行。 选择该文件类型则无法指定“ 目标表 ”和“ 写入方式 ”。 CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。 TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 JSON:仅支持MongoDB和DDS数据源。 EXCEL:支持.xls和.xlsx格式,当前仅支持第一个sheet的内容导入。 以上文件类型支持打包上传.zip格式。 导入模式 当导入文件类型选择“SQL”时,可选择“导入模式”。 极速模式:不进行文件的扫描,只对数据源进行权限校验。 安全模式:整个SQL文件的扫描,安全性高但性能较差。 选择“安全模式”的工单,会在预检查阶段进行SQL风险和SQL规范检查(SQL风险和规范支持的数据库类型,详见 目标表 针对非MongoDB和DDS数据源,在选择目标数据库下,筛选导入的目标表。如果先上传zip文件,会出现“根据压缩包内文件名判断”字样,此时用户可手动选择仅导入到单表。 仅支持CSV/TXT/EXCEL格式导入。 文件编码 选择导入文件的编码类型: UTF8:默认选中。适用于大部分英文文本。 GBK:适用于文件中带有中文的情况。 自动识别:如果不能确定文件编码类型,可选该选项。 导入行为 针对MySQL和PostgreSQL数据源,在选择文件类型为CSV/TXT/EXCEL后,支持选择“新建表”,其余数据源类型默认为“现有表”。 选择“新建表”,系统会根据导入文件中的相关字段猜测您所需的建表结构,可点击新建表的表名称打开表结构编辑页面。 注意 当前“新建表”的表结构编辑,暂不支持数据库的自定义类型作为表字段类型。新建表字段类型与导入文件是否成功密切相关,如选择“新建表”请认真检查表结构是否符合需求。 写入方式 针对非MongoDB和DDS数据源,选择导入文件的写入方式: INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。 INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。 REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。 注意 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL数据库类型支持INSERT INTO的导入方式,SQLServer数据库类型支持INSERT INTO的导入方式。 数据位置 当选择文件类型为CSV/TXT/EXCEL时,可选择文件首行属性是列名或者数据。 目标集合 针对MongoDB和DDS数据源,在选择目标数据库下,筛选导入的目标集合。如果先上传zip文件,会出现“根据压缩包内文件名判断”字样,此时用户可手动选择仅导入到单集合。仅支持JSON和CSV导入。 附件上传 单击 上传文件 ,上传选中文件类型对应的文件。 注意 目前支持SQL,CSV,TXT,JSON,EXCEL五种文件格式,上传前请检查文件名后缀是否符合要求。 目前仅支持上传单个文件,EXCEL文件仅支持第一个sheet的内容导入。 上传文件大小最大限制为5GB,请控制好文件数据大小。 工单说明 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导入
        提交导入任务
      • 创建同步任务
        参数 描述 流速模式 流速模式支持限速和不限速,默认为不限速。 限速自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。 当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为全天限流,您也可以根据业务需求自定义时段限流。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。 流速的大小需要根据业务场景来设置,不能超过9999MB/s。 不限速对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。 说明 限速模式只对全量阶段生效,增量阶段不生效。 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式。 增量阶段冲突策略 该冲突策略特指增量同步中的冲突处理策略,全量阶段的冲突默认忽略。冲突策略目前支持如下三种形式: 忽略当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 报错当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 覆盖当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 当数据发生冲突时,针对如下情况,建议选择“忽略”或者“覆盖”,否则建议选择“报错”: 目标数据库存在数据 多对一同步场景 目标数据库手动更新数据 是否过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据复制服务提供了过滤DDL操作的功能,目前支持默认过滤删除数据库的操作。 是,表示过程中不会同步用户在源数据库端执行的删除数据库的操作。 否,则表示过程中将相关操作同步到目标库。 对象同步范围 对象同步范围支持普通索引和增量DDL同步。您可以根据业务需求选择是否进行同步。 启动位点 步骤2的同步类型选择“增量”时可见,增量同步的启动位点,任务的源库日志从位点后开始获取(不含当前启动位点)。 通过show master status命令获取源库位点,根据提示分别填写File、Position、ExecutedGtidSet(如果未开gtidmode,无需填写ExecutedGtidSet)。 数据同步拓扑 数据同步功能支持多种同步拓扑,您可以根据业务需求规划您的同步实例。数据同步拓扑说明可参考 数据同步拓扑介绍。 增量支持DDL 用户根据需求选择增量同步的DDL类型,不同链路支持的DDL类型以显示为准。 一对一、一对多场景:如果业务上认为源和目标应该使用保持严格一致,那么高危类DDL也应该勾选并同步。如果业务上确定某个高危DDL不应该发生,则可以不勾选同步高危类DDL,这样DRS将拦截过滤这个DDL,从而起到保护目标数据的作用。但需要知晓,过滤DDL的附带问题是可能导致同步失败,例如过滤删列动作。 多对一数据聚合场景:最佳方式是推荐只选择同步加列DDL,其他大部分DDL同步都可能因目标表修改而导致数据不一致或多对一中其他任务失败的情况发生。 同步对象 可选表级同步、库级同步,您可以根据业务场景选择对应的数据进行同步。 选择数据的时候支持搜索,以便您快速选择需要的数据库对象。 如果有切换源数据库的操作,请在选择同步对象前单击右上角 ,以确保待选择的对象为最新源数据库对象。 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        任务管理
        创建同步任务
      • 步骤一:创建同步任务
        本节主要介绍步骤一:创建同步任务 本小节以MySQL>RDS for MySQL的实时同步为示例,介绍如何使用数据库复制服务创建两个数据库实例之间的实时同步任务,其他存储引擎的配置流程类似。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时同步支持的数据库类型,详情请参见实时同步。 满足实时同步的使用限制,详情请参见概述。 操作步骤 1、 在“实时同步管理”页面,单击“创建同步任务”。 2、 在“同步实例”页面,填选区域、任务名称、任务异常通知设置、时延阈值、任务异常自动结束时间、描述、同步实例信息,单击“下一步”。 图 同步任务信息 表 任务与描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当同步任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量同步阶段,源数据库和目标数据库之间的同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量同步阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 同步实例信息 表 同步实例信息 参数 描述 数据流动方向 选择“入云”,即目标端数据库为本云数据库。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 此处以公网网络为示例。 可根据业务场景选择公网网络、VPC网络和VPN、专线网络。 目标数据库实例 用户所创建的关系型数据库实例。 说明 目标数据库实例不支持选择只读实例。 目标数据库实例可以和源数据库选择同一个实例。 同步类型 此处以“全量+增量”为示例。 “全量+增量”: 该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。 说明 选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。 “增量”: 增量同步通过解析日志等技术,将源端产生的增量实时同步至目标端。 3、同步实例创建成功后,在“源库及目标库”页面,填选源库信息和目标库信息后,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 入云和出云场景中源库和目标库需要填选的信息不同,具体以界面为准。 入云场景: 图 源库信息 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 源数据库的用户名。 数据库密码 源数据库用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 说明 源数据库IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 数据库实例名称 默认为创建迁移任务时选择的关系型数据库实例,不可进行修改。 数据库用户名 目标数据库对应的用户名。 数据库密码 目标数据库用户名对应的密码。支持在任务创建后修改密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 说明 目标数据库用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 出云场景: 图 源库信息 表 源库信息 参数 描述 数据库实例名称 默认为创建任务时选择的云数据库实例,不可进行修改。 数据库用户名 源数据库对应的用户名。 数据库密码 源数据库用户名对应的密码。任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码 说明 源数据库的用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 图 目标库信息 表 目标库信息 参数 描述 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、全量同步、增量同步、增量同步失败状态时,可在“基本信息”页面的“同步信息”区域,单击“目标库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 说明 目标数据库的IP地址、端口、用户名和密码将在同步过程中被加密暂存到数据库和同步实例主机上,待该任务删除后会永久清除。 4、在“设置同步”页面,选择数据冲突策略和同步对象,单击“下一步” 图 同步模式 表 同步模式和对象 参数 描述 冲突策略 数据库复制服务提供的实时同步功能使用了主键或唯一键冲突策略,这些策略可以由您自主选择,尽可能保证源数据库中有主键约束或唯一键约束的表同步到目标数据库是符合预期的。 冲突策略目前支持如下三种形式: 忽略 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将跳过冲突数据,继续进行后续同步。 报错 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),同步任务将失败并立即中止。 覆盖 当同步数据与目标数据库已有数据冲突时(主键/唯一键存在重复等),将覆盖原来的冲突数据。 说明 目前仅MySQL>RDS for MySQL的同步场景支持设置“覆盖”冲突策略。 当数据发生冲突时,针对如下情况,建议选“忽略”或者“覆盖”,否则建议选“报错”: 目标数据库存在数据 多对一同步场景 目标数据库手动更新数据 是否过滤DROP DATABASE 实时同步过程中,源数据库端执行的DDL操作在一定程度上会影响数据的同步能力,为了降低同步数据的风险,数据库复制服务提供了过滤DDL操作的功能。 目前支持默认过滤删除数据库的操作。 是,表示实时同步过程中不会同步用户在源数据库端执行的删除数据库操作。 否,则表示实时同步过程中将相关操作同步到目标库。 说明 目前仅以下链路的数据同步场景支持过滤DDL操作。 MySQL数据库>RDS for MySQL实例 RDS for MySQL实例>MySQL数据库 对象同步范围 对象同步范围支持普通索引和增量DDL同步。可根据业务需求选择是否进行同步。 同步对象 同步对象支持库级和表级同步,您可以根据业务场景选择对应的数据进行同步。部分链路还支持文件导入对象。 图 导入对象文件 如果有切换源数据库的操作或源库同步对象变化的情况,请务必在选择同步对象前单击右上角,以确保待选择的对象为最新源数据库对象。 说明 选择对象的时候支持搜索,以便您快速选择需要的数据库对象。 MySQL>RDS for MySQL实时同步支持表级和库级同步。 实时同步功能可以支持源数据库和目标数据库中的同步对象(包括数据库、schema、表)的名称不同。如果同步的数据库对象在源数据库和目标数据库中的命名不同,那么可以使用数据库复制服务提供的对象名映射功能进行映射。其中包括:库映射、schema映射、表映射。 对象名映射的具体操作请参考《数据库复制服务用户指南》中“对象名映射”章节。 导入对象文件的具体操作如下: 1. 单击“下载模板”。 2. 在下载的Excel模板中,填写需要导入的对象信息。 3. 单击“添加文件”,在对话框中选择编辑完成的模板。 4. 单击“上传文件”。 说明 文件导入仅支持导入Windows Microsoft Excel 972003版本(.xls),2007及以上版本(.xlsx)的文件,下载的压缩包提供上述两个版本模板 文件名支持的有效字符:大小写字母,数字,“”,“”,“(”,“)” 模板中的对象信息需按照SchemaName.TableName的格式进行填写,不支持“ ”,"."和“"”,且不支持以空格开头或结尾的对象。 文件导入成功后,必须保留本次上传的文件,以便需要再编辑该任务的数据库对象范围时,可直接基于此文件修改,然后再次上传。 用文件导入功能所创建的任务,任务启动之后再编辑时,不支持切换到“表级同步”和“库级同步”功能。 配置中的任务,可使用“表级同步”,“库级同步”或“文件导入”三种方式,每次切换新的方式后,当前选择或者导入的数据库对象被清空,需重新选择或导入。 5、在“数据加工”页面,根据需要设置数据加工的过滤规则。 如果不需要设置数据加工规则,选择“不加工”,单击“下一步”。 如果需要设置数据加工规则,选择“数据过滤”,参考数据加工,设置相关过滤规则 数据加工 6、在“预检查”页面,进行同步任务预校验,校验是否可进行实时同步。 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。 预检查不通过项处理建议请参见《数据库复制服务用户指南》中的“预检查不通过项修复方法”。 预检查完成后,且所有检查项结果均通过时,单击“下一步”。 图 预检查 说明 所有检查项结果均通过时,若存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。 7、在“任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,勾选协议,单击“启动任务”,提交同步任务。 说明 同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。 预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。 8、同步任务提交后,您可在“实时同步管理”页面,查看并管理自己的任务。 您可查看任务提交后的状态,状态请参见参考:任务状态含义。 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时同步
        步骤一:创建同步任务
      • 创建文件系统
        海量文件系统是天翼云文件存储的产品之一,本文为您介绍创建文件系统的步骤。 操作场景 文件系统支持挂载至多台云主机、物理机等计算服务,从而实现文件系统的共享访问。本文介绍如何创建文件系统实例,包含包年包月和按量付费两种计费模式。 说明 本服务当前在华东1支持创建按实际使用量付费的文件系统实例,您可以提交工单申请白名单试用,具体参考按实际用量付费计费说明。 前提条件 创建文件系统之前,请确认该地域已创建VPC,具体操作请参考创建VPC、子网搭建私有网络。 文件系统和云主机须归属于相同VPC,才能保证网络互通,实现文件的挂载访问。 操作步骤 1. 登录天翼云控制中心,单击管理控制台左上角的,选择地域。 2. 选择“存储>海量文件服务 OceanFS”,进入OceanFS文件系统列表页面。 3. 点击“创建OceanFS实例”,进入创建文件系统页面。 4. 根据界面提示配置参数,参数说明如表所示: 参数 说明 计费方式 支持包年包月和按量付费。预付费用户选择按量计费请保证账户余额超过100元。 地域 从地理位置和网络时延维度划分,同一个地域内共享弹性计算、弹性文件服务、VPC网络、弹性公网IP、镜像等公共服务。 企业项目 选择归属的企业项目,默认为default,只能选择已创建的企业项目。启用企业项目管理功能后可进行企业项目迁移。 可用区 同一地域内,电力和网络互相独立的地理区域。文件系统可被同一地域不同可用区的云主机挂载访问。 名称 系统自动生成名称,支持用户自定义修改,不可重复。文件系统名称只能由数字、“”、字母组成,不能以数字和“”开头、且不能以“”结尾,2~255字符。 存储类型 支持OceanFS容量型。 协议类型 支持CIFS协议、NFS协议。NFS协议仅支持Linux,CIFS协议仅支持Windows。 说明 不同资源池覆盖情况不同,以订购页面实际展示为准。各资源池能力情况可参考产品能力地图。 选择网络 选择虚拟私有云(VPC),若当前地域没有虚拟私有云,点击“创建虚拟私有云”,创建完成后刷新可选择新建的虚拟私有云。 注意 文件系统须与计算服务同属一个VPC,才能挂载成功。 终端节点 默认关闭。开启后,创建开启后本服务将为您创建免费的终端节点(VPCE),自动连接OceanFS文件存储服务。若挂载物理机必须通过终端节点访问OceanFS文件系统,其它计算服务如云主机、容器为非必须。创建VPCE后将返回该VPC专属的挂载地址,通常需要1~3分钟。 注意 为您创建的VPC终端节点(VPCE)为免费服务 ,可以在“网络VPC终端节点”控制台查看到,请务必不要删除或修改“VPCEoceanfs”开头的VPCE,否则可能导致客户端与文件系统断开连接,影响业务进行。 若系统检测到您选用的VPC中已有VPC终端节点,将复用该VPC终端节点。 IP地址类型 选择创建VPC终端节点后需要选择子网。目前仅支持IPv4类型的VPC终端节点,VPC终端节点将占用VPC子网中的一个IP,您可以选择对应的子网,方便进行网络规划。 容量 100GB起步,步长1GB。可以选择按GB或TB 自定义容量。默认单文件系统最大支持1PB,可提交工单申请更大容量,最大可申请至4PB。 说明 单用户默认总配额为500TB,若需要创建500TB以上的文件系统实例,请先提交工单申请提高用户总容量配额。 按量付费是根据订购时配置容量按小时计费,不是按实际使用量计费,开通后即开始计费。华东1可申请白名单试用按实际用量付费的文件系统实例。 购买时长 可选择1个月3年。选择按年订购可享受包年一次性折扣,参考包年包月计费说明。 自动续订,是否启动自动续订。按月购买:自动续订周期为1个月;按年购买:自动续订周期为1年。 数量 同一订单创建相同配置文件系统的数量,受用户配额约束。 同时创建多个实例时,系统将自动在名称末尾增加数字编号后缀进行区分。例如数量为2时,名称为“oceanfs36d8001、oceanfs 36d8002"。 5. 配置完成后,点击“下一步”,进入购买界面,确定相关规格配置,阅读天翼云海量文件服务协议。 6. 确认无误,勾选“我已阅读并同意相关协议”,单击“立即购买”,包年/包月模式下完成支付,即完成文件系统的购买。 7. 返回OceanFS控制台,等待文件系统的状态变为“可用”,表示文件系统创建成功。
        来自:
        帮助文档
        海量文件服务 OceanFS
        快速入门
        创建文件系统
      • 手动配置信息
        本章节内容主要介绍手动配置信息 操作场景 目前从本地或虚拟机通过DRS备份迁移功能直接迁移到本云RDS for SQL Server实例上,在迁移完成后还需要针对Login账号,DBLink,AgentJOB,关键配置进行识别,并手动完成相关同步工作。 Login账号 Login账号即SQL Server的实例级账号,主要用于用户管理用户服务器权限与数据库权限。一个用户通常会有多个该类型账号,用户迁移到RDS for SQL Server实例后,需要手动将自己本地的Login账号同步在实例上进行创建,以下方法将介绍如何在本云RDS for SQL Server实例上创建同名,同密码的Login账号,并进行授权操作。 1.通过以下脚本获取本地实例Login账号创建脚本,获取到的脚本可以直接在目标端上执行,以创建同名,同密码的Login账号。 SELECT 'IF (SUSERID('+QUOTENAME(SP.name,'''')+') IS NULL) BEGIN CREATE LOGIN ' +QUOTENAME(SP.name)+ CASE WHEN SP.typedesc 'SQLLOGIN' THEN ' WITH PASSWORD ' +CONVERT(NVARCHAR(MAX),SL.passwordhash,1)+ ' HASHED,SID' +CONVERT(NVARCHAR(MAX),SP.SID,1)+',CHECKEXPIRATION ' CASE WHEN SL.isexpirationchecked 1 THEN 'ON' ELSE 'OFF' END +', CHECKPOLICY ' +CASE WHEN SL.ispolicychecked 1 THEN 'ON,' ELSE 'OFF,' END ELSE ' FROM WINDOWS WITH' END ' DEFAULTDATABASE[' +SP.defaultdatabasename+ '], DEFAULTLANGUAGE[' +SP.defaultlanguagename+ '] END;' as CreateLogin FROM sys.serverprincipals AS SP LEFT JOIN sys.sqllogins AS SL ON SP.principalid SL.principalid WHERE SP.type 'S' AND SP.name NOT LIKE ' % ' AND SP.name NOT LIKE 'NT AUTHORITY%' AND SP.name NOT LIKE 'NT SERVICE%' AND SP.name NOT IN ('rdsadmin','rdsbackup','rdsuser','rdsmirror','public') 2.执行1脚本可获取如下执行脚本。 图1 获取执行脚本 3.复制2中的执行脚本在目标端直接执行,创建出来的Login账号跟原实例密码一致。 4.将新建的Login账号跟用户当前RDS SQL Server实例上的迁移过来的数据库用户权限进行映射(mapping),以保证该账号在当前实例上的权限一致性,执行脚本如下。 declare @DBName nvarchar(200) declare @Loginname nvarchar(200) declare @SQL nvarchar(MAX) set @Loginname 'TestLogin7' //输入Login名称逐个执行 declare DBNameCursor cursor for select quotename(name)from sys.databases where databaseid > 4 and state 0 and name not like '%$%' and name <> 'rdsadmin' open DBNameCursor fetch next from DBNameCursor into @DBName WHILE @@FETCHSTATUS 0 begin SET @SQL' USE '+ (@DBName)+ ' if exists(select top 1 1 from sys.sysusers where name '''+ @LoginName +''') begin ALTER USER '+@Loginname+' with login '+@Loginname+'; end ' print @SQL EXEC (@SQL) fetch next from DBNameCursor into @DBName end close DBNameCursor deallocate DBNameCursor 说明: 以上脚本执行完成后,用户即可在自己的新实例上看到同名的登录账号,并且密码跟权限是完全跟本地一致的。 DBLink连接 DBLink连接指SQL Server支持用户通过创建DBLink连接的方式,跟外部实例上的数据库进行交互,这种方式可以极大的方便用户不同实例间,不同数据库类型之间的数据库查询,同步,比较,所以大部分用户都会在本地实例上用到该服务,但是迁移上云后,本地DBLink是不会自动同步到云上实例的,还需要简单的手动进行同步。 1.通过微软提供的官方Microsoft SQL Server Management Studio客户端工具连接本地实例与云上实例,同时在“服务器对象 > 链接服务器”下找到当前实例的DBLink链接。 图2 查看DBLink链接 2.选中链接服务器,然后按F7,会自动弹出对象资源管理信息页,在该页面中可以方便你快速的自动创建脚本。 图 自动创建脚本 3.在新窗口中,可以看到当前实例上所有DBLink的创建脚本,仅需复制该脚本到目标实例上,并修改@rmtpassword上的密码即可执行创建操作。 USE [master] GO / Object: LinkedServer [DRSTESTREMOTE] Script Date: 2019/5/25 17:51:50 / EXEC master.dbo.spaddlinkedserver @server N'DRSTESTREMOTE', @srvproductN'', @providerN'SQLNCLI', @datasrcN'DESKTOPB18JH5TSQLSERVER2016EE' / For security reasons the linked server remote logins password is changed with
        来自:
        帮助文档
        数据库复制
        最佳实践
        本地Microsoft SQL Server备份迁移到云上RDS for SQL Server实例
        手动配置信息
      • 集群实例负载不均衡问题排查
        本节主要介绍负载不均衡的常见处理方法。 对于集群方式部署的实例,常见Shard间负载不均衡,一般有如下原因:没有做分片,片键选择不正确,不做chunk预置,shard间均衡速度低于数据插入速度等。 排查方法 步骤 1 通过客户端连接数据库。 步骤 2 执行如下命令,查看分片信息。 mongos> sh.status() Sharding Status sharding version: { "id" : 1, "minCompatibleVersion" : 5, "currentVersion" : 6, "clusterId" : ObjectId("60f9d67ad4876dd0fe01af84") } shards: { "id" : "shard1", "host" : "shard1/172.16.51.249:8637,172.16.63.156:8637", "state" : 1 } { "id" : "shard2", "host" : "shard2/172.16.12.98:8637,172.16.53.36:8637", "state" : 1 } active mongoses: "4.0.3" : 2 autosplit: Currently enabled: yes balancer: Currently enabled: yes Currently running: yes Collections with active migrations: test.coll started at Wed Jul 28 2021 11:40:41 GMT+0000 (UTC) Failed balancer rounds in last 5 attempts: 0 Migration Results for the last 24 hours: 300 : Success databases: { "id" : "test", "primary" : "shard2", "partitioned" : true, "version" : { "uuid" : UUID("d612d134a4994428ab21b53e8f866f67"), "lastMod" : 1 } } test.coll shard key: { "id" : "hashed" } unique: false balancing: true chunks: shard1 20 shard2 20 “databases”中列出的所有数据库都是通过enableSharding开放了分片的库。 “test.coll”表示开启分片的namespace信息,其中test为集合所在的库名,coll为开启分片的集合名。 “shard key”表示前面集合的分片键,分片方式“id : hashed”表示通过id进行哈希分片,如果是“id : 1”,则代表通过id的范围进行分片。 “chunks”代表分片的分布情况。 步骤 3 根据步骤2查询出的结果,分析分片信息。 1. 如果业务性能存在瓶颈的数据库和集合,在上述“databases”以及子项中不存在,则说明业务集合没有进行分片。对于集群来说这意味着业务只有一个Shard承载,没有应用DDS的水平扩展能力。 此场景下可以通过如下的命令开启分片,充分发挥实例的水平扩展能力。 mongos> sh.enableSharding(" ") mongos> use admin mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 2. 如果“shardKey”分片片键选择不合理,也会导致负载不均衡。典型场景有业务热点数据分布在某个范围内,而分片的片键选择范围分片的方式,那么可能会出现热点数据所在的chunk对应的Shard负载会明显的高于其他Shard,最终导致整体性能出现瓶颈。 此场景下可以通过重新设计片键的分布方式来达到目标,比如将范围分片修改为哈希分片。 mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 说明 一个集合选择了分片方式,则不能在原集合上随时修改。所在集合在设计阶段需要充分考虑分片方式。 更多关于设置数据分片的内容请参见 3. 如果存在集中大批量的插入数据的场景,数据量超过单shard承载能力的话,可能会出现Balance速度赶不上插入速度,导致主shard存储空间占用率过高。 此场景可以使用sar命令查看服务器网络连接情况,分析每个网卡的传输量和是否达到传输上限。 sar n DEV 1 //1为间隔时间 Average: IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s %ifutil Average: lo 1926.94 1926.94 25573.92 25573.92 0.00 0.00 0.00 0.00 Average: A10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A11 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: NIC0 5.17 1.48 0.44 0.92 0.00 0.00 0.00 0.00 Average: NIC1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A00 8173.06 92420.66 97102.22 133305.09 0.00 0.00 0.00 0.00 Average: A01 11431.37 9373.06 156950.45 494.40 0.00 0.00 0.00 0.00 Average: B30 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: B31 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 说明 “rxkB/s”为每秒接收的kB数。 “txkB/s”为每秒发送的kB数。 检查完后,按“Ctrl+Z”键退出查看。 对于网络过高的情况,建议对MQL语句进行分析,优化思路,降低带宽消耗,提升规格扩大网络吞吐能力。 建议排查业务是否存在分片集合的情况消息中未携带ShardKey的情况,此场景下请求消息会进行广播,增加带宽消耗。 控制客户端并发线程数,降低网络带宽流量。 以上操作无法解决问题时,请及时提升实例规格,高规格节点对应更高网络吞吐能力的虚拟机。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        集群实例负载不均衡问题排查
      • 集群拓扑(集群版)
        本节主要介绍集群拓扑。 点击导航栏中的“系统”>“集群拓扑”,进入“集群拓扑”,可以查看HBlock的集群拓扑图。 集群拓扑对集群物理资源实际部署方式的可视化逻辑展示。 图1 集群拓扑 名称 描述 根节点 根节点名称默认为default。点击右键,可以选择“添加子节点”或“编辑”节点。 根节点 添加子节点 父节点类型。 根节点 添加子节点 父节点名称。 根节点 添加子节点 子节点类型,可以选择: room:机房。选择room时,可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 描述:节点描述,取值:1~50位字符串。 rack:机架。选择rack时,可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 描述:节点描述,取值:1~50位字符串。 server:服务器。选择server,添加服务器。添加服务器时,待添加的服务器安装HBlock后,才可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 服务器IP:指定需要添加的服务器IP,支持IPv4和IPv6地址。 端口号:指定API端口号。取值范围是[1, 65535],默认值是1443。需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录:包括数据目录、容量配额、操作。 数据目录:服务器中,用于存储用户数据的绝对路径。 容量配额:一旦达到配额,就立刻阻止数据写入。支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作:点击“移除”,可以移除添加的数据目录。点击“添加”,可以添加数据目录。 描述:节点描述,取值:1~50位字符串。 根节点 编辑 节点名称:修改节点名称。取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 根节点 编辑 描述:节点描述,取值:1~50位字符串。 room类型节点 机房类型的节点。将鼠标放至节点名称处,可以显示节点名称、类型及描述信息。点击右键,可以选择添加子节点、移除或编辑节点。 room类型节点 添加子节点 父节点类型。 room类型节点 添加子节点 父节点名称。 room类型节点 添加子节点 子节点类型,可以选择: rack:机架。选择rack时,可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 描述:节点描述,取值:1~50位字符串。 server:服务器。选择server,添加服务器。添加服务器时,待添加的服务器安装HBlock后,才可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 服务器IP:指定需要添加的服务器IP,支持IPv4和IPv6地址。 端口号:指定API端口号。取值范围是[1, 65535],默认值是1443。需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录:包括数据目录、容量配额、操作。 数据目录:服务器中,用于存储用户数据的绝对路径。 容量配额:一旦达到配额,就立刻阻止数据写入。支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作:点击“移除”,可以移除添加的数据目录。点击“添加”,可以添加数据目录。 描述:节点描述,取值:1~50位字符串。 room类型节点 移除 当room节点没有子节点时,可以点击移除按钮,删除该节点。 room类型节点 编辑 节点名称:修改节点名称。取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 room类型节点 编辑 描述:节点描述,取值:1~50位字符串。 rack类型节点 机房类型的节点。将鼠标放至节点名称处,可以显示节点名称、类型及描述信息。点击右键,可以选择添加子节点、移除节点、编辑节点或重映射。 rack类型节点 添加子节点 父节点类型。 rack类型节点 添加子节点 父节点名称。 rack类型节点 添加子节点 子节点类型,可以选择server,添加服务器。添加服务器时,待添加的服务器安装HBlock后,才可以编辑下列信息: 子节点名称:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 服务器IP:指定需要添加的服务器IP,支持IPv4和IPv6地址。 端口号:指定API端口号。取值范围是[1, 65535],默认值是1443。需要和该服务器安装HBlock时设置的API端口号保持一致。 数据目录:包括数据目录、容量配合、操作。 数据目录:服务器中,用于存储用户数据的绝对路径。 容量配额:一旦达到配额,就立刻阻止数据写入。支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作:点击“移除”,可以移除添加的数据目录。 描述:节点描述,取值:1~50位字符串。 rack类型节点 移除 当rack节点没有子节点时,可以点击“移除”按钮,删除该节点。 rack类型节点 编辑 节点名称:修改节点名称。取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 rack类型节点 编辑 描述:节点描述,取值:1~50位字符串。 rack类型节点 重映射 变更父节点。通过下拉框,重新选择父节点名称。 server类型节点 服务器类型的节点。 将鼠标放至节点名称处,可以显示节点名称、类型、服务器ID、业务IP、集群IP、数据目录容量、数据目录已用容量、服务器状态及描述信息。 点击右键,可以选择添加子节点、移除节点、编辑节点或重映射。 server类型节点 添加子节点 父节点类型。 server类型节点 添加子节点 父节点名称。 server类型节点 添加子节点 子节点类型,可以选择path,添加数据目录。 数据目录:服务器中,用于存储用户数据的绝对路径,一次可以添加多个数据目录,数据目录以英文逗号(,)分开。 容量配额:一旦达到配额,就立刻阻止数据写入。支持输入数字(默认单位为GiB),或者输入“数字+单位”,数字应精确到两位小数,单位可为KiB、MiB、GiB、TiB或者PiB,并且配额需要不大于数据目录总容量,0表示禁止写入,负数或者不填表示无限制。 操作:点击“移除”,可以移除添加的数据目录。点击“添加”,可以添加数据目录。 server类型节点 移除 点击“移除”按钮,可以移除服务器。 注意 如果移除已损毁或者宕机的服务器,需要使用强制移除。强制移除服务器,会产生数据丢失风险,请谨慎操作。 如果移除服务器上有iSCSI目标,该iSCSI目标对应卷的高可用类型是ActiveStandby,移除服务器时,业务不会中断,此卷对应的iSCSI目标会切换到其他服务器上,客户端需要重新连接Target对应的新服务器IP。 如果移除服务器上有iSCSI目标,该iSCSI目标对应卷的高可用类型是Disabled,移除服务器时,业务会中断,此卷对应的iSCSI目标会切换到其他服务器上,客户端需要重新连接Target对应的新服务器IP。但服务器移除时,会有数据丢失风险。 如果执行日志采集后,产生的日志保存在服务器安装目录下,在服务器移除之后,该日志将被删除。如果产生的日志保存在HBlock的数据目录内,并且移除服务器时删除服务器HBlock数据目录中的数据,该日志也将被删除。 有服务器正在移除时,不能再移除其他服务器。如果必须移除,请使用强制移除,但有丢数据风险。 该节点的所有数据目录不属于任何存储池,允许移除该服务器。否则不能移除,如果必须移除,请使用强制移除,但有丢数据风险。 如果要移除服务器的某个数据目录属于基础存储池,且是基础存储池中仅剩的一个可用故障域中的节点,不允许移除。 server类型节点 编辑 节点名称:修改节点名称。取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 server类型节点 编辑 描述:节点描述,取值:1~50位字符串。 server类型节点 重映射 变更父节点。通过下拉框,重新选择父节点名称。 path类型节点 数据目录类型的节点。 将鼠标放至节点名称处,可以显示节点名称、类型、数据目录容量、数据目录已用容量、容量配额、已用容量配额、健康状态、健康详情、存储池。 点击右键,可以移除数据目录。 注意 强制移除数据目录,有产生数据丢失风险。 如果执行日志采集后,产生的日志保存在HBlock的数据目录内,移除数据目录时删除数据目录上的HBlock数据,该日志将被删除。 有数据目录正在移除时,不能再移除其他数据目录。如果必须移除,请使用强制移除,但有丢数据风险。
        来自:
        帮助文档
        存储资源盘活系统
        用户指南
        集群拓扑(集群版)
      • CCE发布Kubernetes 1.27版本说明
        本节主要介绍CCE发布Kubernetes 1.27版本 云容器云容器引擎(CCE)严格遵循社区一致性认证,现已支持创建Kubernetes 1.27集群。本文介绍Kubernetes 1.27版本相对于1.25版本所做的变更说明。 主要特性 Kubernetes 1.27版本 SeccompDefault特性已进入稳定阶段 如需使用SeccompDefault特性,您需要为每个节点的kubelet启用seccompdefault命令行标志。如果启用该特性,kubelet将为所有工作负载默认使用RuntimeDefault seccomp配置文件,该配置文件由容器运行时定义,而不是使用Unconfined(禁用seccomp)模式。 Job可变调度指令 该特性在Kubernetes 1.22版本中引入,当前已进入稳定阶段。在大多数情况下,并行作业Pod希望在一定的约束下运行,例如希望所有Pod在同一可用区。该特性允许在Job开始前修改调度指令。您可以使用suspend字段挂起Job,在Job挂起阶段,Pod模板中的调度部分(例如节点选择器、节点亲和性、反亲和性、容忍度)允许修改。 Downward API HugePages已进入稳定阶段 在Kubernetes 1.20版本中,Downward API引入了 requests.hugepages 和 limits.hugepages ,HugePage可以和其他资源一样设置资源配额。 Pod调度就绪态进入Beta阶段 Pod创建后,Kubernetes调度程序会负责选择合适的节点运行pending状态的Pod。在实际使用时,一些Pod可能会由于资源不足长时间处于pending状态。这些Pod可能会影响集群中的其他组件运行(如Cluster Autoscaler)。通过指定/删除Pod的.spec.schedulingGates,您可以控制Pod何时准备好进行调度。 通过Kubernetes API访问节点日志 此功能当前处于Alpha阶段。集群管理员可以直接查询节点上的服务日志,可以帮助调试节点上运行的服务问题。如需使用此功能,请确保在该节点上启用了NodeLogQuery特性门控,并且kubelet配置选项enableSystemLogHandler和enableSystemLogQuery都设置为true。 ReadWriteOncePod访问模式进入Beta阶段 在Kubernetes 1.22版本中,PV和PVC提供了一种新的访问模式ReadWriteOncePod,该功能当前进入Beta阶段。卷可以被单个Pod以读写方式挂载。如果您想确保整个集群中只有一个Pod可以读取或写入该PVC,请使用ReadWriteOncePod访问模式。 Pod拓扑分布约束中matchLabelKeys字段进入Beta阶段 matchLabelKeys是一个Pod标签键的列表,用于选择需要计算分布方式的Pod集合。使用matchLabelKeys字段,您无需在变更Pod修订版本时更新pod.spec。控制器或Operator只需要将不同修订版的标签键设为不同的值。调度器将根据matchLabelKeys自动确定取值。 快速标记SELinux卷标签功能进入Beta阶段 默认情况下,容器运行时递归地将SELinux标签赋予所有Pod卷上的所有文件。 为了加快该过程,Kubernetes使用挂载可选项 o context 可以立即改变卷的SELinux标签。 VolumeManager重构进入Beta阶段 重构的VolumeManager后,如果启用NewVolumeManagerReconstruction特性门控,将会在kubelet启动期间使用更有效的方式来获取已挂载卷。 服务器端字段校验和OpenAPI V3已进入稳定阶段 Kubernetes 1.23中添加了对OpenAPI v3的支持,1.24版本中已进入Beta阶段,1.27已进入稳定阶段。 控制StatefulSet启动序号 Kubernetes 1.26为StatefulSet引入了一个新的Alpha级别特性,可以控制Pod副本的序号。 从Kubernetes 1.27开始,此特性进入Beta阶段,序数可以从任意非负数开始。 HorizontalPodAutoscaler ContainerResource类型指标进入Beta阶段 Kubernetes 1.20在HorizontalPodAutoscaler (HPA) 中引入了ContainerResource类型指标。在 Kubernetes 1.27中,此特性进阶至Beta,相应的特性门控 (HPAContainerMetrics) 默认被启用。 StatefulSet PVC自动删除进入Beta阶段 Kubernetes v1.27提供一种新的策略机制,用于控制StatefulSets的PersistentVolumeClaims(PVCs)的生命周期。这种新的PVC保留策略允许用户指定当删除StatefulSet或者缩减StatefulSet中的副本时,是自动删除还是保留从StatefulSet规约模板生成的PVC。 磁盘卷组快照 磁盘卷组快照在Kubernetes 1.27中作为Alpha特性被引入。 此特性允许用户对多个卷进行快照,以保证在发生故障时数据的一致性。 它使用标签选择器来将多个PersistentVolumeClaims分组以进行快照。 这个新特性仅支持CSI卷驱动器。 kubectl apply裁剪更安全、更高效 在Kubernetes 1.5版本中,kubectl apply引入了prune标志来删除不再需要的资源,允许kubectl apply自动清理从当前配置中删除的资源。然而,现有的prune实现存在设计缺陷,会降低性能并导致意外行为。 为NodePort Service分配端口时避免冲突 在Kubernetes 1.27中,您可以启用新的特性门控ServiceNodePortStaticSubrange,为NodePort Service使用不同的端口分配策略,减少冲突的风险。当前该特性处于Alpha阶段。 原地调整Pod资源 在Kubernetes 1.27中,允许用户调整分配给Pod的CPU和内存资源大小,而无需重新启动容器。 加快Pod启动 在Kubernetes 1.27中进行了一系列的参数调整,以提高Pod的启动速度,例如并行镜像拉取、提高Kubelet默认API每秒查询限值等。 KMS V2进入Beta阶段 Kubernetes中的密钥管理KMS v2 API进入Beta阶段,对KMS加密提供程序的性能进行了重大改进。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        CCE发布Kubernetes 1.27版本说明
      • 头域说明
        本文主要介绍头域说明 头域说明 协议头字段名 说明 Accept 能够接受的回应内容类型(ContentTypes)。 AcceptCharset 能够接受的字符集。 AcceptDatetime 能够接受的按照时间来表示的版本。 AcceptEncoding 能够接受的编码方式列表。 AcceptLanguage 能够接受的回应内容的自然语言列表。 Authorization 用于超文本传输协议认证的认证信息。 CacheControl 用来指定在这次的请求/响应链中的所有缓存机制都必须遵守的指令。 Connection 该浏览器想要优先使用的连接类型。 ContentLength 以八位字节数组(8位的字节)表示的请求体的长度。 ContentMD5 请求体的内容的二进制MD5散列值,以 Base64 编码的结果。 ContentType 请求体的多媒体类型(用于POST和PUT请求中)。 Cookie 之前由服务器通过Set Cookie 发送的一个超文本传输协议Cookie。 Date 发送该消息的日期和时间。 Expect 表明客户端要求服务器做出特定的行为。 From 发起此请求的用户的邮件地址。 Host 服务器的域名(用于虚拟主机 ),以及服务器所监听的传输控制协议端口号。如果所请求的端口是对应的服务的标准端口,则端口号可被省略。自超文件传输协议版本1.1(HTTP/1.1)开始便是必需字段,在本服务中如果URL中填写的域名为IP地址会自动添加该字段,否则请将被测应用的IP与端口信息填写在该字段。 IfMatch 仅当客户端提供的实体与服务器上对应的实体相匹配时,才进行对应的操作。主要作用是,用作像PUT 这样的方法中,仅当从用户上次更新某个资源以来,该资源未被修改的情况下,才更新该资源。 IfModifiedSince 允许在对应的内容未被修改的情况下返回304未修改( 304 Not Modified )。 IfNoneMatch 允许在对应的内容未被修改的情况下返回304未修改( 304 Not Modified ),参考超文本传输协议的实体标记。在典型用法中,当一个URL被请求,Web服务器会返回资源和其相应的ETag值,它会被放置在HTTP的“ETag”字段中,然后,客户端可以决定是否缓存这个资源和它的ETag。以后,如果客户端想再次请求相同的URL,将会发送一个包含已保存的ETag和“IfNoneMatch”字段的请求。 IfRange 如果该实体未被修改过,则向发送方发送其所缺少的那一个或多个部分;否则,发送整个新的实体。 IfUnmodifiedSince 仅当该实体自某个特定时间以来未被修改的情况下,才发送回应。 MaxForwards 限制该消息可被代理及网关转发的次数。 Origin 发起一个针对跨来源资源共享的请求(要求服务器在回应中加入一个‘访问控制允许来源’('AccessControlAllowOrigin')字段)。 Pragma 与具体的实现相关,这些字段可能在请求/回应链中的任何时候产生多种效果。 ProxyAuthorization 用来向代理进行认证的认证信息。 Range 仅请求某个实体的一部分。字节偏移以0开始。 Referer 表示浏览器所访问的前一个页面,正是那个页面上的某个链接将浏览器带到了当前所请求的这个页面。 TE 浏览器预期接受的传输编码方式:可使用回应协议头TransferEncoding 字段中的值;另外还可用“trailers”(与“分块”传输方式相关)这个值来表明浏览器希望在最后一个尺寸为0的块之后还接收到一些额外的字段。 Upgrade 要求服务器升级到另一个协议。 UserAgent 浏览器的浏览器身份标识字符串。 Via 向服务器告知,这个请求是由哪些代理发出的。 Warning 一个一般性的警告,告知,在实体内容体中可能存在错误。 XWapProfile 链接到互联网上的一个XML文件,其完整、仔细地描述了正在连接的设备。 XRequestedWith 主要用于标识Ajax及可扩展标记语言请求。大部分的JavaScript框架会发送这个字段,且将其值设置为XMLHttpRequest。 XHttpMethodOverride 请求某个网页应用程序使用该协议头字段中指定的方法(一般是PUT或DELETE)来覆盖掉在请求中所指定的方法(一般是POST)。当某个浏览器或防火墙阻止直接发送PUT 或DELETE 方法时(注意,这可能是因为软件中的某个漏洞,因而需要修复,也可能是因为某个配置选项就是如此要求的,因而不应当设法绕过),可使用这种方式。 XForwardedProto 一个事实标准,用于标识某个超文本传输协议请求最初所使用的协议。 XForwardedHost 一个事实标准,用于识别客户端最初发出的Host请求头部。 XForwardedFor 一个事实标准,用于标识某个通过超文本传输协议代理或负载均衡连接到某个网页服务器的客户端的原始互联网地址。 XCsrfToken 用于防止跨站请求伪造辅助用的头部有XCSRFToken或XXSRFTOKEN XATTDeviceId 使服务器更容易解读AT&T设备UserAgent字段中常见的设备型号、固件信息。 ProxyConnection 该字段源于早期超文本传输协议版本实现中的错误。与标准的连接(Connection)字段的功能完全相同。 FrontEndHttps 被微软的服务器和负载均衡器所使用的非标准头部字段。 DNT 请求某个网页应用程序停止跟踪某个用户。在火狐浏览器中,相当于XDoNotTrack协议头字段(自 Firefox/4.0 Beta 11 版开始支持)。Safari和Internet Explorer 9 也支持这个字段。
        来自:
        帮助文档
        性能测试PTS
        用户指南
        参考知识
        头域说明
      • 产品服务等级协议(SLA)
        大数据/AI 天翼云超融合服务等级协议 AI开发平台(AI创作间)服务等级协议 翼MapReduce(MRS)服务等级协议 数据治理中心 DataArts Studio服务等级协议 云搜索服务(ES)服务等级协议 数据治理中心 DataArts Studio服务等级协议 数据湖探索(DLI)服务等级协议 数据仓库服务(DWS)服务等级协议 实时计算翼Flink服务等级协议 天翼云大数据管理平台 DataWings服务等级协议 管理工具 云监控服务等级协议 应用性能管理服务等级协议 甄选应用 网站ipv6升级服务等级协议 中国电信天翼云翼学安服务等级协议 好生意服务等级协议 天翼云学习先锋服务等级协议 翼来单服务等级协议 天翼云万应工场服务等级协议 商企云财税服务等级协议 商企云财税(SaaS版)服务等级协议 智能商业平台服务等级协议 天翼企业服务等级协议 天翼数字播报员服务等级协议 天翼云云网助手服务等级协议 电脑维护服务等级协议 EMM手机管家服务等级协议 设备管家服务等级协议 网管专家服务服务等级协议 天翼云中望CAD产品等级协议 天翼云中望3D产品等级协议 天翼云优签云链电子签约云平台产品等级协议 天翼云蓝信安全移动工作平台产品等级协议 天翼云智慧教育中台产品服务等级协议 天翼云村村享数字乡村服务等级协议 天翼云图AR云GO服务等级协议 天翼云翼网控服务等级协议 天翼云翼展览服务等级协议 物流云宝服务等级协议 智能组网华东版(云WIFI)产品服务等级协议 天翼云云网智慧管理平台服务等级协议 天翼云孚云办公平台服务等级协议 天翼云翼IT业务监控服务等级协议 翼云数据管理服务等级协议 天翼云快销产品服务等级协议 天翼云翼备份服务等级协议 天翼云云推广服务等级协议 天翼云翼内容管家服务等级协议 翼党务服务等级协议 天翼云翼恢复服务等级协议 天翼云达梦数据库服务等级协议 天翼云翼通行服务等级协议 天翼云翼见守护服务等级协议 天翼云翼安全生产管理服务等级协议 天翼统信操作系统服务等级协议 天翼云翼能碳双控管理服务等级协议 天翼云签服务等级协议 天翼云翼企云服务等级协议 天翼云翼安全邮箱服务等级协议 天翼云翼竹云身份管理平台服务等级协议 天翼云翼天唧融合办公平台服务等级协议 天翼云翼浩辰CAD服务等级协议 天翼企业邮箱服务等级协议 安全邮箱(央企SaaS)产品服务等级协议 翼瑞雪数字化学习平台服务等级协议 翼政企协同应用服务平台服务等级协议 新华融翼服务等级协议 天翼云智能组网服务等级协议 天翼云翼数据共享交换平台服务等级协议 翼永信数字办公服务等级协议 天翼云企业云盘服务等级协议
        来自:
        帮助文档
        法律声明
        服务等级协议
        产品服务等级协议(SLA)
      • 产品优势
        说明:本章介绍关系数据库的优势,关系型数据库具有低成本、高安全性、高可靠性等优势,相对传统数据库运维繁琐等缺陷,关系型数据库使用更加方便简单。 即开即用 您可以通过官网实时生成目标实例,关系型数据库服务配合弹性云服务器一起使用,通过内网连接关系型数据库可以有效的降低应用响应时间、节省公网流量费用。 弹性扩容 可以根据您的业务情况弹性伸缩所需的资源,按需开支,量身订做。配合云监控(Cloud Eye)监测数据库压力和数据存储量的变化,您可以灵活调整实例规格。 完全兼容 您无需再次学习,关系型数据库各引擎的操作方法与原生数据库引擎的完全相同。关系型数据库还兼容现有的程序和工具。 运维便捷 RDS的日常维护和管理,包括但不限于软硬件故障处理、数据库补丁更新等工作,保障关系型数据库运转正常。提供专业数据库管理平台,重启、重置密码、参数修改、查看错误日志和慢查询日志、恢复数据等一键式功能。提供CPU利用率、IOPS、连接数、磁盘空间等实例信息实时监控及报警,让您随时随地了解实例动态。 网络隔离 通过虚拟私有云(Virtual Private Cloud,简称VPC)和网络安全组实现网络隔离。虚拟私有云允许租户通过配置虚拟私有云入站IP范围,来控制连接数据库的IP地址段。关系型数据库实例运行在租户独立的虚拟私有云内,可提升关系型数据库实例的安全性。您可以综合运用子网和安全组的配置,来完成关系型数据库实例的隔离。 访问控制 通过主/子帐号和安全组实现访问控制。创建关系型数据库实例时,关系型数据库服务会为租户同步创建一个数据库主帐户,根据需要创建数据库实例和数据库子帐户,将数据库对象赋予数据库子帐户,从而达到权限分离的目的。可以通过虚拟私有云对关系型数据库实例所在的安全组入站、出站规则进行限制,从而控制可以连接数据库的网络范围。 传输加密 通过TLS加密、SSL加密实现传输加密。使用从服务控制台上下载的CA根证书,并在连接数据库时提供该证书,对数据库服务端进行认证并达到加密传输的目的。 存储加密 通过静态加密、表空间加密、同态加密对数据进行加密。关系型数据库服务支持对存储到数据库中的数据加密后存储,加密密钥由KMS进行管理。 数据删除 删除关系型数据库实例时,存储在数据库实例中的数据都会被删除,任何人都无法查看及恢复数据。安全删除不仅包括数据库实例所挂载的磁盘,也包括备份数据的存储空间(通常为廉价的对象存储系统)。 防DDoS攻击 当用户使用外网连接和访问关系型数据库实例时,可能会遭受DDoS攻击。当关系型数据库安全体系认为用户实例正在遭受DDoS攻击时,会首先启动流量清洗的功能,如果流量清洗无法抵御攻击或者攻击达到黑洞阈值时,将会进行黑洞处理,保证关系型数据库整体服务的可用性。 安全防护 关系型数据库处于多层防火墙的保护之下,可以有力地抗击各种恶意攻击,保证数据安全,防御DDoS攻击、防SQL注入等。建议用户通过内网访问关系型数据库实例,可使关系型数据库实例免受DDoS攻击风险。 双机热备 关系型数据库服务采用热备架构,故障秒级自动切换。 数据备份 每天自动备份数据,上传到对象存储服务(Object Storage Service,简称OBS)。备份文件保留732天,支持一键式恢复。用户可以设置自动备份的周期,还可以根据自身业务特点随时发起备份,选择备份周期、修改备份策略。 数据恢复 支持按备份集和指定时间点的恢复。在大多数场景下,用户可以将732天内任意一个时间点的数据恢复到关系型数据库新实例或已有实例上,数据验证无误后即可将数据迁回关系型数据库主实例,完成数据回溯。 RDS与自建数据库优势对比 性能对比 性能项目 云数据库RDS 自购服务器搭建数据库服务 服务可用性 请参见《弹性云服务器用户指南》。 需要购买额外设备,自建主从,自建RAID。 数据可靠性 请参见《云硬盘用户指南》。 需要购买额外设备,自建主从,自建RAID。 系统安全性 防DDoS攻击,流量清洗;及时修复各种数据库安全漏洞。 需要购买昂贵的硬件设备和软件服务,需要自行检测和修复安全漏洞等。 数据库备份 支持自动备份,手动备份,自定义备份存储周期。 需要购买设备,并自行搭建设置和后期维护。 软硬件投入 无需投入软硬件成本,按需购买,弹性伸缩。 数据库服务器成本相对较高,对于Microsoft SQL Server需支付许可证费用。 系统托管 无需托管。 需要自购2U服务器设备,如需实现主从,购买两台服务器,并进行自建。 维护成本 无需运维。 需要投入大量人力成本,招聘专业的DBA进行维护。 部署扩容 弹性扩容,快速升级,按需开通。 需采购和原设备匹配的硬件,需托管机房的配合,需部署设备,整体周期较长。 资源利用率 按实际结算,100%利用率。 考虑峰值,资源利用率低。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        产品简介
        产品优势
      • 迁移网络
        “无法连接目的虚拟机,请检查目的虚拟机IP是否可达,或者8899、8900端口是否开放”该如何处理? 当连接目的端服务器失败时,提示“sms.1807 sms.2802 无法连接目的虚拟机,请检查目的虚拟机IP是否可达,或者8899、8900端口是否开放”。windows系统迁移时,目的端服务器需要开放8899端口与服务端通信,开放8900端口与源端通信。如果建立通信失败,则会提示该错误。建议您参考本章节操作步骤排查“无法连接目的虚拟机”的原因。 检查源端网络是否可以连通目的端 检查目的端安全组是否开放8899、8900端口 检查目的端网络ACL是否禁用了8899、8900端口 目的端Peagent异常 “源端主机网络繁忙,无法连接api网关”该如何处理? Agent无法正常启动,Linux系统提示“SMS.0201 Failed to start sms agent! Please check the network connection with below commands!”,Windows系统提示“SMS.0201 源端主机网络繁忙,无法连接api网关”。该问题通常是由于源端没有通公网,无法与SMS/IAM/ECS/EVS/IMS/VPC/OBS等服务通信导致。需要排查源端网络。 迁移Agent与主机迁移服务自动断开连接时,如何重新建立连接? 服务器迁移实时状态显示连接断开,导致大部分操作无法进行。 问题原因 源端Agent停止运行。 源端Agent长时间不操作(默认为30天,可通过 config/gproperty.cfg的 heartmonitorday参数配置),导致Agent主动与服务断开连接。 源端Agent与SMS服务网络连接异常。 系统被注销或退出了远程登录(部分机器远程登录退出会自动注销),导致SMSAgentPy3/SMSAgentPy2进程退出。 当源端时间与标准时间相差超过15分钟时,会导致AK/SK权鉴失败。例如:源端NTP时间服务器配置错误。 源端服务器为Windows操作系统(Windows Server 2019/Windows Server 2016/Windows Server 2012/Windows 10/Windows 8.1)时 1. 登录源端服务器,在右下角寻找Agent图标,检查Agent是否正常运行。 1. 如果Agent已经退出,请重启Agent。 2. 如果Agent正常运行,请执行2。 2. 在Agent操作界面,检查是否可以单击“启动”按钮。 1. 如果可以启动,表示Agent主动与sms服务断开连接,请单击“启动”,重新连接sms服务。 2. 如果不能启动,请执行3。 3. 检查源端服务器与服务接口的连通性。如果不能连通,请检查是否配置错误的dns,或者是否设置了防火墙导致域名无法访问;如果可以连通,并且正在数据传输阶段。请检查源端出口带宽,如果带宽低于10Mbps,可能是数据传输占满带宽,导致Agent与sms服务连接超时,请提高源端出口带宽到10Mbps以上,再继续迁移。 4. 处理完成后,大约等待1分钟以后,登录目的端管理控制台。 5. 单击“服务列表”,选择“迁移 > 主机迁移服务”。进入“主机迁移服务”页面。 6. 在左侧导航树中,选择“迁移服务器”。在“迁移实时状态”列查看该源端的连接状态。 源端服务器为Windows操作系统(Windows Server 2008/Windows 7)时 1. 登录源端服务器,查找SMSAgentDeploy.exe进程,检查Agent是否正常运行。 1. 如果SMSAgentDeploy.exe进程不存在,请重启Agent后执行2。重启Agent需要重新迁移。 2. 如果SMSAgentDeploy.exe进程存在,请执行2。 2. 进入SMSAgent安装目录,执行agentcli.exe,并执行status,检查Agent连接状态。 1. 如果状态为True,请执行4。 2. 如果状态为False,表示Agent主动与服务断开连接,请执行3。 3. 输入“connect”,重新连接源端服务器与主机迁移服务。当回显信息中的 “Connected between sms agent and sms server”为True时,表示源端服务器与主机迁移服务已恢复连接。 4. 检查源端服务器与服务接口的连通性。如果不能连通,请检查是否配置错误的dns,或者是否设置了防火墙导致域名无法访问;如果可以连通,并且正在数据传输阶段。请检查源端出口带宽,如果带宽低于10Mbps,可能是数据传输占满带宽,导致Agent与sms服务连接超时,请提高源端出口带宽到10Mbps以上,再继续迁移。 5. 处理完成后,大约等待1分钟以后,登录目的端管理控制台。 6. 单击“服务列表”,选择“迁移 > 主机迁移服务”。进入“主机迁移服务”页面。 7. 在左侧导航树中,选择“迁移服务器”。在“迁移实时状态”列查看该源端的连接状态。 源端服务器为Linux操作系统时 1. 使用PuTTY或者SSH客户端,登录待迁移的源端服务器。 2. 执行 ps ef grep v grep grep linuxmain检查Agent是否正常运行。 1. 如果没有linuxmain进程,请重新启动Agent。 2. 如果有linuxmain进程,请执行3。 3. 在SMSAgent目录下执行 ./agentcli.sh,进入 agentcli操作界面,然后执行 status,检查Agent连接状态。 1. 如果状态为True,执行步骤5。 2. 如果状态为False,表示Agent主动与服务断开连接,请执行4。 4. 输入“connect”,重新连接源端服务器与主机迁移服务。当回显信息中的 “Connected between sms agent and sms server”为True时,表示源端服务器与主机迁移服务已恢复连接。 5. 检查源端服务器与服务接口的连通性。如果不能连通,请检查是否配置错误的dns,或者是否设置了防火墙导致域名无法访问;如果可以连通,并且正在数据传输阶段。请检查源端出口带宽,如果带宽低于10Mbps,可能是数据传输占满带宽,导致Agent与sms服务连接超时,请提高源端出口带宽到10Mbps以上,再继续迁移。 6. 处理完成后,大约等待1分钟以后,登录目的端管理控制台。 7. 单击“服务列表”,选择“迁移 > 主机迁移服务”。进入“主机迁移服务”页面。 8. 在左侧导航树中,选择“迁移服务器”。在“迁移实时状态”列查看该源端的连接状态。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        迁移网络
      • 请求错误码(原生接口)
        状态码 错误码 描述 备注 301 Moved Permanently PermanentRedirect 尝试访问的桶必须使用指定的地址,请将以后的请求发送到这个地址 307 Moved Permanently TemporaryRedirect 临时重定向,当DNS更新时,请求将被重定向到bucket 304 Not Modified NotModified 资源没有发生改变 400 Bad Request AmbiguousGrantByEmailAddress 提供的电子邮件地址与多个帐户关联 400 Bad Request AuthorizationHeaderMalformed 提供的授权header无效 400 Bad Request CredentialsNotSupported 此请求不支持凭据 400 Bad Request ExpiredToken 提供的令牌已过期 400 Bad Request IllegalVersioningConfigurationException 请求中指定的版本控制配置无效 400 Bad Request InvalidArgument 缺少特定参数或者参数不合法 400 Bad Request IncompleteBody 未提供ContentLength HTTP头指定的字节数 400 Bad Request InvalidBucketName 桶的名字不合法 400 Bad Request IncorrectNumberOfFilesInPostRequest 每个请求只需要上载一个文件 400 Bad Request MalformedXML xml格式有问题 标签xml、跨域xml等 400 Bad Request BadDigest 请求中设置的ContentMD5的值与服务端接收到文件的MD5值不符 400 Bad Request InvalidDigest 客户端指定的对象内容的MD5值无效 400 Bad Request InlineDataTooLarge 内联数据超过了允许的最大大小 400 Bad Request InvalidObjectName 对象的名字不合法 400 Bad Request EntityTooLarge 上传的文件太大 400 Bad Request EntityTooSmall 建议上传的对象小于允许的最小对象大小 400 Bad Request InvalidPart 合并分片的数量有问题,一个或者多个指定的分片未找到 400 Bad Request InvalidPartOrder 段列表的顺序不是升序,段列表必须按段号升序排列 400 Bad Request MalformedACLError 提供的XML格式不正确,或者未根据已发布的架构进行验证 400 Bad Request InvalidTag 设置标签数量太多或者标签内容长度超出限制 400 Bad Request InvalidEncryptionAlgorithmError 指定的加密请求无效。有效值为aes256 400 Bad Request InvalidLocationConstraint 指定的位置约束无效 400 Bad Request InvalidPolicyDocument 表单内容不符合策略文档中指定的条件 400 Bad Request InvalidSOAPRequest SOAP请求正文无效 400 Bad Request InvalidStorageClass 指定的存储类无效 400 Bad Request InvalidTargetBucketForLogging 用于日志记录的目标bucket不存在、不归您所有或没有授权 400 Bad Request InvalidToken 提供的令牌格式不正确或无效 400 Bad Request InvalidURI 无法分析指定的URI 400 Bad Request KeyTooLongError Key太长 400 Bad Request MalformedPOSTRequest POST请求的主体不符合格式规范 400 Bad Request MaxMessageLengthExceeded 请求的长度过长 400 Bad Request MaxPostPreDataLengthExceededError 上载文件之前的POST请求字段太大 400 Bad Request MetadataTooLarge 元数据头超过了允许的最大元数据大小 400 Bad Request MissingRequestBodyError 以请求的形式发送空XML文档 400 Bad Request MissingSecurityElement SOAP 1.1请求缺少安全元素 400 Bad Request MissingSecurityHeader 请求缺少必需的头 400 Bad Request NoLoggingStatusForKey 不存在以日志状态呈现的key的子资源 400 Bad Request RequestIsNotMultiPartContent bucket post必须是enclosure类型的multipart/form数据 400 Bad Request RequestTimeout 请求超时。服务端还没有收到完整的请求 400 Bad Request RequestTorrentOfBucketError 不允许访问bucket的Torrent文件的请求 400 Bad Request ServerSideEncryptionConfigurationNotFoundError 找不到服务器端加密配置 400 Bad Request TokenRefreshRequired 必须更新令牌 400 Bad Request TooManyBuckets 试图创建的bucket超过了允许的数量 400 Bad Request UnexpectedContent 该请求不支持内容 400 Bad Request UnresolvableGrantByEmailAddress 提供的电子邮件地址与记录中的任何帐户都不匹配 400 Bad Request UserKeyMustBeSpecified bucket post必须包含指定的字段名。如果已指定,请检查字段的顺序 403 Forbidden AccessDenied 用户没有权限执行操作 403 Forbidden AllAccessDisabled 已禁用对此S3资源的所有访问 403 Forbidden InvalidPayer 已禁用对此对象的所有访问 403 Forbidden InvalidSecurity 提供的安全凭据无效 403 Forbidden NotSignedUp 帐户没有注册相关服务 403 Forbidden InvalidObjectState 该操作对于对象的当前状态无效 403 Forbidden InvalidAccessKeyId 访问密钥ID在我们的记录中不存在 403 Forbidden AccountProblem 帐户有问题,导致操作无法成功完成 403 Forbidden CrossLocationLoggingProhibited 不允许跨位置日志记录。一个地理位置的bucket无法将信息记录到另一个位置的bucket中 403 Forbidden RequestTimeTooSkewed 请求的时间与服务器的时间相差太大 403 Forbidden SignatureDoesNotMatch 系统计算的请求signature与提供的signature不匹配。检查Access Key和签名方法 403 Forbidden UserSuspended 用户已经被挂起 404 Not Found NoSuchBucket 用户请求的桶不存在 404 Not Found NoSuchUpload UploadId不存在或者UploadId正在合并中 404 Not Found NoSuchLifecycleConfiguration 桶中没有配置生命周期管理信息 404 Not Found NoSuchKey 指定的对象不存在 404 Not Found NoSuchBucketPolicy 指定的Bucket没有相应的策略 404 Not Found NoSuchVersion 请求中指定的版本ID与现有版本不匹配 405 Method Not Allowed MethodNotAllowed 指定的方法不允许操作在请求的资源上 408 Request Timeout RequestTimeout 用户与Server之间的socket连接在超时时间内没有进行读写操作 409 Conflict BucketAlreadyExists 当前请求的桶名已经被使用 409 Conflict BucketAlreadyOwnedByYou 试图创建的bucket已经存在且请求者是所有者 409 Conflict BucketNotEmpty 请求的桶不为空 删除桶前请先清空桶 409 Conflict PositionNotEqualToLength 请求参数中position的值与对象追加前的大小不一致 409 Conflict InvalidBucketState 该请求对存储桶的当前状态无效 409 Conflict FileImmutable 桶版本控制设置为enabled或suspended 409 Conflict AccessPointAlreadyOwnedByYou 您的帐户中已存在同名的访问点 409 Conflict ObjectNotAppendable 无法追加指定的对象 409 Conflict OperationAborted 当前正在对此资源执行冲突的条件操作 409 Conflict RestoreAlreadyInProgress 对象还原进程已在进行中 411 Length Required MissingContentLength 必须提供ContentLength HTTP头 412 Precondition Failed PreconditionFailed 至少有一个指定的前提条件不成立 416 Client Requested Range Not Satisfiable InvalidRange Range指定的范围不合法 422 Unprocessable Entity UnprocessableEntity 请求格式正确,但是由于含有语义错误,无法响应 500 Internal Server Error InternalError 系统遇到内部错误,请重试 501 Not Implemented NotImplemented 提供的头包含未实现的功能 503 Service Unavailable ServiceUnavailable 服务不可用 503 Service Unavailable SlowDown 请降低请求频率
        来自:
        帮助文档
        媒体存储
        API参考
        调用前须知
        请求错误码(原生接口)
      • 基于消息队列RocketMQ实现全链路灰度
        本章节介绍如何基于消息队列RocketMQ实现全链路灰度 概述 本文介绍在使用消息队列(RocketMQ)这种异步场景下,可以在不修改业务代码的情况下,实现异步场景的灰度,从而实现全链路灰度。本文介绍基于消息队列RocketMQ实现全链路灰度。 背景介绍 在大多数业务场景中对于消息的灰度并没有RPC调用那么严格,但是当全链路灰度调用中涉及到消息消费时,如果消息消费没有按照全链路流量规则路由,则会导致通过消息产生的流量逃逸,从而破坏全链路规则,导致出现一些不符合预期的情况。 如下图所示,本文分别部署网关、appa、appagray、appb、appbgray、appc、appcgray以及RocketMQ,模拟一个真实的全链路灰度场景。 通过网关调用appa应用的接口,当满足路由规则后,灰度流量会被路由到appagray,appagray又会调用appbgray,随后由appbgray发送灰度消息,appcgray将会收到灰度消息,而appc不会收到灰度消息。 前提条件 1. 用户已开通微服务治理中心企业版。 2. 用户已开通云容器引擎。 3. 用户已部署RocketMQ,且RocketMQ版本在4.5.0以上,broker.conf中已配置enablePropertyFiltertrue。 部署Demo应用 准备自建入口网关msgczuul,准备应用msgcappa,msgcappb和msgcappc。调用过程是msgcappa –> msgcappb > msgcappc。 步骤1:在云容器引擎中安装微服务治理插件: 1. 登录“云容器引擎”控制台。 2. 在左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“插件”“插件市场”,选择“cubems”插件安装。 步骤2:为应用开启微服务治理能力: 1. 登录“云容器引擎”控制台。 2. 左侧菜单栏选择“集群”,点击目标集群。 3. 在集群管理页面点击“工作负载”“无状态”,选择目标命名空间。 4. 在Deployment列表页选择指定Deployment,并点击“全量替换”,进入Deployment编辑页。 5. 在Deployment编辑页点击“显示高级设置”,新增“Pod标签”: mseCubeMsAutoEnable:on。 6. 在发布应用时,配置指定环境变量,可指定注入微服务治理中心的应用名、命名空间和标签等信息。 环境变量配置如下: 环境变量名 环境变量值 MSEAPPNAME 接入到微服务治理中心的应用名。 MSESERVICETAG 应用标签信息,如灰度应用可配置gray。 MSENAMESPACE(选填) 接入到微服务治理中心的命名空间,默认为:default。 7. 完成编辑后点击“提交”,重新发布容器即可接入。 appa应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appa" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appa" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appa" spec: containers: env: name: "MSEAPPNAME" value: "appa" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appa:latest" imagePullPolicy: "Always" name: "appa" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appb应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appb" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appb" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appb" spec: containers: env: name: "MSEAPPNAME" value: "appb" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appb:latest" imagePullPolicy: "Always" name: "appb" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" appc应用的配置 基线: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" 灰度: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "appc" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "appc" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "appc" spec: containers: env: name: "MSEAPPNAME" value: "appc" name: "MSESERVICETAG" value: "gray" image: "镜像仓库域名/xxx/appc:latest" imagePullPolicy: "Always" name: "appc" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi" zuul应用的配置: apiVersion: "apps/v1" kind: "Deployment" metadata: name: "zuul" namespace: "default" spec: progressDeadlineSeconds: 600 replicas: 1 revisionHistoryLimit: 10 selector: matchLabels: name: "zuul" template: metadata: labels: mseCubeMsAutoEnable: "on" name: "zuul" spec: containers: env: name: "MSEAPPNAME" value: "zuul" image: "镜像仓库域名/xxx/zuul:latest" imagePullPolicy: "Always" name: "zuul" ports: containerPort: 26160 livenessProbe: tcpSocket: port: 26160 initialDelaySeconds: 10 periodSeconds: 30 resources: limits: cpu: "1" memory: "1Gi" requests: cpu: "1" memory: "1Gi"
        来自:
        帮助文档
        微服务引擎
        最佳实践
        基于消息队列RocketMQ实现全链路灰度
      • 网站防护配置概述
        本文介绍Web应用防火墙(边缘云版)的接入防护前提条件以及防护能力概览。 接入防护前提条件 您需要先在控制台新增域名并接入边缘云WAF,具体操作可见WAF接入 防护能力概览 下表将为您描述目前边缘云WAF具备的防护能力以及应用场景 模块 防护能力 说明 应用场景 Web安全 []( 支持配置Web安全的防护开关,可调整防护处理动作以及防护规则集、无需检测的静态文件后缀 为Web安全的基础配置,您需要使用任何防护能力都需要先进行基础配置 Web安全 规则防护 目前已维护6套防护规则集,基于正则的规则防护引擎进行 Web 漏洞和未知威胁防护,能够抵御SQL 注入、XSS 攻击、恶意扫描、命令注入攻击、Web 应用漏洞、WebShell 上传、不合规协议、木马后门等17类通用的 Web 攻击 建议基于自身业务防护需求选择对应的防护规则集 Web安全 网页防篡改 位于高级防护模块下,能够保护网站核心静态页面,避免因为源站页面被恶意篡改带来的负面影响 希望网站防止被恶意篡改页面内容时配置 Web安全 防护敏感信息泄露 位于高级防护模块下,支持对网站返回的内容进行脱敏展示,过滤内容包括敏感信息(如身份证、手机号、银行卡、邮箱等) 希望网站避免泄露身份证、手机号等敏感信息时配置 Web安全 []( 支持检查HTTP协议头部,对HTTP请求信息中的方法以及参数长度等信息进行检测,对不符合的请求项进行拦截或告警 针对不在HTTP请求合规、上传内容合规、配置符合网站处理规范内的请求进行相应处理 Web安全 cookie防护 位于高级防护模块下,采用cookie加密、cookie签名等方式对cookie字段的字进行加密或签名,防护一些使用cookie中的弱key进行权限绕过的漏洞利用,也能在一定程度上限制基于cookie修改的爬虫 可以防护cookie盗用、cookie篡改、cookie信息泄露等攻击事件。需要客户端支持携带cookie,通常小程序、APP、API可能不支持 Web安全 攻击挑战 位于高级防护模块下,支持自动阻断短时间内发起多次Web攻击的IP,快速应对恶意扫描及代理、Web 攻击威胁等行为,可提升攻防对抗效率 攻防演练、恶意扫描及代理、Web攻击行为等 Web安全 CSRF防护 位于高级防护模块下,支持防护跨站请求伪造(英语:Crosssite request forgery,简称CSRF)攻击 针对发起CSRF攻击进行防护 Web安全 广告防护 位于高级防护模块下,支持解析源站响应页面代码,在body中插入广告检测js代码,实现广告防护和监测功能 针对网站出现的恶意广告(网站中出现未将网站所有者允许的广告内容)进行防护 Web安全 设置账户安全防护 从撞库、暴力破解两个攻击角度进行防护,保障用户的账户安全 针对账户安全的场景进行防护 Bot管理 Bot防护策略 通过cookie挑战、跳转挑战、人机挑战、爬虫阈值限制、爬虫陷阱等防爬策略,精准命中爬虫流量,拦截各类恶意爬虫 针对支持携带cookie的客户端请求,小程序、APP、API可能不支持 对于无法正常执行跳转的请求,可以设置跳转挑战 Bot管理 爬虫情报规则 支持针对搜索引擎IP放行、针对恶意Bot请求IP封禁,目前爬虫情报库已维护接近10万条数据 对已知搜索引擎IP放行处理,不经过Bot防护策略,提升网站SEO权重; 对已知恶意Bot请求IP拦截处理 Bot管理 IP情报规则 支持针对已维护的IP信誉库,从威胁类型维度(IDC服务器、傀儡机、漏洞利用等十几类)进行IP封禁,目前IP信誉库已维护接近120万条数据 对已知IDC IP进行封禁处理;拦截傀儡机、漏洞利用等已知恶意IP 访问控制/限流 []( 支持根据请求的URL,频率、行为等访问特征,迅速识别CC攻击并进行拦截 防护大规模CC攻击,避免源站资源耗尽,保证企业网站的正常访问 访问控制/限流 IP黑名单 支持针对指定IP以及指定地域IP进行封禁处理 封禁来自国外访问的IP 访问控制/限流 扫描防护 支持识别常见的扫描器类型,也支持自定义扫描器识别规则,做到精准拦截 拦截常见的扫描器类型,避免网站受到外部扫描 防护白名单 网站白名单 支持在访问控制中,针对特定请求设置为白名单,则不经过全局防护策略的检测 对于可信任流量可以设置为白名单,将不经过任务防护策略 防护白名单 Web规则白名单 支持针对防护规则集中的具体规则设置白名单,则指定请求不经过该规则的检测 某条域名规则出现误拦截时,可以将误拦截的请求设置为白名单 防护白名单 []( 支持针对Bot防护策略设置白名单,则指定请求将不经过Bot防护策略的检测 明确不需要经过Bot防护策略的请求,可以在Bot功能模块中设置为白名单 开启IPv6防护 开启IPv6防护 提供IPv4/IPv6双栈服务,能够解决网站“天窗”问题,并可以有效提升网站IPv6链接支持率 政策驱动,各地市对于当地企业网站的IPv6浓度有一定指标
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        操作指导
        概述
        网站防护配置概述
      • 修改数据库参数
        参数名称 参数描述 默认值 sessiontimeout Session闲置超时时间,单位为秒,0表示关闭超时限制。取值范围:0 ~ 86400。 600 datestyle 设置日期和时间值的显示格式。 ISO,MDY failedloginattempts 输入密码错误的次数达到该参数所设置的值时,帐户将会被自动锁定。配置为0时表示不限制密码输入错误的次数。取值范围:0 ~ 1000。 10 timezone 设置显示和解释时间类型数值时使用的时区。 UTC logtimezone 设置服务器写日志文件时使用的时区。 UTC enableresourcerecord 设置是否开启资源记录功能。 当SQL语句实际执行时间大于resourcetrackduration参数值(默认为60s,可自行设置)时,监控信息将会归档。 此功能开启后会引起存储空间膨胀及轻微性能影响,不用时请关闭。 说明 归档:监控信息保存在history视图,归档在info表。归档时间为三分钟,归档后history视图中的记录会被清除。 history视图GSWLMSESSIONHISTORY,对应存入info表GSWLMSESSIONINFO。 history视图GSWLMOPERATORHISTORY,对应存入info表GSWLMOPERATORINFO。 off querydop 用户自定义的查询并行度。 配置为0表示查询并行度自适应。 配置为1表示查询不并行。 配置为2表示查询并行度为2。 0 resourcetrackcost 设置对语句进行资源监控的最小执行代价。 值为1或者执行语句代价小于10时,不进行资源监控。值大于等于0时,执行语句的代价大于等于10并且超过这个参数的设定值就会进行资源监控。 SQL语句的预估执行代价可通过执行SQL命令Explain进行查询。 100000 resourcetrackduration 设置当前会话资源监控实时视图中记录的语句执行结束后进行归档的最小执行时间,单位为秒。 值为0时,资源监控实时视图中记录的所有语句都会进行历史信息归档。 值大于0时,资源监控实时视图中记录的语句的执行时间超过设定值就会进行历史信息归档。 60 passwordeffecttime 设置帐户密码的有效时间,临近或超过有效期系统会提示用户修改密码。 取值范围为0 ~999,单位为天。设置为0表示不开启有效期限制功能。 90 updatelockwaittimeout 该参数控制并发更新同一行时单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错。0表示不等待,有锁时直接报错,单位为毫秒。 120000 enableresourcetrack 设置是否开启资源监控功能。开启后可以对SQL语句进行监控。 on passwordpolicy 使用CREATE ROLE/USER命令创建或ALTER ROLE/USER命令修改DWS帐户时,该参数决定是否进行密码复杂度检查。 0表示不采用任何密码复杂度策略。 1表示采用默认密码复杂度校验策略。 1 passwordreusetime 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用天数检查。 取值范围:0~3650,单位为天。0表示不检查密码可重用天数。正数表示新密码不能为该值指定的天数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusetime为0时,表示不限制密码重用天数,仅限制密码重用次数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 60 passwordreusemax 在使用ALTER USER或ALTER ROLE修改用户密码时,该参数指定是否对新密码进行可重用次数检查。 0表示不检查密码可重用次数。正整数表示新密码不能为该值指定的次数内使用过的密码。 说明 修改密码时会检查配置参数passwordreusetime和passwordreusemax。 passwordreusetime和passwordreusemax只要满足其中任一个为正数时,即认为密码可重用。 passwordreusemax为0时,表示不限制密码重用次数,仅限制密码重用天数。 passwordreusetime和passwordreusemax都为0时,表示不对密码重用进行限制。 0 passwordlocktime 该参数指定帐户被锁定后自动解锁的时间。 0表示密码验证失败时,自动锁定功能不生效。 正数表示帐户被锁定后,当锁定时间超过该参数设定的值时,帐户将会被自行解锁。 1 passwordencryptiontype 该字段决定采用何种加密方式对用户密码进行加密存储。 0表示采用md5方式对密码加密。 1表示采用sha256方式对密码加密,兼容postgres客户端的md5用户认证方式。 2表示采用sha256方式对密码加密。md5为不安全的加密算法,不建议用户使用。 2 passwordnotifytime 该字段决定帐户密码到期前提醒的天数。 0表示不开启提醒功能。 1~999表示帐户密码到期前提醒的天数。 7 enablestatelesspoolerreuse pooler复用切换开关,重启集群生效。 on表示使用pooler复用模式。 off表示关闭pooler复用模式。 说明 CN和DN需要同步设置。如果CN设置为off,DN设置为on时会导致集群不能正常通信,因此必须对该参数做CN和DN全局相同的配置,重启集群才会生效。 off workmem 设置内部排序操作和Hash表在开始写入临时磁盘文件之前使用的内存大小,单位为KB。 ORDER BY,DISTINCT和merge joins都要用到排序操作。 Hash表在散列连接、散列为基础的聚集、散列为基础的IN子查询处理中都要用到。 对于复杂的查询,可能会同时并发运行好几个排序或者散列操作,每个都可以使用此参数所声明的内存量,不足时会使用临时文件。同样,好几个正在运行的会话可能会同时进行排序操作。因此使用的总内存可能是workmem的好几倍。 64MB maintenanceworkmem 设置在维护性操作(比如VACUUM、CREATE INDEX、ALTER TABLE ADD FOREIGN KEY等中可使用的最大的内存,单位为KB。 说明 该参数的设置会影响VACUUM、VACUUMFULL、CLUSTER、CREATE INDEX的执行效率。 128MB enableorccache 设置是否允许在初始化cstorebuffers时,将1/4的cstorebuffers空间预留,用于缓存orc元数据。 on表示开启缓存orc元数据,可提升hdfs表的查询性能,但是会占用列存buffer资源,导致列存性能下降。 off表示关闭缓存orc元数据。 on sqlusespacelimit 限制单个SQL在单个DN上,触发落盘操作时,落盘文件的空间大小,管控的空间包括普通表、临时表及中间结果集落盘占用的空间,单位为KB。其中1表示没有限制。 1 enablebitmapscan 控制优化器对位图扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablehashagg 控制优化器对Hash聚集规划类型的使用。 on表示使用。 off表示不使用。 on enablehashjoin 控制优化器对Hash连接规划类型的使用。 on表示使用。 off表示不使用。 on enableindexscan 控制优化器对索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enableindexonlyscan 控制优化器对仅索引扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablemergejoin 控制优化器对融合连接规划类型的使用。 on表示使用。 off表示不使用。 off enablenestloop 控制优化器对内表全表扫描嵌套循环连接规划类型的使用。虽然不能完全消除嵌套循环连接,但关闭该参数会使优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 off enableseqscan 控制优化器对顺序扫描规划类型的使用。虽然不能完全消除顺序扫描,但关闭该参数会让优化器在存在其他方法的时候优先选择其他方法。 on表示使用。 off表示不使用。 on enabletidscan 控制优化器对TID扫描规划类型的使用。 on表示使用。 off表示不使用。 on enablekillquery CASCADE模式删除用户时,会删除此用户拥有的所有对象。此参数标识是否允许在删除用户的时候,取消锁定此用户所属对象的query。 on表示允许取消锁定。 off表示不允许取消锁定。 off enablevectorengine 控制优化器对向量化执行引擎的使用。 on表示使用。 off表示不使用。 on enablebroadcast 控制优化器对stream代价估算时对broadcast分布方式的使用。 on表示使用。 off表示不使用。 on skewoption 控制是否使用优化策略。 off:关闭策略。 normal:采用激进策略。对于不确定是否出现倾斜的场景,认为存在倾斜,并进行相应优化。 lazy:采用保守策略。对于不确定是否出现倾斜场景,认为不存在倾斜,不进行优化。 normal defaultstatisticstarget 为没有用ALTER TABLE SET STATISTICS设置字段目标的表设置缺省统计目标。此参数设置为正数是代表统计信息的样本数量,为负数时,代表使用百分比的形式设置统计目标,负数转换为对应的百分比,即5代表5%。 100 enablecodegen 标识是否允许开启代码生成优化,目前代码生成使用的是LLVM优化。 on表示允许开启代码生成优化。 off表示不允许开启代码生成优化。 on autoanalyze 标识是否允许在生成计划的时候,对于没有统计信息的表进行统计信息自动收集。 on表示允许自动进行统计信息收集。 off表示不允许自动进行统计信息收集。 说明 当前不支持对外表触发autoanalyze,如需收集,需用户手动执行analyze操作。 不支持对带有ON COMMIT [DELETE ROWS l DROP]选项的临时表触发autoanalyze,如需收集,需用户手动执行analyze操作。 如果在autoanalyze某个表的过程中数据库发生异常,当数据库正常运行之后再执行语句有可能仍提示需要收集此表的统计信息。此时需要用户对该表手动执行一次analyze操作,以同步统计信息数据。 off enablesonichashagg 标识是否依据规则约束使用基于面向列的hash表设计的Hash Agg算子。 on表示在满足约束条件时使用基于面向列的hash表设计的Hash Agg算子。 off表示不使用面向列的hash表设计的Hash Agg算子。 on loghostname 默认状态下,连接消息日志只显示正在连接主机的IP地址。打开此选项同时可以记录主机名。由于解析主机名可能需要一定的时间,可能影响数据库的性能。on表示可以同时记录主机名。off表示不可以同时记录主机名。 off maxactivestatements 设置全局的最大并发数量。此参数只应用到CN,且针对一个CN上的执行作业。设置为1和0表示对最大并发数不做限制。 60 enableresourcetrack 是否开启资源监控功能。 on resourcetracklevel 设置当前会话的资源监控的等级。该参数只有当参数enableresourcetrack为on时才有效。 none,不开启资源监控功能。 query,开启query级别资源监控功能,开启此功能会把SQL语句的计划信息(类似explain输出信息)记录到top SQL中。 perf,开启perf级别资源监控功能,开启此功能会把包含实际执行时间和执行行数的计划信息(类似explain analyze输出信息)记录到top SQL中。 operator,开启operator级别资源监控功能,开启此功能不仅会把包含实际执行时间和执行行数的信息记录到top SQL中,还会把算子级别执行信息刷新到top SQL中。 query enabledynamicworkload 是否开启动态负载管理功能。 on表示打开动态负载管理功能。 off表示关闭动态负载管理功能。 on topsqlretentiontime 设置历史TopSQL中gswlmsessioninfo和gswlmoperatorinfo表中数据的保存时间。单位为天。 值为0时,表示数据永久保存。 值大于0时,表示数据能够保存的对应天数。 0 trackcounts 控制收集数据库活动的统计数据。 on表示开启收集功能。 off表示关闭收集功能。 off autovacuum 控制数据库自动清理进程(autovacuum)的启动。自动清理进程运行的前提是将trackcounts设置为on。 on表示开启数据库自动清理进程。 off表示关闭数据库自动清理进程。 off autovacuummode 该参数仅在autovacuum设置为on的场景下生效,它控制autoanalyze或autovacuum的打开情况。 analyze表示只做autoanalyze。 vacuum表示只做autovacuum。 mix表示autoanalyze和autovacuum都做。 none表示二者都不做。 mix autoanalyzetimeout 设置autoanalyze的超时时间。在对某张表做autoanalyze时,如果该表的analyze时长超过了autoanalyzetimeout,则自动取消该表此次analyze,单位为秒。 5min autovacuumiolimits 控制autovacuum进程每秒触发IO的上限。其中1表示不控制,而是使用系统默认控制组。 1 autovacuummaxworkers 设置能同时运行的自动清理线程的最大数量。其中0表示不会自动进行autovacuum。 3 autovacuumnaptime 设置两次自动清理操作的时间间隔,单位为秒。 10min autovacuumvacuumthreshold 设置触发VACUUM的阈值。当表上被删除或更新的记录数超过设定的阈值时才会对这个表执行VACUUM操作。 50 autovacuumanalyzethreshold 设置触发ANALYZE操作的阈值。当表上被删除、插入或更新的记录数超过设定的阈值时才会对这个表执行ANALYZE操作。 50 autovacuumanalyzescalefactor 设置触发一个ANALYZE时增加到autovacuumanalyzethreshold的表大小的缩放系数。 0.1 statementtimeout 当语句执行时间超过该参数设置的时间(从服务器收到命令时开始计时)时,该语句将会报错并退出执行,单位为毫秒。 0 deadlocktimeout 设置死锁超时检测时间。当申请的锁超过设定值时,系统会检查是否产生了死锁,单位为毫秒。 1s lockwaittimeout 控制单个锁的最长等待时间。当申请的锁等待时间超过设定值时,系统会报错,单位为毫秒。 20min maxqueryretrytimes 指定SQL语句出错自动重试功能的最大重跑次数(目前支持重跑的错误类型为“Connection reset by peer”、“Lock wait timeout”和“Connection timed out”等,设定为0时关闭重跑功能。 6 maxpoolsize CN的连接池与其它某个CN/DN的最大连接数。 800 enablegtmfree 大并发场景下同一时刻存在活跃事务较多,GTM下发的快照变大且快照请求变多的情况下,瓶颈卡在GTM与CN通讯的网络上。为消除该瓶颈,引入GTMFREE模式。取消CN和GTM的交互,取消CN下发GTM获取的事务信息给DN。CN只向各个DN发送query,各个DN由本地产生快照及xid等信息,开启该参数支持分布式事务读最终一致性,即分布式事务只有写外部一致性,不具有读外部一致性。 off enablefastqueryshipping 控制查询优化器是否使用分布式框架。 on enablecrccheck 设置是否允许开启数据校验功能。写入表数据时生成校验信息,读取表数据时检查校验信息。不建议用户修改设置。 on explainperfmode 此参数用来指定explain的显示格式。 normal:代表使用默认的打印格式。 pretty:代表使用DWS改进后的新显示格式。新的格式层次清晰,计划包含了plan node id,性能分析简单直接。 summary:是在pretty的基础上增加了对打印信息的分析。 run:在summary的基础上,将统计的信息输出到csv格式的文件中,以便于进一步分析。 pretty udfmemorylimit 控制每个CN、DN执行UDF时可用的最大物理内存量,单位为KB。 200MB defaulttransactionreadonly 设置每个新创建事务是否是只读状态。on表示只读状态。off表示非只读状态。 off
        来自:
        帮助文档
        数据仓库服务
        用户指南
        集群管理
        修改数据库参数
      • 基本概念
        本节主要描述在使用云容器引擎前,需理解该产品所涉及的概念,以便于您更好地理解容器产品。 关键词 说明 集群 集群指容器运行所需要的云资源组合,关联了若干服务器节点、负载均衡、专有网络等云资源。 专有版集群:需要创建1个Master(非高可用),或者3/5个Master(高可用)节点,以及若干Worker节点,可对集群基础设施进行更细粒度的控制,需要自行规划、维护、升级服务器集群。 托管版集群:只需创建Worker节点,Master节点由CCSE创建并托管,具备操作简单、低成本无需运维等特点。 节点 一台服务器(可以是虚拟机实例或者物理服务器)已经安装了Docker Engine,可以用于部署和管理容器。容器的Agent程序会被安装到节点上并注册到一个集群上。 专有网络VPC 专有网络VPC是您自己独有的云上私有网络。您可以完全掌控自己的专有网络,例如选择IP地址范围、配置路由表和网关等,您可以在自己定义的专有网络中使用天翼云资源如云服务器、云数据库和负载均衡等。 安全组 安全组是一种虚拟防火墙,具备状态检测和数据包过滤能力,用于在云端划分安全域。安全组是一个逻辑上的分组,由同一地域内具有相同安全保护需求并相互信任的实例组成。 应用目录 应用目录功能集成了Helm,提供了Helm的相关功能,并进行了相关功能扩展,例如提供图形化界面。 编排模板 编排模板是一种保存Kubernetes YAML格式编排文件的方式。 Kubernetes Kubernetes是一个开源平台,具有可移植性和可扩展性,用于管理容器化的工作负载和服务,简化了声明式配置和自动化。 容器(Container) 打包应用及其运行依赖环境的技术,一个节点可运行多个容器。 镜像(Image) 容器镜像是容器应用打包的标准格式,封装了应用程序及其所有软件依赖的二进制数据。 镜像仓库(Image Registry) 容器镜像仓库是一种存储库,用于存储Kubernetes和基于容器应用开发的容器镜像。 管理节点(Master Node) 管理节点是Kubernetes集群的管理者,运行着的服务包括kubeapiserver、kubescheduler、kubecontrollermanager、etcd组件,和容器网络相关的组件。 工作节点(Worker Node) 工作节点是Kubernetes集群中承担工作负载的节点,可以是虚拟机也可以是物理机。工作节点承担实际的Pod调度以及与管理节点的通信等。一个工作节点上的服务包括Docker运行时环境、kubelet、KubeProxy以及其它一些可选的组件。 命名空间(Namespace) 命名空间为Kubernetes集群提供虚拟的隔离作用。Kubernetes集群初始有3个命名空间,分别是默认命名空间default、系统命名空间kubesystem和kubepublic,除此以外,管理员可以创建新的命名空间以满足需求。 容器组(Pod) Pod是Kubernetes部署应用或服务的最小的基本单位。一个Pod封装多个应用容器(也可以只有一个容器)、存储资源、一个独立的网络IP以及管理控制容器运行方式的策略选项。 副本控制器(ReplicationController,RC) RC确保任何时候Kubernetes集群中有指定数量的Pod副本在运行。通过监控运行中的Pod来保证集群中运行指定数目的Pod副本。指定的数目可以是多个也可以是1个;少于指定数目,RC就会启动运行新的Pod副本;多于指定数目,RC就会终止多余的Pod副本。 副本集(ReplicaSet,RS) ReplicaSet(RS)是RC的升级版本,唯一区别是对选择器的支持,RS能支持更多种类的匹配模式。副本集对象一般不单独使用,而是作为Deployment的理想状态参数使用。 工作负载(Workload) 工作负载是在Kubernetes上运行的应用程序。 标签(Label) Labels的实质是附着在资源对象上的一系列Key/Value键值对,用于指定对用户有意义的对象的属性,标签对内核系统是没有直接意义的。标签可以在创建一个对象的时候直接赋予,也可以在后期随时修改,每一个对象可以拥有多个标签,但key值必须唯一。 服务(Service) Service是Kubernetes的基本操作单元,是真实应用服务的抽象,每一个服务后面都有很多对应的容器来提供支持,通过KubeProxy的ports和服务selector决定服务请求传递给后端的容器,对外表现为一个单一访问接口。 路由(Ingress) Ingress是授权入站连接到达集群服务的规则集合。您可以通过Ingress配置提供外部可访问的URL、负载均衡、SSL、基于名称的虚拟主机等。通过POST Ingress资源到API Server的方式来请求Ingress。Ingress Controller负责实现Ingress,通常使用负载均衡器,它还可以配置边界路由和其他前端,这有助于以高可用的方式处理流量。 配置项(ConfigMap) 配置项可用于存储细粒度信息如单个属性,或粗粒度信息如整个配置文件或JSON对象。您可以使用配置项保存不需要加密的配置信息和配置文件。 保密字典(Secret) 保密字典用于存储在Kubernetes集群中使用一些敏感的配置,例如密码、证书等信息。 卷(Volume) 和Docker的存储卷有些类似,Docker的存储卷作用范围为一个容器,而Kubernetes的存储卷的生命周期和作用范围是一个Pod。每个Pod中声明的存储卷由Pod中的所有容器共享。 存储卷(Persistent Volume,PV) PV是集群内的存储资源,类似节点是集群资源一样。PV独立于Pod的生命周期,可根据不同的StorageClass类型创建不同类型的PV。 存储卷声明(Persistent VolumeClaim,PVC) PVC是资源的使用者。类似Pod消耗节点资源一样,而PVC消耗PV资源。 存储类(StorageClass) 存储类可以实现动态供应存储卷。通过动态存储卷,Kubernetes将能够按照用户的需要,自动创建其所需的存储。 弹性伸缩(Autoscaling) 弹性伸缩是根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。典型的场景包含在线业务弹性、大规模计算训练、深度学习GPU或共享GPU的训练与推理、定时周期性负载变化等。 可观测性(Observability) Kubernetes可观测性体系包含监控和日志两部分,监控可以帮助开发者查看系统的运行状态,而日志可以协助问题的排查和诊断。 Helm Helm是Kubernetes包管理平台。Helm将一个应用的相关资源组织成为Charts,然后通过Charts管理程序包。 节点亲和性(nodeAffinity) 节点亲和性指通过Worker节点的Label标签控制Pod部署在特定的节点上。 污点(Taints) 污点和节点亲和性相反,它使节点能够排斥一类特定的Pod。 容忍(Tolerations) 应用于Pod上,允许(但并不要求)Pod调度到带有与之匹配的污点的节点上。 应用亲和性(podAffinity) 应用亲和性决定应用Pod可以和特定Pod部署在同一拓扑域。例如,对于相互通信的服务,可通过应用亲和性调度,将其部署到同一拓扑域(例如同一个主机)中,以减少它们之间的网络延迟。 应用反亲和性(podAntiAffinity) 应用反亲和性决定应用Pod不与特性Pod部署在同一拓扑域。例如,将一个服务的Pod分散部署到不同的拓扑域(例如不同主机)中,以提高服务本身的稳定性。 服务网格(Istio) Istio是一个提供连接、保护、控制以及观测服务的开放平台,兼容社区Istio开源服务网格,用于简化服务的治理,包括服务调用之间的流量路由与拆分管理、服务间通信的认证安全以及网格可观测性能力。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        产品介绍
        基本概念
      • 配置存算分离集群(委托方式)
        为已有集群配置存算分离功能 : 1. 登录MRS控制台,在导航栏选择“集群列表 > 现有集群”。 2. 单击集群名称,进入集群详情页面。 3. 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 4. 在集群详情页的“概览”页签,单击委托右侧的“管理委托”选择需要绑定的委托并单击“确定”进行绑定,或单击“新建委托”进入IAM控制台进行创建后再在此处进行绑定。 3.创建OBS文件系统用于存放数据 说明 大数据存算分离场景,请务必使用OBS并行文件系统,使用普通对象桶会对集群性能产生较大影响。 1. 登录OBS控制台。 2. 单击“并行文件系统 > 创建并行文件系统”。 3. 填写文件系统名称,例如“mrsword001”。 其他参数请根据需要填写。 4. 单击“立即创建”。 5. 在OBS控制台并行文件系统列表中,单击文件系统名称进入详情页面。 6. 在左侧导航栏选择“文件”,新建program、input文件夹。 program:请上传程序包到该文件夹。 input:请上传输入数据到该文件夹。 4.访问OBS文件系统 1. 用root用户登录集群Master节点,具体请参见登录集群节点。 2. 配置环境变量。 MRS 3.x之前版本请执行:source /opt/client/bigdataenv MRS 3.x及之后版本请执行:source /opt/Bigdata/client/bigdataenv 3. 验证Hadoop访问OBS。 a. 查看文件系统mrsword001下面的文件列表。 hadoop fs ls obs://mrsword001/ b. 返回文件列表即表示访问OBS成功。 详见下图: Hadoop验证返回文件列表 4. 验证Hive访问OBS。 a. 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建Hive表的权限,具体请参见创建角色配置拥有对应权限的角色,参考创建用户创建用户并为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MR集群用户 例如,kinit hiveuser b. 执行Hive组件的客户端命令。 beeline c. 在beeline中直接使用obs的目录进行访问。例如,执行如下命令创建Hive表并指定数据存储在mrsword001文件系统的testobs目录中。 create table testobs(a int, b string) row format delimited fieldsterminated by "," stored as textfile location "obs://mrsword001/testobs"; d. 执行如下命令查询所有表,返回结果中存在表testobs,即表示访问OBS成功。 show tables; 详见下图: Hive验证返回已创建的表名 e. 使用“Ctrl + C”退出hive beeline。 5. 验证Spark访问OBS。 a. 执行Spark组件的客户端命令。 sparkbeeline b. 在sparkbeeline中访问OBS,例如在obs://mrsword001/table/目录中创建表test。 create table test(id int) location 'obs://mrsword001/table/'; c. 执行如下命令查询所有表,返回结果中存在表test,即表示访问OBS成功。 show tables; 详见下图: Spark验证返回已创建的表名 d. 使用“Ctrl + C”退出退出spark beeline。 6. 验证Presto访问OBS。 −未开启Kerberos认证的普通集群 i.执行如下命令连接客户端。 prestocli.sh ii. 在Presto客户端中执行语句创建schema,指定location为OBS路径,例如: CREATE SCHEMA hive.demo01 WITH (location 'obs://mrsword001/prestodemo002/'); iii. 在该schema中建表,该表的数据即存储在OBS文件系统内,例如: CREATE TABLE hive.demo.demotable WITH (format 'ORC') AS SELECT FROM tpch.sf1.customer; 详见下图:普通集群Presto验证返回结果 iv. 执行exit退出客户端。 −开启Kerberos认证的安全集群 i.登录MRS Manager创建一个拥有“Hive Admin Privilege”权限的角色,例如prestorole,创建角色请参考创建角色。 ii.创建一个属于“Presto”和“Hive”组的用户,同时为该用户绑定中创建的角色,例如presto001,创建用户请参考创建用户。 iii. 认证当前用户。 kinit presto001 iv. 下载用户凭证。 1)针对MRS 3.x之前版本集群,在MRS Manager页面,选择“系统设置 > 用户管理 ”,单击新增用户所在行的“更多 > 下载认证凭据”。 详见下图: 下载Presto用户认证凭据 2)针对MRS 3.x及之后版本,在FusionInsight Manager页面,选择“系统 > 权限 > 用户”,单击新增用户所在行的“更多 > 下载认证凭据”。 详见下图:下载Presto用户认证凭据 v. 解压下载的用户凭证文件,得到“krb5.conf”和“user.keytab”两个文件并放入客户端目录,例如“/opt/Bigdata/client/Presto/”。 vi.执行如下命令获取用户principal。 klist kt /opt/Bigdata/client/Presto/user.keytab vii. 启用Kerberos认证的集群,执行以下命令连接本集群的Presto Server。 prestocli.sh krb5configpath {krb5.conf 文件路径} krb5principal { 用户principal} krb5keytabpath {user.keytab文件路径} user {presto用户名} krb5.conf文件路径:请替换为6.v中设置的文件存放路径,例如“/opt/Bigdata/client/Presto/krb5.conf” user.keytab文件路径:请替换为6.v中设置的文件存放路径,例如“/opt/Bigdata/client/Presto/user.keytab” 用户principal:请替换为6.vi中返回的结果 presto用户名:请替换为6.ii中创建的用户名,例如“presto001” 例如:prestocli.sh krb5configpath /opt/Bigdata/client/Presto/krb5.conf krb5principal prest001@xxxxxxxxxxxx.1COM krb5keytabpath /opt/Bigdata/client/Presto/user.keytab user presto001 viii. 在Presto客户端中执行语句创建schema,指定location为OBS路径,例如: CREATE SCHEMA hive.demo01 WITH (location 'obs://mrsword001/prestodemo002/'); ix. 在该schema中建表,该表的数据即存储在OBS文件系统内,例如: CREATE TABLE hive.demo01.demotable WITH (format 'ORC') AS SELECT FROM tpch.sf1.customer; 详见下图:安全集群Presto验证返回结果 x. 执行exit退出客户端。 7. 验证Flink访问OBS。 a. 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 b. 用户同步完成后,在集群详情页选择“作业管理 > 添加”提交Flink作业,在“执行程序参数”中按照“input output ”格式填写,其中作业输入路径选择OBS,输出路径请手动输入一个不存在的目录,例如obs://mrsword001/output/,如下图所示。 详见下图: 添加Flink作业 c. 在OBS控制台,进入提交作业时选择的输出路径,即可查看到输出目录已经自动创建并存放着作业执行结果,表示访问OBS成功。 详见下图:Flink作业执行结果
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置存算分离
        配置存算分离集群(委托方式)
      • 1
      • ...
      • 91
      • 92
      • 93
      • 94
      • 95
      • ...
      • 96
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      天翼云CTyunOS系统

      应用托管

      一站式智算服务平台

      智算一体机

      人脸检测

      人脸实名认证

      人脸属性识别

      通用型OCR

      推荐文档

      迁移准备

      上传资料常见问题

      命令窗口

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号