云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      弹性负载均衡_相关内容
      • 集群扩容
        前提条件 请确定需要扩容的集群处于“可用”或者“非均衡”任意一种状态。 请确定计划扩容的节点数小于等于用户节点数的剩余配额,否则系统会无法进行扩容操作。 扩容集群 说明 离线扩容期间集群将变为只读状态,请谨慎操作。 为保证用户的数据安全建议在开始扩容操作之前创建手动快照。 1. 登录DWS 管理控制台。 2. 单击“集群 > 专属集群”。 默认显示用户所有的集群列表。 3. 在集群列表中,在指定集群所在行的“操作”列,选择“更多 > 扩容”。系统将显示扩容页面。如果原子网IP不够,可以跨子网扩容。 说明 在扩容开始前如果集群满足巡检条件,需单击“立即巡检”按钮先完成一次巡检,并保证巡检检查通过,通过后可进行下一步变更操作。 4. 在“增加节点数”选择一个扩容后的节点数。 扩容操作增加的是DN节点。 扩容后的节点数量,在原节点数量的基础上,须至少增加3个节点,最多可增加的节点个数为节点剩余配额的最大值。并且,此处设置的扩容后的节点数量不能超过32个节点。 如果可使用的节点配额不足,用户可以单击“申请扩大配额”,以提工单的形式申请更多节点配额。 扩容增加的节点规格,默认与集群当前各节点的规格相同。 扩容后的集群与原集群的虚拟私有云、子网和安全组也相同。 5. 设置高级配置。 选择“默认配置”:“在线扩容”默认关闭,“自动重分布”默认开启,“重分布模式”默认为离线模式。 选择“自定义”,您可以设置以下高级配置参数进行在线扩容操作: −“自动重分布”:支持打开自动重分布。自动重分布开启,扩容阶段结束后将立即执行数据重分布;如果选择关闭此功能则只进行扩容添加节点,需在“更多>节点变更>重分布”中选择执行数据重分布。 −“重分布并发配置”:自动重分布开启,支持设置并发数量。可配置并发数在1~32之间,默认值为4。 −“重分布模式”:可选择“在线模式”和“离线模式”,确认无误后在弹出的警告页面单击“确认”即可。 6. 单击“下一步:确认”。 7. 单击“提交”。 提交扩容申请后,集群的“任务信息”显示为“节点扩容”,扩容需要时间请耐心等待。扩容过程中,集群会自动重启,因此会有一段时间“集群状态”显示为“不可用”,重启成功后“集群状态”会变成“可用”。然后在扩容结束阶段,集群将重新分布数据,重分布过程中“集群状态”为“只读”。 只有“集群状态”显示为“可用”且“任务信息”显示的“节点扩容”状态结束,才表示扩容成功,用户可以开始使用集群。 如果集群的“任务信息”显示为“扩容失败”,表示集群扩容失败。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        变配与扩容
        节点变更
        集群扩容
      • 配置Cloud-Init工具
        本节介绍了配置CloudInit工具的操作场景、前提条件、配置步骤说明等内容。 操作场景 CloudInit工具安装完成后,请参考本节操作配置CloudInit工具。 前提条件 已安装CloudInit工具。 已为云主机绑定弹性公网IP。 已登录云主机。 云主机的网卡属性为DHCP方式。 配置步骤说明 包含如下两步操作: 1. 配置CloudInit工具。 具体操作请参考下文“配置CloudInit工具”。 2. 检查CloudInit工具相关配置是否成功。 具体操作请参考下文“检查CloudInit工具相关配置是否成功”。 配置CloudInit工具 1. 用户可以根据需要根据用户类型配置登录云主机的用户权限。使用root账户登录,需要开启root用户的ssh权限,并开启密码远程登录。 − 若用户选择注入密码,则通过自己注入的密码进行远程SSH或noVNC登录。 − 若用户选择注入密钥,则通过自己注入的密钥进行远程SSH登录。 执行以下命令,在vi编辑器中打开“/etc/cloud/cloud.cfg”。 vi /etc/cloud/cloud.cfg 2. (可选)在“/etc/cloud/cloud.cfg”中配置“applynetworkconfig”为“false”。 对于使用CloudInit 18.3及以上版本的用户,需执行本操作。 配置示例 3. 设置开放root密码远程登录并开启root用户的ssh权限。以CentOS 6.7系列操作系统为例,配置文件中的“disableroot”字段为“1”表示为禁用,为“0”表示不禁用(部分OS的CloudInit配置使用“true”表示禁用,“false”表示不禁用)。设置“disableroot”值为“0”,“sshpwauth”为“1”,“lockpasswd”设置为“false”,“false”表示不锁住用户密码。 users: name: root lockpasswd: False disableroot: 0 sshpwauth: 1 4. 开启机器名更新机制,请勿注释或删除“ updatehostname”语句。 cloudinitmodules: migrator bootcmd writefiles growpart resizefs sethostname updatehostname updateetchosts rsyslog usersgroups ssh 5. 执行以下命令,在vi编辑器中打开“/etc/ssh/sshdconfig”。 vi /etc/ssh/sshdconfig 6. 将“sshdconfig”中的“PasswordAuthentication”的值修改为“yes”。 说明: 如果是SUSE和openSUSE操作系统,需要同时配置“sshdconfig”文件中的以下两个参数为“yes”。 PasswordAuthentication ChallengeResponseAuthentication 7. 确保删除镜像模板中已经存在的linux账户和“/home/linux”目录。 userdel linux rm fr /home/linux 8. 配置agent访问OpenStack数据源。 在“/etc/cloud/cloud.cfg”最后一行添加如下内容,配置agent访问OpenStack数据源。 datasourcelist: [ OpenStack ] datasource: OpenStack: metadataurls: [' maxwait: 120 timeout: 5 说明: maxwait和timeout可由用户自定义是否需要配置,上述回显信息中maxwait和timeout的取值仅供参考。 当操作系统版本低于Debian8、CentOS 5时,不支持配置agent访问OpenStack数据源。 CentOS、EulerOS操作系统云主机必须要禁用默认的zeroconf路由,以便精确访问OpenStack数据源。 echo "NOZEROCONFyes" >> /etc/sysconfig/network 9. 在配置文件“/etc/cloud/cloud.cfg”中禁用CloudInit接管网络。 当CloudInit版本等于或高于0.7.9版本时,在配置文件“/etc/cloud/cloud.cfg”中增加如下内容,禁用CloudInit接管网络。 network: config: disabled 说明: 增加的内容需严格按照yaml格式进行配置。 禁用CloudInit接管网络 10. 在配置文件“/etc/cloud/cloud.cfg”中补充如下内容。 manageetchosts: localhost 防止启动云主机时,系统长时间卡在“Waiting for cloudResetPwdAgent”状态。 新增manageetchosts:localhost 11. 修改配置文件“cloudinitmodules”。 在“cloudinitmodules”中将ssh从最后提前到第一位处理,提高云主机ssh登录速度。 提高云主机ssh登录速度 12. 修改以下配置使得镜像创建的云主机主机名不带“.novalocal”后缀且主机名称中可以带点号。 a. 执行如下命令,修改 “init.py”文件。 vi /usr/lib/python2.7/sitepackages/cloudinit/sources/init.py 按“i”进入编辑模式,根据关键字toks查询,修改内容如下回显信息所示。 if toks: toks str(toks).split('.') else: toks ["ip%s" % lhost.replace(".", "")] else: toks lhost.split(".novalocal") if len(toks) > 1: hostname toks[0]
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        Linux操作系统相关操作
        配置Cloud-Init工具
      • 评估迁移时间与测试传输速度
        本文为您介绍如何评估迁移任务时间及测试传输速度。 介绍说明 迁移时长总数据量÷(带宽大小/8)1.25。 1.25为时间冗余量;由于云主机性能瓶颈、存在大文件改动多、小文件多等情况,可能存在无法跑满带宽与保持高速率传输,留存冗余,避免由于时间预估导致项目仓促;可根据情况自由调整误差系数。 说明 数据量与带宽单位需统一(GB/MB)。 数据量单位为Byte。 带宽单位(K/M/Gbps)。 iperf3测试结果bandwidth单位(Gbits/sec)等同于带宽Gbps,千兆比特每秒。 迁移带宽以迁移源出口带宽、目的端入口带宽、CMS平台中限制带宽中最小带宽为准。 操作步骤 若需要较为严格的时间预估建议通过软件进行测试: 1. 根据源端云主机的OS类型下载对应iperf版本。 2. 在源端云主机和目的端云主机(或者目的端云主机同一Region下的其他弹性云云主机)某一个目录下解压iperf工具。例如在Windows操作系统的iperf工具: 3. 在目的端云主机上,以命令行方式运行iperf(服务端模式运行,以Windows操作系统为例): 执行以下命令,进入iperf目录。 cd /d path 其中,path指步骤2中iperf工具解压后在目的端云主机中的路径。 执行以下命令,以服务端运行iperf。 iperf3 p port s 其中,port表示iperf工具的服务端监听端口,建议Windows操作系统使用8900端口(8900为目的端云主机使用的数据传输端口),Linux操作系统使用22端口(22为目的端云主机使用的数据传输端口)。您测试的时候也可以使用其他端口,但要保证目的端云主机安全组规则允许开放该TCP或者UDP端口。更多的参数使用说明,请使用iperf h查看。 以Windows操作系统使用8900端口为例,当回显信息为Server listening on 8900时,表明服务端已经运行就绪。 4. 在源端云主机上,以命令行方式运行iperf(客户端模式运行),测试TCP带宽和UDP的抖动、丢包率和带宽(以Windows操作系统为例)。 执行以下命令,进入iperf目录 cd /d path 其中,path指步骤2中iperf工具解压后在源端云主机中的路径。 执行以下命令,运行iperf工具,测试TCP带宽。 iperf3 c targetIP p port t time 其中,c是客户端模式运行。 targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 port表示连接目的端云主机的端口(即3.b中 iperf监听端口)。 time表示测试总时间,默认单位为秒。 以Windows操作系统使用8900端口为例,iperf客户端连接到iperf服务端成功后会进行带宽(Bandwidth)测试,测试结束后查看结果即可: 执行以下命令,运行iper测试UDP的抖动、丢包率和带宽。 iperf3 c targetIP p port u t time 其中,u表示测试UDP的抖动、丢包率和带宽。 targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 port表示连接目的端云主机的端口(即3.b中 iperf监听端口)。 time表示测试总时间,默认单位为秒。 以Windows操作系统使用8900端口为例,iperf客户端连接到iperf服务端成功后会测试UDP的抖动(Jitter)、丢包率(Lost/Total Datagrame)和带宽(Bandwidth),测试结束后查看结果即可。 若需要测试网络时延,可以使用ping命令。 ping targetiP targetIP 表示目的端云主机(即以服务端模式运行iperf的云主机)的IP地址。 需要配置目的端云主机所在的VPC的安全组规则,允许ICMP协议报文通过。 5. 执行以下命令,获取更多的iperf的使用帮助。或者参照官网指导获取相应的使用帮助。 iperf3 h
        来自:
      • 查看TOP CPU进程的运行数据
        云监控服务插件会每分钟统计一次消耗 CPU Top5的进程,Top5的进程不固定,进程列表中会展示出最近24小时内所有消耗CPU Top5的进程。 查询进程CPU使用率与内存使用率的命令:top 查询当前进程打开文件数命令:lsof或ls /proc/ pid /fd wc l ,其中pid需要替换为待查询的进程ID。 当某个进程占用多个CPU时,由于采集结果为多个CPU的总使用率,因此会出现CPU使用率超过100%的现象。 TOP5进程不固定,进程列表中展示的是近24小时内按一分钟统计周期进入过TOP5的进程。 只有近24小时内进入过TOP5的进程并开启了监控开关的进程才会采集CPU使用率、内存使用率和打开文件数。如满足上述条件的进程已被关闭时,则不会展示此进程的相关数据。 列表中的时间表示该进程创建的时间。 客户端浏览器的时间如果和被监控弹性云主机的时间不一致,可能会出现监控图表无指标数据的情况,请调整本地时间和主机时间保持一致。 查询Top CPU进程数据的操作步骤 1. 登录管理控制台。 2. 单击“服务列表 > 云监控服务”。 3. 单击页面左侧的“主机监控”,进入“主机监控”页面。 4. 在“主机监控”页面,单击资源所在行的“监控状态”开关,开启“操作系统监控”功能。 5. 单击资源所在行的“查看监控指标”,进入“操作系统监控”页面。 6. 单击“操作系统监控”右侧的“进程监控”,进入“进程监控”页面。 7. 单击“监控进程列表”右侧的,进入TOP进程列表。 8. 在TOP进程列表中打开您要开启的进程的“监控开关”,单击确定。 在“监控进程列表”页面,系统会默认勾选状态为“运行中”的进程,在下方的监控图表中显示出当前进程的“近1小时”CPU使用率的原始监控数据曲线图。 您也可以勾选需要显示的进程,在下方的监控图表中显示出当前进程的“近1小时”CPU使用率的原始监控数据曲线图。 单击监控图表上方的CPU 使用率、内存使用率、打开文件数可查看当前进程的不同指标的数据曲线图,相关指标说明请参见下表。 表 进程监控相关指标说明 指标名称 指标含义 取值范围 采集方式(Linux) 采集方式(Windows) ::::: 运行中进程数 该指标用于统计测量对象处于运行状态的进程数。 ≥ 0 测量对象:云主机或物理机通过统计 /proc/pid/status 中Status值获取每个进程的状态,进而统计各个状态进程总数。 不支持 空闲进程数 该指标用于统计测量对象处于空闲状态的进程数。 ≥ 0 测量对象:云主机或物理机通过统计 /proc/pid/status 中Status值获取每个进程的状态,进而统计各个状态进程总数。 不支持 僵死进程数 该指标用于统计测量对象处于僵死状态的进程数。 ≥ 0 测量对象:云主机或物理机通过统计 /proc/pid/status 中Status值获取每个进程的状态,进而统计各个状态进程总数。 不支持 阻塞进程数 该指标用于统计测量对象被阻塞的进程数。 ≥ 0 测量对象:云主机或物理机通过统计 /proc/pid/status 中Status值获取每个进程的状态,进而统计各个状态进程总数。 不支持 睡眠进程数 该指标用于统计测量对象处于睡眠状态的进程数。 ≥ 0 测量对象:云主机或物理机通过统计 /proc/pid/status 中Status值获取每个进程的状态,进而统计各个状态进程总数。 不支持 系统进程数 该指标用于统计测量对象的总进程数。 ≥ 0 测量对象:云主机或物理机通过统计 /proc/pid/status 中Status值获取每个进程的状态,进而统计各个状态进程总数。 测量对象:云主机或物理机通过psapi.dll系统进程状态支持模块得到进程总数。 9. 在监控指标视图右上角,单击可查看监控指标视图详情。 页面左上方提供查看“近1小时”、“近3小时”、“近12小时”、“近24小时”、“近7天”和“近30天”6个固定时长的监控周期,同时也支持以通过“自定义时间段”选择查看近六个月内任意时间段的历史监控数据。 选择页面左上方的“设置”按钮,进入“聚合”设置页面,对监控数据的聚合方法进行更改。
        来自:
        帮助文档
        云监控服务
        用户指南
        主机监控
        进程监控
        查看TOP CPU进程的运行数据
      • 设置数据库审计日志
        本章节主要介绍设置数据库审计日志 。 前提条件 数据库审计日志在集群的“安全配置”页面中进行设置,仅“可用”和“非均衡”状态的集群才支持修改安全配置,同时集群的任务信息不能处于“创建快照中”、“调整大小”、“配置中”和“重启中”。 确保当前审计总开关auditenabled参数已开启(auditenabled默认值为ON,若关闭请参考修改数据库参数设置为ON)。 操作步骤 1. 登录DWS 管理控制台。 2. 单击“集群管理”。 3. 在集群列表中,单击指定集群的名称,然后在左侧导航栏单击“安全设置”。 默认显示“配置状态”为“已同步”,表示页面显示的是数据库当前最新结果。 4. 在“审计配置”区域中,设置审计日志保留策略。 “空间优先”:表示当单个节点的审计日志超过1G后,将自动淘汰审计日志。 注意 版本号为1.0.0和1.1.0的集群不支持设置审计日志保留策略。 如果数据库规划存储空间有限,建议设置为“空间优先”策略,避免因审计日志占用磁盘空间高导致节点故障或性能低。 5. 根据需要设置以下操作的审计开关。 各审计项的详细信息如下表所示。 参数名 说明 审计用户越权访问操作 表示是否记录用户的越权访问操作,默认关闭。 审计DML操作 表示是否对数据表的INSERT 、UPDATE 和DELETE操作进行记录,默认关闭。 审计SELECT操作 表示是否对SELECT操作进行记录,默认关闭。 审计存储过程执行 表示是否在执行存储过程和自定义函数的时候记录操作信息,默认关闭。 审计COPY操作 表示是否对COPY操作进行记录,默认关闭。 审计DDL操作 表示是否对指定数据库对象的CREATE 、DROP 和ALTER操作进行记录。除“DATABASE”、“SCHEMA”和“USER”默认启用记录,其他默认关闭。 DWS 除了支持下表的审计功能,默认还开启了如下表所示的关键审计项。 参数名 说明 :: 关键审计项 记录用户登录成功、登录失败和注销的信息。 关键审计项 记录数据库启动、停止、恢复和切换审计信息。 关键审计项 记录用户锁定和解锁功能信息。 关键审计项 记录用户权限授予和权限回收信息。 关键审计项 记录SET操作的审计功能。 6. 设置是否开启审计日志转储功能。 关于审计日志转储功能的更多信息,请参见开启审计日志转储。 7. 单击“应用”。 单击,“配置状态”显示为“应用中”,表示系统正在保存配置。 等待一段时间后再次刷新“配置状态”,当显示为“已同步”,表示已保存配置并生效。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        审计日志
        数据库审计日志
        设置数据库审计日志
      • 创建虚拟私有云VPC
        本文帮助您快速熟悉虚拟私有云VPC的创建。 操作场景 当需要为您的弹性云主机构建隔离的、用户自主配置和管理的虚拟网络环境时,首先要申请虚拟私有云。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 依次选择“网络”,单击“虚拟私有云”;进入网络控制台页面。 4. 在“虚拟私有云列表”界面,单击“创建虚拟私有云”。 5. 在“申请虚拟私有云”页面,根据界面提示配置参数。 参数 说明 取值样例 资源类型 创建VPC支持两种资源类型: (1)VPC:包含VPC、子网、网关等基本网络要素配置 (2)VPC和扩展选项:除了VPC基本网络要素配置之外还可以创建ZOS终端节点、关联DHCP选项集。通过ZOS终端节点可以实现内网对ZOS的便捷访问。 VPC 名称 VPC名称 VPC001 VPC网段(IPv4) VPC的地址范围,VPC内的子网地址必须在VPC的地址范围内。建议使用网段:10.0.0.0/828、172.16.0.0/1228、192.168.0.0/1628。如果要使用其他网段,请参考VPC网段和扩展网段。 192.168.0.0/16 VPC网段(IPv6) 是否分配虚拟私有云VPC的IPv6地址,仅部分可用区资源池支持为VPC开启IPv6,不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 开启 IPv6地址类型 开启IPv6的情况下,显示此选项,默认仅支持中国电信单线。 中国电信单线 VPC IPv6地址段 开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 自动分配 企业项目 可以为VPC实例关联企业项目 project1 VPC描述 备注信息 测试VPC 子网配置 子网类型 普通子网:默认选项,此类子网中可以用于创建除标准裸金属服务器外的资源,推荐选择; 标准裸金属子网:仅支持创建标准裸金属服务器和虚拟IP,仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 普通子网 子网名称 子网的名称 Subnet001 子网网段(IPv4) 子网的地址范围,需要在VPC的地址范围内 192.168.0.0/24 网关(IPv4) 子网的网关,默认为子网内第一个可用IP。 对于可用区资源池,网关地址默认为.1,不可以指定其他地址(部分可用区资源池指定其他地址;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准)。 对于地域资源池,网关地址默认为.1,可以指定其他地址。 192.168.0.1 DHCP(IPv4) 子网的DHCP地址,仅部分可用区资源池支持指定;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 192.168.0.2 子网IPv6网段 开启IPv6功能后,将自动为子网分配IPv6网段,但您不能选择IPv6地址范围 开启 子网IPv6地址段 子网开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 自动分配 DNS服务器地址 部分可用区资源池默认值为100.95.0.1,该地址为天翼云DNS服务的地址,支持解析内网域名和公网域名;其他资源池默认值为114.114.114.114、8.8.8.8 100.95.0.1 子网描述 备注信息 测试子网
        来自:
        帮助文档
        虚拟私有云 VPC
        虚拟私有云VPC管理
        创建虚拟私有云VPC
      • CoreDNS(系统资源插件,必装)
        插件简介 CoreDNS插件是一款通过链式插件的方式为Kubernetes提供域名解析服务的DNS服务器。 CoreDNS是由CNCF孵化的开源软件,用于CloudNative环境下的DNS服务器和服务发现解决方案。CoreDNS实现了插件链式架构,能够按需组合插件,运行效率高、配置灵活。在kubernetes集群中使用CoreDNS能够自动发现集群内的服务,并为这些服务提供域名解析。同时,通过级联DNS服务器,还能够为集群内的工作负载提供外部域名的解析服务。目前CoreDNS已经成为社区kubernetes 1.11及以上版本集群推荐的DNS服务器解决方案。 该插件为系统资源插件,kubernetes 1.11 及以上版本的集群在创建时默认安装。 CoreDNS官网:[]( " ") 为CoreDNS配置存根域 集群管理员可以修改CoreDNS Corefile的ConfigMap以更改服务发现的工作方式。使用插件proxy可对CoreDNS的存根域进行配置。 若集群管理员有一个位于10.150.0.1的Consul域名解析服务器,并且所有Consul的域名都带有.consul.local的后缀。 执行以下命令,在CoreDNS的ConfigMap中添加如下信息即可将该域名服务器配置在CoreDNS中: kubectl edit configmap coredns n kubesystem consul.local:5353 { errors cache 30 proxy . 10.150.0.1 } v1.15.11 及之后的集群版本,修改后最终的ConfigMap如下所示: apiVersion: v1 data: Corefile: .:5353 { cache 30 errors health kubernetes cluster.local inaddr.arpa ip6.arpa { pods insecure upstream /etc/resolv.conf fallthrough inaddr.arpa ip6.arpa } loadbalance roundrobin prometheus 0.0.0.0:9153 forward . /etc/resolv.conf reload } consul.local:5353 { errors cache 30 forward . 10.150.0.1 } kind: ConfigMap metadata: name: coredns namespace: kubesystem 1.15.11 之前的集群版本,修改后最终的ConfigMap如下所示: apiVersion: v1 data: Corefile: .:5353 { cache 30 errors health kubernetes cluster.local inaddr.arpa ip6.arpa { pods insecure upstream /etc/resolv.conf fallthrough inaddr.arpa ip6.arpa } loadbalance roundrobin prometheus 0.0.0.0:9153 proxy . /etc/resolv.conf reload } consul.local:5353 { errors cache 30 proxy . 10.150.0.1 } kind: ConfigMap metadata: name: coredns namespace: kubesystem kubernetes中的域名解析逻辑 DNS策略可以在每个pod基础上进行设置,目前,Kubernetes支持Default 、ClusterFirst 、ClusterFirstWithHostNet 和None四种DNS策略,具体请参见[]( " ") 卸载插件 步骤 1 登录CCE控制台,在左侧导航栏中选择“插件管理”,在“插件实例”页签下,选择对应的集群,单击coredns下的“卸载”。 步骤 2 在弹出的窗口中,单击“是”,可卸载该插件。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        插件管理
        CoreDNS(系统资源插件,必装)
      • CCE发布Kubernetes 1.28版本说明
        本节主要介绍CCE发布Kubernetes 1.28版本 云容器引擎(CCE)严格遵循社区一致性认证,现已支持创建Kubernetes 1.28集群。本文介绍Kubernetes 1.28版本的变更说明。 重要说明 在Kubernetes 1.28版本,调度框架发生变化,减少无用的重试,从而提高调度程序的整体性能。 在Kubernetes 1.28 版本,Ceph FS 树内插件已在 v1.28 中弃用,并计划在 v1.31 中删除(社区没有计划进行 CSI 迁移)。 建议使用 Ceph CSI 第三方存储驱动程序作为替代方案。 在Kubernetes 1.28 版本,Ceph RBD 树内插件已在 v1.28 中弃用,并计划在 v1.31 中删除(社区没有计划进行 CSI 迁移)。建议使用 RBD 模式的 Ceph CSI 第三方存储驱动程序作为替代方案。 新增特性及特性增强 社区特性的Alpha阶段默认禁用、Beta阶段一般默认启用、GA阶段将一直默认启用,且不能禁用(会在后续版本中删除这个开关功能)。CCE对新特性的策略与社区保持一致。 版本偏差策略扩展至3个版本 从1.28控制平面/1.25 工作节点开始,Kubernetes版本偏差策略将支持的控制平面/工作节点偏差扩展到 3 个版本。 这使得节点的年度次要版本升级成为可能,同时保持受支持的次要版本。 可追溯的默认StorageClass 进阶至 GA 在Kubernetes 1.28版本,可追溯默认 StorageClass 赋值现已进阶至GA。 这项增强特性极大地改进了默认的StorageClasses为PersistentVolumeClaim (PVC) 赋值的方式。 PersistentVolume (PV) 控制器已修改为:当未设置 storageClassName 时,自动向任何未绑定的 PersistentVolumeClaim 分配一个默认的 StorageClass。此外,API 服务器中的 PersistentVolumeClaim 准入验证机制也已调整为允许将值从未设置状态更改为实际的 StorageClass 名称。 原生边车容器(Alpha) 在Kubernetes 1.28版本,原生边车容器以Alpha版本正式发布。其在 Init 容器中添加了一个新的 restartPolicy 字段, 该字段在 SidecarContainers 特性门控启用时可用。需要注意的是,原生边车容器目前仍有些问题需要解决,因此K8S社区建议仅在 Alpha 阶段的短期测试集群中使用边车功能。 混合版本代理(Alpha) 在Kubernetes 1.28版本,发布了用于改进集群安全升级的新机制(混合版本代理)。该特性为Alpha特性。 当集群进行升级时,集群中不同版本的 kubeapiserver 为不同的内置资源集(组、版本、资源)提供服务。在这种情况下资源请求如果由任一可用的 apiserver 提供服务,请求可能会到达无法解析此请求资源的 apiserver 中,导致请求失败。该特性能解决该问题。(主要注意的是,CCE本身提供的升级能力即可做到无损升级,因此不存在该特性涉及的场景)。 节点非体面关闭特性达到GA 在Kubernetes 1.28版本,节点非体面关闭特性达到GA阶段。当一个节点被关闭但没有被 Kubelet 的 Node Shutdown Manager 检测到时,StatefulSet 的 Pod 将会停留在终止状态,并且不能移动到新运行的节点上。当用户确认该节点已经处于不可恢复的情况下,可以手动为Node打上outofservice的污点,以使得该节点上的StatefulSet的Pod和VolumeAttachments被强制删除,并在健康的Node上创建相应的Pod。 NodeSwap特性达到Beta 在Kubernetes 1.28版本,NodeSwap能力进阶至Beta版本。目前仍然处于默认关闭状态,需要使用NodeSwap门控打开。该特性可以为Linux节点上运行的Kubernetes工作负载逐个节点地配置内存交换。需要注意的是,该特性虽然进阶至Beta特性,但仍然存在一些需要增强的问题和安全风险。 Job相关特性 在Kubernetes 1.28版本,增加了Pod更换策略和基于带索引Job的回退限制两个alpha特性。 Pod更换策略 默认情况下,当Pod 进入终止(Terminating)状态(例如由于抢占或驱逐机制)时,Kubernetes 会立即创建一个替换的 Pod,因此这时会有两个 Pod 同时运行。在Kubernetes 1.28版本中可以使用JobPodReplacementPolicy 来启用该特性。可以在Job的Spec中定义podReplacementPolicy,目前仅可设置为Failed。在设置为Failed之后,Pod 仅在达到 Failed 阶段时才会被替换,而不是在它们处于终止过程中(Terminating)时被替换。此外,您可以检查 Job 的 .status.termination 字段。该字段的值表示终止过程中的 Job 所关联的 Pod 数量。 带索引Job的回退限制 默认情况下,带索引的Job(Indexed Job)的 Pod 失败情况会被记录下来,受 .spec.backoffLimit 字段所设置的全局重试次数限制。这意味着,如果存在某个索引值的 Pod 一直持续失败,则会 Pod 会被重新启动,直到重试次数达到限制值。 一旦达到限制值,整个 Job 将被标记为失败,并且对应某些索引的 Pod 甚至可能从不曾被启动。在Kubernetes 1.28版本中,可以通过启用集群的 JobBackoffLimitPerIndex 特性门控来启用此特性。开启之后,允许在创建带索引的 Job(Indexed Job)时指定 .spec.backoffLimitPerIndex 字段。当某个Job的失败次数超过设定的上限时,将不再进行重试。 CEL相关特性 在Kubernetes 1.28版本,CEL能力进行了相应的增强。 CRD 使用 CEL 进行 Validate 的特性进阶至Beta 该特性在v1.25版本就已经升级为Beta版本。通过将 CEL 表达式直接集成在 CRD 中, 可以使开发者在不使用 Webhook 的情况下解决大部分对 CR 实例进行验证的用例。在未来的版本,将继续扩展 CEL 表达式的功能,以支持默认值和 CRD 转换。 基于CEL的准入控制进阶至Beta 基于通用表达式语言(CEL) 的准入控制是可定制的,对于 kubeapiserver 接受到的请求,可以使用 CEL 表达式来决定是否接受或拒绝请求,可作为 Webhook 准入控制的一种替代方案。在 v1.28 中,CEL 准入控制被升级为 Beta,同时添加了一些新功能,包括但不限于: ValidatingAdmissionPolicy 类型检查现在可以正确处理 CEL 表达式中的 “authorizer” 变量。 ValidatingAdmissionPolicy 支持对 messageExpression 字段进行类型检查。 kubecontrollermanager 组件新增 ValidatingAdmissionPolicy 控制器,用来对 ValidatingAdmissionPolicy 中的 CEL 表达式做类型检查,并将原因保存在状态字段中。 支持变量组合,可以在ValidatingAdmissionPolicy 中定义变量,然后在定义其他变量时使用它。 新增CEL 库函数支持对 Kubernetes 的 resource.Quantity 类型进行解析。 其它特性说明 在Kubernetes 1.28版本,ServiceNodePortStaticSubrange 特性为beta,允许保留静态端口范围,避免与动态分配端口冲突。 在Kubernetes 1.28版本,增加了alpha特性ConsistentListFromCache,允许kubeapiserver从缓存中提供一致性列表,Get和List请求可以从缓存中读取数据,而不需要从etcd中获取。 在Kubernetes 1.28版本,kubelet能够配置dropin目录(alpha特性)。该特性允许向kubelet添加对“configdir”标志的支持,以允许用户指定一个插入目录,该目录将覆盖位于/etc/kubernetes/kubelet.conf位置的Kubelet的配置。 在Kubernetes 1.28版本,ExpandedDNSConfig 升级至GA,默认会被打开。该参数用于允许扩展DNS的配置。 在Kubernetes 1.28版本,提供Alpha特性CRD Validation Ratcheting。该特性允许Patch或者Update请求没有更改任何不合法的字段,将允许CR验证失败。 在Kubernetes 1.28版本,kubecontrollermanager添加了concurrentcronjobsyncs flag用来设置cron job controller的workers数。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        CCE发布Kubernetes 1.28版本说明
      • 修改资源池
        本章节主要介绍修改工作负载队列。 在资源管理中,您可以对某个资源池的参数进行修改。 1. 登录DWS管理控制台。 2. 在集群列表中单击需要访问“资源管理”页面的集群名称。 3. 切换至“资源管理”页签。 4. 在“资源池”列表中切换需要修改的资源池名称,出现如下页面,包括“短查询配置”、“资源配置”、“异常规则”、“关联用户”。 5. 修改短查询配置。修改为相应取值,单击右侧“保存”。 参数项 描述 取值 短查询加速 短查询加速开关,默认打开。 打开 短查询并发 短查询作业为执行估算内存小于32MB的查询作业,默认值“1”表示不管控。 10 步骤 6 修改资源配置。 单击右侧“编辑”,详情请参见表 资源池参数 修改相应参数,并单击确定。 表 资源池参数 参数项 描述 默认值 名称 资源池的名称。 CPU资源(%) 共享配额:关联在当前资源池的用户在执行作业时可以使用的CPU时间比例,取值范围为199的整数。 专属限额:限定资源池中数据库用户在执行作业时可使用的最大CPU核数占总核数的百分比,取值范围为0100的整数,0表示不限制。 所有资源池的总和不能超过99%。当配置CPU共享配额后,如果当前只有一个资源池时,该参数不生效。 共享配额非绝对限制,只有在发生CPU竞争时才生效。例如,资源池A和B被绑定在CPU1运行,当A和B均运行时参数生效,只有A运行则参数不生效。 所有资源池的CPU专属限额总和最大不能超过100%,系统默认的CPU专属限额(%)为0。 CPU专属限额仅8.1.3及以上集群版本支持。 内存资源(%) 资源池所占用的内存百分比。内存和查询并发支持单独管控和联合管控,联合管控时必须同时满足并发和内存要求时作业才能下发。 0(不限制) 存储资源(MB) 可使用的永久表空间大小。该值是资源池下所有DN的表空间总值,单DN 节点可用空间 设置值/ DN节点数。 1(不限制) 复杂语句并发 资源池中的最大查询并发数。内存和查询并发支持单独管控和联合管控,联合管控时必须同时满足并发和内存要求时作业才能下发。 10 网络带宽权重 网络调度时权重值。取值范围为1~2147483647的整数,默认配置为1。 注意 网络带宽权重仅8.2.1及以上集群版本支持。 1(不限制) 说明 CPU专属限额仅8.1.3及以上集群版本支持。 7. 关联异常规则。 关联异常规则; 解绑异常规则; 说明 关联、解绑异常规则仅8.2.0及以上集群版本支持。8.2.0以下集群版本请参考步骤7.3。 默认异常规则,当用户未关联资源池,或者用户所关联的资源池未配置异常规则时默认生效;当用户所关联的资源池关联所指定规则时,以所关联规则为准。 默认异常规则仅8.2.0及以上集群版本支持,升级到8.2.0及以上集群版本时默认异常规则不会生效,用户可自行创建所需规则。 8.2.1集群版本支持降级异常规则,所有异常规则都支持降级行为,降级后仅网络资源抢占降至低优先级:在正常查询无网络请求时,才会调度降级查询的网络请求。 同一个资源池最多关联16组异常规则。 同一个资源池可以关联多组规则,资源池关联的多组不同的异常规则以“或”的关系生效,满足其中一组的所有条件即可生效。例如,资源池关联两组规则,一组指定elapsedtime2400, 另一组指定elapsedtime1200,memsize2000,那么执行中的作业,满足执行时间达到1200秒且内存使用达到2000MB时,或者执行时间达到2400秒时,都会触发规则终止作业。 修改异常规则; 参见表 修改相应参数。 表 修改相应参数 参数项 描述 取值范围(0表示不约束) 操作 阻塞时间 作业的阻塞时间,包括全局并发排队以及局部并发排队的总时间,单位秒。 例如,如果配置“阻塞时间”为300秒,那么当该资源池中的用户执行的某个作业在阻塞300秒后将被终止。 1~2147483647的整数。0表示不约束。 终止、降级或不约束 执行所消耗时间 已经执行的作业从开始执行到当前所消耗的时间,单位为秒。 例如,如果配置“执行所消耗时间”为100秒,那么当该资源池中的用户执行的某个作业在执行超过100秒后将被终止。 1~2147483647的整数。0表示不约束。 终止、降级或不约束 所有DN上CPU总时间 作业在所有DN上执行时所耗费的CPU总时间,单位为秒。 1~2147483647的整数。0表示不约束。 终止、降级或不约束 检查倾斜率的时间间隔 检查作业执行的CPU倾斜率的间隔时间,单位为秒,需同“所有DN上CPU时间的倾斜率”一起设置。 1~2147483647的整数。0表示不约束。 终止、降级或不约束 所有DN上CPU总时间倾斜率 作业在DN上执行时的CPU时间的倾斜率,依赖于“检查倾斜率的时间间隔”的设置。 1~100的整数。0表示不约束。 终止、降级或不约束 单DN算子下盘大小 作业在单个DN上最大下盘的数据量,单位MB。 说明 该异常规则仅8.2.0及以上集群版本支持。 1~2147483647的整数。0表示不约束。 终止、降级或不约束 DN平均消耗CPU占比 作业在所有DN上执行时的平均CPU使用率,检测周期不强依赖“检查倾斜率的时间间隔”,若配置将使用该检查间隔,否则系统默认30秒间隔。 说明 该异常规则仅8.2.0及以上集群版本支持。 1~100的整数。0表示不约束 终止、降级或不约束 单个DN上最大带宽 作业在单个DN上最大可占用的网络带宽,单位MB。 说明 该异常规则仅8.2.1及以上集群版本支持。 1~2147483647的整数。0表示不约束。 终止、降级或不约束 说明 异常规则允许您对资源池中用户执行的作业做异常控制,目前支持表164的相关配置。 如选择“终止”或“降级”,则需要设置相应时间或百分比。 如选择“不约束”,则无异常规则约束。 资源池修改异常规则仅8.2.0及以上集群版本支持。 8. 关联用户。 说明 一个数据库用户只有被添加到某个资源池中之后,该用户运行作业所使用的资源才能被管控。 一个数据库用户只能被添加至一个资源池中,从资源池中移除的用户可以再次添加至其他资源池。 数据库管理员用户不可关联。 当用户没有指定关联资源池时,会被默认关联到defaultpool,资源使用受defaultpool限制。defaultpool在开启资源管理功能后由系统自动创建。 单击左侧“添加”。 从当前用户列表中,勾选需要添加的用户,一次可勾选多个。 单击“确定”。 如果需要删除用户,则单击待删除用户所在行右边的“解除关联”即可。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        资源管理
        资源池
        修改资源池
      • API列表
        模型 模型简介 模型ID DoubaoSeed2.0pro DoubaoSeed2.0Pro 是字节跳动推出的最新一代旗舰级通用Agent大模型,隶属于豆包大模型2.0系列,专为应对大规模生产环境下的深度推理与长链路任务执行场景而设计,全面对标GPT 5.2与Gemini 3 Pro。该模型围绕真实世界复杂任务需求进行系统性优化,强化了多模态理解、复杂指令执行与长尾领域知识储备,在数学推理、视觉感知、长上下文处理等多个基准测试中达到业界顶尖水平。其token定价较同级海外模型降低约一个数量级,在保证卓越性能的同时大幅降低部署与使用成本,进一步缩小了与前沿闭源模型的差距,目前已在豆包App、电脑端、网页版及火山引擎API服务同步上线。 d4432662ebed421890bf8fe60e400439 Qwen3Max 千问3系列Max模型,相较preview版本在智能体编程与工具调用方向进行了专项升级。本次发布的正式版模型达到领域SOTA水平,适配场景更加复杂的智能体需求。 3d1c69eb6e1d40f186124b98141e64fd DoubaoSeed1.8 DoubaoSeed1.8是字节跳动自主研发的最新一代旗舰级多模态通用智能体(General Agent)大模型,于2025年12月18日在FORCE原动力大会上正式发布,专为应对真实场景中的复杂工作流、多模态交互及智能体执行任务而设计。该模型突破传统单一语言模型局限,实现从“回答问题”到“执行任务”的质变,融合视觉、语言、推理和行动能力于一体,优化了图片编码token数量与推理效率,在多模态理解、智能体操作、代码编写等领域表现卓越,跻身全球大模型第一梯队,其日均token使用量已突破50万亿,进一步缩小了与前沿闭源模型的差距,成为面向实际应用场景的高效实干型AI助手superscript:3。 87f80d930d3e4c478e50f7a121dfbb97 DoubaoSeed1.60615 DoubaoSeed1.60615是全新多模态深度思考模型,同时支持minimal/low/medium/high 四种reasoning effort。 更强模型效果,服务复杂任务和有挑战场景。 651c9b454b58458f9b604e67c03ab73f Doubao1.5pro32k Doubao1.5pro32k 是字节跳动自主研发的新一代旗舰级大模型,专为长文本处理、多场景适配及高精度任务需求而设计,是豆包1.5系列产品线的核心成员之一。该模型坚持高质量训练路线,在14.8万亿高质量tokens上完成预训练,并通过监督微调和强化学习进一步优化,相较于前代模型实现了知识、代码、推理等核心能力的全面跃升。Doubao1.5pro32k集成了稀疏MoE架构与高效上下文管理技术,坚持不使用任何其他模型生成的数据,凭借极低的幻觉率和优异的综合表现,在多项公开评测基准中达到全球领先水平,显著缩小了与前沿闭源模型(如GPT4 Turbo)的差距,可广泛适配个人、企业及专业领域的多样化需求。 3b4f6505923d48beb3d779a28c704a4e Qwen3CoderPlus Qwen3CoderPlus 是阿里通义千问团队研发的顶级代码专用大模型,在 Qwen3 通用模型基座上进行了大规模的代码专项继续预训练与指令微调。该模型熟练掌握 92 种编程语言,在代码生成、Bug 修复、代码解释及跨语言翻译等任务上表现卓越。Qwen3CoderPlus 引入了“仓库级(Repositorylevel)”代码理解技术,能够处理复杂的项目依赖关系,是程序员、数据科学家及自动化运维人员的理想开发助手。 f9089c3c29b24ac7a0148efad6c0650d Qwen3VLPlus Qwen3VLPlus 是阿里通义千问 Qwen3 家族中的增强型视觉语言模型(VisionLanguage Model),专为处理高难度的图像与视频理解任务而设计。相较于开源版本,Plus 版在视觉感知的清晰度、长视频时序分析及视觉智能体(Visual Agent)交互能力上进行了大幅强化。它采用了先进的“原生动态分辨率”技术,支持任意长宽比的图像输入,能够像人类一样精准识别密集文本、复杂图表及长达数小时的视频内容,是构建多模态应用的理想基座。 b0d79f4a19bb4fa8a71745fff38325a4 Qwen3.5397BA17B Qwen3.5397BA17B 是阿里通义千问团队研发的新一代旗舰级开源多模态 MoE(Mixture of Experts)模型。该模型拥有 3970 亿总参数,但在推理时仅激活 170 亿参数(A17B),实现了极致的性能与效率平衡。Qwen3.5 采用了创新的“门控 DeltaNet + MoE”混合架构,实现了视觉与语言的早期融合训练。它不仅在推理、编码和多语言理解上跨代际超越了前代 Qwen3,更在智能体(Agent)和视觉理解任务上表现卓越,原生支持“思考模式”,具备强大的现实世界适应能力。 06b788a9218d4a5b905e5681c2f4e721 GLM5 GLM5 是智谱 AI 推出的最新一代旗舰级开源大模型,专为应对复杂系统工程和长周期智能体(Agent)任务而设计。该模型坚持扩展(Scaling)路线,参数量从前代的 355B(激活 32B)扩展至 744B(激活 40B),预训练数据量提升至 28.5T tokens。GLM5 集成了 DeepSeek 稀疏注意力(DSA)机制,并引入了全新的异步强化学习基础设施“slime”,在推理、编程和智能体任务上表现卓越,是目前全球开源模型中的佼佼者,进一步缩小了与前沿闭源模型(如 GPT5.2)的差距。 6d3a57c3a6fb465e968b604783b89eda DeepSeekV3.2(正式版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 64badd7229504be5a44123367666a51f DeepSeekV3.2(体验版) DeepSeekV3.2是深度求索(DeepSeek)开源的最新一代旗舰级通用大模型。该模型是一个在高计算效率与卓越推理和代理性能之间取得平衡的模型。实现了顶尖性能与超高推理效率的完美平衡,该模型在编程、数学、推理及多语言理解等核心任务上展现出卓越能力,是面向开发者与企业的高级智能助手。 2656053fa69c4c2d89c5a691d9d737c3 Qwen3Coder480BA35BInstruct Qwen3Coder480BA35BInstruct是阿里通义千问开源的顶尖代码大模型,采用混合专家(MoE)架构,总参 4800 亿、激活 350 亿参数,实现性能与成本的平衡,能处理仓库级代码与跨文件依赖。 e8ffc9d7e2b34a7487b30d6682207376 Qwen3235BA22BInstruct2507 Qwen3235BA22BInstruct2507是阿里通义千问发布的开源 MoE 架构大模型,总参 2350 亿、激活 220 亿参数,在指令遵循、推理、编码等多领域性能突出,覆盖 100 多种语言与长尾知识。 aab61a64c8504336848e1720bd379ed4 KimiK2Instruct Kimi K2 是一款先进的混合专家(MoE)语言模型,激活参数为 320 亿,总参数为 1 万亿。通过 Muon 优化器进行训练,Kimi K2 在前沿知识、推理和编码任务上表现出色,同时精心优化了代理能力。 38a6a77904264b3dac4644aedb0e5ced Qwen330BA3B Qwen3是Qwen 系列最新一代大型语言模型,提供了一系列密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面实现了突破性进展 4efd64f3736d41a08f89db919dbe9c6b BGERerankerLarge BGERerankerLarge是北京智源人工智能研究院(BAAI)发布的一款基于深度学习的重排序模型,能够在中英文两种语言环境下,对检索结果进行优化,提高检索的准确性和相关性。与嵌入模型不同,Reranker使用question和document作为输入,直接输出相似度而不是嵌入。 0cb4c1ed8f374eadbe8bffe30bd039dc BaichuanM232B BaichuanM232B是百川 AI 的医疗增强推理模型,是百川发布的第二个医疗模型。该模型专为现实世界的医疗推理任务设计,在 Qwen2.532B的基础上引入了创新的大型验证系统。通过对真实医疗问题的领域特定微调,它在保持强大通用能力的同时实现了突破性的医疗性能。 9488c08cf627421aacdeb44bd9c2f95c DeepSeekV3.1 DeepSeekV3.1是一个支持思考模式和非思考模式的混合模型。是在 DeepSeekV3.1Base 的基础上进行后训练得到的,后者是通过两阶段长上下文扩展方法在原始 V3 基础检查点上构建的,遵循了原始 DeepSeekV3 报告中概述的方法。通过收集额外的长文档并大幅扩展两个训练阶段来扩大的数据集。 37d1d0f4183b4800a44a69abf9102dfa DeepSeekV30324 DeepSeekV30324是DeepSeek团队于2025年3月24日发布的DeepSeekV3语言模型的新版本。是一个专家混合(MoE)语言模型,总参数为6710亿个,每个Token激活了370亿个参数。0324版本开创了一种用于负载均衡的辅助无损策略,并设定了多令牌预测训练目标以提高性能。该模型版本在几个关键方面比其前身DeepSeekV3有了显著改进。 11bd888a35434486bf209066c7dad0ee DeepSeekR10528 DeepSeekR10528是DeepSeek团队推出的最新版模型。模型基于 DeepSeekV30324 训练,参数量达660B。该模型通过利用增加的计算资源并在后训练期间引入算法优化机制,显著提高了其推理和推理能力的深度。该模型在各种基准测试评估中表现出出色的性能,包括数学、编程和一般逻辑。它的整体性能现在接近 O3 和 Gemini 2.5 Pro 等领先机型。 ff3f5c450f3b459cbe5d04a5ea9b2511 DeepSeekR1 DeepSeekR1 是一款具有创新性的大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekV3 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10 BGEm3 BGEm3是智源发布的通用语义向量模型BGE家族新成员,支持超过100种语言,具备领先的多语言、跨语言检索能力,全面且高质量地支撑“句子”、“段落”、“篇章”、“文档”等不同粒度的输入文本,最大输入长度为8192,并且一站式集成了稠密检索、稀疏检索、多向量检索三种检索功能,在多个评测基准中达到最优水平。 46c1326f63044fbe80443af579466fe3 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 Qwen3235BA22B Qwen3235BA22B是Qwen3系列大型语言模型的旗舰模型。拥有2350多亿总参数和220多亿激活参数。在代码、数学、通用能力等基准测试中,与DeepSeekR1、o1、o3mini、Grok3和Gemini2.5Pro等顶级模型相比,表现出极具竞争力的结果。 35af69e0d4af492ca366cf2df03c3172 Qwen332B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen332B是参数量为32.8B的密集(Dense)模型。 3836b8d2ec5d46fc94cc7891064940aa Qwen314B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen314B是参数量为14.8B的密集(Dense)模型。 5873b698960f45c8ae36e72566f7f141 Qwen38B Qwen3是Qwen系列中最新一代的大型语言模型,提供一整套密集(Dense)模型和混合专家(MoE)模型。Qwen3基于广泛的培训而构建,在推理、指令遵循、代理功能和多语言支持方面取得了突破性的进步。Qwen38B是参数量为82亿的密集(Dense)模型。 dceefe3233794dd385e3c2ab500dc6c8 Qwen34B Qwen3是Qwen 系列最新一代大型语言模型,提供了一系列密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面实现了突破性进展 8606056bfe0c49448d92587452d1f2fc QwQ32B QwQ32B是一款拥有 320 亿参数的推理模型,其性能可与具备 6710 亿参数(其中 370 亿被激活)的 DeepSeekR1 媲美。该模型集成了与Agent相关的能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。 b9293363bfbf4db2bccb839ff4300d17 Qwen2.5VL72BInstruct Qwen2.5VL72BInstruct模型是阿里云通义千问开源的全新视觉模型,具有720亿参数规模,以满足高性能计算场景的需求。目前共推出3B、7B、32B和72B四个尺寸的版本。这是旗舰版Qwen2.5VL72B的指令微调模型,在13项权威评测中夺得视觉理解冠军,全面超越GPT40与Claude3.5。 88003ac1ca7a4e4e8efa7caee648323b
        来自:
        帮助文档
        模型推理服务
        API参考
        推理服务API
        API列表
      • 安全责任共担模型
        理解责任共担模型 在您设计和部署企业应用系统之前,请您充分理解企业自身和天翼云的安全责任边界。 CCE 托管版架构下集群安全的责任共担模型如下所示。 责任对象 责任范畴 责任项 客户 负责业务应用安全防护,云上资源的安全配置和更新 业务应用数据 客户 负责业务应用安全防护,云上资源的安全配置和更新 应用容器进行,应用源码,IAM 客户 负责业务应用安全防护,云上资源的安全配置和更新 RBAC授权、配置管理、安全策略、KubeConfig凭证管理、QoS & Pod Priority、NetworkPolicy 客户 负责业务应用安全防护,云上资源的安全配置和更新 CCE 集群配置 客户 负责业务应用安全防护,云上资源的安全配置和更新 节点池/节点配置 客户 负责业务应用安全防护,云上资源的安全配置和更新 节点OS,kubelet,CRI配置 客户 负责业务应用安全防护,云上资源的安全配置和更新 云网络配置,包括VPC、ELB、安全组、云服务白名单等 天翼云 负责集群托管面组件和基础设施安全 APIServer 天翼云 负责集群托管面组件和基础设施安全 Controller Manager 天翼云 负责集群托管面组件和基础设施安全 Scheduler 天翼云 负责集群托管面组件和基础设施安全 etcd 天翼云 负责集群托管面组件和基础设施安全 CCE 托管面基础设置 CCE 专有版架构下集群安全的责任共担模型如下所示。 责任对象 责任范畴 责任项 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 业务应用数据 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 应用容器进行,应用源码,IAM 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 RBAC授权、配置管理、安全策略、KubeConfig凭证管理、QoS & Pod Priority、NetworkPolicy 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 CCE 集群配置 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 节点池/节点配置 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 节点OS,kubelet,CRI配置 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 云网络配置,包括VPC、ELB、安全组、云服务白名单等 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 APIServer 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 Controller Manager 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 Scheduler 客户 负责业务应用安全防护,云上资源的安全配置和更新,负责控制面组件安全。 etcd 天翼云 负责计算、存储、网络等云产品的基础安全 当您选择 CCE 托管集群中部署虚拟节点时,除集群托管面与基础设施的安全保障外,天翼云还将负责 Pod 底层弹性容器实例(ECI)的运行时安全;而应用 Pod 的重建工作则由客户负责,以确保修复措施生效。 下图展示的是 CCE 集群中调度虚拟节点时的安全责任共担模型。 责任对象 责任范畴 责任项 责任对象 责任范畴 责任项 客户 负责业务应用安全防护,云上资源的安全配置和更新 业务应用数据 客户 负责业务应用安全防护,云上资源的安全配置和更新 应用容器进行,应用源码,IAM 客户 负责业务应用安全防护,云上资源的安全配置和更新 RBAC授权、配置管理、安全策略、KubeConfig凭证管理、QoS & Pod Priority、NetworkPolicy 客户 负责业务应用安全防护,云上资源的安全配置和更新 CCE 集群配置 客户 负责业务应用安全防护,云上资源的安全配置和更新 节点池/节点配置 客户 负责业务应用安全防护,云上资源的安全配置和更新 节点OS,kubelet,CRI配置 客户 负责业务应用安全防护,云上资源的安全配置和更新 云网络配置,包括VPC、ELB、安全组、云服务白名单等 客户 负责业务应用安全防护,云上资源的安全配置和更新 虚拟节点 客户 负责业务应用安全防护,云上资源的安全配置和更新 ECI 容器OS,CRI配置 天翼云 负责集群托管面组件和基础设施安全 APIServer 天翼云 负责集群托管面组件和基础设施安全 Controller Manager 天翼云 负责集群托管面组件和基础设施安全 Scheduler 天翼云 负责集群托管面组件和基础设施安全 etcd 天翼云 负责集群托管面组件和基础设施安全 CCE 托管面基础设置
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        安全合规
        安全责任共担模型
      • 功能特性
        本节主要介绍OBS的功能特性。 功能名称 功能描述 天翼云发布区域 备注 :::: 标准存储 访问时延低和吞吐量高,适用于有大量热点文件(平均1个月多次)或小文件(小于1MB),且需要频繁访问数据的业务场景,例如:大数据、移动应用、热点视频、社交图片等场景。 全部 低频访问存储 适用于不频繁访问(平均1年少于12次)但在需要时也要求快速访问数据的业务场景,例如:文件同步/共享、企业备份等场景。 苏州、广州4、武汉2 归档存储 适用于很少访问(平均1年访问1次)数据的业务场景,例如:数据归档、长期备份等场景。 归档存储安全、持久且成本极低,可以用来替代磁带库。 为了保持成本低廉,数据恢复时间可能长达数分钟到数小时不等。 苏州、广州4、武汉2、福州 桶管理 桶是OBS中存储对象的容器。 OBS提供创建、列举、搜索、查看、删除等基本功能,帮助您便捷的进行桶管理。 全部 对象管理 对象是OBS中数据存储的基本单位。 OBS提供上传、下载、列举、搜索、断点续传、多段操作等基本功能,满足您各个场景的对象管理需求。 全部 权限管理 OBS通过IAM权限、桶/对象策略和ACL三种方式配合进行权限管理。 您可以通过IAM自定义策略授予IAM用户细粒度的OBS权限,也可以对桶和对象设置不同的策略及ACL来控制桶和对象的读写权限。 全部 服务端加密 您可以将数据加密后存储到OBS中,提高数据的安全性。OBS提供SSEKMS服务端加密方式。 贵州、西安2、苏州、广州4、华北、成都3、北京2、武汉2、杭州、上海4、深圳、长沙2、芜湖、南昌、乌鲁木齐、福州 生命周期管理 您可以通过生命周期规则来管理对象的生命周期,例如定期将桶中的对象删除或者转换对象的存储类别。 全部 静态网站托管 您可以将静态网站文件上传至OBS桶中,并对这些文件赋予匿名用户可读权限,然后将该桶配置成静态网站托管模式,以实现在OBS上托管静态网站。 全部 须安全审批后加白 跨域资源共享 跨域资源共享(CORS)是由W3C标准化组织提出的一种网络浏览器的规范机制,定义了一个域中加载的客户端Web应用程序与另一个域中的资源交互的方式。 而在通常的网页请求中,由于同源安全策略(Same Origin Policy,SOP)的存在,不同域之间的网站脚本和内容是无法进行交互的。 OBS支持CORS规范,允许跨域请求访问OBS中的资源。 全部 防盗链 为了防止用户在OBS的数据被其他人盗链,OBS支持基于HTTP Header中表头字段Referer的防盗链方法,同时支持访问白名单和访问黑名单的设置。 全部 自定义域名 您可以将自定义域名绑定到OBS桶,然后使用自定义域名访问桶中的数据。 例如,您需要将网站中的文件迁移到OBS,并且不想修改网页的代码,即保持网站的链接不变,此时可以使用自定义域名绑定功能。 全部 须安全审批后加白 桶清单 可以用来帮助您管理桶内对象,你可以配置一个清单规则,定期扫描桶中指定的对象或拥有相同前缀的对象,生成这些对象的元数据内容,如对象大小、修改时间、存储类别等,并以CSV格式保存到指定的桶中。 广州4、苏州、华北、贵州、成都3、西安2、杭州、福州、深圳、北京2、上海4、长沙2、芜湖、武汉2、兰州、南昌 图片处理 您可以使用图片处理功能对存放在OBS中的图片进行瘦身、剪切、缩放、增加水印、转换格式等操作,并且可以快速获取到处理后的图片。 广州4、苏州、杭州、华北、福州、芜湖、兰州 并行文件系统 并行文件系统(Parallel File System)是OBS提供的一种经过优化的高性能文件系统,能够快速处理高性能计算(HPC)工作负载。 您可以按照标准的OBS接口读取并行文件系统中的数据,也可以利用obsfs工具(按照POSIX文件语义读写数据)将创建的并行文件系统挂载到云端Linux服务器上,并能像操作本地文件系统一样对并行文件系统内的文件和目录进行在线处理。 全部 日志管理 您可以通过日志管理功能获取桶的访问数据。开启日志管理功能后,桶的每次操作将会产生一条日志,并将多条日志打包成一个日志文件保存在目标桶中,您可以基于日志文件进行请求分析或日志审计。 全部 多版本控制 您可以在一个桶中保留多个版本的对象,使您更方便地检索和还原各个版本,在意外操作或应用程序故障时快速恢复数据。 全部 追加写对象 您可以通过AppendObject接口在指定桶内的一个Appendable对象尾追加上传数据。通过AppendObject创建的对象为Appendable对象,通过PutObject创建的对象是Normal对象。 全部 自定义元数据 您可以添加、修改或删除桶中已上传对象的元数据。 全部 桶配额 您可以设置桶空间配额,用以限制单个桶可存储的最大数据量,最大可设置为2631,单位Byte(字节)。新创建的桶默认不限制配额。 全部 碎片管理 您可以通过桶的碎片管理功能,对多段上传时某些特殊情况下产生的碎片进行清理,以节省存储空间。 全部 归档数据直读 默认情况下OBS中归档存储类别的对象需要恢复后才能下载,您也可以开启桶归档数据直读功能,开启后存储类别为归档存储的对象可以直接下载,无需提前恢复。归档数据直读会收取相应的费用。 苏州、广州4、武汉2 对象分享 您可以将存放在OBS中的文件或文件夹以临时URL的形式分享给所有用户。分享强调临时性,所有分享的URL都是临时URL,存在有效期。 您可以通过OBS控制台以及客户端工具OBS Browser+设置文件临时分享。如果想要设置永久的权限,请通过桶策略或对象策略实现。 苏州、广州4、华北、北京2、上海4、成都3、深圳、贵州、西安2、杭州、长沙2、芜湖、武汉2、福州、兰州、南昌、乌鲁木齐、内蒙3、西宁、中卫、郑州、青岛、海口、重庆 企业项目 您可以在创建桶时指定桶所属的企业项目,更方便的进行桶资源和权限管理。 全部 桶加密 您可以为桶配置默认加密,配置后,上传到桶中的对象都会自动进行加密。 苏州、广州4、华北、北京2、上海4、成都3、深圳、贵州、西安2、杭州、长沙2、芜湖、武汉2、福州、南昌、乌鲁木齐 桶标签 桶标签用于标识OBS中的桶,以此来达到对OBS中的桶进行分类的目的。当为桶添加标签时,该桶上所有请求产生的计费话单里都会带上这些标签,从而可以针对话单报表做分类筛选,进行更详细的成本分析。 苏州、广州4、华北、北京2、上海4、成都3、深圳、贵州、西安2、杭州、长沙2、芜湖、武汉2、福州、兰州、南昌 多AZ 您可以在创桶的时候选择将桶中数据冗余存储在多个可用区,以获得更高的数据可靠性。OBS采用Erasure Code(EC,纠删码)算法做数据冗余,不是以副本的形式存储。 苏州、广州4、华北 监控 您可以通过OBS控制台或者云监控服务(Cloud Eye)控制台监控桶的流量统计和请求次数等指标,方便您及时了解目前资源的使用状况、并合理规划使用计划。 苏州、广州4、西安2、华北、杭州 审计 您可以通过云审计服务(CTS)对OBS中桶和对象的各类事件操作记录进行收集、存储和查询,用于安全分析、合规审计、资源跟踪和问题定位等。 依赖云审计CTS 工具 OBS提供OBS Browser+、obsfs工具,满足不同场景下数据迁移和数据管理需求。 全部 API OBS提供了REST(Representational State Transfer)风格API,支持您通过HTTP/HTTPS请求调用,实现创建、修改、删除桶,上传、下载、删除对象等操作。 全部 SDK OBS提供多种开发语言的SDK,帮助您轻松实现二次开发。目前支持:Java、Python、Go 全部 线下提供
        来自:
        帮助文档
        对象存储 OBS
        产品简介
        功能特性
      • 版本说明书
        本页简要介绍分布式数据库V2.0.0版本更新说明。 版本说明 V2.0.0版本说明 组件名称 版本号 发布时间 TeleDBXCore 2.0 2021年 07 月 新增和优化特性: 1. 新增软件包管理模块,包括查看软件包列表、上传软件包、删除软件包、搜索软件包和增加对软件包进行md5校验。 2. 新增主机管理模块,包括添加服务器、查看服务器列表、删除服务器列表、测试服务器连通性、检测服务器状态接口、编辑服务器信息和根据IP地址搜索服务器。 3. 新增资源模版管理,包括新建资源模版、查看模版列表、编辑资源模版、删除资源模版、检测模版是否被使用和根据模版名称搜索模版。 4. 新增服务器指标,包括服务器CPU使用率、服务器CPU负载、服务器内存占用率、服务器平均每次设备I/O操作服务时间、服务器平均设备I/O队列、服务器设备I/O操作等待时间、服务器入流量、服务器出流量、服务器TCP连接数、服务器数据库文件句柄数和服务器进程数。 5. 新增实例管理模块,包括实例操作、节点操作和健康检查。 6. 支持用户登录和退出数据库管理平台。 7. 新增参数管理和鉴权配置,包括查看数据库参数、自定义配置数据库参数、支持批量修改数据库参数、查看鉴权配置、修改鉴权配置、增加鉴权配置和删除鉴权配置。 8. 新增监控模块,包括集群预览、集群监控和节点监控。 9. 支持任务管理、用户管理和租户管理。 10. 新增备份恢复模块,包括备份策略、备份管理和恢复管理。 11. 新增分布式数据库能力,包括引入TeleDB分布式数据库内核和优化Oracle兼容性。 12. 优化Oracle兼容性。 修复漏洞 CVE20181115 漏洞名称:TeleDB:Quest DR Series Disk Backup软件操作系统命令注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20181058 漏洞名称:TeleDB:PostgreSQL 提权漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE202132029 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201810915 漏洞名称:TeleDB:PostgreSQL SQL注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201910208 漏洞名称:TeleDB:Postgresql PostgreSQL SQL注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201712172 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201715098 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201715099 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20201720 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201910130 漏洞名称:TeleDB:PostgreSQL 访问控制错误漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20181052 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 修复缺陷 1. 在indexonly场景下,修复删除数据脱敏列功能不生效的问题。 2. 修复在聚合操作(带有去重)下添加一个排序节点的操作。 3. 在cn上vacuum表时,有cn计算frozenxid,保证集群范围内的统一xid回卷。 4. 修复因为释放的指针未置空导致coredump;优化过程中不能正确获取表的行数导致执行计划不准确的问题。 5. squeue故障时,consuer退出,CN回滚事务时,置空连接状态,避免无限的嵌套循环。 6. 修复查询串格式化时可能导致coredump的问题。 7. 修复等待轻量级锁(lwlock)的进程不进入pgstaterror处理的问题。 8. 修复分布式事务prepare时,未持久化2pc的上下文信息,导致pgclean无法清理一些二阶段事务问题。 9. 考虑空值和已删除的列,将已删除的属性、空值(NULL)以及缺失的值设置为NULL值。 10. 修复没有删除列的之间映射的bug。 11. 在pgsubscriptiontable中同步修改的bug。 12. 逻辑复制在master上新加入的表的数据变更到消费端直接被丢弃。 13. 逻辑复制ALTER SUBSCRIPTION xxx REFRESH PUBLICATION相关BUG。 14. 去掉Pooler调试过程无必要的sleep逻辑。 15. 确保在连接到连接池之前进行事务处理,并确保当前的事务状态是正确的。 16. 删除子表回归测例缺失。 17. 使用GCC版本7.3时遇到编译器错误。 18. 数据节点上通过VACUUM分区表产生的错误的索引信息。 19. 为gtm的 synchronousstandbynames 修正警告信息的if条件。 20. 修复TOAST表相关问题。 21. 修复空指针导致的core dump。 22. 修复一条日志"skip delete portal resowner"打印的if条件。 23. 修复一个在处理Gather 节点的左子树时,未能正确将目标(target)添加到其目标列表(targetlist)中的问题。 24. 在rtables(关系表列表)中搜索之前,没有正确检查变量的层级(level)的bug。如果变量是分布式列,并且其层级正确,那么函数返回 true。 25. 在构建初始快照时,避免recovery时的重复XIDs。 26. 在子事务precommit时使用独立的memorycontext,避免类似plpsql场景下因为子事务导致OOM。 27. 在cn节点调用pgclearnodecoldaccess函数会产生coredump。 28. 在poolerasyncbuildconnection中,在建立连接前检查管道中空间的bug。 29. 增加一条LOG信息,用于记录关于逻辑复制应用在特定数据库和表上的错误或问题的详细信息。 30. 支持在聚合算子下面增加sort算子。 31. 指针和数据的使用不当。 32. 指针和数据的释放函数使用不当。 33. copy tuple时置分片id相关问题。 34. FlushXlogTrack的coredump。 35. 修复GTM备机每次收到主机的时间戳位置都进行持久化的问题。 36. 修复GUC中的coordinatorlxid参数由于超出INTMAX的范围而导致的溢出问题。 37. 修复MergeAppend/Append算子下推时,如果有一个子算子下推到所有DN(nodes为NULL),在通过并集计算之后反而会丢失部分DN节点,从而导致查询结果不完整的问题。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        版本说明书
      • 通过添加防护规则拦截/放行流量
        对业务的影响 配置拦截的防护规则时,如果涉及地址转换或者存在代理的场景,需要谨慎评估拦截IP的影响。 互联网边界防护规则 1. 开启弹性公网IP防护,请参见“开启互联网边界流量防护”。 2. 在左侧导航栏中,选择“访问控制> 访问策略管理”,进入“访问策略管理”页面。 3. 添加新的防护规则。 在“互联网边界”页签中,单击“添加”,在弹出的“添加防护规则”中,填写新的防护信息,填写规则请参见下表。 参数名称 参数说明 规则类型 选择“EIP规则”:防护EIP的流量,仅支持配置公网IP;配置私网IP请参见“NAT流量防护规则”。 名称 自定义安全策略规则的名称。 方向 “防护规则”选择EIP规则时,需要选择流量的方向: 外内:互联网访问云上资产(EIP)。 内外:云上资产(EIP)访问互联网。 源 设置会话发起方。 IP地址:填写公网IP地址,支持设置单个IP地址、多个连续IP地址、地址段。 单个公网IP地址,如:xx.xx.10.5 多个连续的公网IP地址,中间使用“”隔开,如:xx.xx.0.2xx.xx.0.10 公网IP地址段,使用"/"隔开掩码,如:xx.xx.2.0/24 IP地址组:支持多个公网IP地址的集合,添加自定义IP地址组请参见“添加自定义IP地址组和IP地址”,预定义地址组请参见“查看预定义地址组”。 说明 “方向”配置为“外内”时,“源”地址支持配置“预定义地址组”。 地域:“方向”选择“外内”时,支持地理位置防护,通过指定大洲、国家、地区配置防护规则。 Any:任意源地址。 目的 设置会话接收方。 IP地址:填写公网IP地址,支持设置单个IP地址、多个连续IP地址、地址段。 单个公网IP地址,如:xx.xx.10.5 多个连续的公网IP地址,中间使用“”隔开,如:xx.xx.0.2xx.xx.0.10 公网IP地址段,使用"/"隔开掩码,如:xx.xx.2.0/24 IP地址组:支持多个公网IP地址的集合,添加自定义IP地址组请参见3.6.6.1 添加自定义IP地址组和IP地址。 地域:“方向”选择“内外”时,支持地理位置防护,通过指定大洲、国家、地区配置防护规则。 域名:“方向”选择“内外”时,支持多级别单域名(例如,一级域名example.com,二级域名www.example.com等)和泛域名(例如,.example.com)。 说明 如果域名为单个域名,输入后需单击右侧“测试”,以测试域名有效性,并进行DNS解析,请参见《云防火墙用户指南》中“配置DNS解析”章节(目前单个域名解析出的ip地址上限个数为600个)。 如果域名为泛域名,无需DNS解析,仅支持添加http/https的应用类型。 域名组:“方向”选择“内外”时,支持多个域名的集合,添加域名组请参见《云防火墙用户指南》中《添加域名组》。 说明 当您需要防护域名时,建议您优先选择“域名组”。 Any:任意目的地址。 服务 服务:设置协议类型、源端口和目的端口。 协议类型:支持选择TCP、UDP、ICMP。 源/目的端口:“协议类型”选择“TCP”或“UDP”时,需要设置端口号。 说明 如您需设置该IP地址的全部端口,可配置“端口”为“165535”。 如您需设置某个端口,可填写为单个端口。例如设置22端口的访问,则配置“端口”为“22”。 如您需设置某个范围的端口,可填写为连续端口组,中间使用“”隔开。例如设置80443端口的访问,则配置“端口”为“80443”。 服务组:支持多个服务(协议、源端口、目的端口)的集合,添加自定义服务组请参见3.6.8.1 添加自定义服务组和服务,预定义服务组请参见3.6.8.2 查看预定义服务组。 Any:任意协议类型和端口号。 防护动作 设置流量经过防火墙时的处理动作。 放行:防火墙允许此流量转发。 阻断:防火墙禁止此流量转发。 启用状态 设置该策略是否立即启用。 :表示立即启用,规则生效。 :表示立即关闭,规则不生效。 策略优先级 设置该策略的优先级: 置顶:表示将该策略的优先级设置为最高。 移动至选中规则后:表示将该策略优先级设置到某一规则后。 说明 设置后,优先级数字越小,策略的优先级越高。 添加的第一条防护规则默认优先级是1,无需选择“策略优先级”。 时间计划管理 (可选)单击“时间计划管理”设置规则的生效时间段,选择已设置的时间计划或“新增时间计划”。 配置长连接 当前防护规则仅配置一个“服务”且“协议类型”选择“TCP”或“UDP”时,可配置业务会话老化时间。 是:设置长连接时长。 否:保留默认时长,各协议规则默认支持的连接时长如下: TCP协议:1800s。 UDP协议:60s。 说明 最大支持50条规则设置长连接。 长连接时长 “配置长连接”选择“是”时,需要配置此参数。 设置长连接时长。输入“时”、“分”、“秒”。 说明 支持时长设置为1秒~1000天。 标签 (可选)用于标识规则,可通过标签实现对安全策略的分类和搜索。 描述 (可选)标识该规则的使用场景和用途,以便后续运维时快速区分不同规则的作用。 4. 单击“确认”,完成配置防护规则。
        来自:
        帮助文档
        云防火墙
        用户指南
        配置访问控制策略
        通过配置防护规则拦截/放行流量
        通过添加防护规则拦截/放行流量
      • 实例规格
        本文介绍了RDSPostgreSQL的实例规格详情。 RDSPostgreSQL支持不同规格CPU,以满足不同性能需求,您可根据需要选择所需的CPU规格。RDSPostgreSQL支持创建实例后变更CPU、内存规格。 实例引擎版本 RDSPostgreSQL实例支持的数据库版本请参见关系数据库PostgreSQL版产品介绍实例说明数据库版本。 实例规格类型 RDSPostgreSQL实例规格CPU架构为X86或ARM架构,均有通用型、计算增强型和内存优化型。详见下表。 表1 RDSPostgreSQL支持的云主机对应规格类型 规格 说明 适用场景 通用型 共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。 适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 计算增强型 独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能,提供更大规格的CPU和内存组合。 适用于计算密集型业务等场景,如大型网站、电商营销等。 内存优化型 独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能,CPU和内存配比可达1:8。 适用于高内存计算应用,如大数据分析、核心数据库等。 云主机规格详情,请您参考弹性云主机产品概述产品规格。 实例详细规格 RDSPostgreSQL目前共有4种系列,分别是单机实例、主备实例、一主两备、只读实例,其系列规格明细见下表。 表2 RDSPostgreSQL实例规格 规格 vCPU(个) 内存(GB) 单机版、主备版、一主两备版、只读实例 2 4 单机版、主备版、一主两备版、只读实例 2 8 单机版、主备版、一主两备版、只读实例 2 16 单机版、主备版、一主两备版、只读实例 4 8 单机版、主备版、一主两备版、只读实例 4 16 单机版、主备版、一主两备版、只读实例 4 32 单机版、主备版、一主两备版、只读实例 8 16 单机版、主备版、一主两备版、只读实例 8 32 单机版、主备版、一主两备版、只读实例 8 64 单机版、主备版、一主两备版、只读实例 16 32 单机版、主备版、一主两备版、只读实例 16 64 单机版、主备版、一主两备版、只读实例 16 128 单机版、主备版、一主两备版、只读实例 32 64 单机版、主备版、一主两备版、只读实例 32 128 单机版、主备版、一主两备版、只读实例 32 256 单机版、主备版、一主两备版、只读实例 64 128 单机版、主备版、一主两备版、只读实例 64 256 单机版、主备版、一主两备版、只读实例 64 512 单机版、主备版、一主两备版、只读实例 96 192 单机版、主备版、一主两备版、只读实例 96 384 单机版、主备版、一主两备版、只读实例 96 768 单机版、主备版、一主两备版、只读实例 128 256 单机版、主备版、一主两备版、只读实例 128 512 单机版、主备版、一主两备版、只读实例 128 1024 单机版、主备版、一主两备版、只读实例 192 384 单机版、主备版、一主两备版、只读实例 192 768 单机版、主备版、一主两备版、只读实例 192 1536 注意 由于每个资源池销售情况不同,每个资源池可用的主机型号,请在对应资源池订购页确认。 不同资源池因IaaS资源能力等原因,支持的数据库版本有所差异,详见 使用场景推荐 不同的系列规格,适用于不同的使用场景。使用场景主要分为开发测试场景和线上生产场景。开发测试场景提供小规格数据库实例,仅用于个人学习或者非生产环境下的功能验证使用。如果在小规格场景下运行大量生产业务数据,可能会导致实例异常等问题;线上生产场景则提供多种规格实例,以满足不同大小的生产业务正常运行;所以推荐用户按场景按需选取对应的实例系列规格。不同场景下的一些常用的实例系列规格推荐见下表。 推荐使用场景 实例系列 vCPU(核) 内存(GB) 开发测试 单机 2 4 开发测试 主备 2 4 开发测试 只读 2 4 线上生产 主备 8 32 线上生产 主备 16 64 线上生产 一主两备 8 32 线上生产 一主两备 16 64 线上生产 只读 8 32 线上生产 只读 16 64
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        实例说明
        实例规格
      • 查看集群状态
        本章节主要介绍如何查看集群状态。 集群列表显示MRS所有的集群,集群数量较多时,可采用翻页显示,您可以查看任何状态下的集群。 MRS作为一个海量数据管理和分析平台,数据处理能力在PB级以上。MRS支持创建多个集群,集群创建数量受弹性云主机数量限制。 集群列表默认按时间顺序排列,时间最近的集群显示在最前端。集群列表参数说明如下表所示。 现有集群:包括除了“失败”和“已删除”状态以外的所有集群。 历史集群:仅包含“已删除”的集群,目前界面只显示6个月内创建且已删除的集群,若需要查看6个月以前删除的集群,请联系支持人员。 失败任务管理:仅包含“失败”状态的任务。 −集群创建失败的任务 −集群删除失败的任务 −集群扩容失败的任务 −集群缩容失败的任务 −集群安装补丁失败的任务(仅MRS 3.x之前版本支持) −集群卸载补丁失败的任务(仅MRS 3.x之前版本支持) −集群升级规格失败的任务 集群列表参数 参数 参数说明 名称/ID 集群的名称,创建集群时设置。集群的ID是集群的唯一标识,创建集群时系统自动赋值,不需要用户设置。 :修改集群名称。 :复制集群ID。 集群版本 集群的版本号。 节点数 集群部署的节点个数,创建集群时设置。 状态 集群状态、进度信息。 创建集群进度包括: Verifying cluster parameters:校验集群参数中 Applying for cluster resources:申请集群资源中 Creating VMs:创建虚拟机中 Initializing VMs:初始化虚拟机中 Installing MRS Manager:安装MRS Manager中 Deploying the cluster:部署集群中 Cluster installation failed:集群安装失败 扩容集群进度包括: Preparing for cluster expansion:准备扩容中 Creating VM:创建虚拟机中 Initializing VM:初始化虚拟机中 Adding node to the cluster:节点加入集群中 Cluster expansion failed:集群扩容失败 缩容集群进度包括: Preparing for cluster shrink:正在准备缩容 Decommissioning instance:实例退服中 Deleting VM:删除虚拟机中 Deleting node from the cluster:从集群删除节点中 Cluster shrink failed:集群缩容失败 集群安装、扩容、缩容失败,会显示失败的原因,详情请参见创建自定义集群章节“集群创建失败” 中的“错误码表”。 创建时间 集群节点创建成功。 删除时间 集群节点停止时间,也是集群节点开始删除时间。仅“历史集群”会显示此参数。 可用区 集群工作区域下的可用区,创建集群时设置。 企业项目 集群所属的企业项目。 操作 删除:如果作业执行结束后不需要集群,可以单击“删除”,集群状态由“运行中”更新为“删除中”,待集群删除成功后,集群状态更新为“已删除”,并且显示在“历史集群”中。当MRS集群部署失败时,集群会被自动删除。 仅“现有集群”会显示此参数。 说明 一般在数据完成分析和存储后或集群异常无法提供服务时才执行删除操作。如果数据没有完成处理分析,删除集群会导致数据丢失,请谨慎操作。 按钮说明 按钮 说明 在下拉框中选择企业项目,筛选对应集群。 在下拉框中选择集群状态,筛选现有集群。 现有集群 − 所有状态:表示筛选所有的现有集群 − 启动中:表示筛选“启动中”状态的现有集群 − 运行中:表示筛选“运行中”状态的现有集群 − 扩容中:表示筛选“扩容中”状态的现有集群。 − 缩容中:表示筛选“缩容中”状态的现有集群。 − 异常:表示筛选“异常”状态的现有集群 − 删除中:表示筛选“删除中”状态的现有集群 选择“集群列表>现有集群”,单击进入“失败任务管理”页面。 Num:表示“失败”状态的任务数。 在搜索框中输入集群名称或ID,单击,搜索集群。 标签搜索 单击“标签搜索”输入待查询集群的标签,然后单击“搜索”搜索对应集群。 标签键或标签值可以通过下拉列表中选择,当标签键或标签值全匹配时,系统可以自动查询到目标集群。当有多个标签条件时,会取各个标签的交集,进行集群查询。 单击,手动刷新现有集群列表。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群概览
        查看集群状态
      • 创建VPN连接
        本文向您介绍如何创建企业版VPN连接。 场景描述 如果您需要将VPC中的弹性云主机和数据中心或私有网络连通,创建VPN网关、对端网关之后,需要继续创建VPN连接。 约束与限制 使用静态路由模式创建VPN连接时,使能NQA前请确认对端网关支持ICMP功能,且对端接口地址已在对端网关上正确配置,否则可能导致流量不通。 操作步骤 1. 登录管理控制台,单击“网络 > VPN”进入VPN控制台。 2. 在左侧导航栏,单击“虚拟专用网络 > 企业版VPN连接”。 3. 在“VPN连接”页面,单击“创建VPN连接”。 说明 VPN网关的两个EIP支持分别和对端网关创建一条VPN连接。VPN双连接可以很大程度提升云上云下连接的可靠性,强烈建议配置。 4. 根据界面提示配置参数,单击“立即购买”。 表VPN连接参数说明 参数 说明 取值样例 名称 VPN连接的名称,只能由中文、英文字母、数字、下划线、中划线、点组成。 vpn001 VPN网关 选择待关联的VPN网关名称。 如果您使用国密型VPN网关,且VPN网关没有绑定相关证书,请先单击右侧“上传证书”完成上传证书操作,否则VPN连接将无法建立。 vpngw001 网关IP 选择VPN网关IP。 VPN网关对接同一对端网关时,不能选择已使用过的EIP地址。 可选的网关IP 对端网关 选择对端网关信息。 如果您使用国密型网关,且对端网关没有绑定CA证书,请先参见本指南“企业版对端网关管理 > 上传对端网关证书”上传CA证书,否则VPN连接将无法建立。 说明 如果一个对端网关同时对接多个VPN网关,则VPN网关的BGP ASN和连接模式需要相同。 cgw001 连接模式 IPsec连接的模式,支持路由模式和策略模式。 静态路由模式。 根椐路由配置(本端子网与对端子网)确定哪些数据进入IPsec VPN隧道。 适用场景:对端网关之间要求互通。 BGP路由模式。 根据BGP动态路由确定哪些数据进入IPsec VPN隧道。 适用场景:对端网关之间要求互通,互通子网数量多或变化频繁、与专线互备等组网场景。 策略模式。 根椐策略规则(用户侧到VPC之间通信的数据流信息)确定哪些数据进入IPsec VPN隧道,支持以源网段和目的网段定义策略规则。 适用场景:对端网关之间要求隔离。 静态路由模式 对端子网 指需要通过VPN连接访问云上VPC的用户侧子网。 若存在多个对端子网,请用半角逗号(,)隔开。 说明 对端子网可以和本端子网重叠,但不能重合。 对端子网不能被VPN网关关联的VPC内已有子网所包含;不能作为被VPN网关关联的VPC自定义路由表的目的地址。 对端子网不能是VPC的预留网段,例如100.64.0.0/10、214.0.0.0/8。 172.16.1.0/24,172.16.2.0/24 接口分配方式 仅“连接模式”采用“静态路由模式”和“BGP路由模式”时需要配置。 说明 接口地址为VPN网关和对端网关通信的tunnel隧道IP地址。 如果对端网关的tunnel接口地址固定不可更改,请使用“手动分配”模式,并根据对端网关的tunnel接口地址设置VPN网关的tunnel接口地址。 手动分配。 仅支持在169.254.x.x/30网段(除169.254.195.x/30)范围内,配置VPN网关本端接口地址的tunnel接口地址;对端网关对端接口地址的tunnel接口地址会根据本端接口地址随机生成。 例如:本端接口地址配置为169.254.1.6/30,则对端接口地址自动配置为169.254.1.5/30。 自动分配。 VPN网关默认使用169.254.x.x/30网段对tunnel接口分配地址。 自动分配的本端接口地址/对端接口地址,可以在VPN连接页面,单击“修改连接信息”进行查看。 自动分配 本端隧道接口地址 仅“接口分配方式”采用“手动分配”时需要配置。 配置在VPN网关上的tunnel接口地址。 对端隧道接口地址 仅“接口分配方式”采用“手动分配”时需要配置。 配置在对端网关上的tunnel接口地址,该接口地址需要和对端网关实际配置的tunnel接口地址保持一致。 检测机制 仅“连接模式”采用“静态路由模式”时需要配置。 说明 功能开启前,请确认对端网关支持ICMP功能,且对端接口地址已在对端网关上正确配置,否则可能导致流量不通。 功能开启后,VPN网关会自动对对端接口地址进行NQA探测。 勾选 预共享密钥 VPN网关和对端网关的预共享密钥需要保持一致。 取值范围: 取值长度:8~128个字符。 只能包括以下几种字符,且必须包含三种及以上类型: 数字 大写字母 小写字母 特殊符号:包括“~”、“!”、“@”、“
        来自:
        帮助文档
        VPN连接
        用户指南
        企业版VPN连接管理
        创建VPN连接
      • 挂载文件系统到云主机(Linux)
        本节主要介绍如何挂载文件系统到Linux云主机。 CIFS类型的文件系统不支持使用Linux操作系统的云主机进行挂载。本章节以Linux系统为例进行NFS类型的文件系统的挂载。 前提条件 确定云主机操作系统类型,不同操作系统安装NFS客户端的命令不同; 已完成创建文件系统,并获取到文件系统的共享路径; 选择与文件系统所属VPC相同的云主机进行挂载; 云主机上已配置了用于解析文件系统域名的DNS服务器的IP地址; 如果云主机需要通过IPv6地址挂载SFS Turbo文件系统,需要选择支持IPv6的云主机类型 约束与限制 说明 该约束仅针对本地挂载路径(即挂载点),不影响其他文件或目录。 暂不支持修改本地挂载路径(即挂载点)的元数据,即不支持对挂载点的元数据做如下操作: touch:更新文件的访问时间和修改时间 rm:删除文件或目录 cp:复制文件或目录 mv:移动文件或目录 rename:重命名文件或目录 chmod:修改文件或目录的权限 chown:修改文件或目录的所有者 chgrp:修改文件或目录的所属组 ln:创建硬链接 link:创建硬链接 unlink:删除硬链接 本地挂载路径(即挂载点根目录)的atime、ctime和mtime属性是当前时间,每次查询根目录属性返回的都是服务端当时时间的值。 操作步骤 1、以root用户登录弹性云主机; 2、安装NFS客户端: a) 查看系统是否安装NFS软件包; − CentOS、Red Hat、Oracle Enterprise Linux、SUSE、Euler OS、Fedora或OpenSUSE系统下,执行如下命令: rpm qagrep nfs − Debian或Ubuntu系统下,执行如下命令: dpkg l nfs 不同操作系统回显会有所不同,如果回显如下类似信息,说明已经成功安装NFS软件包,执行步骤3,如未显示,执行步骤2.2。 − CentOS、Red Hat、Euler OS、Fedora或Oracle Enterprise Linux系统下,回显如下类似信息: libnfsidmap nfsutils − SUSE或OpenSUSE系统下,回显如下类似信息: nfsidmap nfsclient − Debian或Ubuntu系统下,回显如下类似信息: nfscommon b) 如果查看到未安装,根据不同的操作系统,执行不同命令。执行以下命令前要求云主机已连接到互联网,否则安装NFS客户端失败; − CentOS、Red Hat、Euler OS、Fedora或Oracle Enterprise Linux系统下,执行如下命令: sudo yum y install nfsutils − Debian或Ubuntu系统下,执行如下命令: sudo aptget install nfscommon − SUSE或OpenSUSE系统下,执行如下命令: zypper install nfsclient 3、执行如下命令,查看是否能解析文件系统共享路径中的域名: nslookup文件系统域名 说明 文件系统域名仅为域名,如:sfsnas1.xxxx.com。文件系统域名请从文件系统的共享路径中获取,不需要输入整个共享路径。 无法使用nslookup命令时,需要先安装bindutils软件包。(可通过执行yum install bindutils命令安装) a) 解析成功,执行步骤4; b) 解析失败,请先完成DNS服务器IP地址的配置再执行挂载文件系统的操作,具体配置操作请参见《如何配置DNS》。 4、执行如下命令,创建用于挂载文件系统的本地路径。 mkdir本地路径 5、执行如下命令,将文件系统挂载到云主机上。文件系统目前仅支持NFS v3协议挂载到云主机,其中变量说明见下表: mount t nfs o vers3,timeo600,noresvport,nolock,tcp 挂载地址 本地路径 注意 1. 已挂载文件系统的云主机重启后,该云主机上的挂载信息将会丢失,您可以通过在fstab文件中配置自动挂载来保证云主机重启时自动挂载文件系统。 2. 在网络切换时,文件系统可能会发生阻塞,可能需要几分钟才会自动恢复连接,更严重时甚至需要重启ECS才能恢复。强烈建议使用noresvport参数,这可以保障网络发生故障恢复事件后文件系统服务不会中断。 参数 说明 vers 文件系统版本,目前只支持NFSv3。取值:3。 timeo NFS客户端重传请求前的等待时间(单位为0.1秒)。建议值:600。 noresvport 指定NFS客户端向NFS服务端重新发起建立连接时使用新的TCP端口。 lock/nolock 选择是否使用NLM协议在服务器上锁文件。当选择nolock选项时,锁对于同一主机的应用有效,对不同主机不受锁的影响。建议值:nolock。如不加此参数,则默认为lock,就会发生其他服务器无法对此文件系统写入的情况。 挂载地址 SFS容量型文件系统的格式为:文件系统域名:/路径,例如:example.com:/sharexxx。如图1所示。 SFS Turbo标准型、标准型增强版、性能型、性能型增强版文件系统的格式为:文件系统IP:/,例如192.168.0.0:/。如图2所示。 SFS Turbo 20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB、1000MB/s/TiB文件系统的格式为:域名地址:/,例如xxx.sfsturbo.internal:/。如图3所示。 x是数字或字母。 本地路径 云主机上用于挂载文件系统的本地路径,例如“/localpath”。 图1 SFS容量型文件系统挂载地址 图2 SFS Turbo文件系统(标准型)挂载地址 图3 SFS Turbo文件系统(20MB/s/TiB类型)挂载地址 6、挂载完成后,执行如下命令,查看已挂载的文件系统: mount l 如果回显包含如下类似信息,说明挂载成功。 example.com:/sharexxx on /localpath type nfs (rw,vers3,timeo600,nolock,addr) 7、挂载成功后,用户可以在云主机上访问文件系统,执行读取或写入操作。 说明 SFS容量型支持写入的单个文件最大容量为240TB。 SFS Turbo标准型和性能型文件系统支持写入的单个文件系统最大容量为32TB,SFS Turbo标准型增强版和性能型增强版文件系统支持写入的单个文件系统最大容量为320TB,SFS Turbo 20MB/s/TiB、40MB/s/TiB、125MB/s/TiB、250MB/s/TiB、500MB/s/TiB和1000MB/s/TiB等类型的文件系统支持写入的单个文件系统最大容量为1PB。 8、如果需要取消挂载,执行命令umount 本地路径。执行取消挂载命令时,请先结束所有与这个文件系统相关的读写操作,并退出本地路径目录,再执行取消命令,不然会返回失败。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        挂载文件系统到云主机(Linux)
      • 公有云数据库产品价格
        本章会按照数据库实例规格大小介绍公有云收费模式。 按照版本不同分为MySQL、PostgreSQL、SQL Server。基于云计算平台,稳定可靠、可弹性伸缩、即开即用的在线数据库服务,实现数据库数据备份、智能监控、便捷迁移。资费包括主备实例、主实例、只读实例、存储和备份租用费。 收费标准(根据天翼云价格调整策略,2021年6月1日零点采用新的资费标准) 包年预付费优惠政策:一年85折,2年7折,3年享受5折优惠。 1、MySQL主备实例 CPU(核) 内存(GB) 标准资费(元/小时) 标准资费(元/月) 2 4 0.96 462 2 8 1.4 672 2 16 1.8 860 4 8 1.9 910 4 16 2.58 1239 4 32 3.6 1720 8 16 3.79 1820 8 32 5.12 2457 8 64 7.2 3440 16 32 7.58 3640 16 64 10.15 4872 16 128 14.4 6880 32 64 15.16 7278 32 128 20.26 9723 60 128 30.24 14556 60 256 40.52 19446 60 512 56 27000 64 128 30.24 14556 64 256 40.52 19446 64 512 56 27000 2、MySQL单机实例 CPU(核) 内存(GB) 标准资费(元/小时) 标准资费(元/月) 2 4 0.48 231 2 8 0.88 422 2 16 1.24 598 4 8 0.95 455 4 16 1.29 620 4 32 2.49 1,195 8 16 1.89 910 8 32 2.56 1,229 8 64 4.97 2,390 16 32 3.78 1,820 16 64 5.08 2,436 16 128 9.95 4,780 32 64 7.56 3,639 32 128 10.13 4,862 60 128 15.12 7,278 60 256 20.26 9,724 60 512 39.8 19,120 64 128 15.12 7278 64 256 20.26 9724 64 512 39.8 19120 3、MySQL只读实例 产品名称 核数/核 内存/GB 标准资费 :::: 包月(元/月) 按需(元/小时) MySQL只读节点 2 4GB 231 0.48 MySQL只读节点 2 8GB 422 0.88 MySQL只读节点 2 16GB 598 1.24 MySQL只读节点 4 8GB 455 0.95 MySQL只读节点 4 16GB 620 1.29 MySQL只读节点 4 32GB 1,195 2.49 MySQL只读节点 8 16GB 910 1.89 MySQL只读节点 8 32GB 1,229 2.56 MySQL只读节点 8 64GB 2,390 4.97 MySQL只读节点 16 32GB 1,820 3.78 MySQL只读节点 16 64GB 2,436 5.08 MySQL只读节点 16 128GB 4,780 9.95 MySQL只读节点 32 64GB 3,639 7.56 MySQL只读节点 32 128GB 4,862 10.13 MySQL只读节点 64 128GB 7,278 15.12 MySQL只读节点 64 256GB 9,724 20.26 MySQL只读节点 64 512GB 19,120 39.80 4、Mysql proxy CPU(核) 内存(GB) 标准资费(元/小时) 2 4 1.13 4 8 2.26 8 16 4.52 目前支持mysql proxy能力的资源池包括西安2、苏州、广州4、杭州、福州、石家庄。 5、MySQL鲲鹏规格 (1)主备实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.76 364 2 8GB 1.38 664 4 8GB 1.48 712 4 16GB 2.09 1,004 8 16GB 2.97 1,424 8 32GB 4.18 2,008 12 24GB 4.96 2,381 12 48GB 7.92 3,802 16 32GB 6.95 3,336 16 64GB 9.18 4,404 24 48GB 8.52 4,090 24 96GB 15.84 7,603 32 64GB 13.88 6,664 32 128GB 18.34 8,804 48 96GB 16.96 8,141 48 192GB 33 15,840 60 120GB 27.75 13,320 (2)单机实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.38 182 2 8GB 0.69 332 4 8GB 0.74 356 4 16GB 1.05 502 8 16GB 1.48 712 8 32GB 2.09 1,004 12 24GB 2.48 1,190 12 48GB 3.96 1,901 16 32GB 3.48 1,668 16 64GB 4.59 2,202 24 48GB 4.26 2,045 24 96GB 7.92 3,802 32 64GB 6.94 3,332 32 128GB 9.17 4,402 48 96GB 8.48 4,070 48 192GB 16.52 7,930 60 120GB 13.88 6,660 (3)只读实例产品规格 CPU 内存 标准资费(元/小时) 标准资费(元/月) :::: 2 4GB 0.38 182 2 8GB 0.69 332 4 8GB 0.74 356 4 16GB 1.05 502 8 16GB 1.48 712 8 32GB 2.09 1,004 12 24GB 2.48 1,190 12 48GB 3.96 1,901 16 32GB 3.48 1,668 16 64GB 4.59 2,202 24 48GB 4.26 2,045 24 96GB 7.92 3,802 32 64GB 6.94 3,332 32 128GB 9.17 4,402 48 96GB 8.48 4,070 48 192GB 16.52 7,930 60 120GB 13.88 6,660 6、其他收费项目 6.1 存储 产品规格 包月标准价格(元/月) 按需标准价格(元/小时) 主备实例 SATA 0.5 0.0009 主备实例 SAS 0.7 0.0015 主备实例 SSD 2 0.0028 主备实例 ESSD 3.2 0.0068 主实例 SATA 0.3 0.0005 主实例 SAS 0.4 0.0009 主实例 SSD 1.2 0.0017 主实例 ESSD 2 0.0042 只读实例 SATA 0.3 0.0005 只读实例 SAS 0.4 0.0009 只读实例 SSD 1.2 0.0017 只读实例 ESSD 2 0.0042 6.2 备份 同区域备份——若合营MySQL 数据库备份存储用量超过主数据库存储空间的100%,按需收取对象存储空间费用,标准资费为 0.000139 元/GB/小时。 跨区域备份——标准资费为 0.001 元/GB/小时。 6.3 秒级监控 计费方式为按需付费,0.048元/小时。
        来自:
        帮助文档
        关系数据库MySQL版
        计费说明
        公有云数据库产品价格
      • 基本概念
        本文介绍边缘安全加速平台名词术语。 CNAME 记录 CNAME ( Canonical Name ),即别名,用于把一个域名解析到另一个域名,当 DNS 系统在查询 CNAME 左面的名称的时候,都会转向 CNAME 右面的名称再进行查询,一直追踪到最后的 PTR 或 A 名称,成功查询后才会做出回应,否则失败。例如,您有一台服务器,使用 ctyun.cn 访问,您又希望通过 ctyun.cn1 也能访问该服务器,那么就需要在您的 DNS 解析服务商添加一条 CNAME 记录,将 ctyun.cn 指向 ctyun.cn1,添加该条 CNAME 记录后,所有访问 ctyun.cn 的请求都会被转到 ctyun.cn1,获得相同的内容。 DNS DNS 即Domain Name System,是域名解析服务的意思。它在互联网的作用是:把域名转换成为网络可以识别的 IP 地址。人们习惯记忆域名,但机器间互相只认 IP 地址,域名与 IP 地址之间是一一对应的,它们之间的转换工作称为域名解析,域名解析需要由专门的域名解析服务器来完成,整个过程是自动进行的。比如:上网时输入的 www.ctyun.cn 会自动转换成为220.181.112.143。 常见的DNS解析服务商有:阿里云解析,万网解析,DNSPod,新网解析,Route53(AWS),Dyn,Cloudflare等。 边缘安全节点 边缘安全节点是相对于网络的复杂结构而提出的一个概念,指距离最终用户接入具有较少的中间环节的网络节点,对最终接入用户有较好的响应能力和连接速度。其作用是将访问量较大的网页内容和对象保存在服务器前端的专用 Cache 设备上,以此来提高网站访问的速度和质量。 回源 HOST 回源 host 决定回源请求访问到源站上的具体某个站点。 例1:源站是域名源站为 www.ctyun.cn,回源 host 为 www.ctyun.cn1,那么实际回源是请求到 www.ctyun.cn 解析到的IP,对应的主机上的站点 www.ctyun.cn1。 例2:源站是 IP 源站为1.1.1.1,回源 host 为www.ctyun.cn1,那么实际回源的是1.1.1.1对应的主机上的站点 www.ctyun.cn1。 协议回源 协议回源指回源时使用的协议和客户端访问资源时的协议保持一致,即如果客户端使用 HTTPS 方式请求资源,当 CDN 节点上未缓存该资源时,节点会使用相同的 HTTPS 方式回源获取资源;同理如果客户端使用 HTTP 协议的请求,CDN 节点回源时也使用 HTTP 协议。 过滤参数 过滤参数是指当URL请求中带“?”并携带参数请求到 CDN 节点的时候,CDN 节点在收到该请求后可根据配置决定是否将该带参数的 URL 请求回源站。当开启过滤参数时,该请求到 CDN 节点后会截取到没有参数的 URL 向源站请求。并且 CDN 节点仅保留一份副本。如果关闭该功能,则每个不同的 URL 都缓存不同的副本在 CDN 的节点上。 Web 安全 相关 Web 应用层面的安全问题与事件,包括各种 Web 组件、协议、应用等。 正则防护 经验规则集,自动为网站防御 SQL 注入、XSS 跨站、Webshell 上传、命令注入、后门隔离、非法文件请求、路径穿越、常见应用漏洞攻击等通用的 Web 攻击。 网站白名单 通过设置网站白名单,可以让满足条件的请求不经过任何 Web 应用防火墙防护模块的检测,直接访问源站服务器。 IP 黑名单 支持一键阻断来自指定 IP 地址、IP 地址段以及指定地理区域的 IP 地址的访问请求。 0Day 漏洞 0Day 是指在系统商在知晓并发布相关补丁前就被掌握或者公开的漏洞信息。 CC 安全防护 根据访问者的 URL,频率、行为等访问特征,智能识别 CC 攻击,迅速识别 CC 攻击并进行拦截,在大规模 CC 攻击时可以避免源站资源耗尽,保证企业网站的正常访问。 防敏感信息泄露 帮助网站过滤服务器返回内容(异常页面或关键字)中的敏感信息(例如身份证号、银行卡号、电话号码和敏感词汇),脱敏展示敏感信息或返回默认异常响应页面。 网络爬虫 又称为网页蜘蛛,网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。 挖矿 借助大量计算能力来计算产生虚拟货币。 多源评估 通过对多种输入信息源数据动态地进行综合分析与评估的能力。 访问主体 能访问客体的主动实体。 访问客体 能与主体建立访问连接的被动实体。 SSL 证书 SSL 证书(Secure Sockets Layer)指一种安全协议,目的是为互联网通信提供安全及数据完整性保障。SSL 证书遵循 SSL 协议,可安装在服务器上,实现数据传输加密。 云工作负载 指云环境中从应用程序层到管理程序或处理的自包含组件(如堆栈中的虚拟机和容器)的整个应用程序堆栈。 访问控制 确保对资产的访问是基于业务和安全要求进行授权和限制的手段。 零信任 一组围绕资源访问控制的安全策略、技术与过程的统称。从对访问主体的不信任开始,通过持续的身份鉴别和监测评估、最小权限原则等,动态调整访问策略和权限,实施精细化的访问控制和安全防护。 策略引擎 负责最终决定是否授予指定访问主体对资源(访问客体)的访问权限。策略引擎使用企业安全策略以及来自外部源的输入作为“信任算法”的输入,以决定授予或拒绝对该资源的访问。 连接器 放置在业务前端的引流设备,用于打通内外网业务,确保终端用户可以安全访问业务数据。 动态授权 基于零信任对访问主体永不信任的原则,根据用户所处的环境动态调整用户拥有的访问权限。 SDP 即软件定义边界,旨在对于网络安全防护中不信任任何设备、人物、身份、系统等相关,每一个步骤都要有所验证,有所根据,让所有安全防护的相关都变为可信安全。 TCP 协议 TCP 协议指传输控制协议(Transmission Control Protocol),是一种面向连接的、可靠的、基于字节流的传输层通信协议,由 IETF 的 RFC 793 定义。TCP 工作在网络 OSI 的七层模型中的第四层(传输层),连接到不同但互连的计算机通信网络的主计算机中的成对 进程之间依靠 TCP 提供可靠的通信服务。 UDP 协议 Internet 协议集支持一个无连接的传输协议,该协议称为用户数据包协议(UDP,User Datagram Protocol)。UDP 为应用程序提供了一种无需建立连接就可以发送封装的 IP 数据包的方法。RFC 768 描述了 UDP。 Internet 的传输层有两个主要协议,互为补充。无连接的是 UDP,它除了给应用程序发送 数据包功能并允许它们在所需的层次上架构自己的协议之外,几乎没有做什么特别的事情。 面向连接的是 TCP,该协议几乎做了所有的事情。 无服务器 Serverless 无服务器是一种云原生开发模型,可使开发人员专注构建和运行应用,而无需管理服务器。无服务器方案中仍然有服务器,但它们已从应用开发中抽离了出来。云提供商负责置备、维护和扩展服务器基础架构等例行工作。开发人员可以简单地将代码打包到容器中进行部署。部署之后,无服务器应用即可响应需求,并根据需要自动扩容。公共云提供商的无服务器产品通常通过一种事件驱动执行模型来按需计量。因此,当无服务器功能闲置时,不会产生费用。 函数即服务 FaaS 函数即服务(FaaS:Function as a service)是一种事件驱动计算执行模型;开发人员编写代码逻辑,部署到完全由平台管理的函数运行时中,然后按需执行。与 BaaS 不同,FaaS 可让开发人员拥有更大的掌控权力,他们可以创建自定义应用,而不依赖于包含预编写服务的库。 代码则部署到边缘安全加速平台管理的容器运行时中。具体而言,这些函数运行时具有以下特点: 无状态 让数据集成变得更加简单。 运行周期短 可以只运行非常短的时间。 事件触发 可在需要时自动运行。 这样,您只用为所需的计算能力付费,而不必管"闲置"的应用和服务器。 使用 FaaS 时,开发人员可以通过触发器调用无服务器应用。 触发器 用户绑定触发器和对应函数,来实现多种调用效果。目前支持定时触发器以及HTTP触发器。 HTTP 路由 用户绑定 HTTP 触发器和对应函数后,访问安全与加速服务中托管域名的特定路由,即可在边缘节点调用起对应函数计算逻辑。 KV 存储 OmniKV 边缘存储提供了 KeyValue 型边缘存储服务,使开发人员能够构建低时延、频繁读取、不频繁写入的数据驱动的边缘无服务器应用程序。借助 OmniKV,无服务器应用程序可以将数据存放在靠近用户的位置,避免从云端或本地解决方案中检索信息的需要,从而实现快速响应。用户快速可以构建高度动态的 API 和网站服务,部署轻量型的 API 网关、BaaS 服务。 运行时 用于在边缘节点运行用户自定义函数的安全隔离环境。函数运行时所支持的编程语言,目前支持 JavaScript。 开发者工具 开发人员使用命令行工具,在本地完成函数编写,构建,灰度上线。
        来自:
        帮助文档
        边缘安全加速平台
        产品介绍
        基本概念
      • 步骤二:创建Kafka实例
        本文主要介绍 步骤二:创建Kafka实例。 前提条件 在创建Kafka实例前,需要保证存在可使用的虚拟私有云。创建方法,请参考《虚拟私有云 用户指南》的“创建虚拟私有云和子网”。 如果您已有虚拟私有云,可重复使用,不需要多次创建。 操作步骤 步骤 1 登录分布式消息服务Kafka控制台,单击页面右上方的“购买Kafka实例”。 步骤 2 选择计费模式。 步骤 3 在“区域”下拉列表中,选择靠近您应用程序的区域,可降低网络延时、提高访问速度。 步骤 4 在“项目”下拉列表中,选择项目。 步骤 5 在“可用区”区域,根据实际情况选择1个或者3个及以上可用区。 步骤 6 设置“实例名称”和“企业项目”。 步骤 7 设置实例信息。 1. 版本:Kafka的版本号,支持1.1.0、2.3.0和2.7,根据实际情况选择,推荐使用2.7。 Kafka实例创建后,版本号不支持修改 。 2. CPU架构:支持“x86计算”,保持默认值即可。 3. 在“代理规格”中,请根据业务需求选择相应的代理规格。在“代理数量”中,选择代理个数。 单个代理最大分区数代理个数实例分区数上限。当所有Topic的总分区数大于实例分区数上限时,创建Topic失败。 4. 在“存储空间”区域,您根据实际需要选择存储Kafka数据的磁盘类型和总磁盘大小。 Kafka实例创建后,磁盘类型不支持修改 。 存储空间包含所有副本存储空间总和,建议根据业务消息体积以及副本数量选择存储空间大小。假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 5. 在“容量阈值策略”区域,设置磁盘使用达到容量阈值后的消息处理策略,容量阈值为95%。 自动删除:可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据存在丢失的风险。 生产受限:无法继续生产消息,但可以继续消费消息。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 图 创建Kafka实例 步骤 8 设置实例网络环境信息。 1. 在“虚拟私有云”下拉列表,选择已经创建好的虚拟私有云和子网。 说明 虚拟私有云和子网在Kafka实例创建完成后,不支持修改。 2. 在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对Kafka实例的访问规则的集合。您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 步骤 9 设置登录Kafka Manager的用户名和密码。创建实例后,Kafka Manager用户名无法修改。 Kafka Manager是开源的Kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 步骤 10 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤 11 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 “公网访问”默认为关闭状态,根据业务需求选择是否开启。开启公网访问后,还需要为每个代理设置对应的IPv4弹性IP地址。 图 设置公网访问开关 2. 设置“Kafka SASLSSL”。 客户端连接Kafka实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 “Kafka SASLSSL”默认为关闭状态,您可以选择是否开启。 Kafka实例创建后,Kafka SASLSSL开关不支持修改 ,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您可以选择是否开启“SASL PLAIN 机制”。未开启“SASL PLAIN 机制”时,使用SCRAMSHA512机制传输数据,开启“SASL PLAIN 机制”后,同时支持SCRAMSHA512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。Kafka实例创建后,SASL PLAIN机制开关不支持修改。 什么是SCRAMSHA512机制和PLAIN机制? SCRAMSHA512机制:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN机制:一种简单的用户名密码校验机制。 开启Kafka SASLSSL后,您需要设置连接Kafka实例的用户名和密码。 3. 设置“Kafka自动创建Topic”。 “Kafka自动创建Topic”默认为关闭状态,您可以选择是否开启。 开启“Kafka自动创建Topic”表示生产或消费一个未创建的Topic时,系统会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 4. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击“查看预定义标签”,跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个Kafka实例最多支持设置20个不同标签,标签的命名规格,请参考管理实例标签。 5. 设置实例的描述信息。 步骤 12 填写完上述信息后,单击“立即购买”,进入规格确认页面。 步骤 13 确认实例信息无误后,提交请求。 步骤 14 单击“返回Kafka专享版”,查看Kafka实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        步骤二:创建Kafka实例
      • 步骤一(1):创建入云迁移任务
        本节主要介绍步骤一(1):创建入云迁移任务 本章节将以MySQL到RDS for MySQL的迁移为示例,介绍在公网网络场景下,通过数据库复制服务管理控制台配置数据迁移任务的流程,其他存储引擎的配置流程类似。 公网网络适合通过公网网络把其他云下或其他平台的数据库迁移到目标数据库。 在数据库复制服务中,数据库迁移是通过任务的形式完成的,通过创建任务向导,可以完成任务信息配置、任务创建。迁移任务创建成功后,您也可以通过数据库复制服务管理控制台,对任务进行管理。 目前数据库复制服务支持每个用户最多可创建5个实时迁移任务。 前提条件 已登录数据库复制服务控制台。 账户余额大于等于100元。 满足实时迁移支持的数据库类型。 满足入云迁移的限制条件。 操作步骤 1、在“实时迁移管理”页面,单击“创建迁移任务”,进入创建迁移任务页面。 2、在“迁移实例”页面,填选区域、任务名称、任务异常通知设置、时延阈值、描述、迁移实例信息 表 任务和描述 参数 描述 任务名称 任务名称在450位之间,必须以字母开头,不区分大小写,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。 任务异常通知设置 该项为可选参数,开启之后,需要填写手机号码或者邮箱作为指定收件人。当迁移任务状态异常时,系统将发送通知给指定收件人。 说明 收到确认短信或邮件之后,需要在48小时内处理,否则该订阅无效,将无法收到异常通知。 时延阈值 在增量迁移阶段,源数据库和目标数据库之间的实时同步有时会存在一个时间差,称为时延,单位为秒。 时延阈值设置是指时延超过一定的值后(时延阈值范围为1—3600s),DRS可以发送告警通知给指定收件人。告警通知将在时延稳定超过设定的阈值6min后发送,避免出现由于时延波动反复发送告警通知的情况。 说明 首次进入增量迁移阶段,会有较多数据等待同步,存在较大的时延,属于正常情况,不在此功能的监控范围之内。 设置时延阈值之前,需要设置任务异常通知。 描述 描述不能超过256位,且不能包含! & ' " 特殊字符。 图 迁移实例信息 表 迁移实例信息 参数 描述 数据流动方向 选择入云。 入云指目标端数据库为本云数据库。 源数据库引擎 选择MySQL。 目标数据库引擎 选择MySQL。 网络类型 此处选择公网网络。 默认为公网网络类型,支持VPC网络、VPN网络、专线网络、公网网络。 VPC网络:适合云上数据库之间的迁移。 公网网络:适合通过公网网络把其他云下或其他平台的数据库迁移到目标数据库,该类型要求源数据库绑定弹性IP。 VPN网络:适合通过VPN网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 专线网络:适合通过专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨Region的数据库之间的迁移。 目标数据库实例 用户所创建的关系型数据库实例。 目标库读写设置 只读 迁移中,目标数据库实例将转化为只读、不可写入的状态,迁移任务结束后恢复可读写状态,此选项可有效的确保数据迁移的完整性和成功率,推荐此选项。 读写 迁移中,目标数据库可以读写,但需要避免操作或接入应用后会更改迁移中的数据(注意:无业务的程序常常也有微量的数据操作),进而形成数据冲突、任务故障、且无法修复续传,充分了解要点后可选择此选项。如果目标库有其他数据库需要在迁移时被业务使用,可设置该选项为读写。 说明 目前仅MySQL数据库支持目标库读写设置。 迁移模式 全量:该模式为数据库一次性迁移,适用于可中断业务的数据库迁移场景,全量迁移将非系统数据库的全部数据库对象和数据一次性迁移至目标端数据库,包括:表、视图、存储过程等。 说明 如果用户只进行全量迁移时,建议停止对源数据库的操作,否则迁移过程中源数据库产生的新数据不会同步到目标数据库。 全量+增量:该模式为数据库持续性迁移,适用于对业务中断敏感的场景,通过全量迁移过程中完成的目标端数据库的初始化后,增量迁移阶段通过解析日志等技术,将源端和目标端数据库保持数据持续一致。 说明 选择“全量+增量”迁移模式,增量迁移可以在全量迁移完成的基础上实现数据的持续同步,无需中断业务,实现迁移过程中源业务和数据库继续对外提供访问。 3、在“源库及目标库”页面,迁移实例创建成功后,填选源库信息和目标库信息,并单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”。 表 源库信息 参数 描述 IP地址或域名 源数据库的IP地址或域名。 端口 源数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 源数据库的用户名。 数据库密码 源数据库的用户名所对应的密码。支持在任务创建后修改密码。 任务为启动中、启动失败、全量中、全量失败、增量中、增量失败状态时,可在“基本信息”页面的“迁移信息”区域,单击“源库密码”后的“替换密码”,在弹出的对话框中修改密码。 SSL安全连接 通过该功能,用户可以选择是否开启对迁移链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。 说明 源数据库的IP地址、端口、用户名和密码将在迁移过程中被加密暂存到数据库和迁移实例主机上,待该任务删除后会永久清除。 如果单击“测试连接”后提示迁移实例和数据库的网络连接失败,请参考《数据库复制服务常见问题》中的“
        来自:
        帮助文档
        数据库复制
        快速入门
        创建数据库复制 实时迁移
        步骤一(1):创建入云迁移任务
      • 将Oracle同步到PostgreSQL
        使用须知 在创建同步任务前,请务必阅读以下使用须知。 说明 建议创建单独用于DRS任务连接的数据库帐号,避免因为数据库帐号密码修改,导致的任务连接失败。 连接源或目标数据库的帐号密码修改后,请尽快 修改连接信息,避免任务连接失败后自动重试,导致数据库帐号被锁定影响使用。 表使用须知 类型名称 使用和操作限制 数据库权限设置 l源数据库端: − 全量同步:需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;)权限。 − 全量+增量同步: 12c及以上版本CDB数据库同步时,需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$,SET CONTAINER(GRANT SET CONTAINER TOCONTAINERALL;)权限。 12c及以上版本PDB数据库同步时,除了需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$权限,还需要具有CDB的CREATE SESSION,SELECT ANY DICTIONARY,EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SET CONTAINER(GRANT SET CONTAINER TOCONTAINERALL;)权限。 11g及以下版本数据库同步时,需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$。 − 增量同步时,源库Oracle需要开启日志归档模式和最小补充日志,所需同步表必须开启PK/UI或以ALL级别的补充日志,不限制库级或表级补充日志方式,若只开启表级补充日志,重建或者RENAME表后需要重新设置;请确保以上配置在同步过程中始终保持开启状态。 − 12c及以上版本不支持使用ORACLEMAINTAINEDY的用户帐号进行增量同步(system/sys除外),因为该属性的帐号无日志解析权限。 l目标数据库帐号必须具有每张表的如下权限:INSERT、SELECT、UPDATE、DELETE、CONNECT、CREATE、REFERENCES。 同步对象约束 l支持表、索引、约束(主键、空、非空)的同步,不支持视图、外键、存储过程、触发器、函数、事件、虚拟列的同步。 l全量阶段不支持bfile,xml、sdogeometry、urowid、interval(精度大于6位)和自定义类型。 l增量阶段不支持bfile,xml、interval、sdogeometry、urowid、timestamp(精度大于6位)和自定义类型。 l增量阶段源库为Oracle物理备库(PHYSICAL STANDBY)时不支持解析lob类型数据(无法生成数据字典),如果增量同步的表中出现lob类型会导致增量同步异常。 l对于TIMESTAMP WITH TIME ZONE类型,根据目标库时区做转换后不得大于“99991231 23:59:59.999999”。 l源库支持todate和sysguid函数做默认值。将其他函数作为default值时,需要目标库也有相同功能的函数。对于目标库不存在对应函数的情况,可能会出现以下结果: − 默认值函数可能会被置空。 − 创建表失败,导致对象对比不一致或者任务失败。 l如果表中只有LOB字段,可能出现数据不一致性情况。 l如果Oracle中使用LOB类型各自的empty函数写入数据时,通过JDBC查询出来的值是空字符串,写入到目标库后是空字符串还是NULL取决于目标库对空字符串值的处理。 l针对无主键且无索引的表,非大字段的列必须大于3列,否则会因为无法全列匹配导致增量异常。 l不支持默认值含有表达式的函数的表的同步。 l不支持同步源库中的临时表。 l选择手动创建表结构时,目标库中的时间类型是否带有时区需要与源库中保持一致,否则可能会因为时区转换导致时间数据不一致。 源数据库要求 l库名、表名不支持的字符有:非ASCII字符、“. ”、 “>”、 “<”、 “”、 “”、 “”、 “,”、 “? ”、 “! ”、 “"”和 “'”。 l不支持选择源数据库的空库进行同步。 l目前仅支持同步如下字符集:ZHS16GBK、AL32UTF8、UTF8、US7ASCII、WE8MSWIN1252、WE8ISO8859P1、WE8ISO8859P2、WE8ISO8859P4、WE8ISO8859P5、WE8ISO8859P7、WE8ISO8859P9、WE8ISO8859P13、WE8ISO8859P15。 目标数据库要求 l目标数据库实例的运行状态必须正常。 l目标数据库实例必须有足够的磁盘空间。 l同步的表要禁用外键,因为DRS并行回放会使得不同表之间的写入顺序和源库不一致,可能会触发外键约束限制,造成同步失败。 l支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 操作须知 l相互关联的数据对象要确保同时同步,避免因关联对象缺失,导致同步失败。 l表等对象名同步到目标库后会转换成小写,如ABC会转换为abc。因此增量同步阶段,选择的源库的表中不能存在仅大小写不同的表,可能会导致同步失败。 l如有特殊字符,业务连接Oracle数据库使用的编码需和Oracle数据库服务端编码一致,否则目标库可能会出现乱码。 l不使用DRS同步表结构(自建表结构)的场景下,无主键表如果因表结构问题导致任务失败,修复表结构后续传无法恢复,需要重置任务。 l同步表结构时,如果目标库存在与源库同名约束会导致建表失败。 l使用DRS同步表结构的场景下,同一个schema中,同步的表中,表、约束、索引等不能有忽略大小写后的同名对象,比如表"A"中有索引名"inx1", 表B中有索引名"a",表A和索引"a"忽略大小写重名了,会导致结构同步失败。多个schema映射到一个schema的场景,源库的多个schema中也不能包含同名但字母大小写不同的表、约束和索引。 l当Oracle字符集是WE8MSWIN1252时,CLOB列同步到目标库可能出现乱码,建议先修改源库字符集为AL32UTF8再同步数据。 lOracle中表结构长度(所有列长字节数之和,char、varchar2等类型字节长度和编码有关)超过65535时,可能导致同步失败。 lOracle归档日志文件大小必须大于单条数据最大值,避免单条数据日志跨文件(超过2个日志文件)导致的增量数据解析异常。 l对于Oracle RAC集群,建议使用SCAN IP+ SERVICENAMES方式创建任务,SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 l源库为Oracle RAC时,如果需要使用SCAN IP配置DRS任务,需要保证SCAN IP、DRS节点的IP同时能与源库的所有VIP互通(Oracle内部机制),否则无法通过连通性检查。若不使用SCAN IP,可以使用某一节点的VIP,这种情况下DRS日志解析只会在VIP指定的RAC节点上进行。 l若源库为RAC,增量同步首次启动时所有RAC节点必须正常在线,否则增量启动会出现异常。 l若源库为RAC,增量同步时,不支持增加、减少节点数量,避免导致增量同步异常(为保证数据的强一致性)。 l同步过程中,不允许删除连接源和目标数据库的用户的用户名、密码、权限,或修改目标数据库的端口号。 l同步过程中,禁止对Oracle源库做resetlogs操作,否则会导致数据无法同步且任务无法恢复。 l同步过程中,不支持LOB类型的rollback操作,否则会导致同步任务失败。 lDRS全量同步表结构时,源库中的char、varchar2类型长度在目标库会按照字节长自动扩大(因为目标库为字节长),至少扩大1.5倍。扩大倍数和源库目标库的字符集有关,例如同为UTF8的情况下,默认扩大3倍,同为GBK的情况下,默认扩大2倍。 l全量同步分区表的结构时会将该对象转为非分区的普通表,增量同步时,源库跟分区表相关的操作,在目标库执行可能会失败。 l索引同步只同步普通索引,主键等约束在表结构中进行同步。 l增量同步时,BLOB末尾的0x00、CLOB末尾的空格会被截断。 l增量同步过程中,支持部分DDL操作。 − 表级同步支持alter table add column、alter table drop column、alter table rename column、alter table modify column以及truncate table的基本DDL,不支持默认值等的修改。 l表级映射不区分大小写,例如映射为abc与映射为ABC,同步到目标库后均为abc。 l任务再编辑增加新表时,请确保新增的表的事务都已提交,否则未提交的事务可能无法同步到目标库。建议在业务低峰期做增加表的操作。 l全量同步过程中,DRS会向目标库PostgreSQL写入大量数据,会导致PostgreSQL的wal日志量急剧增长,PostgreSQL的磁盘有被写满的风险。可以通过在全量同步前关闭PostgreSQL的日志备份功能,减少wal日志的生产,同步完成后再将其打开的方式进行规避。 注意 关闭日志备份会影响数据库的灾备恢复,请根据实际情况谨慎选择。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到PostgreSQL
      • 创建云硬盘
        本文帮助您了解创建云硬盘相关的场景、约束及操作步骤。 操作场景 系统盘在创建云主机或物理机时自动添加,无需单独创建。数据盘可以在创建云主机或物理机时创建,由系统自动挂载给云主机或物理机,也可以在创建了云主机或物理机之后,单独创建云硬盘并挂载给云主机或物理机。 约束与限制 系统盘只能在购买云主机或物理机时自动创建并挂载,云硬盘创建页面只能创建数据盘。 随云主机或物理机创建的云硬盘,计费模式与云主机或物理机保持一致。 共享盘或磁盘模式为SCSI或磁盘类型为极速型SSD的云硬盘不支持加密模式。 随云主机或物理机一起创建的云硬盘会自动挂载至云主机或物理机上,不可卸载,无法再挂载至其他云主机或物理机中使用。 随云主机一起创建的云硬盘,磁盘类型可以在VBD或SCSI中进行选择,随着物理机一起创建的云硬盘磁盘类型默认为VBD类型。 云硬盘只能被挂载在同一个可用区的云主机或物理机上,可用区在创建完成后不支持修改。 创建云硬盘时若选择“立即挂载”,则无法批量创建,一次只能创建一个云硬盘。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 单击“创建云硬盘”,进入云硬盘创建页面。 5. 根据界面提示,配置云硬盘的基本信息。各配置项说明如下: 参数 是否必选 说明 地域 是 请选择云硬盘的地域,尽量选择距离您更近的区域以提高访问速度。 可用区 是 在拥有多个可用区的资源池中,选择其中一个可用区创建云硬盘。 云硬盘只能挂载至同一个可用区的云主机上。云硬盘创建完成后不支持修改可用区。 付费方式 是 云硬盘支持的计费类型有包年/包月和按需计费两种。 包年包月是一种先付费后使用的计费方式,按订单的购买周期结算。 按需计费是一种先使用后付费的计费方式,按照云硬盘的实际使用时长计费,每小时结算一次。 是否挂载 是 选择是否在云硬盘创建完成后自动挂载到弹性云主机。 暂不挂载(默认):云硬盘创建完成后不自动挂载至云主机。 立即挂载:云硬盘创建完成后自动挂载至用户选择的云主机。 注意 挂载到云主机的云硬盘,您还需要登录云主机进行数据盘初始化才可以正常使用。 数据源 否 云硬盘支持从快照、备份或镜像创建云硬盘。 从快照创建: 从快照创建云硬盘可选择目标地域目标可用区下的快照。 从快照创建云硬盘所创建的云硬盘磁盘模式、磁盘类型、加密属性、所在地域可用区与源快照保持一致,不支持修改。 从快照创建云硬盘创建磁盘容量不小于快照容量。 从备份创建: 从备份创建云硬盘可选择目标地域下的备份副本。 从备份创建云硬盘所创建的云硬盘磁盘模式、加密属性和备份源云硬盘保持一致。 从备份创建云硬盘所创建的云硬盘支持切换磁盘类型、支持跨可用区创建。 从备份创建云硬盘创建磁盘容量不小于备份容量。 从镜像创建: 从镜像创建云硬盘可选择目标地域下的镜像。 从镜像创建云硬盘仅支持VBD模式、且不支持磁盘加密。 从镜像创建云硬盘所创建的云硬盘支持切换磁盘类型、支持跨可用区创建。 从镜像创建云硬盘创建磁盘容量不小于镜像容量。 仅支持“正常”状态的私有镜像或“已接受”状态的共享镜像。 注意 无论是从快照、备份或镜像创建,都不支持一次性创建多个云硬盘。 磁盘规格 是 云硬盘的类型:普通IO,高IO,通用型SSD,超高IO,极速型SSD,XSSD0,XSSD1,XSSD2。具体规格可参见产品规格。 云硬盘的容量范围可参考云硬盘使用限制。 说明 从备份创建云硬盘时,容量大小不小于备份源盘大小,默认容量为备份源盘大小。 从快照创建云硬盘时,容量大小不小于快照源盘大小,默认容量为快照源盘大小。 未选择数据源时,XSSD2默认容量大小为512GB,其他类型云硬盘的默认容量大小为40GB。 当前配置 用于显示当前所选磁盘类型和容量计算出来的基础IOPS上限及IOPS突发上限。具体计算方式可参见磁盘类型及性能介绍。 云硬盘备份 否 创建云硬盘时支持同时订购云硬盘备份服务。可以选择暂不配置、使用已有、现在购买。 使用已有:若您想要配置备份且已有可用的存储库,可以选择“使用已有”。 现在购买:若您想要配置备份但没有可用的存储库,可以选择“现在购买”。 配置存储库和备份策略并成功购买云硬盘后,系统会按此备份策略定期对云硬盘进行备份。云硬盘备份服务的计费说明请参考云硬盘备份服务计费说明。 共享盘 否 勾选“共享盘”,则创建的是共享云硬盘,共享云硬盘最多可同时挂载至16台云主机或物理机。 不勾选“共享盘”,则默认为非共享云硬盘,只能挂载至1台云主机或物理机。 是否编辑标签 否 标签用于标识资源,可通过标签管理功能对云硬盘进行分类和筛选。 勾选后需要输入标签键和标签值,具体操作可参考标签功能概述。 磁盘模式 否 VBD(默认):VBD类型的云硬盘仅支持简单的读写命令。 SCSI:支持SCSI指令透传,允许云主机操作系统直接访问存储介质。 FCSAN:FCSAN云硬盘仅适用于物理机。 磁盘加密 否 支持创建加密云硬盘,磁盘加密能够最大限度的为您的数据提供安全防护。 加密磁盘生成的快照/备份及通过这些快照/备份创建的磁盘将自动继承加密属性。 释放设置 否 支持设置释放策略。 可设置云硬盘释放时是否同步释放该盘的全部快照。 磁盘名称 是 自定义所创建的磁盘名称。 不能使用中文,且长度为263字符。 企业项目 是 支持为云硬盘选择企业项目。 数量 是 创建云硬盘的数量,默认为“1”,表示只创建一个云硬盘。 注意 目前一次最多可批量创建100个云硬盘。 创建时长 是 如果计费类型选择“包年/包月”,则需要选择购买时长,可选取的时间范围为1个月到5年。 自动续订 否 启用自动续订,包年/包月订购的云硬盘到期后会自动续订。 6. 确定云硬盘的配置信息后,点击“下一步”。 7. 在“资源详情”页面,您可以再次核对云硬盘信息。确认无误后,阅读并勾选服务协议,单击“确认下单”,开始创建云硬盘。如果还需要修改,点击“上一页”,修改参数。 8. 在云硬盘主页面,查看云硬盘状态。待云硬盘状态变为“未挂载”时,表示创建成功。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云硬盘
        创建云硬盘
      • 将Oracle同步到MySQL
        使用建议 注意 DRS任务启动和全量数据同步阶段,请不要在源数据库执行DDL操作,否则可能导致任务异常。 为保证同步前后数据一致性,确保同步期间目标数据库无业务写入。 数据库同步与环境多样性和人为操作均有密切关系,为了确保同步的平顺,建议您在进行正式的数据库同步之前进行一次演练,可以帮助您提前发现问题并解决问题。 基于以下原因,建议您在启动任务时选择“稍后启动”功能,将启动时间设置在业务低峰期,相对静止的数据可以有效提升一次性同步成功率,避免同步对业务造成性能影响。 − 在网络无瓶颈的情况下,全量同步会对源数据库增加约50MB/s的查询压力,以及占用2~4个CPU。 − 正在同步的数据被其他事务长时间锁死,可能导致读数据超时。 − DRS并发读取数据库,会占用大约610个session连接数,需要考虑该连接数对业务的影响。 − 全量阶段读取表数据时,特别是大表的读取,可能会阻塞业务上对大表的独占锁操作。 数据对比 建议您结合对比同步项的“稍后启动”功能,选择业务低峰期进行数据对比,以便得到更为具有参考性的对比结果。由于同步具有轻微的时差,在数据持续操作过程中进行对比任务,可能会出现少量数据不一致对比结果,从而失去参考意义。 使用须知 DRS全量+增量同步过程一般包含四个阶段:任务启动阶段、全量阶段、增量阶段、结束任务阶段(单全量任务则包含三个阶段)。为了确保同步各个阶段的平顺,在创建同步任务前,请务必阅读以下使用须知。 表使用须知 类型名称 使用和操作限制 任务启动前须知 l 源数据库参数要求: − 目前仅支持同步如下字符集:ZHS16GBK、AL32UTF8、UTF8、US7ASCII、WE8MSWIN1252、WE8ISO8859P1、WE8ISO8859P2、WE8ISO8859P4、WE8ISO8859P5、WE8ISO8859P7、WE8ISO8859P9、WE8ISO8859P13、WE8ISO8859P15。 l 源数据库对象要求: − 源数据库中的库名或映射后的名称不允许以iblogfile开头,也不能为ibbufferpool、ibdoublewrite、ibdata1、ibtmp1。 − 源数据库支持todate和sysguid函数做默认值。将其他函数作为default值时,需要目标库也有相同功能的函数。对于目标库不存在对应函数的情况,可能会出现以下结果: 默认值函数可能会被置空。 创建表失败,导致对象对比不一致或者任务失败。 − Oracle单行记录不能超过8K(lob、long类型除外,会自动转换成MySQL的text、blob类型),原因是MySQL innodb引擎限制单行大小不能超过8K(text、blob类型除外)。 − 不建议以字符串类型作为主键或唯一键,因为Oracle的字符串作为主键、唯一键时区分空格,而MySQL不区分,可能导致数据不一致和死锁问题。 − 对于Oracle的binaryfloat或者binarydouble类型,MySQL中不支持设置Nan、Inf、Inf三种值,DRS默认会将这三种值转为0保存。 − Oracle的check约束同步到MySQL会失效,原因是MySQL不支持check约束。 − Oracle中建议列名不要取名AUTOPKROWID,原因是这个列名在MySQL5.7中是保留列名,无法创建出来。 − Oracle中number(p, s)字段的精度不要超过p: [1, 38], s:[p65, min(p, 30)]的精度表示范围。其中,s取值依赖于p的取值变化,即下限为p65, 上限为p或30中取最小值。例如:当p1, s的取值范围是[64, 1]。当p38, s取值范围是[27, 30]。int字段的值不要超过(65,0)的精度表示范围。原因是MySQL数字的表示范围比Oracle小。 − Oracle归档日志文件大小必须大于单条数据最大值,避免单条数据日志跨文件(超过2个日志文件)导致的增量数据解析异常。 − 默认值不支持default user,MySQL没有对应的语法。 l 目标库参数要求: − DRS同步时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置为大于100MB。 l 目标库对象要求: − 源库和目标库时区设置必须一致。 − 选择同步表结构时,目标数据库不能存在待同步数据库。 − 目标数据库需要有足够的磁盘空间,约为源库空间大小的1.5倍。 − 目标数据库版本小于5.7.7时,源库单个索引的全部列的长度不得超过767,反之则不得超过3072。 − 同步的表要禁用外键,因为DRS并行回放会使得不同表之间的写入顺序和源库不一致,可能会触发外键约束限制,造成同步失败。 − 支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 l 其他使用须知 : − 数据类型不兼容时,可能引起同步失败。 − 由于无主键表缺乏行的唯一性标志,网络不稳定时涉及少量重试,表数据存在少量不一致的可能性。 − 如有特殊字符,业务连接Oracle数据库使用的编码需和Oracle数据库服务端编码一致,否则目标库会出现乱码。 − Oracle中表结构长度(所有列长字节数之和,char、varchar2等类型字节长度和编码有关)超过65535时,可能导致同步失败。 − Oracle中表结构同步到MySQL后表的字符集为UTF8MB4。 − 当Oracle字符集是WE8MSWIN1252时,CLOB列同步到目标库可能出现乱码,建议先修改源库字符集为AL32UTF8再同步数据。 − 对于Oracle RAC集群,建议使用SCAN IP+ SERVICENAMES方式创建任务,SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 − 源库为Oracle RAC时,如果需要使用SCAN IP配置DRS任务,需要保证SCAN IP、DRS节点的IP同时能与源库的所有VIP互通(Oracle内部机制),否则无法通过连通性检查。若不使用SCAN IP,可以使用某一节点的VIP,这种情况下DRS日志解析只会在VIP指定的RAC节点上进行。 − 由于Oracle与MySQL的部分语法有明显区别,结构同步无法完全保证支持全部语法的转换,包括但不限于函数,表达式,依赖的系统表等。所以在同步过程中,会有在Oracle上存在,在MySQL中没有直接对应的语法,或者MySQL中有对应的语法,但当前还未适配转换的情况,这样会导致结构同步失败。这时,需要手工在目标数据库创建表结构。 − DRS全量同步表结构时,源库中的char、varchar2类型长度在目标库会按照字节长自动扩大(因为目标库为字节长),至少扩大1.5倍。扩大倍数和源库目标库的字符集有关,例如同为UTF8的情况下,默认扩大3倍,同为GBK的情况下,默认扩大2倍。 − 全量同步分区表的结构时会将该对象转为非分区的普通表,增量同步时,源库跟分区表相关的操作,在目标库执行可能会失败。 − 增量同步时,BLOB末尾的0x00、CLOB末尾的空格会被截断。 全量同步阶段须知 l 任务启动和全量数据同步阶段,请不要在源数据库执行DDL操作,否则可能导致任务异常。 l 同步过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 l 同步过程中,不允许对正在同步中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 l 同步过程中,不允许对Oracle源库做resetlogs操作,否则会导致数据无法同步且任务无法恢复。 l 同步过程中,不支持LOB类型的rollback操作,否则会导致同步任务失败。 增量同步阶段须知 l 同步过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 l 同步过程中,不允许对正在同步中的目标数据库进行修改操作(包括但不限于DDL、DML操作)。 l 同步过程中,不允许对Oracle源库做resetlogs操作,否则会导致数据无法同步且任务无法恢复。 l 同步过程中,不支持LOB类型的rollback操作,否则会导致同步任务失败。 l 同步过程中,请勿修改源库或目标库表中的char类型字段为varchar,由于Oracle和MySQL表现不同,产生的空格可能会导致数据对比不一致。 l 同步过程中,支持部分DDL操作。 − 表级同步支持alter table add column、alter table drop column、alter table rename column、alter table modify column以及truncate table的基本DDL,不支持默认值等的修改。 − 库级同步支持create table(表内定义不能包含函数)。 − DDL中的对象不能是目标库的关键字,比如index,where等。目标库MySQL关键字可参考MySQL官网文档[]( " ")。 − 目标库为8.0以下版本时,不支持alter table rename column。 − 增量DDL不支持全角等特殊字符。 l 若源库为RAC,增量同步首次启动时所有RAC节点必须正常在线,否则增量启动会出现异常。 l 若源库为RAC,增量同步时,不支持增加、减少节点数量,避免导致增量同步异常(为保证数据的强一致性)。 l 表的对象名同步到目标库后会转换成小写,如ABC和abc。因此增量同步阶段,选择的源库的表中不能存在仅大小写不同的表,否则会导致同步失败。 l 任务再编辑增加新表时,请确保新增的表的事务都已提交,否则未提交的事务可能无法同步到目标库。建议在业务低峰期做增加表的操作。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到MySQL
      • 挂载NFS协议类型文件存储到边缘虚拟机(Linux)
        本节介绍NFS协议的文件存储如何挂载到Linux系统的边缘虚拟机上。 操作场景 当创建文件存储后,您需要使用边缘虚拟机来挂载该文件存储,以实现多个边缘虚拟机共享使用文件存储的目的。 同一文件存储不能同时支持 NFS 协议和 SMB 协议。 边缘裸金属服务器操作与边缘虚拟机一致,但裸金属服务器使用的是 underlay 的 VPC 网络挂载文件存储。 前提条件 在需要操作的地域创建虚拟私有云 VPC。 已创建该 VPC 下的边缘虚拟机,并根据操作系统类型,安装相应的 NFS 客户端。 已创建该 VPC 下的文件存储,协议类型为 NFS,并获取到文件存储的挂载点名称。 如果需要跨 VPC 访问文件存储,需要配置对等连接以确保 VPC 网络互通。 操作步骤 1. 以 root 用户登录弹性边缘虚拟机。 2. 安装 NFS 客户端。 查看系统是否安装 NFS 软件包。 说明 CentOS、Red Hat、Oracle Enterprise Linux、SUSE、Euler OS、Fedora或OpenSUSE系统下,执行如下命令: rpm qagrep nfs Debian或Ubuntu系统下,执行如下命令: dpkg l nfscommon 不同操作系统回显会有所不同,如果回显如下类似信息,说明已经成功安装 NFS 软件包。 说明 CentOS、Red Hat、Euler OS、Fedora 或 Oracle Enterprise Linux 系统下,回显如下类似信息: libnfsidmap nfsutils SUSE 或 OpenSUSE 系统下,回显如下类似信息: nfsidmap nfsclient Debian 或 Ubuntu 系统下,回显如下类似信息: nfscommon 如果查看到未安装,根据不同的操作系统,执行不同命令。 注意 执行以下命令前要求边缘虚拟机已连接到互联网,否则安装 NFS 客户端失败。 说明 CentOS、Red Hat、Euler OS、Fedora 或 Oracle Enterprise Linux 系统下,执行如下命令: sudo yum y install nfsutils Debian 或 Ubuntu 系统下,执行如下命令: sudo aptget install nfscommon SUSE 或 OpenSUSE 系统下,执行如下命令: zypper install nfsclient 3. 执行如下命令,创建用于挂载文件存储的本地路径。 mkdir 本地路径 说明 如果本地路径已挂载其他磁盘等资源,为被占用状态时,需要新建其它目录进行挂载(nfs 客户端不会对重复挂载进行拦截,当重复挂载时会表现为最后一次成功挂载的信息)。 4. 执行如下命令,将文件存储挂载到与文件存储所属 VPC 相同的边缘虚拟机上。 mount t nfs o vers3,timeo600,noresvport,nolock 挂载地址 本地路径 参数说明 参数 说明 :: vers 文件存储版本,支持 NFSv3 和 NFSv4。如果您的业务场景不包含多台实例同时编辑同一个文件,建议您选择 NFSv3,达到最优性能。 timeo NFS 客户端重传请求前的等待时间(单位为 0.1 秒)。建议值:600。 noresvport 指定 NFS 客户端向 NFS 服务端重新发起建立连接时使用新的 TCP 端口。强烈建议使用 noresvport 参数,这可以保障网络发生故障恢复事件后文件存储服务不会中断。 lock/nolock 选择是否使用 NLM 协议在服务器上锁文件。当选择 nolock 选项时,锁对于同一主机的应用有效,对不同主机不受锁的影响。建议值:nolock。如不加此参数,则默认为 lock,就会发生其他服务器无法对此文件存储写入的情况。ECX文件存储暂不支持非本地锁操作,需要显式添加 nolock 参数防止客户端调用非本地锁而导致抢锁失败的写入慢问题。 proto NFS 客户端向服务器发起传输请求使用的协议,可以为 UDP 或者 TCP。 挂载地址 文件存储的格式为:文件存储 ip:/ 路径,例如:192.168.0.10:/var/ecx/filenvmecv4lq0bkrj0lnj8u23n0。 本地路径 边缘虚拟机上用于挂载文件存储的本地路径,例如 “/localpath”。 注意 请将上述命令中的 “挂载地址” 替换为实际的文件存储 IP 地址及路径,将 “本地路径” 替换为在边缘虚拟机上创建的具体本地路径。 挂载文件存储时,更多性能调优的挂载参数,可参考更多参数配置,各参数之间以逗号进行分隔。例如: mount t nfs o vers3,timeo600,nolock,rsize1048576,wsize1048576,hard,retrans3,tcp,noresvport,ro,async,noatime,nodiratime 挂载地址 本地路径 更多参数 参数 说明 :: rsize 每次向服务器读取文件的最大字节数。实际数据小于或等于此值。rsize 必须是 1024 倍数的正整数,小于 1024 时自动设为 4096,大于 1048576 时自动设为 1048576。默认时,服务器和客户端进行协商后设置。建议设置为最大值 1048576。 wsize 每次向服务器写入文件的最大字节数。实际数据小于或等于此值。wsize 必须是 1024 倍数的正整数,小于 1024 时自动设为 4096,大于 1048576 时自动设为 1048576。默认时,服务器和客户端进行协商后设置。建议设置为最大值 1048576。 soft/hard 取值为 soft,即软挂载方式挂载系统,如果 NFS 请求超时,则客户端向调用程序返回错误;取值为 hard,即使用硬连接方式,如果 NFS 请求超时,则客户端一直重新请求直至成功。默认为 hard。 retrans 客户端返回错误前的重传次数。建议值:1。 tcp/udp 不指定 mountproto 时,客户端默认先尝试使用 udp 协议挂载,如果 udp 网络不通则会在卡顿几秒后再尝试 tcp 协议挂载。当前默认没有放通安全组入方向 mount 协议的 udp 端口号,需要将 mount 挂载协议设置为 TCP 传输协议,即 mountprototcp。 ro/rw ro:表示采用只读的方式挂载。rw:表示采用读写的方式挂载。默认为 rw。未写明 ro/rw 时,则默认为采用 rw 读写的方式挂载。 noresvport 指定 NFS 客户端向 NFS 服务端重新发起建立连接时使用新的 TCP 端口。强烈建议使用 noresvport 参数,这可以保障网络发生故障恢复事件后文件存储服务不会中断。 sync/async sync 为同步写入,表示将写入文件的数据立即写入服务端;async 为异步写入,表示将数据先写入缓存,再写入服务端。同步写入要求 NFS 服务器必须将每个数据都刷入服务端后,才可以返回成功,时延较高。建议设置为 async。 noatime 如果不需要记录文件的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 nodiratime 如果不需要记录目录的访问时间,可以设置该参数。避免频繁访问时,修改访问时间带来的开销。 说明 没有 “使用建议” 的参数推荐使用默认参数。 5. 挂载完成后,执行如下命令,查看已挂载的文件存储。 mount l 如果回显包含如下类似信息,说明挂载成功。 挂载地址 on /localpath type nfs (rw,vers3,timeo600,nolock,addr) 6. 挂载成功后,用户可以在边缘虚拟机上访问文件存储,执行读取或写入操作。
        来自:
        帮助文档
        智能边缘云
        用户指南
        边缘存储
        文件存储
        挂载NFS协议类型文件存储到边缘虚拟机(Linux)
      • 创建Elasticsearch集群
        本章节主要介绍如何创建Elasticsearch集群。 场景描述 当创建的集群类型不同时,需要关注如表1所示的关键参数的配置。 表1 集群创建差异 集群类型 “安全模式” “HTTPS访问” “公网访问” “Kibana公网访问” 非安全模式的集群 关闭 不涉及 不支持启用 不支持启用 安全模式+HTTP协议的集群 开启 关闭 不支持启用 支持启用 安全模式+HTTPS协议的集群 开启 开启 支持启用 支持启用 前提条件 已经完成待创建的Elasticsearch集群规划。 创建集群 1. 登录云搜索服务管理控制台。 2. 在总览页面单击右上角的“创建集群”,进入“创建集群”页面。 或者左侧导航栏单击“集群管理> Elasticsearch”,单击右上角的“创建集群”,进入“创建集群”页面。 3. 在“基础配置”页面,完成Elasticsearch集群的基本信息和资源配置。 表2 Elasticsearch集群的基础配置 参数 说明 计费模式 集群支持包年/包月和按需计费两种模式。 l 包年/包月:根据集群购买时长,一次性支付集群费用。最短时长为1个月,最长时长为3年。如果购买时长超过9个月,建议包年购买,价格更优惠。 l 按需计费:按实际使用时长计费,计费周期为一小时,不足一小时按一小时计费。 订购周期 选择包年/包月模式后,需要选择购买时长。 您可以根据需求,选择是否需要“自动续费”。 当前区域 选择集群的所在区域。 不同区域的云服务产品之间内网互不相通。请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。 可用区 选择集群工作区域下关联的可用区。 最多支持配置3个“可用区”。 集群类型 选择“Elasticsearch”。 集群版本 选择所需的集群版本,支持的版本以界面可选项为准。 集群名称 自定义集群名称,可输入的字符范围为4~32个字符,只能包含数字、字母、中划线和下划线,且必须以字母开头。 节点数量 集群中的数据节点个数。可选节点数为1~32,建议节点数为3或3以上,以提升集群可用性。 l 当集群未启用Master节点和Client节点时,数据节点将同时承担集群管理、存储数据、提供接入集群和分析数据的职责。此时,为保证集群中数据的稳定性,建议设置节点数量大于等于3个。 l 当集群启用了Master节点但未启用Client节点时,数据节点将用于存储数据并提供接入集群和分析数据的功能。 l 当集群未启用Master节点但启用了Client节点时,数据节点将用于存储数据并提供集群管理功能。 l 当集群同时启用了Master节点和Client节点时,数据节点将仅用于存储数据。 说明 当集群中数据节点的数量和可用区的数量不是整数倍关系时,集群的数据会分布可能会不均匀,从而影响数据查询或写入业务。 CPU架构 支持“X86计算”和“鲲鹏计算”两种类型。具体支持的类型由实际区域环境决定。 节点规格 集群中数据节点的规格。您可以根据需求,选择对应的规格。每个集群只能选择一个规格。 节点存储 当“节点规格”选择的是云硬盘时,需要选择集群数据节点的云硬盘类型。节点存储支持普通I/O、高I/O、超高I/O。 节点存储容量 设置数据节点的存储空间大小,其取值范围与“节点规格”关联,不同的规格允许的取值范围不同。 节点存储容量只支持配置为20的倍数。 启用Master节点 Master节点负责管理集群中所有节点任务,如元数据管理、索引创建与删除、分片分配等。在大规模集群的元数据管理、节点管理、稳定性保障和集群操作控制中发挥着至关重要的作用。 启用Master节点后,在下方选择对应的“节点规格”、“节点数量”和“节点存储”。“节点数量”必须是不小于3的奇数,最多设置9个节点。“节点存储”的存储容量为固定值,存储类型可以根据实际情况选择。 启用Client节点 Client节点负责接收并协调外部请求,如search和write请求,在处理高负载查询、复杂聚合、大量分片管理以及优化集群扩展性方面发挥着重要作用。 启用Client节点后,在下方选择对应的“节点规格”、“节点数量”和“节点存储”。“节点数量”可设置为1~32任意数值。“节点存储”的存储容量为固定值,存储类型可以根据实际情况选择。 启用冷数据节点 冷数据节点用于存储对查询时延要求不高,但数据量较大的历史数据,是管理大规模数据集和优化存储成本的有效方式。 启用冷数据节点后,在下方选择对应的“节点规格”、“节点数量”和“节点存储”。“节点数量”可设置为1~32任意数值。“节点存储”的存储类型和存储容量可以根据实际情况选择。 开启冷数据节点之后,支持切换集群的冷热数据,详情请参见2.7.9 切换Elasticsearch集群冷热数据。 说明 当集群中冷数据节点的数量和可用区的数量不是整数倍关系时,集群的数据会分布可能会不均匀,从而影响数据查询或写入业务。 企业项目 如果开通了“企业项目”,在创建集群时可以给集群绑定一个企业项目。 在下拉框中选择企业项目,单击“查看项目管理”跳转到“企业项目管理”管理控制台,查看已有的企业项目。 4. 单击“下一步:网络配置”。 5. 在“网络配置”页面,完成Elasticsearch集群的网络和安全模式配置。 表3 Elasticsearch集群的网络配置 参数 说明 虚拟私有云 指定集群节点使用的虚拟专用网络,实现不同业务的网络隔离。 单击“查看虚拟私有云”跳转到虚拟私有云列表,查看已创建的VPC名称和ID。 如果没有合适的VPC,建议联系CSS服务管理员新建VPC,具体请参见。 说明 此处选择的VPC必须包含网段(CIDR),否则集群将无法创建成功。新建的VPC默认包含网段(CIDR)。 子网 集群使用子网实现与其他网络的隔离,并独享所有网络资源,以提高网络安全。 选择当前虚拟私有云下集群需要的子网。 当选择的虚拟私有云支持IPv6,则在下拉框中选择是否分配IPv6地址。只有7.6.2和7.10.2版本的Elasticsearch集群支持分配IPv6地址。 安全组 安全组起着虚拟防火墙的作用,为集群提供安全的网络访问控制策略。 选择集群需要的安全组,单击“查看安全组”跳转到安全组列表,可以了解安全组详情。 说明 请确保安全组的“端口范围/ICMP类型”为“Any”或者包含端口9200的端口范围。 如果创建的集群为7.6.2及以上版本,则需要确保同安全组内节点之间的端口全放通。如果无法放通同安全组内节点之间的全部端口,请至少确保9300端口的通信。 放开9300端口通信后,如果集群磁盘使用率较高,可清理过期数据,释放磁盘存储空间。 安全模式 选择是否开启集群安全模式。 l默认开启,则创建的是安全模式的集群。安全模式的集群会对集群进行通讯加密和安全认证。因此必须配置集群的“管理员账户名”和“管理员密码”。 − 管理员账户名 默认为admin。 − 设置并确认管理员密码 。要记住设置的密码,后续访问集群需要输入密码。 l不开启,则创建的是非安全模式的集群。非安全模式的集群无需安全认证即可访问,并且采用HTTP明文传输数据。建议确认访问环境的安全性,勿将访问接口暴露到公网环境上。 HTTPS访问 只有开启集群的安全模式才可以启用HTTPS访问,开启HTTPS访问后,访问集群将进行通讯加密。 说明 安全集群使用HTTPS通信,相比非安全集群使用HTTP通信在读取性能上会降低,预期相对HTTP集群在大并发压力下有20%的性能劣化。如果想要读取性能快,又想要使用安全集群所提供的用户权限隔离资源(索引、文档、字段等)的功能,则可以关闭HTTPS访问。关闭HTTPS访问后,会使用HTTP协议与集群通信,无法保证数据安全性,并且无法开启公网访问功能。 公网访问 仅当集群开启了“安全模式”和“HTTPS访问”时,才可以选择是否配置“公网访问”。配置公网访问后,用户可以获得一个公网访问的IP地址,通过这个IP地址可以在公网访问该安全集群。 6. 单击“下一步:高级配置”。 7. 在“高级配置”页面,完成Elasticsearch集群的快照和其他高级配置。 a. 设置集群快照。 系统默认打开集群快照开关,如果您不需要启用自动快照,可以在“集群快照开关”右侧关闭。自动快照会创建委托访问对象存储服务OBS,快照存储在OBS标准存储中需额外计费。 表4 集群快照基础配置 参数 说明 OBS桶 在下拉框中选择存储快照的OBS桶。也可以单击右侧的“创建桶”新建OBS。 创建或者已存在的OBS桶需满足如下条件: l“存储类别”为“标准存储”。 l“区域”须与创建的集群所在区域相同。 备份路径 快照在OBS桶中的存放路径。 备份路径配置规则: l备份路径不能使用符号“:?"<>”。 l备份路径不能以“/”开头。 l备份路径不能以“.”开头或结尾。 l备份路径的总长度不能超过1023个字符。 IAM委托 指当前账号授权云搜索服务访问或维护存储在OBS中数据。如果没有合适的委托可以联系CSS服务管理员新建IAM委托。 所选的IAM委托需满足如下条件: l“委托类型”选择“云服务”。 l“云服务”选择“Elasticsearch”或者“云搜索服务 CSS”。 l必选策略:“Tenant Administrator”或“OBS Administrator” 表5 设置自动创建快照 参数 说明 快照名称前缀 快照名称前缀的长度为1~32个字符,只能包含小写字母、数字、中划线和下划线,且必须以小写字母开头。快照名称由快照名称前缀加上时间戳组成,例如自动生成的快照名称为“snapshot1566921603720”。 时区 指备份时间对应的时区,不支持修改。基于此时区选择备份开始时间。 备份开始时间 指每天自动开始备份的时间,只能指定整点时间,如00:00、01:00,取值范围为00:00~23:00。请在下拉框中选择时间。 8. 单击“下一步:确认配置”,确认完成后单击“立即创建”开始创建集群。 9. 单击“返回集群列表”,系统将跳转到“集群管理”页面。您创建的集群将展现在集群列表中,且集群状态为“创建中”,创建成功后集群状态会变为“可用”。 如果集群创建失败,请根据界面提示重新创建集群。
        来自:
        帮助文档
        云搜索服务
        用户指南
        使用Elasticsearch搜索数据
        创建并接入集群
        创建Elasticsearch集群
      • 创建角色
        本章节主要介绍创建角色。 操作场景 该任务指导管理员用户在Manager创建角色,并对Manager和组件进行授权管理。 Manager支持的角色数为1000。 说明 该章节操作仅适用于MRS 3.x之前版本集群。 MRS3.x及之后版本集群请参考 前提条件 管理员用户已明确业务需求。 开启Kerberos认证的集群或开启弹性公网IP功能的普通集群。 操作步骤 访问MRS Manager,详细操作请参见访问MRSManager(MRS2.x及之前版本)。 1. 在MRS Manager,选择“系统设置 >角色管理”。 2. 单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。 “角色名称”为必选参数,字符长度为3到30,可以包含数字、字母和下划线。“描述”为可选参数。 3. 设置角色“权限”。 a.单击“服务名称”,并选择一个“视图名称”。 b.勾选一个或多个权限。 说明 “权限”为可选参数。 在选择“视图”设置组件的权限时,可通过右上角的“搜索”框输入资源名称,然后单击显示搜索结果。 搜索范围仅包含当前权限目录,无法搜索子目录。搜索关键字支持模糊搜索,不区分大小写。支持搜索下一页的结果。 详见下表: Manager权限描述 支持权限管理的资源 权限设置说明 “Alarm” Manager告警功能授权,勾选“View”表示可以查看告警,勾选“Management”表示可以管理告警。 “Audit” Manager审计日志功能授权,勾选“View”表示可以查看审计,勾选“Management”表示可以管理审计。 “Dashboard” Manager概览功能授权,勾选“View”表示可以查看集群概览。 “Hosts” Manager集群节点管理功能授权,勾选“View”表示可以查看节点,勾选“Management”表示可以管理节点。 “Services” MRS集群服务管理功能授权,勾选“View”表示可以查看服务,勾选“Management”表示可以管理服务。 “Systemclustermanagement” MRS集群管理授权,勾选“Management”表示可以使用MRS补丁管理功能。 “Systemconfiguration” MRS集群配置功能授权,勾选“Management”表示可以使用Manager配置MRS集群。 “Systemtask” MRS集群任务功能授权,勾选“Management”表示可以使用Manager管理MRS集群的周期任务。 “Tenant” Manager多租户管理功能授权,勾选“Management”表示可以查看Manager的租户管理页面。 详见下表:HBase权限描述 支持权限管理的资源 权限设置说明 “SUPERUSERGROUP” 选中时表示授予HBase管理员权限。 “Global” HBase的一种资源类型,表示HBase整体组件。 “Namespace” HBase的一种资源类型,表示命名空间,用来保存HBase表。 具体权限: “Admin”:表示管理此命名空间的权限。 “Create”:表示在此命名空间创建HBase表的权限。 “Read”:表示访问此命名空间的权限。 “Write”:表示写入此命名空间数据的权限。 “Execute”:表示可执行协处理器(Endpoint)的权限。 “Table” HBase的一种资源类型,表示数据表,用来保存数据。 具体权限: “Admin”:表示管理此数据表的权限。 “Create”:表示在此数据表创建列族和列的权限。 “Read”:表示读取数据表的权限。 “Write”:表示写入数据到表的权限。 “Execute”:表示可执行协处理器(Endpoint)的权限。 “ColumnFamily” HBase的一种资源类型,表示列族,用来保存数据。 具体权限: “Create”:表示在此列族创建列的权限。 “Read”:表示读取列族的权限。 “Write”:表示写入数据到列族的权限。 “Qualifier” HBase的一种资源类型,表示列,用来保存数据。具体权限: “Read”:表示读取列的权限。 “Write”:表示写入数据到列的权限。 HBase中每一级资源类型的权限默认会传递到下级资源类型,但“递归”选项没有默认勾选。例如命名空间“default”添加了“Read”和“Write”权限,则命名空间中的表、列族和列自动添加该权限。若设置父资源后,再手动设置子资源,则子资源的权限取父资源与当前子资源设置的并集。 详见下表:HDFS权限描述 支持权限管理的资源 权限设置说明 “Folder” HDFS的一种资源类型,表示HDFS目录,可以保存文件或子目录。具体权限: “Read”:表示访问此HDFS目录的权限。 “Write”:表示在此HDFS目录写入数据的权限。 “Execute”:表示执行操作的权限。在添加访问或写入权限必须同时勾选。 “Files” HDFS的一种资源类型,表示HDFS中的文件。具体权限: “Read”:表示访问此文件的权限。 “Write”:表示写入此文件的权限。 “Execute”:表示执行操作的权限。在添加访问或写入权限必须同时勾选。 HDFS中每一级目录的权限默认不会传递到下级目录类型。例如目录“tmp”添加了“Read”和“Execute”,需要同时勾选“递归”才能为子目录添加权限。 详见下表: Hive权限描述 支持权限管理的资源 权限设置说明 “Hive Admin Privilege” 选中时表示授予Hive管理员权限。 “Database” Hive的一种资源类型,表示Hive数据库,用来保存Hive表。 具体权限: “Select”:表示查询Hive数据库的权限。 “Delete”:表示在Hive数据库执行删除操作的权限。 “Insert”:表示在Hive数据库执行插入操作的权限。 “Create”:表示在Hive数据库执行创建操作的权限。 “Table” Hive的一种资源类型,表示Hive表,用来保存数据。 具体权限: “Select”:表示查询Hive表的权限。 “Delete”:表示在Hive表执行删除操作的权限。 “Update”:表示为角色添加Hive表的“Update”权限。 “Insert”:表示在Hive表执行插入操作的权限。 “Grant of Select”:选中表示属于此角色的用户可以使用Hive语句为其他用户添加“Select”权限。 “Grant of Delete”:选中表示属于此角色的用户可以使用Hive语句为其他用户添加“Delete”权限。 “Grant of Update”:选中表示属于此角色的用户可以使用Hive语句为其他用户添加“Update”权限。 “Grant of Insert”:选中表示属于此角色的用户可以使用Hive语句为其他用户添加“Insert”权限。 Hive中每一级资源类型的权限默认会传递到下级资源类型,但“递归”选项没有默认勾选。例如数据库“default”添加了“Select”和“Insert”权限,则数据库中的表和列自动添加该权限。若设置父资源后,再手动设置子资源,则子资源的权限取父资源与当前子资源设置的并集。 详见下表:YARN权限描述 支持权限管理的资源 权限设置说明 “Cluster Admin Operations” 选中时表示授予YARN管理员权限。 “root” YARN的根队列。 具体权限: “Submit”:表示在队列提交作业的权限。 “Admin”:表示管理当前队列的权限。 “Parent Queue” YARN的一种资源类型,表示父队列,可以包含子队列。根队列也属于父队列的一种。 具体权限: “Submit”:表示在队列提交作业的权限。 “Admin”:表示管理当前队列的权限。 “Leaf Queue” YARN的一种资源类型,表示叶子队列。 具体权限: “Submit”:表示在队列提交作业的权限。 “Admin”:表示管理当前队列的权限。 YARN中每一级资源类型的权限默认会传递到下级资源类型,但“递归”选项没有默认勾选。例如队列“root”添加了“Submit”权限,则子队列自动添加该权限。子队列继承的权限不在“权限”表格显示被选中。若设置父资源后,再手动设置子资源,则子资源的权限取父资源与当前子资源设置的并集。 详见下表: Hue权限描述 支持权限管理的资源 权限设置说明 “Storage Policy Admin” 选中时表示授予Hue中存储策略管理员权限。 4. 单击“确定”完成,返回“角色管理”。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        MRS多用户权限管理
        创建角色
      • 使用Flink客户端
        使用Flink客户端(MRS 3.x及之后版本) 1.以客户端安装用户,登录安装客户端的节点。 2.执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 3.执行如下命令初始化环境变量。 source/opt/hadoopclient/bigdataenv 4.若集群开启Kerberos认证,需要执行以下步骤,若集群未开启Kerberos认证请跳过该步骤。 a.准备一个提交Flink作业的用户。 b.登录Manager,下载认证凭据。 登录集群的Manager界面,具体请参见访问FusionInsight Manager(MRS 3.x及之后版本),选择“系统 > 权限 > 用户”,在已增加用户所在行的“操作”列,选择“更多 > 下载认证凭据”。 c.将下载的认证凭据压缩包解压缩,并将得到的user.keytab文件拷贝到客户端节点中,例如客户端节点的“/opt/hadoopclient/Flink/flink/conf”目录下。如果是在集群外节点安装的客户端,需要将得到的krb5.conf文件拷贝到该节点的“/etc/”目录下。 d.将客户端安装节点的业务IP、Manager的浮动IP和Master节点IP添加到配置文件“/opt/hadoopclient/Flink/flink/conf/flinkconf.yaml”中的“jobmanager.web.accesscontrolalloworigin”和“jobmanager.web.allowaccessaddress”配置项中,IP地址之间使用英文逗号分隔。 jobmanager.web.accesscontrolalloworigin: xx.xx.xxx.xxx , xx.xx.xxx.xxx ,xx.xx.xxx.xxx jobmanager.web.allowaccessaddress: xx.xx.xxx.xxx , xx.xx.xxx.xxx ,xx.xx.xxx.xxx 说明 客户端安装节点的业务IP获取方法: 集群内节点: 登录MapReduce服务管理控制台,选择“集群列表 > 现有集群”,选中当前的集群并单击集群名,进入集群信息页面。 在“节点管理”中查看安装客户端所在的节点IP。 集群外节点:安装客户端所在的弹性云主机的IP。 Manager的浮动IP获取方法: 登录MapReduce服务管理控制台,选择“集群列表 > 现有集群”,选中当前的集群并单击集群名,进入集群信息页面。 在“节点管理”中查看节点名称,名称中包含“master1”的节点为Master1节点,名称中包含“master2”的节点为Master2节点。 远程登录Master2节点,执行“ifconfig”命令,系统回显中“eth0:wsom”表示MRS Manager浮动IP地址,请记录“inet”的实际参数值。如果在Master2节点无法查询到MRS Manager的浮动IP地址,请切换到Master1节点查询并记录。如果只有一个Master节点时,直接在该Master节点查询并记录。 e.配置安全认证,在“/opt/hadoopclient/Flink/flink/conf/flinkconf.yaml”配置文件中的对应配置添加keytab路径以及用户名。 security.kerberos.login.keytab: security.kerberos.login.principal: 例如: security.kerberos.login.keytab: /opt/hadoopclient/Flink/flink/conf/user.keytab security.kerberos.login.principal: test f.参考“组件操作指南 > 使用Flink > 参考 > 签发证书样例”章节生成“generatekeystore.sh”脚本并放置在Flink的客户端bin目录下,执行如下命令进行安全加固,请参考“组件操作指南 >使用Flink > 安全加固 > 认证和加密”,password请重新设置为一个用于提交作业的密码。 sh generatekeystore.sh 该脚本会自动替换“/opt/hadoopclient/Flink/flink/conf/flinkconf.yaml”中关于SSL的值。 sh generatekeystore.sh 说明 执行认证和加密后会在Flink客户端的“conf”目录下生成“flink.keystore”和“flink.truststore”文件,并且在客户端配置文件“flinkconf.yaml”中将以下配置项进行了默认赋值: 将配置项“security.ssl.keystore”设置为“flink.keystore”文件所在绝对路径。 将配置项“security.ssl.truststore”设置为“flink.truststore”文件所在的绝对路径。 将配置项“security.cookie”设置为“generatekeystore.sh”脚本自动生成的一串随机规则密码。 默认“flinkconf.yaml”中“security.ssl.encrypt.enabled: false”,“generatekeystore.sh”脚本将配置项“security.ssl.keypassword”、“security.ssl.keystorepassword”和“security.ssl.truststorepassword”的值设置为调用“generatekeystore.sh”脚本时输入的密码。 g.客户端访问flink.keystore和flink.truststore文件的路径配置。 −绝对路径:执行该脚本后,在flinkconf.yaml文件中将flink.keystore和flink.truststore文件路径自动配置为绝对路径“/opt/hadoopclient/Flink/flink/conf/”,此时需要将conf目录中的flink.keystore和flink.truststore文件分别放置在Flink Client以及Yarn各个节点的该绝对路径上。 −相对路径:请执行如下步骤配置flink.keystore和flink.truststore文件路径为相对路径,并确保Flink Client执行命令的目录可以直接访问该相对路径。 i.在“/opt/hadoopclient/Flink/flink/conf/”目录下新建目录,例如ssl。 cd /opt/hadoopclient/Flink/flink/conf/ mkdir ssl ii. 移动flink.keystore和flink.truststore文件到“/opt/hadoopclient/Flink/flink/conf/ssl/”中。 mv flink.keystore ssl/ mv flink.truststore ssl/ iii. 修改flinkconf.yaml文件中如下两个参数为相对路径。 security.ssl.keystore: ssl/flink.keystore security.ssl.truststore: ssl/flink.truststore 5.运行wordcount作业。 须知 用户在Flink提交作业或者运行作业时,应具有如下权限: 如果启用Ranger鉴权,当前用户必须属于hadoop组或者已在Ranger中为该用户添加“/flink”的读写权限。 如果停用Ranger鉴权,当前用户必须属于hadoop组。 普通集群(未开启Kerberos认证) −执行如下命令启动session,并在session中提交作业。 yarnsession.sh nm " sessionname " flink run/opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar −执行如下命令在Yarn上提交单个作业。 flink run m yarncluster/opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar 安全集群(开启Kerberos认证) −flink.keystore和flink.truststore文件路径为绝对路径时: 执行如下命令启动session,并在session中提交作业。 yarnsession.sh nm " sessionname " flink run /opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar 执行如下命令在Yarn上提交单个作业。 flink run m yarncluster /opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar −flink.keystore和flink.truststore文件路径为相对路径时: 在“ssl”的同级目录下执行如下命令启动session,并在session中提交作业,其中“ssl”是相对路径,如“ssl”所在目录是“opt/hadoopclient/Flink/flink/conf/”,则在“opt/hadoopclient/Flink/flink/conf/”目录下执行命令。 yarnsession.sh t ssl/ nm " sessionname " flink run/opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar 执行如下命令在Yarn上提交单个作业。 flink run m yarncluster yt ssl/ /opt/hadoopclient/Flink/flink/examples/streaming/WordCount.jar 6. 作业提交成功后,客户端界面显示如下。 详见下图:在Yarn上提交作业成功 详见下图:启动session成功 详见下图:在session中提交作业成功 7. 使用运行用户进入Yarn服务的原生页面,具体操作参考“组件操作指南 >使用Flink > 查看Flink作业”,找到对应作业的application,单击application名称,进入到作业详情页面 若作业尚未结束,可单击“Tracking URL”链接进入到Flink的原生页面,查看作业的运行信息。 若作业已运行结束,对于在session中提交的作业,可以单击“Tracking URL”链接登录Flink原生页面查看作业信息。 详见下图: application
        来自:
        帮助文档
        翼MapReduce
        用户指南
        使用MRS客户端
        各组件客户端使用实践
        使用Flink客户端
      • 功能概览
        本页介绍了关系数据库MySQL版资源池和产品功能概览。 针对关系数据库MySQL版帮助文档中“一类节点”的资源池进行说明。“一类节点”中的资源池分为I类型资源池和II类型资源池。推荐使用II类型资源池。 表1 资源池说明 I 类型资源池 北京5、晋中、辽阳1、内蒙古6、石家庄20、杭州2、合肥2、九江、南京3、上海7、芜湖2、郴州2、佛山3、福州4、福州25、广州X节点(仅省内可见)、海口2、衡阳3、武汉4、乌鲁木齐4、乌鲁木齐27、西安3、西安4、西安5、中卫2、成都4、贵州3、昆明2、拉萨3、重庆2、帆豫智联、中卫5、西宁2 说明 所有I 类型资源池自2025年6月17日起已不再支持新购实例,如有问题,请提单咨询。 II 类型资源池 西南1、南宁23、长沙42、华北2、南昌5、青岛20、上海36、湖南永州一城一池1、华南2、华东1、太原4、武汉41、郑州5、西安7、西南2贵州、杭州7、广州4、苏州、芜湖4、呼和浩特3、庆阳2、广州x节点xc可用区、乌鲁木齐7、北京行业云20、上海15、佛山7、沈阳8 国际站资源池 香港2(区分国内站和国际站),澳门(国内站),印度尼西亚1(国内站) 说明 1. Ⅰ类型资源池和Ⅱ类型资源池通过管理控制台,点击控制中心右侧的区域框进行选择。 2. 广州4、苏州资源池可以通过实例管理页签的“Ⅱ类型资源池切换”按钮进行选择。 3. 关于香港2节点,国内站可以正常访问关系数据库MySQL版控制台左上角选择香港2节点,国际站可以通过点击国际站官网,选择关系数据库MySQL产品,享受数据库服务。您需要注意的是国际站和非国际站资源池的账号系统是彼此独立的。 4. Ⅱ类型资源池中,华南2、西南1、广州4、华东1、华北2等资源池均加载了国产化系列实例类型。具体加载类型可参见实例规格,关于国产化云主机相关情况可参考国产化云主机,以了解不同系列区别。 5. Ⅱ类型资源池中,自2024年12月30日起,已完成架构升级的资源池有:西南1、华东1、华北2、长沙42、上海36、太原4、武汉41、郑州5、广州4、西南2贵州、南昌5、华南2等所有Ⅱ类型资源池。 表2 功能说明 功能模块 产品功能 I 类型资源池 II 类型资源池 计费模式 按需 支持 支持 计费模式 包周期 支持 支持 数据库工具 智能问答助手 不支持 部分资源池支持 数据库工具 智能运维与实例画像 不支持 部分资源池支持 数据库工具 支持DMS登录数据库 不支持 部分资源池支持 数据库工具 数据库克隆 不支持 支持 部署方式 跨可用区 不支持 部分资源池支持 规格 单机实例 支持 支持 规格 主备实例 支持 支持 规格 一主两备实例 支持 支持 规格 只读实例 仅部分资源池支持 支持 实例管理 备份空间扩容 支持 支持 实例管理 存储空间扩容 支持 支持 实例管理 规格扩容 支持 支持 实例管理 规格缩容 不支持 支持 实例管理 存储空间自动扩容 不支持 支持 实例管理 性能自动扩容 不支持 支持 实例管理 性能自动缩容 不支持 仅华北2、西安7支持 实例管理 系列升级 支持 支持 实例管理 参数模板 支持 支持 实例管理 参数模板导入导出 不支持 支持 实例管理 标签管理 支持 支持 实例管理 主备切换 支持 支持 实例管理 修改切换策略 不支持 支持 实例管理 修改数据复制方式 不支持 支持 实例管理 迁移可用区 不支持 仅西南1、华南2、华东1、华北2支持 实例管理 重启实例 支持 支持 实例管理 修改数据库端口 支持 支持 实例管理 设置可维护时间段 不支持 支持 实例管理 续订实例 支持 支持 实例管理 暂停实例 不支持 仅西南1支持 实例管理 释放实例 支持 支持 实例管理 修改实例名称 支持 支持 实例管理 开启和关闭实例释放保护 不支持 支持 实例管理 MGR集群 不支持 仅西南1支持 实例管理 表名大小写 不支持 支持 实例管理 设置只读复制延迟 不支持 支持 实例管理 实例回收站 不支持 支持 实例管理 购买相同配置实例 不支持 支持 实例管理 只读转单机 不支持 西南1、华北2支持 实例管理 事件定时器 不支持 部分资源池支持 实例管理 设置数据库只读 不支持 支持 实例版本 升级内核小版本 不支持 支持 实例版本 升级数据库版本 不支持 仅华北2、西安7、长沙42、武汉41、杭州7支持 密码设置 自定义密码策略 不支持 支持 密码设置 修改密码 支持 支持 密码设置 密码锁定插件 不支持 支持 账号管理 创建账号 支持 支持 账号管理 修改账号权限 支持 支持 账号管理 重置高权限账号 不支持 支持 账号管理 基于数据库代理创建只读账号 不支持 仅西南1支持 账号管理 禁用root账号 不支持 仅西南1支持 数据库管理 创建数据库 支持 支持 数据库管理 删除数据库 支持 支持 监控告警 查看监控 支持 支持 监控告警 设置查看监控频率 不支持 支持 监控告警 设置报警规则 不支持 支持 问题诊断 死锁分析 不支持 仅西南1支持 问题诊断 空闲连接管理 不支持 支持 安全 透明数据加密TDE 不支持 仅华东1、西南1、华南2、杭州7支持 安全 SQL审计 不支持 支持 安全 SQL拦截 不支持 支持 安全 SSL加密 支持 支持 安全 云盘加密 不支持 仅华北2、华东1、西南1支持 安全 SQL限流 不支持 仅西南1支持 安全 动态脱敏 不支持 仅西南1支持 安全 IP白名单 不支持 支持 日志记录 日志管理 支持 支持 日志记录 任务列表 支持 支持 日志记录 操作记录 不支持 支持 日志记录 云审计 不支持 支持 备份 自动备份 支持 支持 备份 库表备份 不支持 支持 备份 手动备份 支持 支持 备份 对象存储 不支持 除广州4、苏州外其他均支持 备份 下载数据备份 不支持 未加载对象存储资源池不支持 备份 下载日志备份 不支持 未加载对象存储资源池不支持 备份 高频物理备份 支持 支持 备份 快照备份 不支持 白名单用户支持 备份 binlog本地设置 不支持 支持 备份 跨域备份 不支持 仅华东1、华北2、西南1支持 备份 备份类型转换 不支持 仅西南1支持 备份 逻辑备份 不支持 仅华北2、西安7支持 恢复 恢复至原实例 支持 支持 恢复 恢复至新实例 不支持 支持 恢复 多库表恢复 不支持 支持 恢复 快照恢复 不支持 白名单用户支持 恢复 跨域恢复 不支持 仅华东1、华北2、西南1支持 恢复 SQL闪回 不支持 仅华东1支持 访问 数据库代理 不支持 支持 访问 IPv4 支持 支持 访问 IPv6 不支持 支持 访问 弹性IP 部分资源池支持 支持 访问 开通指定IP地址 不支持 支持 访问 实例内网域名 不支持 仅西南1、华东1、武汉41支持 访问 修改内网连接地址(IPV4) 不支持 仅部分资源池支持 访问 切换实例VPC 不支持 除广州4、苏州外其他均支持 计费变更 按需实例转包周期 支持 支持 计费变更 包周期实例转按需 支持 支持 其他 主子账号/账号委托 部分资源池支持 支持
        来自:
        帮助文档
        关系数据库MySQL版
        产品简介
        功能概览
      • 将Oracle同步到DRDS
        使用须知 在创建同步任务前,请务必阅读以下使用须知。 说明 建议创建单独用于DRS任务连接的数据库帐号,避免因为数据库帐号密码修改,导致的任务连接失败。 连接源或目标数据库的帐号密码修改后,请尽快修改连接信息,避免任务连接失败后自动重试,导致数据库帐号被锁定影响使用。 表使用须知 类型名称 使用和操作限制 数据库权限设置 l源数据库端: − 全量同步:需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;)权限。 − 全量+增量同步: 12c及以上版本CDB数据库同步时,需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$,SET CONTAINER(GRANT SET CONTAINER TOCONTAINERALL;)权限。 12c及以上版本PDB数据库同步时,除了需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$权限,还需要具有CDB的CREATE SESSION,SELECT ANY DICTIONARY,EXECUTECATALOGROLE,SELECT ANY TRANSACTION,LOGMINING,SET CONTAINER(GRANT SET CONTAINER TOCONTAINERALL;)权限。 11g及以下版本数据库同步时,需要具有CREATE SESSION,SELECT ANY DICTIONARY,针对单表的SELECT权限(GRANT SELECTto drsUser;),EXECUTECATALOGROLE,SELECT ANY TRANSACTION,SELECT ON SYS.COL$,SELECT ON SYS.OBJ$。 − 增量同步时,源库Oracle需要开启日志归档模式和最小补充日志,所需同步表必须开启PK/UI或以ALL级别的补充日志,不限制库级或表级补充日志方式,若只开启表级补充日志,重建或者RENAME表后需要重新设置;请确保以上配置在同步过程中始终保持开启状态。 − 12c及以上版本不支持使用ORACLEMAINTAINEDY的用户帐号进行增量同步(system/sys除外),因为该属性的帐号无日志解析权限。 l目标数据库端:提供的目标数据库帐号必须拥有如下权限:SELECT、CREATE、DROP、DELETE、INSERT、UPDATE、ALTER、INDEX、EVENT、RELOAD、CREATE VIEW。 同步对象约束 l增量同步不支持DDL的同步。 l全量阶段不支持bfile,xml、sdogeometry、urowid、interval(精度大于6位)和自定义类型。 l增量阶段不支持bfile,xml、interval、sdogeometry、urowid、timestamp(精度大于6位)和自定义类型。 l增量阶段源库为Oracle物理备库(PHYSICAL STANDBY)时不支持解析lob类型数据(无法生成数据字典),如果增量同步的表中出现lob类型会导致增量同步异常。 l目前只支持同步源库的数据,不支持同步源库表结构及其他数据库对象。 l用户需要在目标库根据源端逻辑库的表结构,自行在目标库创建对应的表结构及索引。未在目标库创建的对象,视为用户不选择这个对象进行同步。 l同步时需要在目标库创建表结构,目标库表结构要包含源库所有列,且主键要一致。 l源库支持todate和sysguid函数做默认值。将其他函数作为default值时,需要目标库也有相同功能的函数。对于目标库不存在对应函数的情况,可能会出现以下结果: − 默认值函数可能会被置空。 − 创建表失败,导致对象对比不一致或者任务失败。 l如果表中只有LOB字段,可能出现数据不一致性情况。 l如果Oracle中使用LOB类型各自的empty函数写入数据时,通过JDBC查询出来的值是空字符串,写入到目标库后是空字符串还是NULL取决于目标库对空字符串值的处理。 l针对无主键且无索引的表,非大字段的列必须大于3列,否则会因为无法全列匹配导致增量异常。 l不支持默认值含有表达式的函数的表的同步。 l不支持同步源库中的临时表。 源数据库要求 lOracle单行记录不能超过8K(lob、long类型除外,会自动转换成MySQL的text、blob类型),原因是MySQL innodb引擎限制单行大小不能超过8K(text、blob类型除外)。 l不建议以字符串类型作为主键或唯一键,因为Oracle的字符串作为主键、唯一键时区分空格,而MySQL不区分,可能导致数据不一致和死锁问题。 l对于Oracle的binaryfloat或者binarydouble类型,MySQL中不支持设置Nan、Inf、Inf三种值,DRS默认会将这三种值转为0保存。 lOracle中建议列名不要取名AUTOPKROWID,原因是这个列名在MySQL5.7中是保留列名,无法创建出来。 lOracle中number(p, s)字段的精度不要超过p: [1, 38], s:[p65, min(p, 30)]的精度表示范围。其中,s取值依赖于p的取值变化,即下限为p65, 上限为p或30中取最小值。例如:当p1, s的取值范围是[64, 1]。当p38, s取值范围是[27, 30]。 int字段的值不要超过(65,0)的精度表示范围。原因是MySQL数字的表示范围比Oracle小。 l不支持表名包含除下划线外的其他特殊字符的表的同步。 l源数据库中的库名或映射后的名称不允许以iblogfile开头,也不能为ibbufferpool、ibdoublewrite、ibdata1、ibtmp1。 l不支持选择源数据库的空库进行同步。 l目前仅支持同步如下字符集:ZHS16GBK、AL32UTF8、UTF8、US7ASCII、WE8MSWIN1252、WE8ISO8859P1、WE8ISO8859P2、WE8ISO8859P4、WE8ISO8859P5、WE8ISO8859P7、WE8ISO8859P9、WE8ISO8859P13、WE8ISO8859P15。 目标数据库要求 l同步前,目标数据库必须存在待同步数据库及表,且库名,表名,列名,索引名、约束名等必须为对应的小写名称。 lDRS同步时会有大量数据写入目标库,目标库maxallowedpacket 参数过小会导致无法写入,建议将目标库maxallowedpacket参数值设置为大于100MB。 l同步的表要禁用外键,因为DRS并行回放会使得不同表之间的写入顺序和源库不一致,可能会触发外键约束限制,造成同步失败。 l支持目标数据库中的表比源数据库多列场景,但是需要避免以下场景可能导致的任务失败。 − 目标端多的列要求非空且没有默认值,源端insert数据,同步到目标端后多的列为null,不符合目标端要求。 − 目标端多的列设置固定默认值,且有唯一约束。源端insert多条数据后,同步到目标端后多的列为固定默认值,不符合目标端要求。 操作限制 l表对象名同步到目标库后会转换成小写,如ABC和abc。因此增量同步阶段,选择的源库表中不能存在表名称字母相同但大小写不同的表,否则,会导致同步失败。 l由于无主键表缺乏行的唯一性标志,网络不稳定时涉及少量重试,表数据存在少量不一致的可能性。 l如有特殊字符,业务连接Oracle数据库使用的编码需和Oracle数据库服务端编码一致,否则目标库会出现乱码。 lOracle中表结构同步到DRDS后表的字符集为utf8mb4。 lOracle中表结构长度(所有列长字节数之和,char、varchar2等类型字节长度和编码有关)超过65535时,可能导致同步失败。 lOracle归档日志文件大小必须大于单条数据最大值,避免单条数据日志跨文件(超过2个日志文件)导致的增量数据解析异常。 l对于Oracle RAC集群,建议使用SCAN IP+ SERVICENAMES方式创建任务,SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 l源库为Oracle RAC时,如果需要使用SCAN IP配置DRS任务,需要保证SCAN IP、DRS节点的IP同时能与源库的所有VIP互通(Oracle内部机制),否则无法通过连通性检查。若不使用SCAN IP,可以使用某一节点的VIP,这种情况下DRS日志解析只会在VIP指定的RAC节点上进行。 l若源库为RAC,增量同步首次启动时所有RAC节点必须正常在线,否则增量启动会出现异常。 l若源库为RAC,增量同步时,不支持增加、减少节点数量,避免导致增量同步异常(为保证数据的强一致性)。 l数据类型不兼容时,可能引起同步失败。 l当Oracle字符集是WE8MSWIN1252时,CLOB列同步到目标库可能出现乱码,建议先修改源库字符集为AL32UTF8再同步数据。 l同步过程中,不允许修改、删除连接源和目标数据库的用户的用户名、密码、权限,或修改源和目标数据库的端口号。 l同步过程中,源库不能做DDL变更。 l同步过程中,禁止对Oracle源库做resetlogs操作,否则会导致数据无法同步且任务无法恢复。 l同步过程中,不支持LOB类型的rollback操作,否则会导致同步任务失败。 l对于同步中的数据库对象,在同步期间,目标库不能进行写入操作,否则会导致数据不一致。 lDRS全量同步表结构时,源库中的char、varchar2类型长度在目标库会按照字节长自动扩大(因为目标库为字节长),至少扩大1.5倍。扩大倍数和源库目标库的字符集有关,例如同为UTF8的情况下,默认扩大3倍,同为GBK的情况下,默认扩大2倍。 l全量同步分区表的结构时会将该对象转为非分区的普通表,增量同步时,源库跟分区表相关的操作,在目标库执行可能会失败。 l增量同步时,BLOB末尾的0x00、CLOB末尾的空格会被截断。 l选择表级对象同步时,增量同步过程中不建议对表进行重命名操作。 l源库的用户对应目标库的数据库。 l源库用户、表结构信息同步至目标库后全部转换为小写。如表Ab及表AB同步至目标库为ab。 l不支持索引组织表的同步。 l同步任务全量阶段开始前,如有长时间未提交的事务,有可能丢失数据。 l任务再编辑增加新表时,请确保新增的表的事务都已提交,否则未提交的事务可能无法同步到目标库。建议在业务低峰期做增加表的操作。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        入云
        将Oracle同步到DRDS
      • CCE接入
        section573a750d001b9068)。 说明 1. 默认选择集群所在的主机组,您可以根据需要选择其他已创建的主机组。 2. 在“主机管理 > 主机组”页面对主机组和接入配置进行关联。 3. 主机组可以为空,但是会导致采集配置不生效,建议第一次接入时选择主机组。若不选择,可以在接入配置设置完成后对主机组进行设置。 4. 在接入配置详情中对主机组和接入配置进行关联。 2. 单击“下一步:采集配置”。 7. 采集配置。 设置具体的采集规则,具体可参考采集配置。 8. 结构化配置(可选项)。 结构化配置,具体请参考云端结构化解析。 说明 当所选日志流已配置结构化时,请谨慎执行删除操作。 9. 索引配置(可选项)。 索引配置,具体请参考索引配置。 10. 单击“提交”,完成CCE接入。 采集配置 在使用CCE接入完成日志接入时,在采集配置页面的具体配置如下: 1. 基本配置:自定义采集配置名称,长度范围为1到64个字符,只支持输入英文、数字、中文、中划线、下划线以及小数点,且不能以小数点、下划线开头或以小数点结尾。 2. 数据源配置:选择数据源类型,进行对应的数据源配置。 容器标准输出:采集集群内指定容器日志,仅支持Stderr和Stdout的日志。 说明 被匹配上的容器的标准输出会采集到指定的日志流,原先采集到的AOM的标准输出会停止采集。 容器标准输出不能重复配置,即使跨日志组和日志流,也只能配置一次。 容器文件路径:采集集群内指定容器内的文件路径日志。 节点文件路径:采集集群内指定节点路径的文件。 说明 采集路径不能重复配置,即同一个主机下的同一路径,即使跨日志组和日志流,也只能配置一次。 K8S事件:采集K8S集群内的事件日志。 说明 K8S事件不能重复配置,即一个K8S集群的K8S事件,只能配置接入到一个日志流。 表 1 采集配置参数表 类型 参数配置 容器标准输出 采集容器标准输出到AOM、采集容器标准输出(stdout)和采集容器标准错误(stderr)。 采集容器标准输出到AOM:默认集群下的主机已安装了ICAgent且采集日志到AOM,采集容器标准输出到AOM的开关处于开启状态。 开启后标准输出只会采集到AOM,不会采集到LTS,建议您手动关闭该开关。 采集容器标准输出(stdout)和采集容器标准错误(stderr)两者必须得有一个是开启状态。 容器文件路径 路径配置:添加您需要收集的日志路径,LTS将按照配置的路径进行日志采集。 当CCE集群的工作负载中,已配置容器的挂载路径时,此时路径配置里添加的路径将无效。 须将CCE集群页面中的挂载路径删除后,该配置才有效。采集路径不能重复配置,即同一个主机下的同一路径,即使跨日志组和日志流,也只能配置一次。 设置采集黑名单:LTS支持对日志进行过滤采集,即通过设置黑名单,在采集时过滤指定的目录或文件。 指定按目录过滤,可过滤掉该目录下的所有文件。 节点文件路径 路径配置:添加您需要收集的日志路径,LTS将按照配置的路径进行日志采集。 采集路径不能重复配置,即同一个主机下的同一路径,即使跨日志组和日志流,也只能配置一次。 设置采集黑名单:LTS支持对日志进行过滤采集,即通过设置黑名单,在采集时过滤指定的目录或文件。 指定按目录过滤,可过滤掉该目录下的所有文件。 K8S事件 无需设置参数。仅支持icagent 5.12.130及以上版本。 3. K8s匹配规则:当数据源类型选择容器标准输出和容器文件路径时,设置K8s匹配规则,非必选项。 说明 填写正则匹配规则后,单击校验按钮,支持校验确保正则表达式的正确性。 表 2 K8s匹配规则 参数名称 参数说明 K8s Namespace正则匹配 通过Namespace名称指定采集的容器,支持正则匹配。采集名称符合正则规则的Namespace的日志,为空时采集所有Namespace的日志。 K8s Pod正则匹配 通过Pod名称指定待采集的容器,支持正则匹配。 采集名称符合正则规则的Pod的日志,为空时采集所有Pod的日志。 K8s容器名称正则匹配 通过容器名称指定待采集的容器(Kubernetes容器名称是定义在spec.containers中),支持正则匹配。采集名称符合正则规则的容器的日志,为空时采集所有容器的日志。 K8s Label白名单 通过K8s Label白名单指定待采集的容器。 如果您要设置K8s Label白名单,那么LabelKey必填,LabelValue可选填。 若LabelValue为空,则K8S Label中包含LabelKey的容器都匹配; 若LabelValue不为空,则K8S Label中包含LabelKeyLabelValue的容器才匹配; LabelKey需要全匹配,LabelValue支持正则匹配;多个白名单之间为或关系,即只要K8S Label满足任一白名单即可被匹配。 K8s Label黑名单 通过K8s Label黑名单排除不采集的容器。如果您要设置K8s Label黑名单,那么LabelKey必填,LabelValue可选填。 若LabelValue为空,则K8S Label中包含LabelKey的容器都被排除; 若LabelValue不为空,则K8S Label中包含LabelKeyLabelValue的容器才会被排除; LabelKey需要全匹配,LabelValue支持正则匹配; 多个黑名单之间为或关系,即只要K8S Label满足任一黑名单即可被排除。 K8s Label日志标签 设置K8s Label日志标签后,日志服务将在日志中新增K8s Label相关字段。设置K8s Label日志标签后,lts将在日志中新增相关字段。 例如设置LabelKey为app,设置LabelValue为appalias,当容器中包含applts时,将在日志中添加内容{appalias:lts}。 容器Label白名单 通过容器Label白名单指定待采集的容器。 如果您要设置容器Label白名单,那么LabelKey必填,LabelValue可选填。 若LabelValue为空,则容器 Label中包含LabelKey的容器都匹配; 若LabelValue不为空,则容器 Label中包含LabelKeyLabelValue的容器才匹配; LabelKey需要全匹配,LabelValue支持正则匹配; 多个白名单之间为或关系,即只要容器 Label满足任一白名单即可被匹配。 容器Label黑名单 通过容器Label黑名单排除不采集的容器。 如果您要设置容器Label黑名单,那么LabelKey必填,LabelValue可选填。 若LabelValue为空,则容器 Label中包含LabelKey的容器都被排除; 若LabelValue不为空,则容器 Label中包含LabelKeyLabelValue的容器才会被排除; LabelKey需要全匹配,LabelValue支持正则匹配; 多个黑名单之间为或关系,即只要容器Label满足任一黑名单即可被排除。 容器Label日志标签 设置容器Label日志标签后,日志服务将在日志中新增容器Label相关字段。 设置容器 Label日志标签后,lts将在日志中新增相关字段。 例如设置LabelKey为app,设置LabelValue为appalias,当容器中包含applts时,将在日志中添加的内容{appalias:lts}。 环境变量白名单 用于指定待采集的容器。 如果您要设置环境变量白名单,那么Label Key必填,Label Value可选填。 如果环境变量Value为空,则容器环境变量中包含环境变量Key的容器都匹配; 如果环境变量Value不为空,则容器环境变量中包含环境变量Key环境变量Value的容器才被匹配; LabelKey需要全匹配,LabelValue支持正则匹配; 多个白名单之间为或关系,即只要容器的环境变量满足任一键值对即可被匹配。 环境变量黑名单 用于排除不采集的容器。 如果您要设置环境变量黑名单,那么Label Key必填,Label Value可选填。 如果环境变量Value为空,则容器环境变量中包含环境变量Key的容器都将被排除; 如果环境变量Value不为空,则容器环境变量中包含环境变量Key环境变量Value的容器才会被排除; LabelKey需要全匹配,LabelValue支持正则匹配; 多个黑名单之间为或关系,即只要容器的环境变量满足任一键值对即可被排除。 环境变量日志标签 设置环境变量日志标签后,日志服务将在日志中新增环境变量相关字段。 设置环境变量日志标签后,lts将在日志中新增相关字段,例如设置环境变量Key为app,设置环境变量Value为appalias,当容器中包含环境变量applts时,将在日志中添加的内容为{appalias:lts}。 4. 其他配置。 表 3 其他配置 名称 说明 日志拆分 云日志服务支持对日志进行拆分,默认为关闭状态。 当日志大小超过500KB时,开启日志拆分按钮,则单行日志会被拆分为多行采集。 例如:日志大小为600KB,被拆分为2行日志采集,第一行500KB,第二行100KB。 当日志大小超过500KB时,未开启日志拆分按钮,则单条日志大小限制不超过500KB,超过限制部分会被截断丢弃。 采集二进制文件 云日志服务支持采集二进制文件,默认为关闭状态。 您可以通过命令(file i 文件名 )查看文件类型,如果包含charsetbinary,那么该日志文件就是二进制文件。 当日志的文件类型为二进制时,开启采集二进制文件按钮,则对接入的二进制文件日志进行采集,但仅支持UTF8编码的字符串,非UFT8编码的字符在LTS控制台页面会显示乱码。 当日志的文件类型为二进制时,未开启采集二进制文件按钮,则对接入的二进制文件日志停止采集,开启后即可进行采集。 5. 日志格式、日志时间具体说明如下: 表 4 日志采集信息 名称 说明 日志格式 单行日志:采集的日志文件中,如果您希望每一行日志在LTS界面中都显示为一条单独的日志数据,则选择单行日志。 多行日志:采集的日志中包含像java异常的日志,如果您希望多行异常的日志显示为一条日志,正常的日志则每一行都显示为一条单独的日志数据,则选择多行日志,方便您查看日志并且定位问题。 日志时间 系统时间:表示系统当前时间,默认为日志采集时间,每条日志的行首显示日志的采集时间。 日志采集时间:ICAgent采集日志,并且发送到云日志服务的时间。 日志打印时间:系统产生并打印日志的时间。 ICAgent采集日志并发送日志到云日志平台的频率为1秒钟。 采集日志时间限制:系统时间的前后24小时内。 时间通配符 用日志打印时间来标识一条日志数据,通过时间通配符来匹配日志,每条日志的行首显示日志的打印时间。 如果日志中的时间格式为:20190101 23:59:59.011,时间通配符应该填写为:YYYYMMDD hh:mm:ss.SSS。 如果日志中的时间格式为:1911 23:59:59.011,时间通配符应该填写为:YYMD hh:mm:ss.SSS。 如果日志中不存在年份信息,则云日志会自动补齐年份数据为当前年份数据。 填写示例: YY year (19) YYYY year (2019) M month (1) MM month (01) D day (1) DD day (01) hh hours (23) mm minutes (59) ss seconds (59) SSS millisecond(999) hpm hours (03PM) h:mmpm hours:minutes (03:04PM) h:mm:sspm hours:minutes:seconds (03:04:05PM) hh:mm:ss ZZZZ (16:05:06 +0100) hh:mm:ss ZZZ (16:05:06 CET) hh:mm:ss ZZ (16:05:06 +01:00) 分行模式 日志格式选择多行日志时,需要选择分行模式,分行模式选择“日志时间”时,是以时间通配符来划分多行日志; 当选择“正则模式”时,则以正则表达式划分多行日志。 正则表达式 此配置是用来标识一条日志数据的正则表达式。 日志格式选择“多行日志”格式后且“分行模式”已选择“正则模式”后需要设置。 说明 时间通配和正则表达式均是从每行日志的开头进行严格匹配,如果匹配不上,则会默认使用系统时间上报,这样可能会和文件内容中的时间不一致。如果没有特殊需求,建议使用单行日志系统时间模式即可。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志接入
        云服务接入
        CCE接入
      • 1
      • ...
      • 159
      • 160
      • 161
      • 162
      • 163
      • ...
      • 175
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      模型推理服务

      推荐文档

      续订

      重置密码

      分布式消息服务的功能

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号