云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      共享流量包_相关内容
      • 快速导入镜像文件
        操作场景 本节指导您基于Linux操作系统环境完成镜像文件快速导入,推荐使用云平台的HCE云服务器作为转换镜像格式和生成位表文件的环境。 Linux操作系统环境下,建议使用qemuimgctc工具进行镜像格式转换。 前提条件 1. 已完成镜像文件优化,详细操作请参考优化私有镜像(Windows)或优化私有镜像(Linux);同时需要确保镜像文件符合Linux 操作系统的镜像文件限制中的限制条件。 说明 请根据镜像文件的操作系统类型来选择所参考内容。 2. 已在管理控制台创建HCE操作系统的弹性云服务器,并确保云服务器已绑定弹性公网IP。 3. 已在管理控制台创建OBS桶。 操作步骤 1. 上传镜像文件至云服务器。 1. 本地主机为Linux系统: 通过scp命令将镜像文件上传至云服务器。以将“image01.qcow2”文件上传至云服务器的“/usr/”目录下为例。 scp /var/image01.qcow2 root@xxx.xxx.xx.xxx:/usr/ 其中,xxx.xxx.xx.xxx为云服务器的弹性公网IP。 2. 本地主机为Windows系统: 使用文件传输工具(例如WinSCP)将镜像文件上传至云服务器。 2. 获取镜像转换工具(qemuimgctc.rar)和位表文件生成工具(CreateMF.zip),并上传至云服务器,然后解压工具包。 3. 使用qemuimgctc工具转换镜像格式。 1. 进入qemuimgctc存放目录,以存放在“/usr/qemuimgctc”为例: cd /usr/qemuimgctc 2. 执行以下命令修改权限: chmod +x qemuimgctc 3. 执行qemuimgctc命令将镜像文件转为zvhd2或raw格式(推荐转为zvhd2格式)。 qemuimgctc命令格式: ./qemuimgctc convert p O {目标镜像格式} {待转换镜像文件} {目标镜像文件} 以将“image01.qcow2”格式文件转换成“image01.zvhd2”格式为例: ./qemuimgctc convert p O zvhd2 image01.qcow2 image01.zvhd2 若转换后为zvhd2格式文件,请执行步骤5。 若转换后为raw格式文件,请使用CreateMF.jar工具,生成raw格式镜像文件的位表文件。请执行步骤4。 4. 使用CreateMF.jar工具生成位表文件。 1. 请确保当前云服务器已安装jdk。 执行以下命令查看是否已安装jdk: source /etc/profile java version 如果回显信息中显示java版本信息,证明当前云服务器已安装jdk。 2. 执行以下命令进入CreateMF.jar程序所在的目录。 cd /usr/CreateMF 3. 执行以下命令生成位表文件。 java jar CreateMF.jar /原raw文件路径 /生成的mf文件路径 例如: java jar CreateMF.jar image01.raw image01.mf 5. 使用s3cmd工具上传文件至OBS桶。 1. 安装s3cmd工具。 若云服务器已安装该工具可跳过此步骤,直接按照步骤b配置s3cmd: 1. 执行以下命令,安装setuptools。 yum install pythonsetuptools 2. 执行以下命令,安装wget。 yum install wget 3. 执行以下命令,获取s3cmd软件包。 wget mv master.zip s3cmdmaster.zip 4. 执行以下命令,安装s3cmd。 unzip s3cmdmaster.zip cd s3cmdmaster python setup.py install 2. 配置s3cmd工具。 执行以下命令配置s3cmd工具。 s3cmd configure Access Key: 输入AK Secret Key: 输入SK Default Region: 输入所在Region S3 Endpoint: 可参考OBS的Endpoint DNSstyle bucket+hostname:port template for accessing a bucket: 输入带桶名的Server地址,例如mybucket.obs.myclouds.com Encryption password: 不填,直接按回车 Path to GPG program: 不填,直接按回车 Use HTTPS protocol: 是否使用HTTPS,Yes/No HTTP Proxy server name: 代理地址,连接云平台需要连外网(如不需要直接回车) HTTP Proxy server port: 代理端口,连接云平台需要连外网(如不需要直接回车) Test access with supplied credentials? y (如果显示:Success. Your access key and secret key worked fine :) 则表示连接成功) Save settings? y(是否保存配置) 说明 配置完成后,信息会保存在用户目录下“/root/.s3cfg”,如果还想修改,可以重新执行s3cmd configure命令,或者直接编辑.s3cfg文件(执行vi .s3cfg命令进行编辑)。 3. 使用s3cmd命令上传zvhd2格式镜像文件到OBS桶,或者上传raw格式镜像文件及其位表文件到OBS桶。 s3cmd put image01.zvhd2 s3://mybucket/ 注意 .mf位表文件必须和其对应的raw格式镜像文件在同一个OBS桶中。 6. 注册私有镜像。 您可以通过控制台方式、API接口方式,将转换后的zvhd2或raw文件注册为私有镜像。 方法一:通过控制台创建私有镜像 1. 登录IMS控制台。 1. 登录管理控制台。 2. 选择“计算 > 镜像服务”。 进入镜像服务页面。 2. 单击右上角的“创建私有镜像”。 3. 在“创建方式”区域,选择镜像的创建方式为“导入私有镜像”。 4. 在“镜像类型”区域,选择镜像类型为“系统盘镜像”或“数据盘镜像”。 5. 在“选择镜像文件”区域,从列表中选择存放转换后zvhd2或raw格式镜像文件的桶,再选择转换后的镜像文件。如果是raw格式镜像文件,需要确保同名位表文件已上传。 6. 勾选快速通道栏的“开启快速通道”,并确认已优化镜像文件,然后勾选“镜像文件准备”栏的内容。 7. 根据界面提示填写配置信息。 具体的配置参数说明,请参见通过外部镜像文件创建Linux系统盘镜像。 注意 操作系统必须要和镜像文件所含的操作系统一致。 系统盘大小必须大于镜像文件的大小。 通过qemuimgctc工具可查询镜像文件大小:qemuimgctc info test.zvhd2 方法二:通过API方式创建私有镜像 您可以通过接口POST /v2/cloudimages/quickimport/action,实现镜像文件快速导入功能。
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        创建私有镜像
        快速导入镜像文件
      • 术语表
        本页介绍天翼云TeleDB数据库术语表。 集群(Cluster): 是由多台物理服务器(如果为虚拟机也视为物理服务器)组成的一个系统,他们通过网络互联,并作为一个整体来提供一系列服务。集群是物理资源的集合。 实例(instance) :特指用户可以存取(一系列关联)数据对象的资源集合;即包括一套GTM/CN/DN的逻辑集合。实例是逻辑资源集合。 运维管理控制系统(OSSOperation and Maintenance Service): 简称管控 数据库 :称呼软件主体时是数据库; 库: 称呼create database的database为库;有时候语境原因,数据库可能替代库,请注意。 分表(Distributed): 这里借用的DRDS概念,即在将一张逻辑上的表拆分到多个物理或逻辑独立的分片(sharding)上,使得数据“物理”分散的一种方案。与之对应的是分表键(Distributed key)。 分片(sharding) :数据拆分的逻辑最小区块,与之对应的是分片键(shard key)。 注意: 基于上述定义可知,Distributed在逻辑上略等于sharding,一种是从表物理分布形式称呼,一种是从表的逻辑分布形式称呼。 分区(partition): 大表的数据分成称为分区的许多小的子集,分区是一种在单机数据库中特有的方案,不应与分表、分片的意义重合。 逻辑表,表: 一个逻辑上统一的表,就create table语法创建的表,他可以是分表,单表。 注意: 在部分分布式数据库中,还有region(区)的概率,但这个region与公有云的物理位置地区region重复,原则上我们不使用区(region)或分区这个词。如确实需要描述,应先声明其中文: 逻辑分片(region): 基于某一种分布式规则,负责维护集群的一段(逻辑上不再拆分)的连续数据区域。有一些分布式数据库是基于文件大小进行分区,有些着采用数据的属性(如字段区域、hash规则)等区域。 普通表、单表: 就create table语法创建的表,这里借用的DRDS概念,即仅在一个物理或逻辑的分片上存储的表。也就是传统单机数据库的表。 逻辑表【≥】分表【≥】分片【≥】分区。 广播表、复制表: 这里借用的DRDS概念,即在每个物理或逻辑的分片存放有相同表,并基于某种机制(通常是分布式事务)同时更新。 节点组(node group) :通常是指物理上的一组节点,在teledb中,特指基于node group语法组成的节点。 一组DN节点: 默认情况下也指是基于主从架构则为一主多从结构的DN节点,请注意术语区别节点组功能。 节点(node): 网络中,物理或逻辑上的一个实体。 逻辑节点: 是指这个实体是逻辑上独立的。通常是指CN或者DN的一个进程的集合就是一个逻辑节点。 物理节点: 是指这个实例是物理上独立的。通常是指一台独立的服务器(虚拟机)。由于当前虚拟化(含cgroup)技术,一台物理节点上可能存在多个逻辑节点。 注意: 一个节点组上可能承载一个或多个分片,但一个分片不能被多个节点组再进行拆分。 事务、普通事务、单机事务: 一个具有ACID特性的系列操作,通常一个事务有唯一的事务ID。若未特殊指明,事务通常是指单机事务或单机事务与分布式事务的统称。 分布式事务(distributed transaction): 是指在分布式数据库上执行的,需要多个物理或逻辑上不同的数据协同的具有ACID特性的操作集合。在实际情况下,分布式事务可能被拆分为多个 子事务 。 只读节点【替换原来只读平面】 ,如果是CN节点只读,就称为 只读CN节点 。 读写节点【替换原来的读写平面】 主DN、主CN(主节点) :即DN的负责读写的主节点 备DN、备CN(备节点) :即DN负责同步数据,参与高可用切换(但不参与写)的节点。在mysql中,也称为 从节点 ,这里与备与从等义。 只读实例 :是指参与数据同步但不参与高可用切换的逻辑上的节点组合(在读扩展场景较常见的概念) 灾备实例 :是指参与数据同步,但参与主备之间高可用切换,但参与在主机房灾难情况下,切换过来的的逻辑上的节点组合(在异地容灾能力常见的概念) 注意 除非某个只读节点或灾备节点与主节点共享同一套GTM,否则均称为只读实例和灾备实例称为XX实例。例如,备DN若开启只读能力,可以叫做只读节点。 利用率(Utilization rate) :是指有效利用资源(人力、物力、财力等)的百分比。它通常用于衡量资源的有效利用程度,反映在一定条件下,资源的投入与产出的比例关系。例如,办公区域的利用率、机器设备的利用率等。 使用率(Usage rate) :是指使用资源的程度或频率。它通常用于衡量在一段时间内,资源被使用的次数或时间。例如,图书馆的使用率、健身房的使用率等。 占用率(Occupancy rate) :是指占用资源的人或事物所占的比例。它通常用于衡量在一定时间内,资源被占用的程度。例如,房屋的占用率、车位的占用率等。 如上,一般说百分比的%就叫:CPU利用率、内存利用率,一般是长期占用的比例的%磁盘占用率,次/分这种单位的,就是使用率。 热备(在线备份) 在数据库运行时直接备份,即备份时对数据库操作没有任何影响的备份。 温备(在数据库运行时加全局读锁备份) 保证了备份数据的一致性,但对性能有影响。在当前技术下,热备和温备通常等意,原则上不称呼温备。 冷备(离线备份) 在数据库停止时进行备份。 全量备份(Full Backup) :也称为完全备份,指对某个指定时间点的所有数据和对应的结构进行一个完全的备份。 增量备份(Incremental Backup) :在上一次全备份或上一次增量备份后,以后每次的备份只需备份与前一次相比增加或者被修改的文件。 差异备份(Differential Backup): 与增量备份类似,差异备份是备份的是自上一次完整备份以来的所有更改数据,而不是自上一次备份以来的所有更改。(通常不使用差异备份这个词)。 日志备份: 单独对数据库日志进行的一种备份。日志备份与增量备份主要是备份文件的差异,一个是log的集合;一个是文件系统文件的集合;但有些技术实现的时候可能重复。 区域Region :是指地理的物理位置。 可用区(Availability zone,AZ) :可用区是指在某一地域内,具有独立电力和网络的物理区域。同一可用区内实例之间的网络延时更小。 数据中心(Data Center,简称DC) 是指一种拥有完善的设备(包括高速互联网接入带宽、高性能局域网络、安全可靠的机房环境等)、专业化的管理、完善的应用服务平台。 机房: 存放相关互联网设备的一个房间 机架: 存放相关互联网设备的一个架子 宿主机、母机: 因为有虚拟化概念,所以宿主机、母机特指软件安装所在的物理服务器。 国密: 指符合中国国家标准的商用密码算法;通常简写为SM。 GTM: 全局事务管理器(Global Transaction Manager)(简称GTM),负责管理集群事务信息,同时管理集群的全局对象,比如序列等。 Coordinator :协调节点(简称CN),对外提供接口,负责数据的分发和查询规划,多个节点位置对等,每个节点都提供相同的数据库视图;在功能上CN上只存储系统的全局元数据,并不存储实际的业务数据。 Datanode: 数据节点(简称DN),处理存储本节点相关的元数据,每个节点还存储业务数据的分片。在功能上,DN节点负责完成执行协调节点分发的执行请求。 MPP: 大规模并行处理(Massively Parallel Processing) OLAP: 联机分析处理(OnLine Analytical Processing) OLTP :联机事务处理(Online Transaction Processing) HTAP: 混合事务/ 分析处理(Hybrid Transactional/Analytical Processing 行存: 数据按照逻辑顺序相同的方式来来进行文件存储,一行中的所有列数据按照顺序存储在物理磁盘上,这种格式的好处很明显,如果同时访问一行中的多列数据时,一般只需要一次磁盘IO,比较适合OLTP类型的负载。 列存: 表中的每列数据存储为一个独立的磁盘文件,比如例子中,“姓名”,“部门”,“薪酬”,“家庭信息”每列中的数据都为一个独立的数据文件,这中格式在一次需要访问表中少数列时相比行存能够节省大量的磁盘IO,在聚合类场景下尤其高效,因此多用在OLAP类系统中。 share nothing: 各个处理单元都有自己私有的CPU/内存/硬盘等,不共享资源的集群架构 Shard map: 存储在CN/DN节点中的记录数据块与shard之间映射关系的位图。 Xlog:TeleDB数据库中DN节点的WAL日志文件。 三权分立: 把传统数据库系统DBA的角色分解为三个相互独立的角色,安全管理员,审计管理员,数据管理员,这个三个角色之间相互制约,消除出系统中的超级权限,从系统角色设计上了解决了数据安全问题 列级加密: 针对指定列做单独的加密操作 文件加密: 以数据库内部标准块block为加密计算的最小单位 透明数据脱敏: 在用户无感知的情况下,对非授权用户返回被脱敏的数据。其中,无感知是指用户使用的查询操作变化,也无需增加额外的运算操作;非授权用户的解释为,以访问表为例,用户具备该表的查询权限,但需要限制对某些字段真实值的获得;脱敏是指通过某种运算法则,在真实数据返回给访问终端前,按照既定规则,将原始数据映射到另一种形式(可以支持多种变化),该映射规则对查询用户不可见,且转换后的形式不能做逆向操作(即转换为原始数据) 数据倾斜: 分布式系统中,数据集中存储在某些DN节点组中,而另外一些DN节点组数据较少,导致性能、容量在分布式系统中分布不均衡。 冷热分离: 对热数据和冷数据采用不同的存储设备,就可以大大降低业务的使用成本。 在线扩容: 通过先搬迁存量数据,再搬迁增量数据最后选择合适的时机切换路由的方式来扩容实例,将实例扩容对业务的影响降低在毫秒级。 灾难disaster、故障: 由于人为或自然的原因,造成信息系统严重故障、瘫痪或其数据严重受损,使信息系统支持的业务功能停顿或服务水平达到不可接受的程度,并持续特定时间的突发性事件。 灾难恢复disaster recovery、故障恢复: 为了将信息系统从灾难造成的不可运行状态或不可接受状态恢复到可正常运行状态,并将其支持的业务功能从灾难造成的不正常状态恢复到可接受的状态而设计的活动和流程。 灾难恢复能力disaster recovery capability、故障恢复能力 :在灾难发生后利用灾难恢复资源和灾难恢复预案及时恢复和继续运作的能力。 灾难恢复预案disaster recovery plan: 定义信息系统灾难恢复过程中所需的任务、行动、数据和资源的文件。用于指导相关人员在预定的灾难恢复目标内恢复信息系统支撑的关键业务功能。 风险分析risk analysis: 确定影响信息系统正常运行的风险,评估对单位业务运营至关重要的功能,定义降低潜在危险控制手段的流程。 注:风险分析经常涉及对特殊事件发生可能性的评估。 业务影响分析business impact analysis: 分析业务功能及其相关信息系统资源,评估特定灾难对各业务功能的影响,确定信息系统可接受的RTO和RPO目标。 业务连续性business continuity: 在中断事件发生后,组织在预先确定的可接受的水平上连续交付产品或提供服务的能力。 恢复时间目标recovery time objective;RTO: 灾难发生后,信息系统从停顿到必须恢复的时间要求。 恢复点目标recovery point objective;RPO: 灾难发生后,数据必须恢复到的时间点要求。 系统可用性system availability: 在要求的外部资源得到保证的前提下,分布式事务数据库在规定的条件下和规定的时刻或时间区间内(不包括计划内服务中断时间)处于可执行规定功能状态的能力。 注:一般按允许计划外年服务中断时间、可用程度至少达到“n个九”来衡量。 生产系统production system: 正常情况下支持单位生产运行的信息系统。包括主数据、主数据处理系统和主网络。 生产中心production center: 生产系统所在的数据中心。 同城数据中心data center in the same city: 能够抵御因供电供水中断、水淹、火灾、网络故障、硬件损毁、交通中断等灾难同时影响的数据中心。 注意 一般情况下与生产中心距离为数十公里以内。 异地数据中心data center in the different city: 能够抵御因战争、洪水、海啸、台风、地震等大范围区域性灾害同时影响的数据中心。 说明 一般情况下与生产中心距离为数百公里以上。 演练exercise : 基于灾难恢复预案进行的演习。 注意 形式包括桌面演练、模拟演练、实战演练等。 租户(Tenant) :在云计算中,租户是一个逻辑概念,表示使用系统或计算资源的用户。在公有云平台上注册账户之后,每个人或企业就成为一个租户,云平台会以租户为基本单位来为其分配资源。比如在系统中创建的账户与统计信息,以及在系统中设置的各式数据和用户所设置的客户化应用程序环境等,都属于租户的范围。 用户(User) :用户是指需要使用云计算服务的个人或组织。是客观存在的主体。 客户(Customer) :客户是购买云服务的个人或组织,比如公司的雇员或者个人。 账号(Account) :这可以是在云平台上注册的账户,例如在天翼云、华为云等平台上注册的账户。请注意,本文不区分“账号”与“帐号”,二者等义不做特殊区分。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        术语表
      • 购买实例
        本文主要介绍购买实例。 操作场景 Kafka实例采用物理隔离的方式部署,租户独占Kafka实例。支持用户自定义规格和自定义特性,您可以根据业务需要定制相应计算能力和存储空间的Kafka实例。 购买前须知 Kafka实例运行于虚拟私有云,购买实例前,需保证有可用的虚拟私有云,并且已配置好安全组与子网。 (可选)如果需要通过公网访问Kafka实例,请提前准备弹性IP地址。 操作步骤 步骤 1 登录管理控制台。 步骤 2 在管理控制台右上角单击,选择区域。 说明 此处请选择与您的应用服务相同的区域。 步骤 3 在管理控制台左上角单击,选择“企业中间件”“分布式消息服务”“Kafka专享版”,进入分布式消息服务Kafka专享版页面。 步骤 4 单击页面右上方的“购买Kafka实例”。 每个项目默认最多可以创建100个Kafka实例,如果您想创建更多实例,请联系客服申请增加配额。 步骤 5 选择“计费模式”、“区域”、“项目”和“可用区”。 步骤 6 设置“实例名称”和“企业项目”。 步骤 7 设置实例信息。 1. 版本:Kafka的版本号,支持1.1.0、2.3.0、2.7和3.x,根据实际情况选择,推荐使用3.x。 Kafka实例创建后,版本号不支持修改 。 2. 鲲鹏规格:“创建鲲鹏架构实例”选框,默认不勾选是X86架构的实例,勾选之后是ARM架构的鲲鹏实例。 3. 在“代理规格”中,请根据业务需求选择相应的代理规格。在“代理数量”中,选择代理个数。 单个代理最大分区数代理个数实例分区数上限。当所有Topic的总分区数大于实例分区数上限时,创建Topic失败。 4. 在“存储空间”区域,您根据实际需要选择存储Kafka数据的磁盘类型和总磁盘大小。 Kafka实例创建后,磁盘类型不支持修改 。 存储空间包含所有副本存储空间总和,建议根据业务消息体积以及副本数量选择存储空间大小。假设业务存储数据保留天数内磁盘大小为100GB,则磁盘容量最少为100GB副本数 + 预留磁盘大小100GB。 创建实例时会进行磁盘格式化,磁盘格式化会导致实际可用磁盘为总磁盘的93%~95%。 5. 在“容量阈值策略”区域,设置磁盘使用达到容量阈值后的消息处理策略,容量阈值为95%。 自动删除:可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据存在丢失的风险。 生产受限:无法继续生产消息,但可以继续消费消息。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 图 创建Kafka实例 步骤 8 设置实例网络环境信息。 在“虚拟私有云”下拉列表,选择已经创建好的虚拟私有云和子网。 虚拟私有云可以为您的Kafka实例构建隔离的、能自主配置和管理的虚拟网络环境。 说明 虚拟私有云和子网在Kafka实例创建完成后,不支持修改。 子网开启IPv6后,Kafka实例支持IPv6功能。 IPv6:子网开启IPv6后,支持设置此参数。开启IPv6后,客户端可以使用IPv6地址连接实例。 说明 开启IPv6的实例不支持动态开启和关闭SASLSSL功能。 实例创建成功后,不支持修改IPv6开关。 在“安全组”下拉列表,可以选择已经创建好的安全组。 安全组是一组对Kafka实例的访问规则的集合。您可以单击右侧的“管理安全组”,跳转到网络控制台的“安全组”页面,查看或创建安全组。 步骤 9 设置登录Kafka Manager的用户名和密码。创建实例后,Kafka Manager用户名无法修改。 Kafka Manager是开源的Kafka集群管理工具,实例创建成功后,实例详情页面会展示Kafka Manager登录地址,您可登录Kafka Manager页面,查看Kafka集群的监控、代理等信息。 步骤 10 设置实例购买时长。 当选择了“包年/包月”付费模式时,页面才显示“购买时长”参数,您需要根据业务需要选择。 步骤 11 单击“更多配置”,设置更多相关信息。 1. 设置“公网访问”。 “公网访问”默认为关闭状态,您可以选择是否开启。 开启公网访问后,还需要为每个代理设置对应的IPv4弹性IP地址。 说明 如果开启了IPv6功能,支持设置此参数。 2. 设置“Kafka SASLSSL”。 客户端连接Kafka实例时,是否开启SSL认证。开启Kafka SASLSSL,则数据加密传输,安全性更高。 “Kafka SASLSSL”默认为关闭状态,您可以选择是否开启。 Kafka实例创建后,Kafka SASLSSL开关不支持修改 ,请慎重选择。如果创建后需要修改,需要重新创建实例。 开启Kafka SASLSSL后,您可以选择是否开启“SASL PLAIN 机制”。未开启“SASL PLAIN 机制”时,使用SCRAMSHA512机制传输数据,开启“SASL PLAIN 机制”后,同时支持SCRAMSHA512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。Kafka实例创建后,SASL PLAIN机制开关不支持修改。 什么是SCRAMSHA512机制和PLAIN机制? SCRAMSHA512机制:采用哈希算法对用户名与密码生成凭证,进行身份校验的安全认证机制,比PLAIN机制安全性更高。 PLAIN机制:一种简单的用户名密码校验机制。 开启Kafka SASLSSL后,您需要设置连接Kafka实例的用户名和密码。 3. 设置“Kafka自动创建Topic”。 “Kafka自动创建Topic”默认为关闭状态,您可以选择是否开启。 开启“Kafka自动创建Topic”表示生产或消费一个未创建的Topic时,系统会自动创建此Topic,此Topic的默认参数值如下:分区数为3,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 如果在“配置参数”中修改“log.retention.hours”、“default.replication.factor”或“num.partitions”的参数值,此后自动创建的Topic参数值为修改后的参数值。例如:“num.partitions”修改为“5”,自动创建的Topic参数值如下:分区数为5,副本数为3,老化时间为72小时,不开启同步复制和同步落盘。 4. 设置“标签”。 标签用于标识云资源,当您拥有相同类型的许多云资源时,可以使用标签按各种维度(例如用途、所有者或环境)对云资源进行分类。 如果您已经预定义了标签,在“标签键”和“标签值”中选择已经定义的标签键值对。另外,您可以单击“查看预定义标签”,跳转到标签管理服务页面,查看已经预定义的标签,或者创建新的标签。 您也可以直接在“标签键”和“标签值”中设置标签。 当前每个Kafka实例最多支持设置20个不同标签,标签的命名规格,请参考管理实例标签章节。 5. 设置实例的描述信息。 步骤 12 填写完上述信息后,单击“立即购买”,进入规格确认页面。 步骤 13 确认实例信息无误后,单击“提交”。 步骤 14 在实例列表页面,查看Kafka实例是否创建成功。 创建实例大约需要3到15分钟,此时实例的“状态”为“创建中”。 当实例的“状态”变为“运行中”时,说明实例创建成功。 如果创建实例失败,在信息栏的“创建失败任务”中查看创建失败的实例。请参考删除实例,删除创建失败的实例,然后重新创建。如果重新创建仍然失败,请联系客服。 说明 创建失败的实例,不会占用其他资源。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        购买实例
      • 基本概念
        本文介绍边缘安全加速平台名词术语。 CNAME 记录 CNAME ( Canonical Name ),即别名,用于把一个域名解析到另一个域名,当 DNS 系统在查询 CNAME 左面的名称的时候,都会转向 CNAME 右面的名称再进行查询,一直追踪到最后的 PTR 或 A 名称,成功查询后才会做出回应,否则失败。例如,您有一台服务器,使用 ctyun.cn 访问,您又希望通过 ctyun.cn1 也能访问该服务器,那么就需要在您的 DNS 解析服务商添加一条 CNAME 记录,将 ctyun.cn 指向 ctyun.cn1,添加该条 CNAME 记录后,所有访问 ctyun.cn 的请求都会被转到 ctyun.cn1,获得相同的内容。 DNS DNS 即Domain Name System,是域名解析服务的意思。它在互联网的作用是:把域名转换成为网络可以识别的 IP 地址。人们习惯记忆域名,但机器间互相只认 IP 地址,域名与 IP 地址之间是一一对应的,它们之间的转换工作称为域名解析,域名解析需要由专门的域名解析服务器来完成,整个过程是自动进行的。比如:上网时输入的 www.ctyun.cn 会自动转换成为220.181.112.143。 常见的DNS解析服务商有:阿里云解析,万网解析,DNSPod,新网解析,Route53(AWS),Dyn,Cloudflare等。 边缘安全节点 边缘安全节点是相对于网络的复杂结构而提出的一个概念,指距离最终用户接入具有较少的中间环节的网络节点,对最终接入用户有较好的响应能力和连接速度。其作用是将访问量较大的网页内容和对象保存在服务器前端的专用 Cache 设备上,以此来提高网站访问的速度和质量。 回源 HOST 回源 host 决定回源请求访问到源站上的具体某个站点。 例1:源站是域名源站为 www.ctyun.cn,回源 host 为 www.ctyun.cn1,那么实际回源是请求到 www.ctyun.cn 解析到的IP,对应的主机上的站点 www.ctyun.cn1。 例2:源站是 IP 源站为1.1.1.1,回源 host 为www.ctyun.cn1,那么实际回源的是1.1.1.1对应的主机上的站点 www.ctyun.cn1。 协议回源 协议回源指回源时使用的协议和客户端访问资源时的协议保持一致,即如果客户端使用 HTTPS 方式请求资源,当 CDN 节点上未缓存该资源时,节点会使用相同的 HTTPS 方式回源获取资源;同理如果客户端使用 HTTP 协议的请求,CDN 节点回源时也使用 HTTP 协议。 过滤参数 过滤参数是指当URL请求中带“?”并携带参数请求到 CDN 节点的时候,CDN 节点在收到该请求后可根据配置决定是否将该带参数的 URL 请求回源站。当开启过滤参数时,该请求到 CDN 节点后会截取到没有参数的 URL 向源站请求。并且 CDN 节点仅保留一份副本。如果关闭该功能,则每个不同的 URL 都缓存不同的副本在 CDN 的节点上。 Web 安全 相关 Web 应用层面的安全问题与事件,包括各种 Web 组件、协议、应用等。 正则防护 经验规则集,自动为网站防御 SQL 注入、XSS 跨站、Webshell 上传、命令注入、后门隔离、非法文件请求、路径穿越、常见应用漏洞攻击等通用的 Web 攻击。 网站白名单 通过设置网站白名单,可以让满足条件的请求不经过任何 Web 应用防火墙防护模块的检测,直接访问源站服务器。 IP 黑名单 支持一键阻断来自指定 IP 地址、IP 地址段以及指定地理区域的 IP 地址的访问请求。 0Day 漏洞 0Day 是指在系统商在知晓并发布相关补丁前就被掌握或者公开的漏洞信息。 CC 安全防护 根据访问者的 URL,频率、行为等访问特征,智能识别 CC 攻击,迅速识别 CC 攻击并进行拦截,在大规模 CC 攻击时可以避免源站资源耗尽,保证企业网站的正常访问。 防敏感信息泄露 帮助网站过滤服务器返回内容(异常页面或关键字)中的敏感信息(例如身份证号、银行卡号、电话号码和敏感词汇),脱敏展示敏感信息或返回默认异常响应页面。 网络爬虫 又称为网页蜘蛛,网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。 挖矿 借助大量计算能力来计算产生虚拟货币。 多源评估 通过对多种输入信息源数据动态地进行综合分析与评估的能力。 访问主体 能访问客体的主动实体。 访问客体 能与主体建立访问连接的被动实体。 SSL 证书 SSL 证书(Secure Sockets Layer)指一种安全协议,目的是为互联网通信提供安全及数据完整性保障。SSL 证书遵循 SSL 协议,可安装在服务器上,实现数据传输加密。 云工作负载 指云环境中从应用程序层到管理程序或处理的自包含组件(如堆栈中的虚拟机和容器)的整个应用程序堆栈。 访问控制 确保对资产的访问是基于业务和安全要求进行授权和限制的手段。 零信任 一组围绕资源访问控制的安全策略、技术与过程的统称。从对访问主体的不信任开始,通过持续的身份鉴别和监测评估、最小权限原则等,动态调整访问策略和权限,实施精细化的访问控制和安全防护。 策略引擎 负责最终决定是否授予指定访问主体对资源(访问客体)的访问权限。策略引擎使用企业安全策略以及来自外部源的输入作为“信任算法”的输入,以决定授予或拒绝对该资源的访问。 连接器 放置在业务前端的引流设备,用于打通内外网业务,确保终端用户可以安全访问业务数据。 动态授权 基于零信任对访问主体永不信任的原则,根据用户所处的环境动态调整用户拥有的访问权限。 SDP 即软件定义边界,旨在对于网络安全防护中不信任任何设备、人物、身份、系统等相关,每一个步骤都要有所验证,有所根据,让所有安全防护的相关都变为可信安全。 TCP 协议 TCP 协议指传输控制协议(Transmission Control Protocol),是一种面向连接的、可靠的、基于字节流的传输层通信协议,由 IETF 的 RFC 793 定义。TCP 工作在网络 OSI 的七层模型中的第四层(传输层),连接到不同但互连的计算机通信网络的主计算机中的成对 进程之间依靠 TCP 提供可靠的通信服务。 UDP 协议 Internet 协议集支持一个无连接的传输协议,该协议称为用户数据包协议(UDP,User Datagram Protocol)。UDP 为应用程序提供了一种无需建立连接就可以发送封装的 IP 数据包的方法。RFC 768 描述了 UDP。 Internet 的传输层有两个主要协议,互为补充。无连接的是 UDP,它除了给应用程序发送 数据包功能并允许它们在所需的层次上架构自己的协议之外,几乎没有做什么特别的事情。 面向连接的是 TCP,该协议几乎做了所有的事情。 无服务器 Serverless 无服务器是一种云原生开发模型,可使开发人员专注构建和运行应用,而无需管理服务器。无服务器方案中仍然有服务器,但它们已从应用开发中抽离了出来。云提供商负责置备、维护和扩展服务器基础架构等例行工作。开发人员可以简单地将代码打包到容器中进行部署。部署之后,无服务器应用即可响应需求,并根据需要自动扩容。公共云提供商的无服务器产品通常通过一种事件驱动执行模型来按需计量。因此,当无服务器功能闲置时,不会产生费用。 函数即服务 FaaS 函数即服务(FaaS:Function as a service)是一种事件驱动计算执行模型;开发人员编写代码逻辑,部署到完全由平台管理的函数运行时中,然后按需执行。与 BaaS 不同,FaaS 可让开发人员拥有更大的掌控权力,他们可以创建自定义应用,而不依赖于包含预编写服务的库。 代码则部署到边缘安全加速平台管理的容器运行时中。具体而言,这些函数运行时具有以下特点: 无状态 让数据集成变得更加简单。 运行周期短 可以只运行非常短的时间。 事件触发 可在需要时自动运行。 这样,您只用为所需的计算能力付费,而不必管"闲置"的应用和服务器。 使用 FaaS 时,开发人员可以通过触发器调用无服务器应用。 触发器 用户绑定触发器和对应函数,来实现多种调用效果。目前支持定时触发器以及HTTP触发器。 HTTP 路由 用户绑定 HTTP 触发器和对应函数后,访问安全与加速服务中托管域名的特定路由,即可在边缘节点调用起对应函数计算逻辑。 KV 存储 OmniKV 边缘存储提供了 KeyValue 型边缘存储服务,使开发人员能够构建低时延、频繁读取、不频繁写入的数据驱动的边缘无服务器应用程序。借助 OmniKV,无服务器应用程序可以将数据存放在靠近用户的位置,避免从云端或本地解决方案中检索信息的需要,从而实现快速响应。用户快速可以构建高度动态的 API 和网站服务,部署轻量型的 API 网关、BaaS 服务。 运行时 用于在边缘节点运行用户自定义函数的安全隔离环境。函数运行时所支持的编程语言,目前支持 JavaScript。 开发者工具 开发人员使用命令行工具,在本地完成函数编写,构建,灰度上线。
        来自:
        帮助文档
        边缘安全加速平台
        产品介绍
        基本概念
      • 安装初始化
        了解存储资源盘活系统的安装和初始化步骤。 准备工作 请先完成以下准备工作:在服务器上准备一个或多个目录,用来存储HBlock数据。如:/mnt/storage01。对于集群版,每台服务器准备的目录可以不同。 解压缩 将安装包放到服务器欲安装HBlock的目录下并解压缩,进入解压缩后的文件夹(以HBlock 4.0.0为例)。 plaintext unzip CTYUNHBlockPlus4.0.0x64.zip cd CTYUNHBlockPlus4.0.0x64 安装HBlock 注意 安装HBlock和执行HBlock管理操作的应该属于同一用户。 在每台服务器上安装HBlock。 ./stor install [ { a apiport } APIPORT ] [ { w webport } WEBPORT ] APIPORT :指定API端口号,默认端口号为1443。 WEBPORT :指定WEB端口号,默认端口号为2443。 说明 您可以根据业务需要设置API端口号和WEB端口号。 注意 请确保Linux用户具有所需要端口的权限。Linux系统默认小于1024的端口不对没有root权限的Linux普通用户开放。 安装完成:安装完成后,可以使用WEB、命令行或者API对HBlock进行初始化及管理操作。以下说明以WEB初始化为例。 初始化 1. 使用WEB浏览器访问:https:// SERVERIP :PORT 参数 描述 SERVERIP 安装HBlock的服务器IP。确保该服务器能够被您访问到,只有WEB客户端和被访问服务器在同一局域网内,SERVERIP才能使用服务器的内网IP。 PORT 安装时配置的WEB端口号,如果未配置,默认为2443。 2. 选择HBlock的部署方式:单机版、集群版 单机版 :单机版只需要一台服务器即可完成HBlock的部署。 集群版 :集群版需要至少三台服务器,才能完成HBlock的部署。如您选择集群版部署,请确认集群内的服务器都已完成了HBlock的安装,并且可以相互访问。 3. 填写初始化信息 以集群版为例,填写相关信息:设置基本信息、设置集群拓扑(仅集群版)、添加服务器、设置故障域(仅集群版)、设置网络、设置端口,点击“开始初始化”按钮,进行HBlock初始化。 对于集群版,拓扑方式可以选择“拓扑文件”或者“服务器”,二选一。
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        基本操作
        安装初始化
      • 转换镜像格式
        本节介绍了转换镜像格式的相关内容。 操作场景 云平台支持导入vhd、vmdk、qcow2、raw、vhdx、qcow、vdi、qed、zvhd或zvhd2格式镜像文件。其他镜像文件,需要转换格式后再导入。本节操作指导您使用开源qemuimg工具转换镜像格式。 背景信息 qemuimg镜像格式转换工具支持vhd、vmdk、qcow2、raw、vhdx、qcow、vdi或qed社区格式的镜像的相互转换。 zvhd和zvhd2两种格式,qemuimg工具无法识别这两种格式的镜像文件。 vhd格式镜像在执行命令转换格式时请使用vpc代替,否则可能造成qemuimg工具无法识别镜像格式。 例如,将CentOS 6.9镜像的vhd格式转换为qcow2格式,请执行如下命令: qemuimg convert p f vpc O qcow2 centos6.9.vhd centos6.9.qcow2 本地为Windows操作系统 1. 安装qemuimg。 a. 下载qemuimg安装包至本地: b. 双击setup文件安装qemuimg,以下操作以安装路径为“D:Program Filesqemu”为例。 2. 配置环境变量。 a. 选择“开始 > 计算机”,右键单击“属性”。 b. 单击“高级系统设置”。 c. 在“系统属性”对话框里,单击“高级 > 环境变量"。 d. 在环境变量对话框里,在系统变量部分找到Path,并单击“编辑”。在“变量值”里,添加“D:Program Filesqemu”,不同的变量值之间以“;”分隔。 说明: 如果没有Path变量请新建,并补充Path的变量值为“D:Program Filesqemu”。 e. 单击“确定”,保存修改。 3. 验证安装成功。 单击“开始 > 运行”,输入“cmd”后按回车键,在“cmd”窗口输入qemuimg help,如回显信息中出现qemuimg工具的版本信息,即表示安装成功。 4. 转换镜像格式。 a. 在“cmd”窗口输入如下命令切换文件目录,以安装目录为“D:Program Filesqemu”为例。 d: cd D:Program Filesqemu b. 执行如下命令转换镜像文件格式,以转换vmdk格式为qcow2格式的镜像为例。 qemuimg convert p f vmdk O qcow2 centos6.9.vmdk centos6.9.qcow2 上述命令中各参数对应的说明如下: p:表示镜像转换的进度。 f后面为源镜像格式。 O(必须是大写)后面的参数由如下3个部分组成:转换出来的镜像格式 + 源镜像文件名称 + 目标文件名称。 转换完成后,目标文件会出现在源镜像文件所在的目录下。 回显信息如下所示:
        来自:
        帮助文档
        镜像服务 IMS
        用户指南
        管理私有镜像
        转换镜像格式
      • 在源端安装迁移agent
        sectiona0f6abd5a96eccf2)。 5. 一致性校验完成后,执行命令 tar zxvf SMSAgent.tar.gz,解压Agent软件包。 6. 执行命令 cd SMSAgent,进入源端服务器的SMSAgent目录。 7. 若使用HTTPS代理服务器,请执行步骤8。若不使用HTTPS代理服务器,请执行步骤9。代服务器为一种特殊网络服务,当您的源端无法通过公网访问天翼云时,可以通过代理服务器访问天翼云,代理服务器需用户自行配置。代理仅用于专线/VPN场景下源端到服务端的注册,不用于数据迁移过程。 8. 配置HTTPS代理服务器(可选)。执行命令 cd SMSAgent/agent/config,进入 config目录。执行如下命令,打开并编辑 auth.cfg文件。若迁移过程中不使用HTTPS代理,禁止修改 auth.cfg文件。执行 :wq!命令,保存 auth.cfg文件并退出。 vi auth.cfg 示例:(以下仅为示例说明,具体代理服务器信息,请根据实际情况填写。) [proxyconfig] enable true proxyaddr proxyport 3128 proxyuser root usepassword true 说明 enable:使用代理时,设置为true。 proxyaddr:代理服务器地址,允许源端服务器通过代理服务器访问主机迁移服务,非目的端地址。yourproxyaddr.com需要更换为您代理服务器的地址,协议需要根据代理服务器的实际情况配置,建议您将代理服务器协议配置为https。 proxyuser:代理有用户名的话,就填写用户名,如root;没有则不填。 usepassword:代理有密码的话设置为true,否则false。 9. 执行命令 ./startup.sh,启动迁移Agent。 10. 请您仔细阅读显示的内容并输入“y”,按“Enter”。 11. 根据提示,输入目的端服务器所在天翼云帐号的AK、SK,以及目的端服务器所在区域的SMS域名。SMS域名可在SMS控制台的“迁移Agent”页面获取。如果您的账号已经开通企业项目,输入AK/SK后,Agent会查询有主机迁移权限的企业项目并罗列,供您选择。选择具体的企业项目后,主机迁移服务会将主机迁移到您指定的企业项目中。实现迁移时权限、资源和财务的隔离。当出现如下界面时,表示Linux版的SMSAgent启动成功,开始给主机迁移服务上传源端服务器信息。您可以前往SMS控制台的迁移服务器列表页面查看上报的源端服务器。
        来自:
        帮助文档
        主机迁移服务SMS
        快速入门
        在源端安装迁移agent
      • 创建Kafka_SSL类型跨源认证
        本章节主要介绍如何创建KafkaSSL类型跨源认证。 操作场景 通过在DLI控制台创建的KafkaSSL类型的跨源认证,将Kafka的认证信息存储到DLI,无需在SQL作业中配置帐号密码,安全访问Kafka实例。 说明 MRS Kafka开启Kerberos认证,未开启SSL认证时,创建Kerberos类型的认证。建表时通过krbauthname关联跨源认证。 MRS Kafka开启Kerberos认证,同时开启了SSL认证时,需要同时创建Kerberos和KafkaSSL类型的认证。建表时分别通过krbauthname和sslauthname关联跨源认证。 MRS Kafka未开启Kerberos认证,仅开启了SASL认证时(例如使用帐号密码认证PlainLoginModule场景),无需使用跨源认证。 MRS Kafka未开启Kerberos认证,仅开启了SSL认证时,创建KafkaSSL类型的认证。建表时通过sslauthname关联跨源认证。 MRS Kafka未开启Kerberos认证,开启了SASL认证和SSL认证时,创建KafkaSSL类型的认证。建表时通过sslauthname关联跨源认证。 操作步骤 1. 下载认证凭证。 DMS Kafka a.登录DMS Kafka控制台,单击实例名称进入详情页面。 b.在连接信息中,找到SSL证书,单击“下载”。 解压下载的kafkacerts压缩包,获取client.jks和phyca.crt文件。 MRS Kafka a.登录MRS Manager界面。 b.选择“系统 > 权限 > 用户”。 c.单击“更多 > 下载认证凭据”,保存后解压得到Truststore文件。 2. 上传认证凭证到OBS桶。 3. 创建跨源认证。 a.登录DLI管理控制台。 b.选择“跨源管理 > 跨源认证”。 c.单击“创建”。 填写Kafka认证信息,详细参数说明请参考下表。 参数说明 参数 参数说明 类型 选择KafkaSSL。 认证信息名称 所创建的跨源认证信息名称。 名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。 输入长度不能超过128个字符。 Truststore路径 上传SSL Truststore文件的OBS路径。 MRS Kafka请填写Truststore.jks文件的OBS路径。 DMS Kafka请填写client.jks文件的OBS路径。 Truststore密码 truststore密码。 Keystore路径 上传SSL KEYSTORE(密钥和证书)文件的OBS路径。 Keystore密码 keystore(密钥和证书)密码。 Key密码 keystore中的私钥密码。 4. 访问开启SASLSSL认证的Kafka。 跨源认证创建成功后,在创建访问数据源时只需关联跨源认证即可安全访问数据源。
        来自:
        帮助文档
        数据湖探索
        用户指南
        跨源认证
        创建Kafka_SSL类型跨源认证
      • 安全组概述
        本节介绍了安全组、安全组规则、安全组的限制。 安全组 安全组是一个逻辑上的分组,为具有相同安全保护需求并相互信任的云主机提供访问策略。安全组创建后,用户可以在安全组中定义各种访问规则,当云主机加入该安全组后,即受到这些访问规则的保护。 您也可以根据需要创建自定义的安全组,或使用默认安全组,系统会为每个用户默认创建一个默认安全组,默认安全组的规则是在出方向上的数据报文全部放行,入方向访问受限,安全组内的云主机无需添加规则即可互相访问。默认安全组您可以直接使用,详情请参见默认安全组和规则。 说明 安全组需在网络互通的情况下生效。若实例属于不同VPC,但同属于一个安全组,则此安全组不生效,您可以使用对等连接等产品建立VPC连接互通。 安全组规则 安全组创建后,您可以在安全组中设置出方向、入方向规则,这些规则会对安全组内部的云主机出入方向网络流量进行访问控制,当云主机加入该安全组后,即受到这些访问规则的保护。 每个安全组都自带默认安全组规则,详情请参见默认安全组和规则。您也可以自定义添加安全组规则,请参见默认安全组和规则。 安全组的限制 默认情况下,一个用户可以创建100个安全组。 默认情况下,一个安全组最多只允许拥有50条安全组规则。 默认情况下,一个云主机或扩展网卡建议选择安全组的数量不多于5个。 云主机或扩展网卡绑定多个安全组时,安全组规则先根据绑定安全组的顺序生效,再根据组内规则的优先级生效。 安全组添加实例时,一次最多可添加20个实例。 一个安全组关联的实例数量建议不超过1000个,否则可能引起安全组性能下降。 当安全组规则配置为以下情况时,不支持针对下列类型的云主机生效。 安全组规则限制 安全组规则 不支持的云主机类型 :: 策略选择“拒绝” X86计算型,具体规格请参见规格清单 1.通用计算型(S1型、C1型、C2型 ) 2.内存优化型(M1型) 3.高性能计算型(H1型) 4.GPU加速型(G1型、G2型) 源/目的地址为“IP地址组” 协议端口配置为不连续端口号 X86计算型,具体规格请参见规格清单 1.通用计算型(S1型、C1型、C2型 ) 2.内存优化型(M1型) 3.高性能计算型(H1型) 4.GPU加速型(G1型、G2型)
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        安全
        安全组
        安全组概述
      • 操作指引
        本小节介绍漏洞扫描服务流程。 网络要求 非电信客户的应用系统网络与扫描器网络可达,即可提供扫描服务(内网需提供用于部署扫描器的内网主机,内外网需保证路由可达)。 服务流程 业务受理单 客户应如实填写以下信息(必须填满): 1. 被检测的IP主机信息。 2. 被检测主机的操作系统类型及版本。 3. 业务接口人联系方式,客户需指定一个具有对漏洞扫描方案及漏洞扫描过程中出现的问题有决定权的业务接口联系人。 4. 客户提供扫描资产时需对所提交资产所有权负责,保证资产归提交人合法所有。 5. 客户需签订漏洞扫描授权书。 审核阶段 对委托单位提交的受理单信息进行核查,核查内容: 1. 判断资产所在环境是公网还是内网。 若是公网需要保证被扫描资产路由可达。 若是内网环境,需确认委托单位提供可访问到内网主机的跳板机。 2. 受理单审核通过后进入漏洞扫描实施阶段。 业务受理单无问题进入下一阶段;如有问题返回客服,由客服继续与客户沟通,直到业务受理单填满无问题。 说明 确认过程需1个工作日。 实施阶段 1.漏洞扫描实施方案 业务受理单确认无误后进入实施阶段,漏洞扫描操作人员接到客服的业务受理单后确认受理单信息:IP、版本、授权等并就扫描计划和受理单内容与客户确认。扫描任务实施前,分析客户主机情况,制定扫描方案,明确漏洞扫描任务具体实施时间、目标范围、合理的扫描方式以及最佳扫描策略,并就扫描方案与客户进行沟通确认,由于在漏洞扫描期间客户方未关闭安全防护设备所造成的漏扫结果不准确,乙方不承担责任。 注意 确认过程0.5个工作日。 2.实施漏洞扫描 扫描实施前若客户网络环境公网不能直达,需部署扫描器,也可配合客户自己部署,策略模板由我们提供,部署时间预计1个工作日。 关于扫描进度,目前扫描器扫描一个C段地址大约需要6个小时左右时间,扫描期间实时就扫描过程中发生的问题与客户沟通,最后扫描的结果将存放到扫描结果专用堡垒机上。 漏洞扫描的风险规避,由于漏洞扫描属于黑盒测试,因此可能对被测试目标造成不可预知的风险;此外对于性能比较敏感的测试目标,如一些实时性要求比较高的系统,由于扫描可能引起网络流量的增加,因此可能会引起被扫描目标的服务质量降低。因此需进行如下的风险规避措施: 扫描时段选择:一般会选择在夜间或安排在业务量不大的时段进行漏洞扫描。 扫描策略选择:根据系统的具体情况配置合理的扫描策略。 3.编写扫描报告 漏洞扫描完成后输出漏洞扫描服务报告,报告编写时间2个工作日。 4.报告审核修订 由专人对输出的漏洞扫描服务报告进行审核修订,审核修订时间1个工作日。 5.报告提交 报告提交方式采取邮件回复的方式提交:客户通过邮件向天翼云漏洞扫描平台发起报告接收申请,漏洞扫描服务报告以回复邮件方式给客户。 6.质保服务 在客户收到漏洞扫描服务报告后,乙方参与漏扫项目的专家为客户持续提供3天时间用于咨询报告中的不明事项。 7.结束服务 在完成以上各阶段工作后,漏洞扫描项目经理告知客服此次漏扫服务结束。
        来自:
        帮助文档
        漏洞扫描
        用户指南
        操作指引
      • 使用AMQProxy解决PHP等客户端Connection复用问题
        AMQProxy是一款开源AMQP代理服务,具备复用AMQP Connection的能力。可以通过该代理服务使原本只能使用短连接的客户端(例如PHP客户端)使用长连接,从而减少网络资源消耗和分布式消息服务RabbitMQ资源消耗。 前提条件 如果您要使用SSL连接AMQProxy和分布式消息服务RabbitMQ,请确保您的客户端服务器已安装OpenSSL。 背景 部分语言的客户端,例如PHP客户端,无法使用长连接,会频繁地开启或关闭Connection,消耗大量的网络资源和分布式消息服务RabbitMQ资源,从而对分布式消息服务RabbitMQ造成巨大压力。 AMQProxy AMQProxy是Cloud AMQP提供的开源AMQP代理服务。客户端可以通过该代理服务与分布式消息服务RabbitMQ保持长连接。当客户端服务器部署AMQProxy后,客户端和分布式消息服务RabbitMQ之间的请求都会先发送到AMQProxy,然后由AMQProxy转发到对方。 AMQProxy处理客户端发起的Connection相关请求的逻辑如下: 如果客户端发送开启Connection的请求,AMQProxy将根据用户名、密码、Vhost查找当前是否有合适的Connection可以复用,如果有就复用该Connection,如果没有就由AMQProxy代替客户端和分布式消息服务RabbitMQ开启Connection。 如果客户端发送关闭Connection的请求,AMQProxy会直接应答OK,但并不会关闭与分布式消息服务RabbitMQ的Connection,当该客户端下次再请求开启Connection时,AMQProxy会直接使用该Connection。 部署AMQProxy (1)下载和安装AMQProxy。 开源项目地址: releases目录下有安装包,下载后可以在本地解压 (2)启动AMQProxy ./amqproxy l LISTENADDRESS p LISTENPORT AMQPURL 参数 描述 LISTENADDRESS AMQProxy IP地址。由于是在客户端服务器部署AMQProxy,因此可以直接使用本机地址127.0.0.1。 LISTENPORT AMQProxy监听端口。客户端请求通过该端口发送到AMQProxy。该端口可以为任何可用的端口,例如5673。 AMQPURL 分布式消息服务RabbitMQ实例的URL。格式为{amqpIamqps}://{endpoint}。 amqp:AMQP协议。不使用SSL连接时使用。 amqps:AMQP/SSL协议。使用SSL连接时使用。 endpoint:分布式消息服务RabbitMQ实例的接入点。可以在分布式消息服务RabbitMQ控制台的实例详情页面查看。 示例命令如下: ./amqproxy l 127.0.0.1 p 5673 amqps://192.168.0.100:5672 返回示例如下: Proxy upstream: 192.168.0.100:5672 TLS Proxy listening on 127.0.0.1:5673 0 clients 0 upstreams 参数 描述 clients 客户端和AMQProxy的Connection数量。 upstreams AMQProxy和分布式消息服务RabbitMQ实例的Connection数量。 (3)在客户端代码中将Host和端口修改为AMQProxy IP地址和监听端口。 factory.setHost("127.0.0.1"); factory.setPort(5673);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        使用AMQProxy解决PHP等客户端Connection复用问题
      • 对象存储数据迁移至海量文件服务
        本节介绍如何实现基于迁移工具将对象存储中的数据迁移至海量文件系统。 说明 本文中的云主机仅作为数据迁移的“中转站”,而非用于业务实际使用。待数据迁移完成之后可投入业务使用,或者根据实际情况停用。 在迁移之前,请确认目标海量文件系统可用存储空间是否满足源数据所需存储空间。 迁移至NFS文件系统(Linux) 前提条件 已有至少一个对象存储Bucket。 准备工作 分别创建一个NFS海量文件系统和一台Linux弹性云主机,具体操作请参考创建海量文件系统、创建弹性云主机。 安装Python3,确保Python版本大于3.6。若Python小于3.6,则会安装失败。 下载迁移工具。 操作步骤 将对象存储中数据迁移至海量文件系统可以分为几个关键步骤: 挂载文件系统>安装迁移工具 >填写工具基础配置信息 >迁移数据 。具体操作步骤如下: 1. 将海量文件系统挂载到云主机 以root用户登录云主机,将海量文件系统挂载至Linux云主机中,具体操作请参考使用弹性云主机挂载海量文件系统。 2. 安装迁移工具 用户可根据操作系统安装文件迁移工具,具体步骤如下: 1) 查看Python版本,确保Python版本大于3.6。若Python小于3.6,则会安装失败。可以根据以下命令安装: sudo yum install y python3 2) 执行迁移工具压缩包中的install.sh文件安装文件迁移工具。在执行相关操作时建议使用root 权限,包括后续在迁移工具的使用过程中也建议使用 root 用户进行。 3. 填写配置信息 执行以下命令打开配置文件,填写迁移信息。详细参数及相关说明请参考文件上云迁移工具用户手册Linux版中3.1.1章节。完成之后保存并退出。 vi /root/.config/rclone/migrations.conf 4. 迁移数据 确认存储空间充足后,执行迁移以下命令进行数据迁移: migration 任务正常执行完成后可打印对应的任务名称以及执行所消耗的时间。 迁移成功后,查看海量文件系统中多出迁移数据: 此外,在迁移工具中提供了命令migtool 用于查询任务进度以及执行异常的异常日志信息: migtool status [taskname]
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        数据迁移
        对象存储数据迁移至海量文件服务
      • FILESET概述
        HPFS通过FILESET管理功能实现对子目录的配额管理。本文介绍 FILESET管理的功能介绍、适用场景、使用限制和整体流程。 功能介绍 FILESET(文件集)是 HPFS 文件系统中的一种特殊子目录,具备独立的存储容量与文件数量管理能力,支持精细化的配额配置。用户可以在文件系统下创建多个 FILESET 实例,每个实例均可作为独立的存储空间,供不同业务系统挂载和使用。通过动态设置或调整配额策略,用户能够合理分配存储资源,有效避免资源抢占问题,提升资源利用效率。 说明 本文档中所述“目录”均指 HPFS 文件系统内目录结构,与外部挂载点的目录地址无关。 适用场景 精细化配额管理,避免资源抢占 如果企业或团队对数据安全要求较高,或者需要确保关键业务不受资源波动影响,可通过FILESET的配额,为不同的项目、部门或应用分配明确的存储资源上限。这样既能保证各自空间的独立性,又能防止某个业务过度消耗存储资源,影响其他的正常使用,从而实现资源的合理分配。 绑定数据流动功能 当用户需要使用数据流动功能时,需要创建FILESET子目录作为数据流动HPFS文件同步的基本单元,与对象存储ZOS进行数据同步。 使用限制 单文件系统最多可创建10个FILESET。 FILESET内的文件或目录数量上限是1亿。 创建FILESET会从文件系统总资源中划分独立的存储空间和文件数配额,因此将减少非FILESET目录的可用资源。 FILESET配额的默认上限说明如下: 容量不超过文件系统总容量,最小不低于已使用容量; 文件数量最大不超过文件系统总文件数量,最小不低于已写入文件数量; FILESET不支持跨FILESET移动(mv)操作,但其内部操作与普通目录一致,mv等文件系统操作均正常支持。但如FILESET绑定数据流动后,目录内将禁用mv操作。 FILESET目录无法在客户端改名或删除,仅能通过控制台或API删除。 FILESET内文件或目录达到配额上限,写入数据时会直接报错。受统计延迟影响,持续写入时FILESET的使用量可能短暂超出配额。 由于FILESET目录本身占用情况,FILESET的容量和设置的配额有+1GB的误差,文件数量有+1000的误差。同时,FILESET的容量统计为向上取整规则。 注意 通过HPFSPOSIX客户端挂载FILESET,请确保您的客户端版本为2.15.15及以上。查询和更新客户端安装包的详细步骤请参见:操作系统限制、HPFSPOSIX客户端挂载。
        来自:
        帮助文档
        并行文件服务 HPFS
        用户指南
        FILESET管理
        FILESET概述
      • 查看集群服务配置
        本章节主要介绍翼MR Manager的集群服务配置的查看操作。 操作步骤 1. 登录翼MR管理控制台。 2. 单击“我的集群”,单击指定的集群名称,进入集群信息页面。 3. 单击“翼MR Manager”tab,单击“前往翼MR Manager”。 4. 进入到翼MR Manager以后,单击菜单“集群服务”,进入集群服务列表页面。 5. 选择指定集群服务,单击集群服务名称进入集群服务详情页面。 6. 单击“配置管理”tab,即可查看该集群服务的所有配置。如图所示: 7. 对于隐私配置项,默认将加密展示,点击文本框右侧查看按钮,输入配置主密码即可查看。如果当前集群开通后未设置过主密码,请参考用户手册的配置管理主密码设置,设置主密码后,进行查看。 说明运维变量配置 在服务的default分组下,以vars.yaml后缀结尾的配置文件,为运维变量配置文件。运维变量配置文件不是服务本身的配置文件,而是存放Manager运维操作变量的文件,每个运维变量的含义如下表。 组件 运维变量名 是否建议修改 含义说明 HDFS activenamenode 否 部署时使用,在这台机器上执行format操作。 HDFS kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HDFS ldapGuestPassword 否 部署和扩容时使用,连接ldap的guest用户密码,此权限只能查看用户,不能创建用户。 HDFS ldapuri 否 部署和扩容时使用,配置ldap的连接地址。 HDFS dfsclusterId 否 部署时使用,ns的默认值。 HDFS pipelinejobretrytimes 是 流水线重试次数。 HDFS jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 YARN 无 共享HDFS运维变量。 ZooKeeper kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 ZooKeeper kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 ZooKeeper zksuperuser 否 部署和扩容时使用,配置zk的超级用户。 ZooKeeper zksuperuserpasswd 否 部署和扩容时使用,配置超级用户的密码。 ZooKeeper componentuser 否 暂未使用。 ZooKeeper dataLogDir 否 部署时使用,需要通过ansbile创建目录。 ZooKeeper dataDir 否 部署时使用,需要通过ansbile创建目录。 Kerberos kerberosRealm 否 部署时使用,配置kerberos的realm的信息。 Kerberos kdcmaster 否 部署时使用,指定master节点,执行master节点的操作。 Kerberos kdcslave 否 部署时使用,指定slave节点,执行slave节点的操作。 Kerberos kerberosdatabasepasswd 否 部署时使用,配置kerberos的数据库密码。 Kerberos kerberosadminuser 否 部署时使用,配置kerberos的admin用户。 Kerberos kerberosadminpasswd 否 部署时使用,配置kerberos的admin用户密码。 OpenLDAP ldapmasterhostname 否 部署时使用,指定master节点,执行master节点的操作。 OpenLDAP ldapslavehostname 否 部署时使用,指定slave节点,执行slave节点的操作。 OpenLDAP olcRootDN 否 部署时使用,服务配置。 OpenLDAP olcSuffix 否 部署时使用,服务配置。 OpenLDAP ldapAdminPwd 否 部署时使用,admin用户的密码。 OpenLDAP ldapGuestPwd 否 部署时使用,guest用户的密码。 OpenLDAP ldapuri 否 部署时使用,ldap的连接信息。 OpenLDAP ldapBaseUgDN 否 部署时使用,服务配置。 OpenLDAP pipelinejobretrytimes 是 流水线重试次数。 OpenLDAP jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 HBase kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 HBase pipelinejobretrytimes 是 流水线重试次数。 HBase jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Spark kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Spark ldapmaster 否 部署时使用,ldap的master节点。 Spark eventlogdir 否 部署时使用,通过ansible创建目录。 Spark sparkhome 否 部署时使用,通过ansible创建目录。 Hive kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Hive ldapmaster 否 部署时使用,ldap的master节点。 Hive databasepass 否 部署时使用,hive使用的数据库密码,需要用户填写。 Kafka kdcmaster 否 部署和扩容时使用,kerberos的master节点,用于创建keytab文件。 Kafka kerberosrealm 否 kerberos的realm的信息。 Kafka logdirs 否 (目前不再使用,通过从配置文件中渲染来创建目录)部署和扩容时使用,通过ansible创建目录。 Kafka pipelinejobretrytimes 是 流水线重试次数。 Kafka jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Kyuubi kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Kyuubi ldapmaster 否 部署时使用,ldap的master节点。 Kyuubi kyuubilogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubieventlogdir 否 目录。部署时使用,通过ansible创建。 Kyuubi kyuubiworkdir 否 目录。部署时使用,通过ansible创建。 Kyuubi adminuser 否 目录的属主。 Kyuubi usergroup 否 目录的属组。 Kyuubi pipelinejobretrytimes 是 流水线重试次数。 Kyuubi jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Flink kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Flink ldapmaster 否 部署时使用,ldap的master节点。 Flink logDir 否 目录。部署时使用,通过ansible创建。 Flink HistoryServerDir 否 目录。部署时使用,通过ansible创建。 Flink pipelinejobretrytimes 是 流水线重试次数。 Flink jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Elasticsearch CERTNODE 否 部署时使用,指定证书节点,在节点上执行生成证书的操作。 Elasticsearch ESDATADIRS 否 目录。部署时使用,通过ansible创建。 Elasticsearch ESDEFAULTPASSWORD 否 部署时使用。默认的密码,随机密码。 Doris FEDEFAULTLEADERHOSTNAME 否 部署和扩容时使用,指定leader节点,在上面执行leader的相关操作。 Doris FEDEFAULTPASSWORD 是 部署时随机生成的Doris组件root密码。节点扩容需要使用该密码,如用户已修改,需要设置正确的值,否则会影响扩容操作。 Doris FEHTTPPORT 否 服务端口,不推荐修改。 Doris FEQUERYPORT 否 服务端口,不推荐修改。 Doris FEEDITLOGPORT 否 服务端口,不推荐修改。 Doris BESTORAGEROOTPATH 否 服务端口,不推荐修改。 Doris BEHEARTBEATSERVICEPORT 否 服务端口,不推荐修改。 Doris BROKERIPCPORT 否 服务端口,不推荐修改。 Trino datadir 否 目录。部署和扩容时使用,通过ansible创建。 Trino kerberosrealm 否 kerberos的realm的信息。 Trino kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Trino ldapmaster 否 部署时使用,ldap的master节点。 Trino coordinator 否 部署和扩容时使用,指定主节点,在上面执行主节点的相关操作。 Trino uiuser 否 ui的用户。 Trino uipassword 否 ui的密码,部署时随机生成。 Trino serveruser 否 server的用户。 Trino serverpassword 否 server的密码,部署时随机生成。 Trino pipelinejobretrytimes 是 流水线重试次数。 Trino jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Ranger dbhost 否 外置数据库信息,需要用户填写。 Ranger dbname 否 外置数据库信息,需要用户填写。 Ranger dbuser 否 外置数据库信息,需要用户填写。 Ranger dbpassword 否 外置数据库信息,需要用户填写。 Ranger dbrootuser 否 部署时使用,ranger使用的外置数据库信息。 Ranger dbrootpassword 否 部署时使用,ranger使用的外置数据库信息。 Ranger rangerpassword 否 ranger admin用户密码。 Ranger SYNCLDAPBINDPASSWORD 否 部署时使用,ranger访问ldap的密码。 Ranger SYNCSOURCE 否 用户同步方式,ldap。 Ranger kerberosrealm 否 kerberos的realm的信息。 Ranger kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Ranger SYNCLDAPURL 否 ldap相关信息。 Ranger POLICYMGRURL 否 ranger admin url信息。 Ranger separatedbamode 否 是否单独执行DBA,默认true,表示需要提前创建ranger使用的数据库和用户,并授权,不推荐修改。 Ranger pipelinejobretrytimes 是 流水线重试次数。 Ranger jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 Knox kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 Logstash pipelinejobretrytimes 是 流水线重试次数。 Logstash jobretrybasedonpipelinetypes 否 自动重试的流水线类型。 JeekeFS kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI kdcmaster 否 部署时使用,kerberos的master节点,用于创建keytab文件。 KafkaUI ldapGuestPassword 否 部署时使用,Openldap的guest用户密码。 Pushgateway PUSHGATEWAYPASSWORD 否 部署时使用,Pushgateway服务的密码。 Pushgateway PUSHGATEWYUSERNAME 否 部署时使用,Pushgateway服务的用户名。 TezUI pipelinejobretrytimes 是 流水线job最大重试次数。 TezUI jobretrybasedonpipelinetypes 否 基于的流水线类型。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        翼MR Manager操作指导
        集群服务
        查看集群服务配置
      • 通过qemu-img工具转换镜像格式
        本文主要介绍如何通过qemuimg工具转换镜像格式 应用场景 支持导入vhd、vmdk、qcow2、raw、vhdx、qcow、vdi、qed、zvhd或zvhd2格式镜像文件。其他镜像文件,需要转换格式后再导入。本节操作指导您使用开源qemuimg工具转换镜像格式。 方案构架 本节提供本地为Windows操作系统和Linux操作系统的转换镜像格式的操作方法。 资源和成本规划 资源 资源说明 成本说明 qemuimg 是一款开源的转换镜像格式的工具。获取方式: 计算机”,右键单击“属性”。 b.单击“高级系统设置”。 c.在“系统属性”对话框里,单击“高级 > 环境变量"。 d.在环境变量对话框里,在系统变量部分找到Path,并单击“编辑”。在“变量值”里,添加“D:Program Filesqemu”,不同的变量值之间以“;”分隔。 说明: 如果没有Path变量请新建,并补充Path的变量值为“D:Program Filesqemu”。 e.单击“确定”,保存修改。 3、验证安装成功。 单击“开始 > 运行”,输入“cmd”后按回车键,在“cmd”窗口输入qemuimg help,如回显信息中出现qemuimg工具的版本信息,即表示安装成功。 4、转换镜像格式。 a.在“cmd”窗口输入如下命令切换文件目录,以安装目录为“D:Program Filesqemu”为例。 d: cd D:Program Filesqemu b.执行如下命令转换镜像文件格式,以转换vmdk格式为qcow2格式的镜像为例。 qemuimg convert p f vmdk O qcow2 centos6.9.vmdk centos6.9.qcow2 上述命令中各参数对应的说明如下: p:表示镜像转换的进度。 f后面为源镜像格式。 O(必须是大写)后面的参数由如下3个部分组成:转换出来的镜像格式 + 源镜像文件名称 + 目标文件名称。 转换完成后,目标文件会出现在源镜像文件所在的目录下。 回显信息如下所示:
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        转换镜像格式
        通过qemu-img工具转换镜像格式
      • websocket概述
        本文简述websocket协议特点和应用场景。 背景介绍 HTTP 协议有一个缺陷:通信只能由客户端发起。这种单向请求的特点,注定了如果服务器有连续的状态变化,客户端要获知就只能使用"轮询"的方案。 轮询是在特定的时间间隔(如每1秒),由浏览器对服务器发出HTTP请求,然后由服务器返回最新的数据给客户端的浏览器。这种传统的模式带来很明显的缺点,即浏览器需要不断的向服务器发出请求,显而易见,轮询不仅效率特别低,且特别浪费带宽资源,因为HTTP请求可能包含较长的头部,其中真正有效的数据可能只是很小的一部分,显然这样会浪费很多带宽资源。 因此,工程师们一直在思考,有没有更好的方法。websocket 就是这样发明的。websocket 协议诞生于2008年,2011年成为国际标准,目前所有浏览器均已支持。它最大的特点全双工通信,浏览器和服务器只需要做一个握手的动作,然后浏览器和服务器之间就形成了一条快速通道,两者之间就可以直接互相传送数据了,如下右图所示。可见,websocket 协议,能更好的节省服务器资源和带宽,并且能够更实时地进行通讯。 websocket的优势: 较少的控制开销:在连接创建后,服务器和客户端之间交换数据时,用于协议控制的数据包头部相对较小。 更强的实时性:由于协议是全双工的,所以服务器可以随时主动给客户端下发数据。相对于HTTP请求需要等待客户端发起请求服务端才能响应,延迟明显更少;即使是和Comet等类似的长轮询比较,其也能在短时间内更多次地传递数据。 保持连接状态:与HTTP不同的是,Websocket需要先创建连接,这就使得其成为一种有状态的协议,之后通信时可以省略部分状态信息。而HTTP请求可能需要在每个请求都携带状态信息(如身份认证等)。 更好的二进制支持:Websocket定义了二进制帧,相对HTTP,可以更轻松地处理二进制内容。 可以支持扩展:Websocket定义了扩展,用户可以扩展协议、实现部分自定义的子协议。 更好的压缩效果:相对于HTTP压缩,Websocket在适当的扩展支持下,可以沿用之前内容的上下文,在传递类似的数据时,可以显著地提高压缩率。 与 HTTP 协议有着良好的兼容性:默认端口也是80和443,并且握手阶段采用 HTTP 协议,因此握手时不容易屏蔽,能通过各种 HTTP 代理服务器。 没有同源限制:客户端可以与任意服务器通信。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        websocket加速
        websocket概述
      • 使用Windows gsql客户端连接集群
        本章节主要介绍如何使用Windows gsql客户端连接集群。 用户在创建好数据仓库集群,开始使用集群数据库之前,需要使用数据库SQL客户端连接到数据库。DWS 提供了与集群版本配套的Windows gsql命令行客户端工具,您可以使用Windows gsql客户端通过集群的公网地址或者内网地址访问集群。 操作步骤 1. 准备一个Windwos操作系统服务器,用于安装和运行gsql客户端。Windwos操作系统支持Windows Server 2008/Windows 7及以上。 2. 下载客户端下载Windows gsql客户端,并将压缩包解压到本地文件夹中。 3. 设置环境变量,32位选择x86文件夹;64位选择x64文件夹。 方式一:命令行设置环境变量,打开电脑cmd窗口,执行set path;%path%,其中为上一步骤解压Windows gsql客户端的文件夹路径。例如: set pathC:UsersxxDesktopdws8.1.xgsqlforwindowsx64;%path% 方式二:在控制面板中选择“系统>高级系统设置>高级>环境变量”,在系统环境变量Path中增加gsql路径。例如: 详见下图:设置Windows环境变量 4. (可选)如果要使用SSL方式连接集群,请参考使用SSL进行安全的TCP/IP连接,在客户端主机配置SSL认证相关的参数。 说明 SSL连接方式的安全性高于非SSL方式,建议在客户端使用SSL连接方式。 5. 执行以下命令,使用gsql客户端连接DWS 集群中的数据库。 gsql d h U p r 参数说明如下: “数据库名称”:输入所要连接的数据库名称。首次使用客户端连接集群时,请指定为集群的默认数据库“gaussdb”。 “集群地址”:请参见 获取集群连接地址进行获取。如果通过公网地址连接,请指定为集群“公网访问域名”,如果通过内网地址连接,请指定为集群“内网访问域名”。 “数据库用户”:输入集群数据库的用户名。首次使用客户端连接集群时,请指定为创建集群时设置的默认管理员用户,例如“dbadmin”。 “数据库端口”:输入创建集群时设置的“数据库端口”。 例如,执行以下命令连接DWS 集群的默认数据库gaussdb: gsql d gaussdb h 10.168.0.74 U dbadmin p 8000 W password r 显示如下信息表示gsql工具已经连接成功: gaussdb>
        来自:
        帮助文档
        数据仓库服务
        用户指南
        连接集群
        使用gsql命令行客户端连接集群
        使用Windows gsql客户端连接集群
      • 搭建后端服务
        本文主要介绍如何搭建后端服务。 在ECS实例上部署Nginx,编辑HTML页面,使访问ECS01时返回一个标题为“Welcome to ELB test page one!”的页面,访问ECS02时返回一个标题为“Welcome to ELB test page two!”的页面。 1. 登录弹性云主机。 2. 安装nginx。 a) 使用wget命令,下载对应当前操作系统版本的Nginx安装包。此处以CentOS 7.6版本的操作系统为例。 wget b) 执行以下命令,建立Nginx的yum仓库。此处以CentOS 7.6版本的操作系统为例。 rpm ivh nginxreleasecentos70.el7.ngx.noarch.rpm c) 执行以下命令,安装Nginx。 yum y install nginx d) 执行以下命令,启动Nginx并设置开机启动。 systemctl start nginx systemctl enable nginx e) 在任意终端使用浏览器访问“ 3. 修改ECS实例ECS01的html页面。 Nginx的默认根目录是“/usr/share/nginx/html”,修改“index.html”页面,用来标识到ECS01的访问。 a) 执行以下命令打开文件“index.html”。 vim /usr/share/nginx/html/index.html b) 按i键进入编辑模式。 c) 修改打开的“index.html”文件。 修改文件内容,涉及内容修改部分如下所示: ... Welcome to ELB test page one! This page is used to test the ELB ! ELB01 ELB test (page one)! ELB test (page one)! ELB test (page one)! d) 按Esc键退出编辑模式,并输入:wq保存后退出。 4. 修改ECS实例ECS02的html页面。 Nginx的默认根目录是“/usr/share/nginx/html”,修改“index.html”页面,用来标识到ECS02的访问。 a) 执行以下命令打开文件“index.html”。 vim /usr/share/nginx/html/index.html b) 按i键进入编辑模式。 c) 修改打开的“index.html”文件。 修改文件内容,涉及内容修改部分如下所示: ... Welcome to ELB test page two! This page is used to test the ELB ! ELB02 ELB test (page two)! ELB test (page two)! ELB test (page two)! d) 按Esc键退出编辑模式,并输入:wq保存后退出。 5. 使用浏览器分别访问“ 如果页面显示修改后的html页面,说明nginx部署成功。
        来自:
        帮助文档
        弹性负载均衡 ELB
        快速入门
        搭建后端服务
      • 升级
        如何升级HBlock CSI插件。 前置条件 请在升级之前,进行如下场景检查: 检查是否进行调整PV的服务端连接位置操作,如果执行过,需要确保满足以下条件: 如果PV只会被一个Pod挂载,不受影响。 如果PV被多个Pod挂载,请确保全部的Pod都没有进行过重启,或者全部完成了重启。 检查是否在HBlock侧执行过卷的target迁移操作(此处的卷为CSI侧的PV对应的HBlock侧的实例): 如果Kubernetes版本低于1.21,请确保挂载了该PV的Pod全部完成了重启。 Kubernetes版本为1.21及以上,不受影响。 说明 如果对升级方案有任何问题,请联系我们协助处理。如果升级前没有进行检查就执行了升级操作,可能会导致iSCSI连接无法断开,如果遇到此问题,请联系我们进行处理。 iscsid守护进程位置不变的升级 下列情况使用该方案升级: 升级前的版本values.yaml中没有参数iscsiOnHost(1.5.1之前版本不能设置该参数),升级后版本values.yaml中没有iscsiOnHost或者values.yaml中参数iscsiOnHost设置为false。 升级前的版本values.yaml中iscsiOnHost为false,升级后版本values.yaml中的参数iscsiOnHost设置为false。 升级前升级后values.yaml中的参数iscsiOnHost都为true。 升级步骤 1. 更新驱动镜像:请根据逐台导入镜像的方式或docker私仓导入镜像的方式章节的步骤,导入最新安装包的驱动。 2. 在升级版本的charts/csidriverstor下修改values.yaml,使其HBlock相关配置与升级前版本的相同。 3. 在升级版本的charts/csidriverstor下执行下列命令升级: plaintext helm upgrade stor ./ 4. 升级后检查: 可以在宿主机启动样例POD,进行基础流程测试,确认功能正常。 重启Kubernetes所有的slave宿主机节点,确认各存量POD能正确启动。(如果不验证重启恢复的场景,可跳过这步。) 从低版本(小于等于1.6.0)升级到高版本(大于等于1.6.1)后,如存在业务POD,确保在没有正在新建或者删除POD的前提下,执行命令kubectl get pod A grep csistorpluginnode awk '{print $2}' xargs I {} kubectl exec {} c storpluginnode sh c'/storadmupgrade addmissingtrackfile',补齐缺失的trackfile。 注意 kubectl get pod A grep csistorpluginnode的作用是过滤出所有CSI节点的驱动POD。执行此命令前需管理员检查此处需要与驱动实际部署方案一致,如果不一样,请修改为对应CSI节点的驱动POD。 命令执行完成后,将显示添加成功与失败的 tracefile 数量。若存在添加失败的情况(如提示“Failed to add x file(s)”),管理员需及时排查原因并处理。 如果用户使用了自定义的驱动部署方案,请注意:storadm工具的执行依赖于环境变量DRIVERNAME和KUBENODENAME,因此必须在 CSI Node Server 的Pod中配置这两个环境变量,否则可能导致功能异常。 plaintext env: name: DRIVERNAME value: 驱动名 name: KUBENODENAME valueFrom: fieldRef: apiVersion: v1 fieldPath: spec.nodeName
        来自:
        帮助文档
        存储资源盘活系统
        常用工具
        Container Storage Interface插件
        HELM方式使用指南
        升级
      • 数据方案
        操作步骤 1. 在顶部菜单栏选择“数据方案”>“数据追踪与回滚”打开数据追踪与回滚任务列表页面。 说明 您可根据时间范围或数据库名称等条件筛选查询。 您可勾选目标任务并进行删除操作,将同步删除变更记录DAS存储 在任务列表“任务ID”栏下单击目标任务ID,即可查看该任务详情。 在任务列表操作栏下单击“进入任务”,即可查看任务信息、搜索日志及回滚任务列表等日志追踪与回滚详情。 创建的任务将在15天后过期,系统会自动回收并删除在DAS存储中的变更记录。 2. 在任务列表页面,单击页面左上角“新建追踪任务”,在新建任务弹窗中,设置数据追踪任务基本信息,如任务名、时间范围、数据库名等。 说明 首次进行数据回滚的用户需查看并勾选同意协议,才能创建数据追踪任务。 任务追踪与回滚的时间范围默认为3小时。 3. 在弹窗下部单击“预检查”,在预检查页面你可获取具体时间点的操作详情。 说明 预检查会根据时间范围筛选Binlog列表,开启备份的RDS实例会定时备份Binlog文件到OBS桶中,备份会有不大于5分钟的延迟。 当您发起对当前时间数据追踪时,存在无最新5分钟变更记录的可能,遇到该情况稍后重新创建任务即可。 4. 在弹窗下部单击“读取日志”,获取日志详情信息。 读取日志会发起Binlog解析,根据任务信息将存储涉及变更记录信息,以便支持后续数据筛选及展示。 说明 所有日志读取成功才能进行搜索日志等相关操作。 当前一次任务读取不完全时,再次启动追踪任务,可能出现读取日志开始时间比日志结束时间晚的情况,属于正常情况。 5. 在弹窗下部单击“搜索日志”,进入搜索日志页面,获取变更事件列表信息。 6. 当有多个事件需要合并回滚时,在搜索日志页面单击“新建回滚任务”,在“新建回滚任务”弹窗中指定回滚事件ID范围,将合并后的回滚SQL生成到OBS桶中,并按需设置高级选项信息,设置完成后单击“确定”。 说明 开始事件ID及结束事件ID为任务列表中ID号,且应按正序填写。 变更合并 对同一记录(主键)连续3次变更(1→2→3→4)等价于1次变更(1→4)。 语句类型选项 生成基于事件的回滚SQL:针对数据发生变更时的前后镜像生成反向变更SQL。 获取数据变更前的原始数据:将数据变更前镜像生成回滚表及insert语句。 7. 在回滚任务列表页面,您可查看当前回滚任务信息或新建回滚任务。 在任务列表操作栏下单击“查看详情”,可查看本次回滚任务的详情信息。 在任务列表操作栏下单击“下载”,可在本地获取本次任务数据压缩包。 说明 同一记录合并变更存在变更抵消情况(insert>delete,delete>insert,update>update),因此生成文件会存在无回滚SQL或无原始数据情况。
        来自:
        帮助文档
        数据管理服务
        用户指南
        MySQL数据库管理(开发工具)
        数据方案
      • 中文分词增强
        天翼云云搜索服务提供的中文分词器 IK分词器 天翼云云搜索服务中的IK分词器是开源分词器,包括最大化分词模式(ikmaxword)、最小化分词模式(iksmart)。允许自定义词典,支持定制化的分词处理,适应特定场景和行业的需求。 IK插件包含2种分词器:iksmart和 ikmaxword。 iksmart模式:智能分词模式,采用较为灵活的中文分词算法,能够对中文文本进行智能的切分,以保留尽可能多的语义信息。适用于一般的全文搜索、文本分析和检索需求。 ikmaxword模式:最大化分词模式,会尽可能多地将文本切分成单个词语,从而获取尽可能多的候选词。适用于对文本进行细粒度的分析和处理。 HanLP分词器 HanLP分词器是源于一个开源且功能强大的HanLP自然语言处理工具包,它由一系列模型和算法组成。目前天翼云云搜索服务中的HanLP分词器是基于开源HanLP分词器对hanlp、hanlpcrf等分词器进行了一定程度的优化,以适应不同的场景。 目前HanLP插件提供hanlp、hanlpcrf、hanlpnlp、hanlpspeed等分词器,针对不同的应用场景,可以选择使用不同的分词器。 hanlp分词器,基于词典的分词。当需要快速处理大量文本,且对分词精度要求不是特别高时,词典分词是一个很好的选择。它侧重于分词速度,能够每秒处理数千万字符,非常适合对实时性要求较高的场景;在内存资源有限的环境下,词典分词由于其较低的内存占用,也是一个理想的选择。另外hanlp分词器经过优化分词效果也比较不错,适合通用的场景,平衡了分词精度和分词速度。 hanlpcrf和hanlpnlp分词器,基于模型的分词器。hanlpcrf和hanlpnlp分词器在处理复杂文本结构时表现出色,能够准确识别并处理句子中的长距离依赖关系。由于其较强的泛化能力,在处理特定领域的文本时(如新闻、法律、医疗等),能够提供更全面、准确的文本分析结果。适用于对分词准确程度要求很高,不追求分词速度的场景下,且比较消耗内存资源。 hanlpspeed,极速词典分词。在需要极快速度处理文本的场景下,极速词典分词是最佳选择,它通过优化词典结构和算法实现了超高的分词速度。在内存资源非常有限的环境下,极速词典分词由于其低内存占用特性而更具优势。适合追求分词速度,而对精度要求不是很高的情况下。 hanlpnshort和hanlpdijkstra:构建词图并寻找最短路径的方式来实现分词,能够较好地识别并处理新词和未登录词。对于包含大量新词、缩写、专业术语等复杂文本,能够提供更准确的分词结果,效率不如词典分词,优于算法分词。 hanlpindex和 ikmaxword类似:会尽可能多地将文本切分成单个词语,从而获取尽可能多的候选词。适用于对文本进行细粒度的分析和处理。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        中文分词增强
      • 约束与限制
        本章节主要介绍数据治理中心的约束与限制。 浏览器限制 您需要使用支持的浏览器版本登录DataArts Studio。 表1 浏览器兼容性 浏览器版本 建议版本 建议操作系统 备注 Google Chrome 115,114,113 Windows 10 分辨率最佳可视范围为最小1366768px,最大为19201080px。其中19201080px为最佳显示分辨率,界面自适应为最优显示。 使用限制 使用DataArts Studio前,您需要认真阅读并了解以下使用限制。 表2 DataArts Studio使用限制一览表 组件 约束限制 公共 DataArts Studio基于数据湖底座提供数据一站式集成、开发、治理等能力,本身不具备存储和计算的能力,需要配合数据湖底座使用。 每个企业项目下最多绑定一个DataArts Studio实例。当企业项目下已绑定实例时,再次创建实例会失败。 DataArts Studio各组件对不同数据源的支持程度不一,您需要按照您的业务需求来选择数据湖底座。DataArts Studio平台当前支持的数据湖产品请参见“DataArts Studio用户指南 > 管理中心 > DataArts Studio支持的数据源”。 管理中心 由于管理中心的限制,数据治理各组件(如数据架构、数据质量、数据目录等)暂不支持包含中文和“.”字符的库表名。 建议为管理中心数据连接的Agent和CDM迁移作业规划相互独立的CDM集群,避免双方使用同一集群,导致业务高峰期时资源抢占引起业务不可用。 CDM集群作为管理中心数据连接Agent时,单集群无法连接多个MRS安全集群。建议您按照业务情况规划多个Agent与MRS安全集群一一映射。 CDM集群作为管理中心数据连接Agent时,单集群的并发活动线程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 单工作空间允许创建的数据连接个数最多200个。 管理中心相关开放API并发限制为100qps。 数据集成 CDM作业支持自动备份和恢复,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据集成 > 管理作业 > 作业配置管理”章节。 CDM作业本身无配额限制,但建议作业数不超过CDM集群的vCPU核数2,否则作业运行性能可能会受到一定影响。 数据集成CDM集群为单集群部署,集群故障可能会导致业务、数据损失。建议您使用数据开发作业CDM Job节点调用CDM作业,并选择两个CDM集群以提升可靠性。详情请参见用户指南中“数据开发 > 节点参考 > CDM Job”章节。 当所连接的数据源发生变化(如MRS集群扩容等情况)时,您需要重新编辑并保存该连接。 在驱动更新场景下,上传驱动后必须在CDM集群列表中重启集群才能更新生效。 单作业的抽取并发数取值范围为1300,集群的总抽取并发数取值范围为11000。其中集群最大抽取并发数的设置与CDM集群规格有关,并发数上限建议配置为vCPU核数2,作业的抽取并发数建议不超过集群的总抽取并发数,过高的并发数可能导致内存溢出,请谨慎修改。 关于数据集成中的更多约束限制,请参考用户指南中“数据集成> 约束与限制”章节。 数据开发 数据开发脚本、作业等资产支持备份管理,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据开发 > 运维调度 > 备份管理”章节。 脚本、作业或节点的历史运行记录依赖于OBS桶,如果未配置测试运行历史OBS桶,则无法查看历史运行的详细信息。 上传资源时,如果资源位置为HDFS,则只支持MRS Spark,MRS Flink Job,MRS MapReduce节点使用该资源。 单工作空间允许创建的脚本个数最多1万个,脚本目录最多5000个,目录层级最多为10层。 单工作空间允许创建的作业个数最多1万个,作业目录最多5000个,目录层级最多为10层。 RDS SQL、DWS SQL、HIVE SQL、SPARK SQL、DLI SQL脚本执行结果页面展示最多1千条,且数据量少于3MB。超过1千条数据可以使用转储功能,转储最多支持1万条。 实例监控、补数据监控只能展示最近6个月的数据。 通知记录只能展示最近30天的数据。 下载中心的下载记录会每7天做老化处理,老化时下载中心记录和已转储的OBS数据会同时被删除。 数据架构 数据架构当前支持关系建模和维度建模(仅支持星形模型)这两种建模方式。 数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 码表和数据标准的根目录下禁止直接创建码表和数据标准。 单工作空间中创建各类对象的配额如下: l主题5000个。 l数据标准目录500条,个数20000个。 l业务指标100000个。 l原子指标、衍生指标、复合指标各5000条。 配置中心中各类对象的自定义项配额如下: l主题自定义项10条。 l表自定义项30条。 l属性自定义项10条。 l业务指标自定义项50条。 数据质量 数据质量作业执行时长依赖数据引擎,如果底层数据引擎资源不足,可能会导致运行速度变慢。 单个数据质量作业最多可以配置50条规则,如有需要可拆分为多个质量作业。 单个数据连接上的质量作业关联SQL的并发数默认为1000,如果超出则等待排队执行。可配置范围101000。 单Region内的质量作业关联SQL的并发数为10000,如果超出则等待排队执行。 业务指标监控模块总览中的实例运行状态和实例告警状态支持按照7天展示,告警趋势、业务看板、指标看板支持按照7天、15天和30天展示。 数据质量监控模块总览中的变化趋势支持按照30天展示,质量告警分类趋势和规则数量趋势支持按照7天展示。 质量报告采用T+1日定时批量生成,质量报告数据保留90天。 导出质量报告至OBS,会将质量报告导出到工作空间中配置的作业日志OBS路径中,导出记录保留3个月。 数据目录 单工作空间中元数据采集任务最多创建100个。 元数据采集任务通过执行引擎相关的DDL SQL获取,不建议单个任务采集超过1000张表。如有需要可拆分为多个采集任务,另外调度时间和频次也需要根据业务需要进行合理设置,避免对引擎造成较大的访问和连接压力,设置建议如下: l若业务对元数据时效性要求为1天,则设置调度周期max(1天,单次采集周期时间),其他情况同理。 l若业务压力集中在白天,则设置调度时间在夜间,其他情况同理,选择数据源压力最小的时间段。 数据血缘的产生依赖于数据开发中调度运行的作业,测试运行的作业不会产生血缘。 元数据采集模块总览中的数据连接历史统计支持按照7天、15天和30天展示。 数据服务 数据服务共享版仅供开发测试使用,专享版性能优于共享版,推荐使用数据服务专享版。 DataArts Studio实例下最多支持创建5个数据服务专享版集群,且集群需要与某个工作空间绑定,不能多空间共用同一集群。 数据服务专享版集群创建后暂不支持修改规格或升级版本。 DataArts Studio实例下支持创建的专享版API最大数量由数据服务专享版API总分配配额(默认为5000)和当前实例下集群的API规格总和共同决定,取较小的作为限制。例如,某DataArts Studio实例下的数据服务专享版API总分配配额为5000,已分别创建了API规格为500和2000的两个集群,则当前实例下支持创建的专享版API最大数量为2500。 单工作空间下支持创建的专享版API最大数量由数据服务专享版API已分配配额(通过编辑工作空间信息分配)和当前空间下集群的API规格总和共同决定,取较小的作为限制。例如,某工作空间下的数据服务专享版API已分配配额为800,当前工作空间下已创建了API规格为500的两个集群,则当前工作空间下支持创建的专享版API最大数量为800。 单工作空间下支持创建的应用数量为1000。 单工作空间下支持创建的流控策略数量为500。 数据服务支持跟踪并保存事件。对于每个事件,数据服务会报告事件发生日期、说明、时间源(某个集群)等信息,事件保存时长为30天。 数据服务专享版日志信息仅查询集群最近100条访问记录,均分至集群全部所属节点中获取。 总览中的调用趋势、发布趋势、调用比率 top5、调用时间 top5和调用次数 top5支持按照近12小时、近1天、近7天和近30天展示,总调用数为前7天数据总和(不含当天)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        约束与限制
      • 查看集群基本信息
        参数 参数说明 集群名称 集群的名称,创建集群时设置。单击 可对集群名称进行修改。 当MRS集群为MRS 3.x之前版本时,修改集群名称后仅MRS管理控制台界面显示的集群名称修改,MRS Manager中集群名称不会同步修改。 集群状态 集群状态信息,请参见 集群管理页面 Manager页面入口。 针对MRS 3.x及以后版本,具体请参见 。 针对MRS 3.x之前版本,需要根据提示绑定弹性公网IP及添加安全组规则后才能进入MRS Manager页面,具体请参见 访问MRS Manager(MRS 2.x及之前版本) 。 具体操作请参见 访问FusionInsight Manager(MRS 3.x及之后版本) 。 集群版本 MRS版本信息。 集群类型 支持以下集群类型: 分析集群:用来做离线数据分析,提供的是Hadoop体系的组件。 流式集群:用来做流处理任务,提供的是流式处理组件。 混合集群:既可以用来做离线数据分析,也可以用来做流处理任务,提供的是Hadoop体系的组件和流式处理组件。 自定义:全量自定义组件组合的MRS集群,MRS 3.x及之后版本支持此类型。 集群ID 集群的唯一标识,创建集群时系统自动赋值,不需要用户设置。 创建时间 显示集群创建的时间。 可用区 集群工作区域下的可用区,创建集群时设置。 默认生效子网 子网信息,创建集群时所选。 当子网IP不足时,单击“切换子网”切换到当前集群相同VPC下的其他子网,实现可用子网IP的扩充。切换子网不会影响当前已有节点的IP地址和子网。 通过子网提供与其他网络隔离的、可以独享的网络资源,以提高网络安全。 虚拟私有云 VPC信息,创建集群时所选。 VPC即虚拟私有云,是通过逻辑方式进行网络隔离,提供安全、隔离的网络环境。 弹性公网IP 通过将弹性公网IP与MRS集群绑定,实现使用弹性公网IP访问Manager的目的。 OBS权限控制 单击“单击管理”,修改MRS用户与OBS权限的映射关系,具体请参考 数据连接 单击“单击管理”,查看集群关联的数据连接类型,具体请参考 委托 单击“管理委托”,为集群绑定或修改委托。 通过绑定委托,您可以将部分资源共享给ECS或BMS云服务来管理,例如通过配置ECS委托可自动获取AK/SK访问OBS,具体请参见 密钥对 密钥对名称,创建集群时设置。 如果创建集群时设置的登录方式为密码,则不显示。 Kerberos认证 登录Manager管理页面时是否启用Kerberos认证。 日志记录 用于收集集群创建失败及扩缩容失败的日志。 安全组 集群的安全组名称。 数据盘密钥名称 用于加密数据盘的密钥名称。如需对已使用的密钥进行管理,请登录密钥管理控制台进行操作。 数据盘密钥ID 用于加密数据盘的密钥ID。 IAM用户同步 可以将IAM侧用户信息同步至MRS集群,用于集群管理。具体请参见 说明 集群详情页的“组件管理”、“租户管理”和“备份恢复”页签需要同步用户后方可使用。MRS 3.x版本集群同步后可使用“组件管理”。 通讯安全授权 展示安全授权状态,通过 可关闭和开启安全授权。关闭安全授权属于高危操作,请谨慎处理。详细信息请参考
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群概览
        查看集群基本信息
      • 基本功能操作
        前提条件 已在管理控制台中创建“弹性负载均衡”实例。 1. 登录管理控制台首页,在服务列表中选择“网络 > 弹性负载均衡”。 2. 单击右上角的“创建弹性负载均衡”。 说明: CCE中的负载均衡 ( LoadBalancer )访问类型使用弹性负载均衡 ELB提供网络访问,存在如下产品约束: 自动创建的ELB实例建议不要被其他资源使用,否则会在删除时被占用,导致资源残留。 创建Ingress 您可以在创建工作负载时通过CCE控制台设置访问方式,本节以创建一个nginx工作负载并添加Ingress类型的Service为例进行说明。 步骤 1 创建工作负载,详细步骤请参见创建无状态负载(Deployment)、创建有状态负载(StatefulSet)或创建守护进程集(DaemonSet)。 若创建工作负载时,部署了“节点访问( NodePort )”类型的Service,请直接执行步骤3。 若创建工作负载时,未部署“节点访问( NodePort )”类型的Service,请先执行步骤2。 步骤 2 (可选)若创建工作负载时,未配置“节点访问 ( NodePort )”,请执行如下操作。 1. 登录CCE控制台,在左侧导航栏中选择“资源管理 > 网络管理”。 2. 在Service页签下,单击“添加Service”。选择类型为“节点访问 ( NodePort )”。 − Service 名称:自定义服务名称,可与工作负载名称保持一致。 − 集群名称:选择需要添加Service的集群。 − 命名空间:选择需要添加Service的命名空间。 − 关联工作负载:单击“选择工作负载”,选择需要配置节点访问 ( NodePort )的工作负载名称,单击“确定”。 − 服务亲和: 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 − 端口配置: a、协议:请根据业务的协议类型选择。 b、容器端口:容器镜像中工作负载实际监听的端口,需用户确定。nginx程序实际监听的端口为80。 c、访问端口:容器端口映射到节点私有IP上的端口,用私有IP访问工作负载时使用,端口范围为3000032767,建议选择“自动生成”。 自动生成:系统会自动分配端口号。 指定端口:指定固定的节点端口,默认取值范围为3000032767。若指定端口时,请确保同个集群内的端口唯一性。 3. 单击“创建”,节点访问方式设置成功。 步骤 3 添加Ingress类型的Service。 1. 单击CCE左侧导航栏的“资源管理 > 网络管理”。 2. 在Ingress页签下,单击“添加Ingress”。 − Ingress 名称:自定义Ingress名称,例如ingressdemo。 − 集群名称:选择需要添加Ingress的集群。 − 命名空间:选择需要添加Ingress的命名空间。 − 负载均衡配置:Ingress使用弹性负载均衡服务(ELB)的负载均衡器提供七层网络访问。 说明: 1. ingress创建后请在CCE页面对所选ELB实例进行配置升级和维护,否则可能导致ingress服务异常。 2. 自动创建的ELB实例尽可能不要被其他ingress或者service使用,否则可能导致资源残留。 负载均衡:负载均衡实例需与当前集群处于相同VPC且为相同公网或私网类型。 请根据业务需求选择“公网”或“私网”。公网支持自动创建和使用已有负载均衡实例两种方式。私网:支持自动创建和使用已有负载均衡实例两种方式。 更改配置:选择“公网 > 自动创建”时,单击规格配置下的“更改配置”,可修改待创建的负载均衡实例的名称、规格、计费模式和带宽。 − 监听器配置:Ingress为负载均衡器配置监听器,监听器对负载均衡器上的请求进行监听,并分发流量。 a、对外协议:支持HTTP和HTTPS。 b、对外端口:开放在负载均衡服务地址的端口,可任意指定。 若选择启用“对接Nginx”后,将默认开启80和443端口,此处“对外端口”参数项将不显示。 c、服务器证书:请选择密钥证书。 须知: 选择HTTPS协议时,才需要创建密钥证书ingresstestsecret.yaml。创建密钥的方法请参见创建密钥。 同一个ELB实例的同一个端口配置HTTPS时,一个监听器只支持配置一个密钥证书。若使用两个不同的密钥证书将两个Ingress添加到同一个ELB下的同一个监听器,ELB侧实际只生效最初的证书。 − 转发策略配置:请求的访问地址与转发规则匹配时(转发规则由域名、URL组成),此请求将被转发到对应的目标Service处理。 说明: 服务负载均衡配置中可更改ELB实例的分配策略类型、会话保持、健康检查等内容,请勿在ELB服务修改相关信息。 − 域名:实际访问的域名地址。请确保所填写的域名已注册并备案,在Ingress创建完成后,将域名与自动创建的负载均衡实例的IP(即Ingress访问地址的IP部分)绑定。一旦配置了域名规则,则必须使用域名访问。 − URL匹配规则: 前缀匹配:例如映射URL为/healthz,只要符合此前缀的URL均可访问。例如/healthz/v1,/healthz/v2。 精确匹配:表示精准匹配,只有完全匹配上才能生效。例如映射URL为/healthz,则必须为此URL才能访问。 正则匹配:可设定映射URL规范,例如规范为/[AZaz09.]+/test。只要符合此规则的URL均可访问,例如/abcA9/test,/v1Ab/test。正则匹配规则支持POSIX与Perl两种标准。 − URL:需要注册的访问路径,例如:/healthz。 − 目标Service:请选择已有Service或新建Service。页面列表中仅支持选择“节点访问 ( NodePort )” 类型的Service,该查询结果已自动过滤。 − Service访问端口:可选择目标Service的访问端口。 − 服务负载均衡配置:该配置是基于服务的配置,若有多条路由使用当前服务,这些路由将使用相同的服务负载均衡配置。 健康检查:默认不启用。请根据界面提示进行配置。 − 操作:可单击“删除”按钮删除该配置。 单击“添加转发策略”按钮可添加多条转发策略。 步骤 4 配置完成后,单击“创建”。 创建完成后,在Ingress列表可查看到已创建成功的Ingress。 步骤 5 访问工作负载(例如名称为defaultbackend)的“/healthz”接口。 方式一:负载均衡IP访问(需负载均衡访问的服务不能配置域名) 1. 获取defaultbackend“/healthz”接口的访问地址,访问地址有负载均衡实例、对外端口、映射URL组成,例如:10.154.73.151:80/healthz。 a. 在左侧导航栏选择“资源管理 > 网络管理”。 b. 在“Ingress”页签下,单击Ingress名称,可查看访问地址。 2. 在浏览器中输入“/healthz”接口的访问地址,如: 访问defaultbackend“/healthz”接口 方式二:域名访问 以ingress中已配置域名ingress.com为例。 1. 获取ingressdemo的域名与访问地址的IP、URL与端口。 a. 在左侧导航栏选择“资源管理 > 网络管理”。 b. 在“Ingress”页签下,可查看访问地址。 c. 单击Ingress名称,可查看域名。 2. 在本地主机的C:WindowsSystem32driversetchosts中配置访问地址的IP和域名,如下图: 3. 在浏览器中输入 更新Ingress 您可以在添加完Ingress后,更新此Ingress的端口、域名和路由配置。操作如下: 说明: Ingress创建后请避免在ELB服务的控制台中操作Ingress对接的ELB资源,如需修改请在CCE控制台中对所选ELB实例进行配置升级和维护,否则可能导致Ingress服务异常。 在CCE控制台中更新Ingress时,负载均衡配置中可更改ELB实例的分配策略类型、会话保持、健康检查等内容,请勿在ELB服务修改相关信息。 自动创建的ELB实例尽可能不要被其他Ingress或者Service使用,否则可能导致资源残留。 步骤 1 登录CCE控制台,在左侧导航栏中选择“资源管理 > 网络管理”。在Ingress页签下,选择对应的集群和命名空间,单击待更新Ingress后方的“更新”。 步骤 2 在“更新Ingress”页面,更新如下参数: 监听器配置 对外端口:开放在负载均衡服务地址的端口,可任意指定。 转发策略配置 服务负载均衡配置: 单击展开后,可对如下参数进行设置: − 健康检查:默认开启。请根据界面提示进行配置。 单击“添加转发策略”按钮可添加多条转发策略。 − 域名:实际访问的域名地址。请确保所填写的域名已注册并备案,在Ingress创建完成后,将域名与自动创建的负载均衡实例的IP(即Ingress访问地址的IP部分)绑定。一旦配置了域名规则,则必须使用域名访问。 − URL匹配规则: a、前缀匹配:例如映射URL为/healthz,只要符合此前缀的URL均可访问。例如/healthz/v1,/healthz/v2。 b、精确匹配:表示精准匹配,只有完全匹配上才能生效。例如映射URL为/healthz,则必须为此URL才能访问。 c、正则匹配:可设定映射URL规范,例如规范为/[AZaz09.]+/test。只要符合此规则的URL均可访问,例如/abcA9/test,/v1Ab/test。正则匹配规则支持POSIX与Perl两种标准。 − URL:需要注册的访问路径,例如:/healthz。 − 目标Service:请选择已有Service或新建Service。页面列表中仅支持选择“节点访问 ( NodePort )” 类型的Service,该查询结果已自动过滤。Service访问端口:可选择目标Service的访问端口。 − 服务负载均衡配置:该配置是基于服务的配置,若有多条路由使用当前服务,这些路由将使用相同的服务负载均衡配置。详细配置请参见服务负载均衡配置.docx
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        网络管理
        Ingress
        基本功能操作
      • Linux操作系统云主机磁盘分区提示空间不足怎么办
        当您出现Linux操作系统云主机磁盘分区提示空间不足问题时可参考本文。 问题描述 云主机使用过程数据持续增长,容易导致磁盘空间不足的问题,相应的对系统运行造成影响,如系统性能下降、应用程序无法正常运行、系统崩溃等。 问题定位与解决方案 1. 查看磁盘空间占用情况 首先您需要了解当前磁盘下各个目录的空间占用情况,以便能够有针对性地进行优化。 执行 df h 命令查看磁盘空间的占用情况。 执行后可见系统上所有分区与挂载点的空间使用情况,可以判断哪个目录占用了大量的磁盘空间。 2. 清理临时文件 在Linux系统中,临时文件如果长时间不处理,将可能占用大量磁盘空间。您可以通过定期清理临时文件来释放磁盘空间。 以下是一些常见的临时文件所在的目录。 /tmp目录是存放临时文件的默认目录,您可以执行 rm rf /tmp/命令清理该目录下的全部临时文件,或者执行 rm rf /tmp/(文件名)命令清理该目录下的指定临时文件。 /var/tmp目录也是存放临时文件的目录,您可以执行 rm rf /var/tmp/命令清理该目录下的全部临时文件,或者执行 rm rf /var/tmp/(文件名)命令清理该目录下的指定临时文件。 3. 清理日志文件 在Linux系统中,日志文件如果长时间不处理,也可能占用大量磁盘空间。您可以通过清理不必要的日志文件来释放磁盘空间。 以下是一些常见的日志文件所在的目录: /var/log目录存放系统日志文件,您可以执行 rm rf /var/log/命令清理该目录下的全部日志文件,或者执行 rm rf /var/log/(文件名)命令清理该目录下指定日志文件。 因为Linux系统支持日志轮转策略,即日志文件保留一定时长后自动清理的策略,所以您可以通过调整日志轮转策略,即调整日志文件自动保留时间,达到日志文件常规管理的目的。 您可以编辑 /etc/logrotate.conf文件来调整系统日志轮转策略。 4. 压缩低频大文件 您可以通过临时压缩使用频率较低的大文件,释放部分磁盘空间。Linux系统中常用的压缩工具有gzip、bzip2以及zip等。 5. 删除不必要的软件和文件 如果您的系统中存在不使用或非必要的软件,或者无须留存的其它文件,可以通过清理它们来释放磁盘空间。 执行命令 sudo aptget remove (软件包名) 清理软件。 执行命令 rm rf (文件路径)/(文件名)清理指定文件。 6. 扩容磁盘空间 如果以上方法无法帮助您释放出足够的磁盘空间,请您考虑扩容已有云硬盘或添加新的云硬盘,实现存储空间扩容。
        来自:
        帮助文档
        弹性云主机 ECS
        故障修复
        磁盘空间管理
        Linux操作系统云主机磁盘分区提示空间不足怎么办
      • 配置环境
        介绍HBlock部署环境的配置操作。 按照环境要求,准备3台或3台以上的服务器。 注意 确保ping命令和ps命令可用。Debian/Ubuntu可以使用下列命令安装ping命令和ps命令。 plaintext aptget update /获取最新安装包 aptget install iputilsping / 安装ping命令 aptget install procps / 安装ps命令安装 每台服务器按照下列操作步骤完成配置,以下操作以CentOS 7.x版本为例: 说明 如果已经安装操作系统,请忽略步骤1。如果磁盘已挂载,请忽略步骤2,可以使用挂载路径作为HBlock的数据目录,或者使用命令mkdir DIRECTORY在挂载路径下创建一个目录,将此目录作为HBlock数据目录。 1. 安装操作系统CentOS 7.x版本 2. 格式化硬盘并挂载 请参考下列示例将服务器上的硬盘进行格式化,方便后续部署使用。 plaintext lsblk 查看硬盘 mkfs.ext4 /dev/vdX 将硬盘格式化为 ext4,如果已经格式化磁盘,请忽略此步骤。 mkdir DIRECTORY 创建挂载路径,DIRECTORY为路径名 mount /dev/vdX DIRECTORY 挂载硬盘,挂载后,可以使用该路径作为HBlock数据目录 说明 mount命令为临时挂载命令,服务器重启后,需要再次挂载。对于HBlock使用到的目录,建议设置开机自动挂载,或使用已设置自动挂载的目录或子目录。 注意 如果安装HBlock的用户为非root用户,需要对HBlock使用到的目录有读写权限,可以使用下列命令。 plaintext chown HBlock用户:HBlock用户所属组 DIRECTORY 3. 关闭SELinux和swap分区(建议) 4. 防火墙设定 确保集群服务器之间可以相互访问,集群服务器之间相互添加白名单,另外请开启iSCSI端口,以便客户端连接到服务器的target。如果是在云主机上安装,安全组中也需要添加白名单。 若您的服务器未开启防火墙,可以忽略此步骤。 如果防火墙是firewall,示例如下: 1. 开启iSCSI端口,如iSCSI端口为3260时: plaintext firewallcmd permanent addport3260/tcp 2. 集群各服务器的IP添加白名单: 添加IPv4地址 plaintext firewallcmd permanent addrichrule"rule familyipv4 source addressyourIP accept" // yourIP is IP address allowed to access 添加IPv6地址 plaintext firewallcmd permanent addrichrule"rule familyipv6 source addressyourIP accept" // yourIP is IP address allowed to access 3. 重新加载防火墙使配置生效: plaintext firewallcmd reload 如果防火墙是iptables,示例如下: 1. 开启iSCSI端口,如iSCSI端口为3260时: plaintext iptables I INPUT p tcp dport 3260 j ACCEPT 2. 集群各服务器间相互访问: 允许本地环路地址 plaintext iptables I INPUT i lo j ACCEPT 允许内部网段访问 plaintext iptables I INPUT s yourIP j ACCEPT 3. 保存配置: plaintext iptablessave 5. 设置资源限制 修改配置文件/etc/security/limits.conf,在配置文件中增加下列内容,设置在domain中打开的最大文件数、同时运行的最大进程数 plaintext domain soft nofile 65536
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        服务器端部署
        HBlock部署-集群版
        配置环境
      • 主机运维
        通过SSH客户端登录资源进行运维 通过SSH客户端登录云堡垒机纳管资源,在不改变用户原来使用SSH客户端习惯的前提下,对授权云主机资源进行运维管理,并且支持系统的命令拦截策略和运维审计功能。 本小节以Xshell登录SSH协议类型资源为例,介绍如何通过SSH客户端登录资源进行运维,以及如何下载登录资源的配置文件。 约束限制 仅SSH、TELNET和Rlogin协议主机支持通过SSH客户端登录,其中Rlogin协议主机仅支持SSH客户端登录。 支持SSH协议客户端工具:SecureCRT 8.0及以上版本、Xshell 5及以上版本、PuTTY、MAC Terminal 2.0及以上版本。 前提条件 已获取“主机运维”模块管理权限。 已获取资源访问控制权限,即已被关联访问控制策略或访问授权工单已审批通过。 已在本地安装客户端工具。 资源主机网络连接正常,且资源账户登录帐号和密码无误。 操作步骤 1 打开本地Xshell客户端工具,选择“文件 > 新建”,新建用户会话。 2 配置会话用户连接。 方式一 a. 选择协议类型SSH,输入云堡垒机实例弹性IP地址,端口号配置为2222,单击“确认”。 配置会话属性 b. 连接到会话,输入云堡垒机用户名,单击“连接”。 连接会话 方式二 在新的空白会话窗口,执行登录命令:协议类型 用户登录名 @系统登录IP端口,例如执行ssh admin@10.10.10.10 2222。 方式三 在正在运行的Linux主机会话窗口,执行登录命令:协议类型 用户登录名 @系统登录IP p端口,例如执行ssh admin@10.10.10.10 p 2222。 3 云堡垒机用户身份验证。 选择密码登录,输入云堡垒机用户密码,单击“确定”。 选择公钥登录,在“浏览”中选择用户密钥,输入密码,单击“确定”。 登录验证成功后,再次登录时该用户在SSH客户端可以免密登录。 云堡垒机用户身份验证 4 登录到云堡垒机系统。 SSH客户端登录认证支持密码登录、手机短信、手机令牌和动态令牌方式。其中手机短信、手机令牌和动态令牌方式,需配置用户多因子认证,详情请参考3.4 配置多因子认证。 手机短信:本地密码方式登录后,选择“短信验证码”,输入手机短信验证码。 手机令牌:本地密码方式登录后,选择“手机令牌OTP”,输入手机令牌验证码。 动态令牌:本地密码方式登录后,选择“动态令牌OTP”,输入动态令牌验证码。 5 批量导入云堡垒机资源账户。 解压配置文件压缩包,打开“readme.txt”文件,并参考指导导入资源账户。 配置文件指导说明 6 登录资源账户。 选择需登录的资源账户,输入系统用户密码,登录资源账户进行运维操作。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        用户指南
        运维管理
        主机运维
      • (停止维护)CCE发布Kubernetes 1.25版本说明
        本文主要介绍CCE发布Kubernetes 1.25版本说明。 云容器引擎(CCE)严格遵循社区一致性认证。本文介绍CCE发布Kubernetes 1.25版本所做的变更说明。 版本升级说明 CCE针对Kubernetes 1.25版本提供了全链路的组件优化和升级。 表 核心组件及说明 集群类型 核心组件 版本号 升级注意事项 :::: CCE集群 Kubernetes 1.25 无 CCE集群 Docker CentOS:18.9.0 Ubuntu:18.09.9 无 CCE集群 Containerd 1.4.1 无 CCE集群 操作系统 CentOS Linux release 7.6 无 CCE集群 操作系统 Ubuntu 18.04 server 64bit 无 资源变更与弃用 CCE 1.25变更说明 CCE v1.25集群的节点均默认采用Containerd容器引擎。 社区1.25 ReleaseNotes 清理iptables链的所有权 Kubernetes通常创建iptables链来确保这些网络数据包到达,这些iptables链及其名称属于Kubernetes内部实现的细节,仅供内部使用场景,目前有些组件依赖于这些内部实现细节,Kubernetes总体上不希望支持某些工具依赖这些内部实现细节。 在Kubernetes 1.25版本后,Kubelet通过IPTablesCleanup特性门控分阶段完成迁移,是为了不在NAT表中创建iptables链,例如KUBEMARKDROP、KUBEMARKMASQ、KUBEPOSTROUTING。 存储驱动的弃用和移除,移除云服务厂商的intree卷驱动。 社区1.24 ReleaseNotes 在Kubernetes 1.24版本后,Service.Spec.LoadBalancerIP被弃用,因为它无法用于双栈协议。请使用自定义annotation。 在Kubernetes 1.24版本后,kubeapiserver移除参数address、insecurebindaddress、port、insecureport0。 在Kubernetes 1.24版本后,kubecontrollermanager和kubescheduler移除启动参数port0和address。 在Kubernetes 1.24版本后,kubeapiserver auditlogversion和auditwebhookversion仅支持audit.k8s.io/v1,Kubernetes 1.24移除audit.k8s.io/v1[alphabeta]1,只能使用audit.k8s.io/v1。 在Kubernetes 1.24版本后,kubelet移除启动参数networkplugin,仅当容器运行环境设置为Docker时,此特定于Docker的参数才有效,并会随着Dockershim一起删除。 在Kubernetes 1.24版本后,动态日志清理功能已经被废弃,并在Kubernetes 1.24版本移除。该功能引入了一个日志过滤器,可以应用于所有Kubernetes系统组件的日志,以防止各种类型的敏感信息通过日志泄漏。此功能可能导致日志阻塞,所以废弃。 VolumeSnapshot v1beta1 CRD在Kubernetes 1.20版本中被废弃,在Kubernetes 1.24版本中移除,需改用v1版本。 在Kubernetes 1.24版本后,移除自1.11版本就废弃的service annotation tolerateunreadyendpoints,使用Service.spec.publishNotReadyAddresses代替。 在Kubernetes 1.24版本后,废弃metadata.clusterName字段,并将在下一个版本中删除。 Kubernetes 1.24及以后的版本,去除了kubeproxy监听NodePort的逻辑,在NodePort与内核net.ipv4.iplocalportrange范围有冲突的情况下,可能会导致偶发的TCP无法连接的情况,导致健康检查失败、业务异常等问题。升级前,请确保集群没有NodePort端口与任意节点net.ipv4.iplocalportrange范围存在冲突。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.25版本说明
      • 设置Windows操作系统首选语言
        本文以公共镜像中的Windows Server 2016数据中心版操作系统为例,介绍如何为弹性云主机实例更换首选语言。 前提条件 已经注册并登录天翼云账号,未完成的可参见注册天翼云账号。 已经在天翼云上购买了弹性云主机,且购买过程中镜像选择为Windows 2016 数据中心版操作系统。 背景信息 天翼云云服务器ECS目前仅提供中文版的Windows Server公共镜像。如果您因工作需求而需要使用其他的语言版本,例如英文,那么您可以参考本章节为弹性云主机实例设置新的首选语言。 操作步骤 1. 登录控制中心。 2. 选择区域华东华东1。 3. 单击“计算>弹性云主机”,进入弹性云主机页面。 4. 参考登录Windows弹性云主机,远程登录待设置操作系统首选语言的Windows弹性云主机实例。 5. 打开PowerShell模块。 6. 在操作之前首先需要临时禁用掉WSUS(Windows Server Update Services)更新源,请您运行以下命令: plaintext SetItemProperty Path 'HKLM:SOFTWAREPoliciesMicrosoftWindowsWindowsUpdateAU' Name UseWUServer Value 0 RestartService Name wuauserv 7. 找到控制面板,单击“语言” >“添加语言”。 8. 在“添加语言”对话框中,选择一种语言,例如English(英语) ,单击下方的“打开”。 9. 进入跳转窗口后,选择具体的英语区域,选择English(United kingdom),点击“添加”。 10. 添加之后,此语言会更新到语言列表。 11. 选中新增的English,单击“上移”更改语言优先级,下图为已经上移之后的状态: 12. 单击所选语言右侧的“选项”按键,进入语言选项页面,单击“下载并安装语言包”,若没有此链接,请再等待三分钟进行更新。 13. 用户此时可以等待下载并安装完成。 14. 在弹性云主机管理控制台中将此台云主机进行重启,具体如下图: 15. 再次连接Windows实例。显示语言更改为英语。 16. 打开Windows PowerShell,运行以下命令重新启用WSUS。 plaintext SetItemProperty Path 'HKLM:SOFTWAREPoliciesMicrosoftWindowsWindowsUpdateAU' Name UseWUServer Value 1 RestartService Name wuauserv
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        Windows基础最佳实践
        设置Windows操作系统首选语言
      • 数据迁移
        本节介绍了如何使用mysqldump工具迁移云数据库TaurusDB。 使用mysqldump迁移TaurusDB数据 注意 对于mysqlpump工具,由于在并行备份场景有coredump问题,不建议您使用,推荐您使用mysqldump工具迁移。 迁移准备 TaurusDB支持开启公网访问功能,通过弹性IP进行访问。您也可通过弹性云主机的内网访问TaurusDB。 1. 准备弹性云主机或可通过公网访问TaurusDB。 1. 通过弹性云主机连接TaurusDB数据库实例,需要创建一台弹性云主机。创建并登录弹性云主机,请参见《弹性云主机用户指南》中“创建弹性云主机”和“登录弹性云主机”。 2. 通过公网地址连接TaurusDB数据库实例,需具备以下条件。 1. 先对TaurusDB数据库实例绑定公网地址。 2. 保证本地设备可以访问TaurusDB数据库实例绑定的公网地址。 2. 在准备的弹性云主机或可访问TaurusDB数据库的设备上,安装MySQL客户端。 如何获取相应安装包及完成安装,请参见如何安装MySQL客户端。 说明 该弹性云主机或可访问TaurusDB数据库的设备需要安装和TaurusDB数据库服务端相同版本或更高版本的数据库客户端,MySQL数据库或客户端会自带mysqldump和mysql工具。 导出数据 要将源数据库迁移到TaurusDB数据库,需要先对其进行导出。 注意 相应导出工具需要与数据库引擎版本匹配。 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 步骤 1 登录已准备的弹性云主机,或可访问TaurusDB数据库的设备。 步骤 2 使用mysqldump将元数据导出至SQL文件。 注意 MySQL数据库是TaurusDB数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u p h P sed e 's/DEFINER[ ] [ ] [^ ] / /' e 's/DEFINER[ ]. FUNCTION/FUNCTION/' e 's/DEFINER[ ] . PROCEDURE/PROCEDURE/' e 's/DEFINER[ ] . TRIGGER/TRIGGER/' e 's/DEFINER[ ] .EVENT/EVENT/' > DBNAME为要迁移的数据库名称。 DBUSER为数据库用户。 DBADDRESS为数据库地址。 DBPORT为数据库端口。 BACKUPFILE为导出生成的文件名称。 根据命令提示输入数据库密码。 示例如下: mysqldump databases gaussdb singletransaction orderbyprimary hexblob nodata routines events setgtidpurgedOFF u root p h 192.xx.xx.xx P 3306 sed e 's/DEFINER[ ][ ][^]//' e 's/DEFINER[ ].FUNCTION/FUNCTION/' e 's/DEFINER[ ].PROCEDURE/PROCEDURE/' e 's/DEFINER[ ].TRIGGER/TRIGGER/' e 's/DEFINER[ ].EVENT/EVENT/' > dumpdefs.sql Enter password: 命令执行完会生成“dumpdefs.sql”文件。 步骤 3 使用mysqldump将数据导出至SQL文件。 注意 MySQL数据库是TaurusDB数据库服务管理所必须的数据库,导出元数据时,禁止指定alldatabase参数,否则会造成数据库故障。 mysqldump databases singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u p h P r 以上命令的参数说明如步骤2所示。 根据命令提示输入数据库密码。 示例如下: mysqldump databases gaussdb singletransaction hexblob setgtidpurgedOFF nocreateinfo skiptriggers u root p h 192.xx.xx.xx P 3306 r dumpdata.sql 命令执行完会生成“dumpdata.sql”文件。
        来自:
        帮助文档
        云数据库TaurusDB
        用户指南
        数据迁移
      • 设置自动备份策略
        说明:本章节会介绍如何设置自动备份策略 操作场景 创建关系型数据库实例时,系统默认开启自动备份策略,用户也可以关闭备份,但是对于生产环境,强烈推荐开启备份,因为恢复功能依赖备份的打开。实例创建成功后,您可根据业务需要设置自动备份策略,关系型数据库服务按照您设置的自动备份策略对数据库进行备份。 关系型数据库服务的备份操作是实例级的,而不是数据库级的。当数据库故障或数据损坏时,可以通过备份恢复数据库,从而保证数据可靠性。备份以压缩包的形式存储在对象存储服务上,以保证用户数据的机密性和持久性。由于开启备份会损耗数据库读写性能,建议您选择业务低峰时间段启动自动备份。 关系型数据库默认开启的自动备份策略设置如下: 保留天数:默认为7天。 备份时间段:默认为24小时中,间隔一小时的随机的一个时间段 ,例如01:00~02:00,12:00~13:00等。备份时间段以UTC时区保存。如果碰到夏令时/冬令时切换,备份时间段会因时区变化而改变。 备份周期:默认为一周内的每一天。 开启或修改自动备份策略 1. 登录管理控制台。 2. 单击管理控制台左上角的,选择区域和项目。 3. 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 4. 在“实例管理”页面,选择指定的实例,单击实例名称。 5. 在左侧导航栏,单击“备份恢复”,单击“修改备份策略”,如需开启自动备份策略,单击。 保留天数是指自动备份可保留的时间,增加保留天数可提升数据可靠性,请根据需要设置。 减少保留天数的情况下,该备份策略对已有备份文件同时生效,即超出备份保留天数的已有备份文件会被删除。 保留天数为全量自动备份和Binlog备份的保留时长,范围为1~732天,备份时间段为间隔1小时,建议根据业务情况,选择业务低峰时段,备份周期默认全选,可修改,且至少选择一周中的1天。 6. 单击“确定”,确认修改。 关闭自动备份策略 自动备份包含全量备份和增量备份。确认关闭自动备份策略后,自动备份任务将立即停止,所有增量备份文件将立即删除,使用增量备份的相关操作可能会失败,相关操作不限于下载、恢复到指定时间点等功能。 1. 登录管理控制台。 2. 单击管理控制台左上角的,选择区域和项目。 3. 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 4. 在“实例管理”页面,选择指定的实例,单击实例名称。 5. 在左侧导航栏中选择“备份恢复”,单击“修改备份策略”,单击,关闭自动备份策略。 6. 选择是否删除指定时间段内的自动备份文件: 不勾选,永久保存当前还在保留天数内的自动备份文件。 勾选,删除当前还在保留天数内的自动备份文件。确认删除全量自动备份文件后,使用全量备份文件相关的操作可能会失败,相关操作不限于下载、复制、恢复、重建等。 7. 单击“确定”,确认关闭。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        用户指南
        备份与恢复
        设置自动备份策略
      • 管理工作负载和任务
        操作场景 工作负载创建后,您可以对其执行伸缩、升级、编辑YAML、日志、监控、回退、删除等操作。 日志 您可以通过“日志”功能查看无状态工作负载、有状态工作负载、守护进程集、普通任务的日志信息。本文以无状态工作负载为例说明如何查看日志。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击工作负载后的“日志”。 在弹出的“日志”窗口中可以查看最近5分钟、最近30分钟、最近1小时内的日志信息。 升级 基于CCE,您可以通过更换镜像或镜像版本实现无状态工作负载、有状态工作负载、守护进程集的快速升级,业务无中断。本节以无状态工作负载为例说明如何进行升级。 若需要更换镜像或镜像版本,您需要提前将镜像上传到容器镜像服务。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”,单击待升级工作负载后的“升级”。 说明:有状态工作负载升级时,若升级类型为替换升级,需要用户手动删除实例后才能升级成功,否则界面会始终显示“升级中”。 步骤 2 请根据业务需求进行工作负载的升级。 镜像名称:单击“更换镜像”,选择新的镜像。 镜像版本:在镜像版本后的下拉框中选择对应版本。 容器名称: 单击容器名称后的,修改容器名称。 特权容器:开启后,容器将可以访问主机上的所有设备。 容器规格:可分别设置CPU配额、内存配额。 高级设置: − 生命周期:用于设置容器启动和运行时需要执行的命令。 启动命令:设置容器启动时执行的命令,具体请参见设置容器启动命令。 启动后处理:设置容器成功运行后执行的命令,详细配置方法请参见设置容器生命周期。 停止前处理:设置容器结束前执行的命令,通常用于删除日志/临时文件等,详细配置方法请参见设置容器生命周期。 − 健康检查:CCE提供了存活与业务两种探针,用于判断容器和用户业务是否正常运行。详细配置方法请参见设置容器健康检查。 工作负载存活探针:检查容器是否正常,不正常则重启实例。 工作负载业务探针:检查用户业务是否就绪,不就绪则不转发流量到当前实例。 − 环境变量:在容器中添加环境变量,一般用于通过环境变量设置参数。 在“环境变量”页签,单击“添加环境变量”,当前支持三种类型: 手动添加:输入变量名称、变量/变量引用。 密钥导入:输入变量名称,选择导入的密钥名称和数据。您需要提前创建密钥,具体请参见创建密钥。 配置项导入:输入变量名称,选择导入的配置项名称和数据。您需要提前创建配置项,具体请参见创建配置项。 说明: 对于已设置的环境变量,单击环境变量后的“编辑”,可对该环境变量进行编辑。单击环境变量后的“删除”,可删除该环境变量。 − 数据存储:给容器挂载数据存储,支持本地磁盘和云存储,适用于需持久化存储、高磁盘IO等场景。具体请参见本地磁盘存储。 说明: 有状态工作负载只能在创建时添加数据存储,创建完成后无法再添加。 − 安全设置:对容器权限进行设置,保护系统和其他容器不受其影响。 请输入用户ID,容器将以当前用户权限运行。 − 容器日志:设置容器日志采集策略、配置日志目录。用于收集容器日志便于统一管理和分析。详细配置请参见采集容器标准输出日志、采集容器内路径日志。 步骤 3 更新完成后,单击“提交”。 编辑YAML 可通过在线YAML编辑窗对无状态工作负载、有状态工作负载、守护进程集和容器组的YAML文件进行修改和下载。普通任务和定时任务的YAML文件仅支持查看、复制和下载。本文以无状态工作负载为例说明如何在线编辑YAML。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击工作负载后的“更多 > 编辑YAML”,在弹出的“编辑YAML”窗中可对当前工作负载的YAML文件进行修改。 步骤 3 单击“修改”,在弹出的提示框中单击“确定”,完成修改。 步骤 4 (可选)在“编辑YAML”窗中,单击“下载”,可下载该YAML文件。 伸缩 您可以根据业务需求自行定义无状态工作负载、有状态工作负载和守护进程集的伸缩策略,降低因应对业务变化和高峰压力而人为反复调整资源的工作量,帮助您节约资源和人力成本。本文以无状态工作负载为例说明如何使用伸缩功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待设置伸缩策略工作负载后的“更多 > 伸缩”,进入工作负载详情页面。 步骤 3 在“伸缩”页签,可设置“弹性伸缩”和“手动伸缩”策略,或“编辑伸缩规则”。 详细设置方法请参见工作负载弹性伸缩。 监控 您可以通过CCE控制台查看无状态工作负载、守护进程集和容器组的CPU和内存占用情况,以确定需要的资源规格。本文以无状态工作负载为例说明如何使用监控功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击已创建工作负载的名称,进入工作负载详情页面。在监控页签,可查看工作负载的CPU利用率和物理内存使用率。 步骤 3 单击“实例列表”,单击某个实例名称前的,单击“监控”。 步骤 4 查看相应实例的CPU使用率、内存使用率。 CPU使用率。 横坐标表示时间,纵坐标表示CPU使用率。绿色线条表示CPU使用率,红色线条表示CPU使用限额。 说明: CPU使用量需要计算,故初次显示时,CPU使用量会比内存使用量晚一分钟左右显示。 只有实例处于运行状态时,才能查看CPU使用量。 物理内存使用率。 横坐标表示时间,纵坐标表示内存使用量。绿色线条表示内存使用率,红色线条表示内存使用限额。 说明: 实例处于非运行状态时,无法查看内存使用量。 回退(仅无状态工作负载可用) 所有无状态工作负载的发布历史记录都保留在系统中,您可以回退到指定的版本。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待回退工作负载后的“更多 > 回退”。 步骤 3 在“回退到该版本”后,选择回退版本,单击“确定”。 暂停(仅无状态工作负载可用) 无状态工作负载可以进行暂停操作。暂停后,对负载进行的升级操作可以正常下发,但不会被应用到实例。 如果您正在滚动升级的过程中,滚动升级会在暂停命令下发后停止,出现新旧实例共存的状态。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待暂停的工作负载后方操作栏中的“更多 > 暂停”。 步骤 3 在弹出的负载暂停信息提示框中,单击“确认”。 步骤 4 单击“确定”,可完成暂停操作。 须知: 工作负载状态为暂停中时无法执行回退操作。 恢复(仅无状态工作负载可用) 暂停中的负载可以进行恢复操作。恢复后,负载可以正常升级和回退,负载下的实例会与负载当前的最新信息进行一次同步,如果有不一致的,则会自动按照负载的最新信息进行升级。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待恢复的工作负载后方操作栏中的“更多 > 恢复”。 步骤 3 在弹出的负载恢复信息提示框中,单击“确认”。 标签管理 标签是以key/value键值对的形式附加在工作负载上的。添加标签后,可通过标签对工作负载进行管理和选择,主要用于设置亲和性与反亲和性调度。您可以给多个工作负载打标签,也可以给指定的某个工作负载打标签。 您可以根据业务需求对无状态工作负载、有状态工作负载和守护进程集的标签进行管理,本文以无状态工作负载为例说明如何使用标签管理功能。 如下图,假设为工作负载(例如名称为APP1、APP2、APP3)定义了3个标签:release、env、role。不同工作负载定义了不同的取值,分别为: APP 1:[release:alpha;env:development;role:frontend] APP 2:[release:beta;env:testing;role:frontend] APP 3:[release:alpha;env:production;role:backend] 在使用调度或其他功能时,选择“key/value”值分别为“role/frontend”的工作负载,则会选择到“APP1和APP2”。 图标签使用案例 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待添加标签的工作负载,进入工作负载详情页面。 步骤 3 单击“标签管理”,单击“添加标签”,输入键和值,单击“确定”。 说明: 标签格式要求如下:以字母和数字开头或结尾,由字母、数字、连接符()、下划线()、点号(.)组成且63字符以内。 删除工作负载/任务 若工作负载无需再使用,您可以将工作负载或任务删除。工作负载或任务删除后,将无法恢复,请谨慎操作。本文以无状态工作负载为例说明如何使用删除功能。 步骤 1 登录CCE控制台,在左侧导航栏中选择“工作负载 > 无状态负载 Deployment”。 步骤 2 单击待删除工作负载后的“更多 > 删除”,删除工作负载。 请仔细阅读系统提示,删除操作无法恢复,请谨慎操作。 步骤 3 单击“是”。 说明: 若Pod所在节点不可用或者关机,负载无法删除时可以在详情页面实例列表选择强制删除。 请确保要删除的存储没有被其他负载使用,导入和存在快照的存储只做解关联操作。
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        管理工作负载和任务
      • 1
      • 2
      • ...
      • 179
      • 180
      • 181
      • 182
      • 183
      • 184
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      AI Store

      公共算力服务

      模型推理服务

      应用托管

      科研助手

      一站式智算服务平台

      智算一体机

      推荐文档

      系统

      应用场景

      NAT网关的SNAT规则删除(DNAT规则删除操作相同)

      只读实例简介

      首页

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号