云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      边缘容器集群(ECK专有版)_相关内容
      • 数据导入介绍
        本文介绍数据导入的特点与应用场景。使用数据导入功能,可以让您的数据处理更加高效、灵活,发挥数据的最大价值。 前提条件 支持的数据库类型 关系型数据库: MySQL:关系数据库MySQL版,公网直连MySQL,其他来源MySQL。 PostgreSQL:分析型数据库PostgreSQL,公网直连PostgreSQL,其他来源PostgreSQL。 SQL Server:分析型数据库SQLServer,公网直连SQL Server,其他来源SQL Server。 DRDS:分布式关系型数据库DRDS,公网直连DRDS,其他来源DRDS。 ClickHouse:分析型数据库ClickHouse,公网直连ClickHouse,其他来源ClickHouse。 Oracle:公网直连Oracle,其他来源Oracle。 非关系型数据库: MongoDB:文档数据库MongoDB,公网直连MongoDB,其他来源MongoDB。 DDS:文档数据库服务DDS,公网直连DDS,其他来源DDS。 支持的数据格式 支持本地上传SQL文件、CSV文件(逗号分隔值)、TXT文件(逗号分隔值)、JSON文件、EXCEL文件,支持上传.zip文件。 支持的写入方式 注意 针对非MongoDB/DDS数据源。 INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。 INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。 REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。 友好的用户界面 数据导入功能的用户界面简单直观,即使您不是技术专家,也能轻松上手使用。 应用场景 数据迁移: 在更换系统或平台时,数据导入可以帮助您将旧数据迁移到新系统中。 数据备份: 将源数据导出并导入到目标数据库,可以作为紧急备份,防止数据丢失。 注意事项 当前数据导入功能仅对单实例单个数据库/模式或单表实现变更操作,暂不支持同时对多个数据库或多表进行导入操作。 目前已支持批量导入SQL,支持的SQL类型有DDL和DML。用户可将建表SQL以及数据变更SQL导入以批量执行。每条SQL请以英文分号结束。 为了保证批量导入数据库的性能和速度,请使用SQL性能更好的方式,例如SQL语句采用INSERT,插入方式采用INSERT INTO。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导入
        数据导入介绍
      • 对象存储数据迁移至海量文件服务
        迁移至CIFS文件系统(Windows 云主机 ) 前提条件 已有至少一个对象存储Bucket。 准备工作 分别创建一个CIFS海量文件系统和一台Windows弹性云主机,具体操作请参考创建海量文件系统、创建弹性云主机。 安装Python3,确保Python版本大于3.6。若Python小于3.6,则会安装失败。 下载迁移工具。 操作步骤 将对象存储中数据迁移至海量文件系统可以分为几个关键步骤: 挂载文件系统>安装迁移工具 >填写工具基础配置信息 >迁移数据 。具体操作步骤如下 1. 将海量文件系统挂载到云主机。 将海量文件系统挂载至Windows云主机上,具体操作可参考挂载CIFS文件系统到弹性云主机 (Windows)。 2. 安装迁移工具。 用户可根据操作系统安装文件迁移工具,具体步骤如下: 1. 按住 Win+R进入命行工具,执行 python V查看Python版本,确保Python版本大于3.6+。若Python小于3.6,则会安装失败,用户自行可以在Python官网下载相应版本并安装。 2. 安装文件迁移工具,打开下载的压缩文件。找到install.bat文件,右键单机选择“以管理员身份运行”,执行过程中无明显错误,则表示安装成功。 3. 填写配置信息。 安装完成后,在系统的 C:ProgramDatactyunmigrationconfig 目录下存在配置文件migrations.conf,用记事本打开该文件,并填写参数,详细参数及相关说明请参考文件上云迁移工具用户手册Windows版。 说明 因配置文件位于C盘,需要管理员权限才可进行编辑。 4. 迁移数据。 以管理员权限双击压缩文件中migration.exe,执行会打开cmd 窗口,请不用理会,也不要关闭,可进行最小化。如果任务执行成功,会出现如下内容。执行过程中若出现错误,错误信息将会在cmd窗口中打印,根据错误信息重新修改配置文件即可。 迁移成功后,查看海量文件系统中存在迁移的数据:
        来自:
        帮助文档
        海量文件服务 OceanFS
        用户指南
        数据迁移
        对象存储数据迁移至海量文件服务
      • 磁盘问题
        如何压缩Windows系统源端服务器的磁盘分区? 问题描述 使用主机迁移服务迁移Windows系统的源端服务器时,要求目的端服务器的磁盘大小不小于“源端管理”中相对应的源端服务器“推荐规格”大小,否则迁移可能失败。若您已创建Windows系统的目的端服务器,且目的端服务器的磁盘大小小于推荐规格,您可以参见本章,将源端服务器的推荐规格调至小于或者等于目的端服务器的磁盘大小。 问题分析 对于Windows系统的源端服务器,主机迁移服务“源端管理”中的“推荐规格”是磁盘中所有被分区的空间大小之和。例如一块40GB的磁盘上有35GB被分区,那么推荐规格应该是36GB。因此只要压缩源端服务器中的磁盘分区,再重启Agent,将源端服务器信息重新上报至主机迁移服务,令“源端管理”中的推荐规格小于或者等于目的端服务器的磁盘大小就可以迁移了。 操作步骤 1. 打开“开始”菜单,输入“diskmgmt.msc”。进入“磁盘管理”界面。 2. 右键选中待压缩磁盘的最后一个分区,单击“压缩卷”。进入“压缩”界面。 3. 在“输入压缩空间量(MB)(E)”中输入需要压缩的大小。 4. 单击“压缩”。待压缩的磁盘会出现相应大小的未分配区。 5. 登录目的端管理控制台。 6. 单击“服务列表”,选择“迁移 > 主机迁移服务”。进入“主机迁移服务”页面。 7. 在左侧导航树中,选择“迁移服务器”。进入服务器列表页面。 8. 在服务器列表页面选择需要删除服务器,单击“操作”列下“更多 > 删除”。或勾选需要删除的服务器,单击服务器列表上方的“更多 > 删除”。 9. 在弹出的“删除”页面,单击“是”。 10. 将源端服务器信息重新上报至主机迁移服务。 1. 若您已将源端服务器中的迁移Agent卸载,请您参见安装Windows版的SMSAgent重新安装迁移Agent。 2. 若您的源端服务器中已安装迁移Agent,请您重新启动迁移Agent,启动成功后,迁移Agent会给主机迁移服务上传源端服务器信息。
        来自:
        帮助文档
        主机迁移服务SMS
        常见问题
        磁盘问题
      • 将数据库实例恢复到指定时间点
        本页介绍RDSPostgreSQL将数据库实例恢复到指定时间点的功能。 恢复到指定时间点是指将数据库恢复到过去某个特定的时间点上的状态。 操作场景 RDSPostgreSQL支持使用已有的自动备份和手动备份以及日志备份,恢复实例数据到指定时间点。实例恢复到指定时间点,会从备份节点选择一个与该时间点最接近的全量备份以及该备份的时间点之后的日志备份还原到实例上,恢复时长和实例的数据量以及备份介质有关。 限制条件 如需使用按时间点恢复,需开启日志备份功能。 目前支持恢复到当前实例、已有实例和新实例。 需要确保被恢复的实例机器有足够的磁盘空间。 若开通实例时选择的备份空间为“云硬盘”,则恢复到新实例时,新实例需要和源实例处于同一个vpc下;若选择的为“对象存储”,则没有这个限制。 若选择恢复到已有实例,且当前实例开通时选择的备份空间为“云硬盘”,则要求目标实例和源实例处于同一个vpc下。 操作步骤 1. 登录天翼云官网。 2. 点击控制中心,进入控制中心后,选择目标资源池。 3. 在产品列表页面中找到【数据库】→【关系数据库PostgreSQL版】,点击进入控制台。 4. 在左侧菜单中点击【PostgreSQL】→【实例管理】,点击进入产品实例管理页。 5. 在【实例管理】的实例列表中选择目标实例,点击指定的实例,进入单个实例管理详情页。 6. 点击“备份恢复”页签,进入备份恢复功能页面。 7. 点击“实例恢复“> 恢复策略选择“按时间点”> 填写需要恢复到的时间。 1. 恢复的目标实例选择”当前实例“,则会将数据恢复到本实例,需要注意的是,此操作会删除实例的数据,请提前做好备份。 2. 选择”已有实例“,则会将数据恢复到目标实例,需要注意的是,此操作会删除目标实例的数据,请提前做好备份。 3. 选择“新实例”,则会跳转到开通页面,选配好新实例的配置之后,即可进行实例的开通和数据的恢复。 8. 如需查看结果,可通过“备份恢复”页面右上角处的【操作列表】功能中,看到数据库恢复等任务的进度。 9. 恢复完成后,实例状态会变成运行中。 注意 不同资源池因IaaS资源能力等原因,加载版本有所差异,操作步骤有细微差异,请以实际界面为准,功能加载情况详见
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        数据恢复
        将数据库实例恢复到指定时间点
      • 天翼云云主机内网 NTP 时间同步配置指南
        为保障您的天翼云弹性云主机系统时间精准统一,避免因时钟偏差引发业务异常、日志时序错乱、合规审计不达标等问题,推荐您配置天翼云内网 NTP 时间同步服务。本文为您介绍内网 NTP 时间同步的核心作用,以及红帽系、Debian 系 Linux 操作系统的标准化配置方法。 一、内网 NTP 时间同步核心作用 保障业务稳定运行:确保分布式集群、数据库主从同步、交易订单等业务的时序一致性,避免因时钟偏差引发数据错乱、服务异常。 提升运维排障效率:统一全量云主机系统时间,保障日志时序准确,便于故障溯源与问题定位。 满足合规审计要求:符合网络安全等级保护等监管规范对系统时间统一、日志可追溯的硬性要求。 低延迟高可靠:使用天翼云内网 NTP 专用地址,无需占用公网带宽,同步链路稳定、精度更高。 二、前置说明 适用范围:天翼云弹性云主机,涵盖红帽系(RHEL 7/8/9、CentOS 7/Stream、Rocky Linux、AlmaLinux 等)、Debian 系(Debian 10/11/12、Ubuntu 18.04+)Linux 操作系统。 天翼云内网 NTP 服务器地址:169.254.169.254。 三、配置步骤 红帽系操作系统配置(chronyd) 红帽系操作系统官方推荐使用 chronyd 服务实现时间同步,RHEL 8/9 系列默认预装并启用,配置步骤如下: 1. 备份原始配置文件(便于异常回滚) plaintext cp /etc/chrony.conf /etc/chrony.conf.bak 2. 写入天翼云内网 NTP 配置 清理原有NTP源配置 plaintext sed i E '/^(poolserver)/d' /etc/chrony.conf 新增内网NTP同步配置 plaintext cat >> /etc/chrony.conf << EOF server 169.254.169.254 iburst prefer EOF 3. 重启服务并配置开机自启 plaintext systemctl restart chronyd systemctl enable now chronyd
        来自:
        帮助文档
        镜像服务 IMS
        最佳实践
        天翼云云主机内网 NTP 时间同步配置指南
      • 专业模型训练-昇腾环境
        配置开发机 先创建开发机IDE任务,按照如下步骤展开操作: 打开IDE 提交任务后,点击“启动”按钮,任务状态将依次显示启动中>环境准备中>运行中(如果长时间(>1min)界面状态未更新, 可以使用F5手动刷新界面),当状态显示为运行中后,点击操作栏“打开”按钮。 打开终端 打开后,显示vscode界面如下,按照下图步骤打开terminal运行终端: 左侧文件管理器中显示了当前集群的共享存储空间/work/share,用户可在此创建文件夹,确保所有节点对文件的访问。用户还可以在终端中进入共享存储目录,执行命令行操作。 镜像制作 您可以轻松将开发机中的运行环境保存为镜像,通过保存镜像,您不仅能够在日后快速复用该开发环境,还可以将其应用到多节点训练任务中,确保训练环境的一致性与稳定性。这种方式能够避免因环境差异导致的问题,实现从单机开发到多机分布式训练的无缝衔接。同时,镜像化管理还能在团队协作中发挥重要作用,便于其他成员直接使用统一环境,提升整体研发效率。 填写镜像名称与版本号后,点击“确定”按钮。 在左侧“我的镜像”选项卡中可查看镜像制作进度。 镜像制作完成后,下次创建开发机或训练任务时即可选择该自定义镜像。
        来自:
        帮助文档
        一站式智算服务平台
        最佳实践
        专业模型训练-昇腾环境
      • 存算分离
        本文为您介绍天翼云云搜索服务的存算分离能力及使用方法。 功能简介 天翼云云搜索服务的OpenSearch和Elasticsearch都支持通过天翼云对象存储ZOS实现存算分离功能,这一功能显著提升了数据管理的灵活性和系统的可扩展性。 存算分离是现代分布式系统中一种重要的架构设计,通过将存储和计算资源解耦,使得数据存储和处理能力可以独立扩展,从而优化资源利用率并降低运营成本。 在传统的分布式搜索引擎架构中,存储和计算通常是紧耦合的,数据存储在同一集群的节点上,并由这些节点负责数据的索引和查询处理。然而,随着数据规模的增长和计算需求的变化,存算耦合的架构可能面临扩展性和成本效益方面的挑战。 通过支持对象存储,搜索引擎允许用户将数据存储在外部的对象存储系统天翼云ZOS中。这种架构下,计算节点主要负责数据的索引和查询处理,而数据存储则由对象存储系统来管理。计算节点可以根据需要动态地从对象存储中拉取数据,进行处理后再将结果返回。 应用场景与优势 弹性扩展 存算分离使得存储和计算资源可以独立扩展。用户可以根据数据量和计算需求的变化分别扩展存储容量和计算节点数量,从而实现灵活的资源管理,避免过度配置带来的浪费。 成本优化 对象存储通常具有较低的成本,尤其适合存储大量不常访问的冷数据。通过将数据存储在对象存储中,用户可以显著降低存储成本,同时只需为需要处理的热数据配置计算资源。
        来自:
        帮助文档
        云搜索服务
        用户指南
        增强特性
        存算分离
      • 产品定义
        开源对比 相较于开源自建RocketMQ,分布式消息服务RocketMQ在自动化部署、运维监控、增强能力、延迟消息/定时消息、ACL访问控制等方面更具优势。更多信息请参见开源对比。 支持的消息类型 分布式消息服务RocketMQ支持的消息类型包括普通消息、顺序消息、事务消息与延时消息。 普通消息:RocketMQ中无特性的消息,普通消息主要包含同步消息和异步消息两种。 顺序消息:指消费消息的顺序要同发送消息的顺序一致,在RocketMQ中,主要有两种有序消息:全局有序消息和局部有序消息(又叫普通有序消息、分区有序消息)。 事务消息:提供类似X/Open XA的分布式事务功能来确保业务发送方和MQ消息的最终一致性,其本质是通过半消息(prepare消息和commit消息)的方式把分布式事务放在MQ端来处理。 延时消息:生产者将消息发送到消息队列RocketMQ服务端,设计消费时延,在预设的时间后才可以被消费者消费。 更多信息请参见功能特性。 功能特性 分布式消息服务RocketMQ的功能特性主要体现在以下几个方面: 访问接口 支持通过API调用,创建队列、查询消息监控指标、查询消息内容等。 队列能力 支持多种消息类型,包括普通队列(高并发场景)、FIFO有序队列(顺序消息场景)、严格有序队列。 消息能力 支持消息过滤、消息复用、消息重试、消息回溯、消息数据主动删除以及消息广播等能力。 安全防护 提供云审计进行租户管理操作的记录。 运维监控 提供主题、订阅组、生产者、消费者、队列的管理;同时支持集群、主题、队列多维度指标监控。 更多信息请参见功能特性。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        产品定义
      • 增强型
        增强型云主机配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。 在售型号:c8ne、m8ne 停售型号:c7ne 适用场景 增强型云主机适用各种于网络密集型应用与企业级应用: NFV/SDWAN 移动互联网 视频弹幕 电信业务转发 大中型数据库系统、缓存、搜索集群 大数据分析和机器学习 增强型弹性云主机特点 规格名称 计算 磁盘类型 网络 网络增强计算型c8ne 1.CPU/内存配比:1:2/1:4 2.vCPU数量范围:2192 3.处理器:第五代英特尔®至强®可扩展处理器 4.基频/睿频:2.6GHz/3.1GHz 1.XSSD0 2.XSSD1 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:3600万PPS 4.最大内网带宽:64Gbps 网络增强内存型m8ne 1.CPU/内存配比:1:8 2.vCPU数量范围:2192 3.处理器:第五代英特尔®至强®可扩展处理器 4.基频/睿频:2.6GHz/3.1GHz 1.XSSD0 2.XSSD1 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:3600万PPS 4.最大内网带宽:64Gbps 网络增强计算型c7ne 1.CPU/内存配比:1:2/1:4 2.vCPU数量范围:2148 3.处理器:第三代英特尔®至强®可扩展处理器 4.基频/睿频:2.8GHz/3.5GHz 1.普通IO 2.高IO 3.通用型SSD 4.超高IO 5.极速型SSD 1.支持IPv6 2.实例网络性能与计算规格对应,规格越高网络性能越强 3.最大网络收发包:3000万PPS 4.最大内网带宽:32Gbps
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        通用云主机
        增强型
      • 弹性云主机使用须知和使用限制
        本节描述了弹性云主机使用场景须知、使用限制、Windows操作系统使用须知、Linux操作系统使用须知。 弹性云主机使用场景须知 禁止使用ECS搭建赌博、私服、跨境VPN等违法违规业务。 禁止使用ECS对电商网站开展刷单、刷广告等虚假交易操作。 禁止利用ECS对外部系统发起网络攻击,例如:DDoS攻击、CC攻击,Web攻击,暴力破解,传播病毒、木马等。 禁止使用ECS提供流量穿透服务。 禁止利用ECS搭建爬虫环境,对外部系统发起爬虫搜索。 未经外部系统主体授权,禁止利用ECS对外部系统发起扫描、渗透等探测行为。 禁止在ECS上部署任何违法违规网站和应用。 使用限制 请勿卸载云主机硬件的驱动程序。 弹性云主机不支持加载外接硬件设备,例如:硬件加密狗、U盘等。 请勿修改网卡的MAC地址。 弹性云主机不支持二次虚拟化。 物理机支持虚拟化软件安装和二次虚拟化,兼容VMware、Citrix XenServer、HyperV、Xen、KVM等多种Hypervisor。 部分软件的鉴权模式可能会导致license与物理机的硬件信息绑定,云主机的迁移、规格变更操作可能会引起物理信息变更进而导致license失效。 由于物理机故障导致云主机发生迁移,迁移时可能会出现重启或关机现象,建议您在系统业务进程配置自动拉起和开机自启动,或者通过业务集群部署、主备部署等方式实现业务的高可用。 建议您为部署核心关键业务的云主机做好数据备份。 建议您为云主机上的应用业务指标做好监控配置。 不建议您修改默认的DNS,如您有公网DNS配置需求,可以在云主机上配置公网DNS和内网DNS。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        弹性云主机使用须知和使用限制
      • 审计
        VPN连接支持对用户操作进行审计,本文介绍相关操作说明。 操作场景 本服务现已对接天翼云云审计服务,云审计服务提供对各种云资源操作的记录和查询功能,用于支撑合规审计、安全分析、操作追踪和问题定位等场景,同时提供事件跟踪功能,将操作日志转储至对象存储实现永久保存。 云审计可提供的功能服务具体如下: 记录审计日志:支持用户通过管理控制台或API接口发起的操作,以及各服务内部自触发的操作。 审计日志查询:支持在管理控制台对7天内操作记录按照事件类型、事件来源、资源类型、筛选类型、操作用户和事件级别等多个维度进行组合查询。 审计日志转储:支持将审计日志周期性的转储至对象存储服务(ZOS)下的ZOS桶。 使用限制 云审计服务本身免费,包括时间记录以及7天内时间的存储和检索。若您使用云审计提供的转储功能,需要开通对象存储服务并支付产生的费用,该费用以对象存储产品的计费为准,参考计费说明对象存储。 用户通过云审计能查询到多久前的操作事件:7天。 用户操作后多久可以通过云审计查询到数据:5分钟。 其它限制请参考使用限制云审计。 关键操作列表 事件名称 资源类型 创建SSL服务端 SSL VPN 删除SSL服务端 SSL VPN 创建SSL客户端 SSL VPN 删除SSL客户端 SSL VPN 创建IPsec连接 IPsec VPN 删除IPsec连接 IPsec VPN 说明 仅集群模式资源池支持
        来自:
        帮助文档
        VPN连接
        用户指南
        审计
      • 查看监控信息
        本页介绍了文档数据库服务查看监控信息。 为方便用户查看和掌握实例的运行状态,文档数据库服务节点信息中提供了丰富的性能监控项,具体的查看方法如下: 约束限制 单节点没有TPSQPSREPL。 主节点没有TPSQPSREPL。 主节点展示oplog时间和速率,其余节点展示主备时长和延时。 mongos没有TPSQPSREPL、全局锁、wiredTiger、oplog。 监控数据保存时间为30天,您无法查看30天之前的监控信息。 查看监控信息 方式一: 1. 登录TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”,看到实例列表。 3. 点击实例名称,进入基本信息页面后,点击“查看监控”按钮(部分资源池是直接点击查看监控图标)。 4. 进入监控页面,根据需要选择页面标签来查看监控信息。 5. 单节点实例:可以查看节点级别的监控数据;副本集实例:支持查看副本集实例下的所有子节点类型的监控数据,包括只读节点和hidden节点;集群实例可以分别根据mongos子节点、shardingshard子节点、shardingconfigsvr子节点查看对应的监控数据。 6. 用户可以根据时间范围筛选来查看指标的监控信息。 监控展示支持的性能指标监控周期包括:1小时、3小时、12小时、24小时、3天、7天、15天和30天。 监控展示支持的性能指标监控频率包括:15秒、1分钟、5分钟、30分钟、1小时和1天。 方式二: 1. 登录TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”,看到实例列表。 3. 点击“操作”>“监控”按钮,进入监控页面,查看监控信息。 说明 “方式二”不是所有资源池都支持,请以实际资源池功能支持为主。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        监控管理
        查看监控信息
      • 应用场景
        本节主要介绍分布式消息服务Kafka常用的应用场景 分布式消息服务Kafka主要适用于以下几种场景: 日志收集 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦。 支持实时在线分析系统和类似于 Hadoop 的离线分析系统。 Kafka本身的性能是非常高效的,同时Kafka的特性决定它非常适合作为"日志收集中心",这是因为Kafka在采集日志的时候业务是无感知的,其能够兼容自己的上游,能够直接地通过配置加密消息。当日志数据发送到Kafka集群里面,其实对于业务而言是完全无侵入的。同时其在下游又能够直接地对接Hadoop/ODPS等离线仓库存储和Strom/Spark等实现实时在线分析。在这样的情况之下,使用Kafka,只需要用户去关注整个流程里面的业务逻辑,而无需做更多的开发就能够实现统计、分析以及报表。 流计算处理 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦。 通过支持流计算引擎,可对接开源 Storm/Samza/Spark 流计算引擎。 Kafka能够做到流计算处理,比如股市走向分析、气象数据测控、网站用户行为分析等领域,由于在这些领域中数据产生快、实时性强、数据量大,所以很难统一采集并入库存储后再做处理,这便导致传统的数据处理架构不能满足需求。而Kafka Stream以及Storm/Samza/Spark等流计算引擎的出现,可以根据业务需求对数据进行计算分析,最终把结果保存或者分发给需要的组件。
        来自:
        帮助文档
        分布式消息服务Kafka
        产品简介
        应用场景
      • 创建Topic
        本节主要介绍分布式消息服务Kafka的创建Topic说明 背景信息 Kafka的主题(Topic)是对消息进行分类和组织的概念。主题是Kafka中最基本的逻辑单元,用于区分不同类型的消息。 每个主题可以有多个分区(Partition),每个分区都是一个有序的消息日志。分区允许消息在集群中进行并行处理,提高了吞吐量和并发性能。 主题的特点包括: 逻辑分类:主题可以根据业务需求或数据类型进行逻辑分类,例如订单主题、日志主题、用户行为主题等。 多分区:主题可以被分成多个分区,每个分区都有自己的消息顺序。分区可以在不同的节点上进行存储和处理,实现了水平扩展和负载均衡。 副本复制:每个分区可以有多个副本(Replica),副本用于提供高可用性和容错性。副本可以分布在不同的节点上,当节点故障时可以自动进行故障转移。 持久化存储:主题中的消息被持久化存储在磁盘上,确保消息的可靠性和持久性。消费者可以随时消费主题中的历史消息,而不仅仅是最新的消息。 通过使用主题,Kafka能够有效地组织和管理大规模的消息流。主题的分区和副本机制提供了高可用性和容错性,使得Kafka成为处理大规模实时数据流的理想选择。 前提条件 已购买并部署分布式消息服务Kafka 操作步骤 创建Topic (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“Topic管理”后、点击“创建Topic”。 (5)点击“创建Topic”后,输入Topic名称、分区数等参数。 (6)创建好Topic后,可以点击“更多”按钮中的“生产消息”来测试其是否正常。
        来自:
        帮助文档
        分布式消息服务Kafka
        快速入门
        创建Topic
      • 权限管理
        依赖服务的权限设置 如果IAM用户需要在SMS Console控制台拥有相应功能的查看或使用权限,请确认已经对该用户所在的用户组设置了SMS FullAccess或SMS ReadOnlyAccess策略的集群权限,再按如下下表增加依赖服务的角色或策略。 表 SMS Console依赖服务的角色或策略 控制台功能 依赖服务 需配置角色/策略 创建迁移任务 弹性云主机ECS 弹性IP 虚拟私有云VPC 镜像服务IMS 云硬盘EVS IAM用户设置了SMS FullAccess权限后,需要增加ECS FullAccess、VPC FullAccess、IMS FullAccess、EVS FullAccess、EIP FullAccess权限后才能创建迁移任务。 查看迁移进度 无需其他依赖权限。SMS ReadOnlyAccess权限即可查看迁移任务进度。 创建迁移参数模板 无需其他依赖权限。SMS FullAccess权限后即可创建迁移参数模板。 创建虚拟机配置模板 虚拟私有云VPC 云硬盘EVS 弹性云主机ECS IAM用户设置了SMS FullAccess权限后,需要增加ECSReadOnlyAccess、VPC ReadOnlyAccess、EVS ReadOnlyAccess权限后才能创建虚拟机配置模板。 迁移代理配置 弹性云主机ECS 弹性IP 虚拟私有云VPC 镜像服务IMS 云硬盘EVS IAM用户设置了SMS FullAccess权限后,需要增加ECS FullAccess、VPC FullAccess、IMS FullAccess、EVS FullAccess、EIP FullAccess权限后才能进行迁移代理配置。
        来自:
        帮助文档
        主机迁移服务SMS
        产品介绍
        权限管理
      • 挂载已有数据的共享磁盘
        操作场景 本章节指导用户挂载已有数据的共享磁盘,只可以用作数据盘。 您可以在磁盘列表中查看磁盘信息,磁盘信息符合以下条件,该磁盘支持挂载至云主机用作数据盘。 共享盘:共享 磁盘属性:数据盘 磁盘状态:可用或者正在使用 说明 卸载后的系统盘即为启动盘,根据您选择的挂载点不同,启动盘可以重新挂载给云主机用作系统盘或者数据盘。 共享磁盘最多可以挂载至16台云主机,当共享盘状态为“正在使用”时,必须确保该共享盘还未挂满。 操作步骤 1. 登录管理控制台。 2. 选择“专属存储 > 磁盘”。 进入“磁盘”页面。 3. 在磁盘列表,找到需要挂载的磁盘,单击“挂载”。 1. 共享磁盘支持批量挂载操作,可以同时将一块共享磁盘挂载至多台云主机。“挂载磁盘”对话框左侧区域为可选的云主机列表,选择目标云主机后,则已选云主机会显示在右侧区域。 2. 只有当共享盘状态为“可用”或者“正在使用”时,才支持挂载至云主机。 4. 选择磁盘待挂载的云主机,该云主机必须与磁盘位于同一个可用分区,通过下拉列表选择“挂载点”。 说明 一个挂载点只能挂载一块磁盘,已经被使用的挂载点不会显示在列表中,无法进行选择。 返回磁盘列表页面,此时磁盘状态为“正在挂载”,表示磁盘处于正在挂载至云主机的过程中。当磁盘状态为“正在使用”时,表示挂载至云主机成功。 说明 直接将共享磁盘挂载给多台云主机无法实现文件共享功能,如需在多台云主机之间共享文件,需要搭建共享文件系统或类似的集群管理系统。
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        挂载已有数据的磁盘
        挂载已有数据的共享磁盘
      • 产品功能
        本小节介绍等保咨询简化版与标准版各自的功能。 等保咨询简化版 按照等级保护相关标准要求,提供测评内容、测评对象、测评流程、测评指标、测评方法等测评细项内容,以及系统定级、备案指导服务,输出《等保测评技术指导》。提供系统差距的安全风险分析,包括网络、防护、应用、制度等测评相关服务,并输出《差距分析评估》。 等保测评技术指导:按照等级保护相关标准要求,提供测评内容、测评对象、测评流程、测评指标、测评方法等测评细项内容,以及系统定级、备案指导服务,输出《等保测评技术指导》。 差距分析评估:提供系统差距的安全风险分析,包括网络、防护、应用、制度等测评相关服务,并输出《差距分析评估》。 等保咨询标准版 包含所有简化版服务内容,提供针对性的等保合规要求的整改安全方案。、 等保测评技术指导:按照等级保护相关标准要求,提供测评内容、测评对象、测评流程、测评指标、测评方法等测评细项内容,以及系统定级、备案指导服务,输出《等保测评技术指导》。 差距分析评估:提供系统差距的安全风险分析,并输出《差距分析评估》。 差距整改方案:提供针对性的等保合规要求的整改安全方案,指导整改。
        来自:
        帮助文档
        等保咨询
        产品简介
        产品功能
      • 创建实例
        %^+?,特殊字符。请您输入高强度密码并定期修改,以提高安全性,防止出现密码被暴力破解等安全风险。 请妥善保管您的密码,因为系统将无法获取您的密码信息。 确认密码 必须和管理员密码相同。 参数模板 数据库参数模板就像是数据库引擎配置值的容器,参数模板中的参数可应用于一个或多个相同类型的数据库实例。对于HA实例创建成功后,主备参数模板相同。实例创建成功后,参数模板可进行修改。 须知 创建数据库实例时, 为确保数据库实例正常创建,自定义参数模板中相关规格参数如下不会下发, 而是采用系统默认的推荐值。 “backlog” “innodbiocapacitymax” “maxconnections” “innodbiocapacity” “innodbbufferpoolsize” “innodbbufferpoolinstances” 您可以在实例创建完成之后根据业务需要进行调整。 表5 标签 参数 描述 标签 可选配置,对关系型数据库的标识。使用标签可以方便识别和管理您拥有的关系型数据库服务资源。每个实例最多支持10个标签配额。 实例创建成功后,您可以单击实例名称,在标签页签下查看对应标签。 表6 购买周期 参数 描述 购买时长(包年/包月) 选择所需的时长,系统会自动计算对应的配置费用,时间越长,折扣越大。 购买数量 关系型数据库服务支持批量创建实例,如果您选择创建主备实例,数量选择为1,那么会同步创建一个主实例和一个备实例。 关系型数据库的性能,取决于用户申请关系型数据库时所选择的配置。可供用户选择的硬件配置项为性能规格、存储类型以及存储空间。 步骤 6 对于按需计费的实例,进行规格确认。 如果需要重新选择实例规格,单击“上一步”,回到上个页面修改实例信息。 如果规格确认无误,单击“提交申请”,完成购买实例的申请。 跳过步骤7和步骤8,直接执行步骤9。 步骤 7 对于包年/包月模式的实例,进行订单确认。 如果需要重新选择实例规格,单击“上一步”,回到上个页面修改关系型数据库实例信息。 如果订单确认无误,单击“去支付”,进入“付款”页面。 如果暂不确定实例规格,单击“提交,暂不付款”,系统将保留您的订单,稍后可在“费用 > 我的订单”中支付或取消订单。 对于“包年/包月”模式的实例,付款成功后,才会创建。 步骤 8 选择付费方式,完成付费。 本操作仅适用于包年/包月计费方式。 步骤 9 关系型数据库实例创建成功后,用户可以在“实例管理”页面对其进行查看和管理。 创建实例过程中,状态显示为“创建中”。您可以通过“任务中心”查看详细进度和结果。在实例列表的右上角,单击刷新列表,可查看到创建完成的实例状态显示为“正常”。 创建实例时,系统默认开启自动备份策略,后期可修改。实例创建成功后,系统会自动创建一个全量备份。 数据库端口默认为3306,实例创建成功后可修改。 具体请参见 修改数据库端口。
        来自:
        帮助文档
        专属云(关系型数据库MySQL)
        快速入门
        通过公网连接MySQL实例
        创建实例
      • 功能特性
        本文带您了解云间高速(标准版)的功能特性。 云间高速(标准版)(CECStd, Express Connect Standard)为您提供一种能够快速构建同域、跨域VPC之间的高速、优质、稳定的网络能力,帮助您打造一张具有企业级规模和通信能力的云上网络。云间高速(标准版)具备大规模灵活组网、网络资源互通、路由自主学习和分发,跨区域互通带宽配置及与SDWAN混合组网等功能特性。 大规模灵活组网 每个地域可以创建云企业路由器,集中连接网络实例,组网可控、可管、易扩展。 简化拓扑 网路实例(VPC、云专线、跨账号VPC、VPN、云桌面网络)均集中连接到云企业路由器,简化点到点连接的管理成本,提高组网扩展性。 灵活可控 灵活定义互通、隔离、引流策略,提高网络安全性。 网络资源互通 任意网络实例间互通,提供高速、可靠、稳定的网络质量。 支持多网络实例互通 网络实例包括VPC、云专线、跨账号VPC、VPN和云桌面网络。 将同一账号下同域或跨域VPC加载到云间高速(标准版),可以实现VPC之间的互通。 将云专线加载到云间高速(标准版),可以实现云下IDC与云上多VPC互通,构建混合云。 涉及跨账号的同域或跨域VPC互联,首先需要跨账号授权网络实例,授权完成后,将跨账号网络实例加载到云间高速(标准版),即可实现跨账号同域或跨域VPC互通。 低时延 任意两点网络实例之间以最短路径私网互通,高速率,低时延。
        来自:
        帮助文档
        云间高速(标准版)EC
        产品简介
        功能特性
      • 购买相关
        云堡垒机创建成功后,可以修改VPC和子网吗? 云堡垒机创建成功后,VPC和子网不可更改。如需修改 ,请先退订云堡垒机,然后重新购买。 云堡垒机创建成功后,可以删除admin账号吗? 系统管理员账号admin拥有系统最高操作权限,该账号是不允许删除的。 但是admin账号支持锁定。 如果忘记admin密码,支持通过云堡垒机控制台重置密码。 云堡垒机实例有哪些规格? 目前云堡垒机提供标准版 和专业版两个功能版本,标准版版本配备10、20、50、100、200、500、1000、5000、10000资产规格,专业版配备10、20、50、100、200、500、1000、5000、10000资产规格。 实例版本规格 功能版本 功能说明 :: 标准版 基础功能:身份认证、权限控制、账号管理、安全审计 专业版 基础功能:身份认证、权限控制、账号管理、安全审计增强功能:自动化运维、数据库运维审计 不同规格配置说明 资产数 最大并发数 CPU 内存 系统盘 数据盘 :::::: 10 10 4核 8GB 100GB 200GB 20 20 4核 8GB 100GB 200GB 50 50 4核 8GB 100GB 500GB 100 100 4核 8GB 100GB 1000GB 200 200 4核 8GB 100GB 1000GB 500 500 8核 16GB 100GB 2000GB 1000 1000 8核 16GB 100GB 2000GB 5000 2000 16核 32GB 100GB 3000GB 10000 2000 16核 32GB 100GB 4000GB 如何配置云堡垒机的安全组?
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        购买相关
      • 测试方法
        本节主要介绍测试方法。 本章基于GeminiDB Influx实例,进行性能测试,具体包括测试环境,测试步骤,以及测试结果。 测试环境 区域:天翼云资源池 可用区:可用区一 弹性云主机(Elastic Cloud Server,简称ECS):规格选择内存优化型m6.2xlarge.8,8U64GB,操作系统镜像使用CentOS 7.6 64位版本。 被测试集群实例的配置:每个实例包含3个节点。 被测试集群实例的规格:4U16G、8U32G、16U64G、32U128G。 测试工具 本次测试采用了开源社区的Time Series Benchmark Suite (TSBS)。 测试指标 写入性能测试关注每秒写入点数(points/sec)。 查询性能测试关注时延和OPS(Operation Per Second)。 测试步骤 1. 执行如下命令,生成需要执行写入的数据。 tsbsgeneratedata usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:00Z" loginterval"10s" format"influx" gzip > /tmp/influxdata.gz 说明 scale:需要生成的时间线数量。 loginterval:数据采样间隔。 2. 执行如下命令,进行写入性能测试,获取写入性能数据。 NUMWORKERS${numWorkers} BATCHSIZE${batchSize} DATABASEHOST${influxIP} DATABASEPORT${influxPORT} BULKDATADIR/tmp scripts/loadinflux.sh 3. 执行如下命令,生成查询语句。 tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries20 querytype"highcpuall" format"influx" gzip > /tmp/influx20querieshighcpuall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries1000000 querytype"singlegroupby181" format"influx" gzip > /tmp/influx1000000queriessinglegroupby18112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"doublegroupby1" format"influx" gzip > /tmp/influx500queriesdoublegroupby112hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries50 querytype"doublegroupbyall" format"influx" gzip > /tmp/influx50queriesdoublegroupbyall12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries200 querytype"lastpoint" format"influx" gzip > /tmp/influx200querieslastpoint12hfrequency.gz tsbsgeneratequeries usecase"devops" seed123 scale10000 timestampstart"20160101T00:00:00Z" timestampend"20160101T12:00:01Z" queries500 querytype"groupbyorderbylimit" format"influx" gzip > /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz 说明 usecase, seed,scale,timestampstart 的值与上面步骤中生成写入数据时设置的值保持一致。 timestampend:数据生成结束后一秒。 queries:生成的查询数。 queriestype:生成的查询类型,具体模型含义参见下表。 4. 执行如下命令,查询性能,获取查询性能数据。 cat /tmp/influx20querieshighcpuall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx1000000queriessinglegroupby18112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10000 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesdoublegroupby112hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx50queriesdoublegroupbyall12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx200querieslastpoint12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 10 urls(httphttps)://${influxIP}:${influxPORT} cat /tmp/influx500queriesgroupbyorderbylimit12hfrequency.gz gunzip tsbsrunqueriesinflux workers${numWorkers} printinterval 50 urls(httphttps)://${influxIP}:${influxPORT}
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        性能白皮书
        测试方法
      • 高效的SQL计算能力
        本页介绍天翼云TeleDB数据库高效的SQL计算能力。 SQL计算能力是指根据业务SQL生成最优执行计划,通过算子下推、并行执行和RDA等技术,提升分布式执行效率。 算子下推: 在Sharding的单节点执行或当增删改查等不需要DN节点间数据交互的场景下,CN节点将SQL直接下发至DN跨节点执行。 在关联查询等需要DN节点间数据交互的场景下,CN将执行计划下发给DN,DN间通过RDA网络框架完成数据重分布。 并行执行:节点间支持DDL、DML等SQL语句并行执行;节点内支持基于数据页的并行查询。 RDA( Remote Data Access ):RDA模块实现的重分布逻辑分为三个模块,分别是RDA算子模块,Backend和Forwarder模块之间通信的内存管理模块,网络通信模块Forwarder。 RDA(Remote Data Access)算子是指进行远程数据访问的数据库算子。其生命周期中包括RDAInit、RDAExec和RDAEnd。 RDAInit:在RDAInit阶段,初始化RDA算子所需的资源,包括数据缓冲区和共享内存文件,把共享内存文件名通过Socket发送给本节点forwarder进程。 RDAExec:在RDAExec阶段,RDA算子需要完成两方面的工作:1.数据在集群范围内的分发,每扫到数据,则按重分布键计算Dest节点,确定相应共享内存对象和缓冲区;先尝试把数据写共享内存,供forwarder进程读取;若写失败,则写缓冲区。2.算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDAEnd:在RDAEnd阶段,关闭RDA算子资源,包括通知本地forwarder进程结束共享内存数据监听、清理算子使用的缓冲区、关闭共享内存文件,然后结束算子运行。使用64位的全局sequence作为RDA算子的名字,sequence名字为rdaid。该sequence在系统初始化阶段创建,需要考虑多个节点创建。 Backend和Forwarder模块之间通过共享内存进行通信。 每个RDA对应一个共享内存块,包含发送通道、接收通道共享内存,每个通道包含基本的通道信息和一个通信用的循环队列。每个共享内存块对应一个mmap文件,RDA开始通信时创建文件,通信结束关闭,对应的文件在ResourceOwner中管理,在事务结束时一起删除。常发生时有可能导致对应的文件不能删除,startup日志重放结束后清空该目录。 网络通信模块Forwarder通过Socket在不同RDA之间传输数据。数据在集群范围内的分发,下层算子的扫描数据tuple,计算重分布,若是本地处理的则保留,可返回给上层算子;若不是本地处理的,则根据destnodeid写入到共享内存或缓存tuplestore,供forwarder进程读取。算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDA主要用于解决重分布场景的进程数暴增问题,DN节点间数据传输走RPC,每个Datanode只会有1个会话进程。 SQL计算具体执行过程如下: 1. 业务应用下发SQL给CN节点 ,其中SQL可以包含对数据的增(insert)、删(delete/drop)、改(update)、查(select)。 2. CN节点利用数据库的优化器生成执行计划,每个DN节点会按照执行计划的要求去处理数据。 3. 为确保数据均匀分布在每个DN节点,DN节点之间需进行数据传递。 说明 因为数据是通过一致性Hash技术均匀分布在每个节点,因此DN节点在处理数据的过程中,可能需要从其他DN节点获取数据。同时,TeleDB可通过RDA网络框架降低数据重分布的资源消耗。 4. DN节点将结果集返回给CN节点进行汇总。 5. CN节点将汇总后的结果返回给业务应用。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的SQL计算能力
      • 使用Logstash迁移Elasticsearch实例间数据
        本文以自建Elasticsearch 7.10.2版本迁移至天翼云Elasticsearch实例为例子,介绍如何使用天翼云Logstash实现迁移Elasticsearch实例的数据。 Logstash 是一个开源的数据处理管道工具,广泛用于数据收集、处理和传输。它通常作为“ELK Stack”(Elasticsearch、Logstash、Kibana、Beats)的一个核心组件,用于处理结构化和非结构化数据。 天翼云Logstash可以实现将源Elasticsearch实例(如天翼云、自建或第三方Elasticsearch实例)中的数据迁移至天翼云Elasticsearch实例。在升级实例版本、实例架构调整、或跨区域的实例数据迁移时,可以选择使用天翼云Logstash迁移源Elasticsearch实例数据。 Logstash的方式迁移数据支持跨大版本,且迁移方式灵活,下表是支持的集群版本: 源目标 Elasticsearch7.10.2 OpenSearch2.19.1 Elasticsearch6.x √ √ Elasticsearch7.x小于7.10.2 √ √ Elasticsearch7.x大于7.10.2 √ √ Elasticsearch8.x √ √ 本文以自建Elasticsearch 7.10.2版本迁移至天翼云Elasticsearch实例为例子。 前提条件 已经创建天翼云Elasticsearch实例。 已经在创建的Elasticsearch实例中加装了Logstash实例。 加装Logstash能够通过内网或公网访问需要迁移的源Elasticsearch实例。 Logstash工作模型 Logstash工作模型核心部分为三部分:输入(Input)、过滤器(Filter)、输出(Output),按照配置管道文件的顺序对数据进行提取、处理转换、输出。 1.输入(Input):Logstash支持多种数据输入源,如文件、数据库、消息队列以及Elasticsearch等。在我们的场景中,源Elasticsearch实例就是输入数据源。Logstash会批量提取源Elasticsearch实例中的数据。 2.过滤器(Filter):过滤器是可选的,用于对输入数据进行实时处理和转换。它提供了一些强大的插件,可以对数据进行解析、变换、裁剪或其他操作。在我们的场景中,可以选择是否使用过滤器来处理迁移中的数据,例如删除源数据中不需要迁移的字段等操作。 3.输出(Output):Logstash的输出插件负责将处理后的数据写入到目标位置,这可以是文件、数据库、消息队列,或者像本例中的天翼云Elasticsearch实例。
        来自:
        帮助文档
        云搜索服务
        最佳实践
        迁移集群
        使用Logstash迁移Elasticsearch实例间数据
      • 创建云企业路由器
        本文帮助您了解如何创建云企业路由器实例。 操作场景 在云间高速(标准版)实例中,用户根据实际业务需求,在目标资源池区域创建云企业路由器实例。云企业路由器作为网络的核心组件,负责转发本地资源池区域内的所有网络实例的流量。 操作步骤 1. 登录云间高速(标准版)管理控制台,并在侧菜单列表中选择“云间高速(标准版)”。 2. 在控制台首页,单击目标云间高速(标准版)实例操作列的“管理 ”或单击目标云间高速(标准版)实例名称。 3. 进入目标云间高速实例详情页面,单击“云企业路由器管理 ”,然后单击“创建云企业路由器”。 4. 在创建云企业路由弹窗中,根据页面提示,填写参数。 参数 说明 取值样例 大区域 选择大区域类型,目前仅支持“境内”和“亚太” 境内 资源池 选择目标资源池,支持模糊检索 华东1 名称 云企业路由名称 CERhuadong1 描述 云企业路由器描述 6. 核对信息后,仔细阅读服务协议并勾选同意。 7. 单击“确定”,完成当前资源池区域云企业路由器创建。 说明 在云间高速网络实例中,只有在第一次创建云企业路由器的时候需要勾选服务协议。
        来自:
        帮助文档
        云间高速(标准版)EC
        快速入门
        创建云企业路由器
      • 服务协议
        本文为您介绍态势感知(专业版)服务协议,请点击查看。 天翼云态势感知(专业版)服务协议
        来自:
        帮助文档
        态势感知(专业版)(新版)
        相关协议
        服务协议
      • 配置OBS目的端参数
        本章节主要介绍配置OBS目的端参数。 作业中目的连接为配置OBS连接时,即导入数据到云服务OBS时,目的端作业参数如下表所示。 高级属性里的参数为可选参数,默认隐藏,单击界面上的“显示高级属性”后显示。 表 OBS作为目的端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 桶名 写入数据的OBS桶名。 bucket2 基本参数 写入目录 写入数据到OBS服务器的目录,目录前面不加“/”。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据。 directory/ 基本参数 文件格式 写入后的文件格式,可选择以下文件格式: CSV格式:按CSV格式写入,适用于数据表到文件的迁移。 二进制格式:选择“二进制格式”时不解析文件内容直接传输,CDM会原样写入文件,不改变原始文件格式,适用于文件到文件的迁移。 如果是文件类数据源(FTP/SFTP/HDFS/OBS)之间相互迁移数据,此处的“文件格式”只能选择与源端的文件格式一致。 CSV格式 基本参数 重复文件处理方式 只有文件名和文件大小都相同才会判定为重复文件。写入时如果出现文件重复,可选择如下处理方式: 替换重复文件 跳过重复文件 停止任务 跳过重复文件 高级属性 加密方式 选择是否对上传的数据进行加密,以及加密方式: 无:不加密,直接写入数据。 KMS:使用数据加密服务中的KMS进行加密。如果启用KMS加密则无法进行数据的MD5校验。 AES256GCM:使用长度为256byte的AES对称加密算法,目前加密算法只支持AES256GCM(NoPadding)。该参数在目的端为加密,在源端为解密。 KMS 高级属性 KMS ID 写入文件时加密使用的密钥,“加密方式”选择“KMS”时显示该参数。单击输入框后面的,可以直接选择在数据加密服务中已创建好的KMS密钥。 当使用与CDM集群相同项目下的KMS密钥时,不需要修改下面的“项目ID”参数。 当用户使用其它项目下的KMS密钥时,需要修改下面的“项目ID”参数。 53440ccb3e73470098b571ff5476e621 高级属性 项目ID KMS ID所属的项目ID,该参数默认值为当前CDM集群所属的项目ID。 当“KMS ID”与CDM集群在同一个项目下时,这里的“项目ID”保持默认即可。 当“KMS ID”使用的是其它项目下的KMS ID时,这里需要修改为KMS所属的项目ID。 9bd7c4bd54e5417198f9591bef07ae67 高级属性 数据加密密钥 “加密方式”选择“AES256GCM”时显示该参数,密钥由长度64的十六进制数组成。 请您牢记这里配置的“数据加密密钥”,解密时的密钥与这里配置的必须一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 高级属性 初始化向量 “加密方式”选择“AES256GCM”时显示该参数,初始化向量由长度32的十六进制数组成。 请您牢记这里配置的“初始化向量”,解密时的初始化向量与这里配置的必须一致。如果不一致系统不会报异常,只是解密出来的数据会错误。 5C91687BA886EDCD12ACBC3FF19A3C3F 高级属性 复制ContentType属性 “文件格式”为“二进制”,且源端、目的端都为对象存储时,才有该参数。 选择“是”后,迁移对象文件时会复制源文件的ContentType属性,主要用于静态网站的迁移场景。 归档存储的桶不支持设置ContentType属性,所以如果开启了该参数,目的端选择写入的桶时,必须选择非归档存储的桶。 否 高级属性 换行符 文件中的换行符,默认自动识别“n”、“r”或“rn”。“文件格式”为“二进制格式”时该参数值无效。 n 高级属性 字段分隔符 文件中的字段分隔符。“文件格式”为“二进制格式”时该参数值无效。 , 高级属性 写入文件大小 源端为数据库时该参数才显示,支持按大小分成多个文件存储,避免导出的文件过大,单位为MB。 1024 高级属性 校验MD5值 使用“二进制格式”传输文件时,才能校验MD5值。选择校验MD5值时,无法使用KMS加密。 计算源文件的MD5值,并与OBS返回的MD5值进行校验。如果源端已经存在MD5文件,则直接读取源端的MD5文件与OBS返回的MD5值进行校验。 是 高级属性 记录校验结果 当选择校验MD5值时,可以选择是否记录校验结果。 是 高级属性 校验结果写入连接 可以指定任意一个OBS连接,将MD5校验结果写入该连接的桶下。 obslink 高级属性 OBS桶 写入MD5校验结果的OBS桶。 cdm05 高级属性 写入目录 写入MD5校验结果的目录。 /md5/ 高级属性 编码类型 文件编码类型,例如:“UTF8”或“GBK”。“文件格式”为“二进制格式”时该参数值无效。 GBK 高级属性 使用包围符 “文件格式”为“CSV格式”,才有该参数,用于将数据库的表迁移到文件系统的场景。 选择“是”时,如果源端数据表中的某一个字段内容包含字段分隔符或换行符,写入目的端时CDM会使用双引号(")作为包围符将该字段内容括起来,作为一个整体存储,避免其中的字段分隔符误将一个字段分隔成两个,或者换行符误将字段换行。例如:数据库中某字段为hello,world,使用包围符后,导出到CSV文件的时候数据为"hello,world"。 否 高级属性 首行为标题行 从关系型数据库导出数据到OBS,“文件格式”为“CSV格式”时,才有该参数。 在迁移表到CSV文件时,CDM默认是不迁移表的标题行,如果该参数选择“是”,CDM在才会将表的标题行数据写入文件。 否 高级属性 作业成功标识文件 当作业执行成功时,会在写入目录下生成一个标识文件,文件名由用户指定。不指定时默认关闭该功能。 finish.txt 高级属性 自定义目录层次 选择“是”时,支持迁移后的文件按照自定义的目录存储。即只迁移文件,不迁移文件所归属的目录。 是 高级属性 目录层次 自定义迁移后文件的存储路径,支持时间宏变量。 ${dateformat(yyyyMMdd HH:mm:ss, 1, DAY)} 高级属性 自定义文件名 从关系型数据库导出数据到OBS,且“文件格式”为“CSV格式”时,才有该参数。 用户可以通过该参数自定义OBS端生成的文件名,支持以下自定义方式: 字符串,支持特殊字符。例如“cdm
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理作业
        配置作业目的端参数
        配置OBS目的端参数
      • 产品规格
        本章节介绍微服务云应用平台产品规格 微服务云应用平台当前支持版本:专业版。 版本 支持实例数 专业版 1<实例数<10000
        来自:
        帮助文档
        微服务云应用平台
        产品简介
        产品规格
      • 配置IP白名单
        本文介绍 了不同资源池的DMS服务IP地址,用户使用DMS管理数据库实例前,需要先将DMS服务IP地址配置至数据库实例的白名单中。 配置IP白名单 用户使用DMS管理数据库实例前,需要先将DMS服务IP地址配置至数据库实例的白名单中。 注意 不同地域、不同来源的数据库实例需要配置的DMS服务IP地址不同。 配置DMS服务IP地址至数据库实例白名单 在目标数据库实例中,可以手动配置DMS服务IP地址至数据库实例的白名单。 例如,手动配置DMS服务IP地址至关系型数据库MySQL版的白名单,详见:设置IP白名单。 DMS服务IP地址列表 在目标数据库实例中配置白名单时,建议按照实例来源将对应的DMS服务IP地址配置至实例的安全设置中,详见下表。 地域 云数据库 公网直连 ::: 华东1 33.2.1.0/24 117.89.250.178 上海36 33.2.2.0/24 117.89.250.178 西南1 33.2.0.0/24 117.89.250.178 长沙42 33.2.3.0/24 117.89.250.178 华北2 33.2.3.0/24 117.89.250.178 南昌5 33.2.2.0/24 117.89.250.178 华南2 33.2.0.0/24 117.89.250.178 青岛20 33.2.1.0/24 117.89.250.178 南宁23 33.2.0.0/24 117.89.250.178 郑州5 33.2.0.0/24 117.89.250.178 武汉41 33.2.0.0/24 117.89.250.178 太原4 33.2.0.0/24 117.89.250.178 苏州 33.2.0.0/24 117.89.250.178 广州4 33.2.0.0/16 117.89.250.178 ecx郑州4 198.17.5.0/24 117.89.250.178 ecx北碚1 198.17.5.0/24 117.89.250.178 杭州7 33.2.0.0/24 117.89.250.178 西南2贵州 33.2.0.0/24 117.89.250.178 庆阳2 33.2.0.0/24 117.89.250.178 西安7 33.2.2.0/24 117.89.250.178 北京行业云20 33.2.0.0/24 117.89.250.178 乌鲁木齐7 33.2.0.0/24 117.89.250.178 呼和浩特3 33.2.0.0/24 117.89.250.178 芜湖4 33.2.0.0/24 117.89.250.178 佛山7 33.2.0.0/24 117.89.250.178 香港2 33.2.0.0/24 117.89.250.178 河北张家口IT上云1 33.2.0.0/24 117.89.250.178 印尼1 10.203.3.0/24 117.89.250.178 [ ]
        来自:
        帮助文档
        数据管理服务
        快速入门
        配置IP白名单
      • SSL接入性能优化
        本文主要介绍消息队列 Kafka 通过SSL接入的最佳实践,从而帮助您更好的使用该产品。 文中的最佳实践基于消息队列 Kafka 的 Java 客户端;对于其它语言的客户端,其基本概念与思想是通用的,但实现细节可能有差异,仅供参考。 背景 云消息队列 Kafka 版实例如果选择SASLSSL接入时,可能会出现性能较差的情况。可以通过在客户端指定密码套件的方式,手动选择性能和安全性都较高的套件进行TLS通讯。 SSL握手时客户端发送Hello Client 并带上客户端支持的密码套件,服务端收到握手请求后,获取客户端带来的密码套件和服务端支持的密码套件取交集。密码套件加载顺序受客户端jdk版本影响,不同jdk版本,密码套件顺序不一样,可能会导致性能和安全性等无法保证。因此为了保证性能,SSL连接时客户端可以指定密码套件。 推荐的性能和安全性较高的密码套件 TLSECDHERSAWITHAES256GCMSHA384 TLSECDHERSAWITHAES128GCMSHA256 步骤 1.先按照SASLSSL协议接入Kafka,SASLSSL接入可参考文档 SASLSSL接入点接入 2.在此基础上增加 ssl.cipher.suites 配置 客户端关键参数 java Properties props new Properties(); props.put(ProducerConfig.BOOTSTRAPSERVERSCONFIG, BROKERADDR); props.put(ProducerConfig.VALUESERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(ProducerConfig.KEYSERIALIZERCLASSCONFIG, StringSerializer.class.getName()); props.put(CommonClientConfigs.SECURITYPROTOCOLCONFIG, "SASLSSL"); props.put("sasl.mechanism", "SCRAMSHA512"); props.put(SaslConfigs.SASLJAASCONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username"testuser" password"f6eca4dbc78df78d63fba980e448185f";");//注:上面的密码f6eca4dbc78df78d63fba980e448185f,为用户管理里面创建用户时填入的密码进行md5的结果,md5取32位小写 props.put("ssl.truststore.location","/kafka/client.truststore.jks"); props.put("ssl.truststore.password","sJses2tin1@23"); props.put("ssl.endpoint.identification.algorithm",""); props.put("ssl.cipher.suites","TLSECDHERSAWITHAES256GCMSHA384,TLSECDHERSAWITHAES128GCMSHA256");//密码套件支持多个,用半角逗号分开
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        SSL接入性能优化
      • 提交导入任务
        本文将介绍导入任务提交界面,以及如何提交导入任务。数据管理服务支持多种格式和多种数据库类型的数据导入。 前提条件 操作用户拥有目标数据库/模式的导入权限。 当前组织处于基础版时,需要目标实例已是登录状态(若未登录则选择目标库/模式时会弹出登录窗口)。 注意事项 导入任务当前只支持对单实例单个数据库/模式或单表进行数据变更操作,暂不支持同时对多实例多个数据库/模式或单表进行相同文件的批量导入。 导入时SQL将分批执行,默认每批1000行,不保证事务。导入工单结束后,可到实例元数据功能查看库/模式或查询窗口查看表数据,查看表数据操作请查阅 打开表。 如果选择导入的文件类型为SQL,则以库/模式为目标导入,无法选择“目标表”和“导入方式”。如果选择导入的文件类型为CSV、TXT、EXCEL,且上传文件类型为zip,系统默认会自动识别匹配的表名(表名识别规则根据文件名格式,如: 数据导出表名yymmddhhmmss序号.csv),此时用户也可以手动选择导入单表。 MongoDB、DDS数据源,都需要选择目标集合导入。 MySQL、PostgreSQL数据源,选择的导入类型为TXT、CSV、EXCEL文件且上传非压缩文件时,可以选择“导入行为”是“新建表”,支持导入前自动建表。 导入工单的SQL规则审核结果保留最多7天(从工单执行开始算起) 操作步骤 1. 登录DMS控制台。 2. 在左侧导航栏,单击开发空间>数据导入 ,进入数据导入管理页面。 3. 单击数据导入 按钮,弹出数据导入工单填写弹窗,工单需要选择或输入的内容说明见下表1。 4. 填写完数据导入工单后,单击提交按钮,即完成工单的提交。 5. 当前组织处于基础版时,数据导入工单进入任务执行阶段。 6. 当前组织处于企业版时,数据导入工单依次进入预检查、审批流程、任务执行阶段。 7. 数据导入任务的工单状态,可在导入列表页面查看,如果导入失败,可点击详情 查看原因。更多详细操作请查看数据导入工单列表。 表1 工单输入内容说明 输入内容 说明 数据库类型 选择导入的数据库类型,支持MySQL、PostgreSQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle。 目标数据库 选择数据导入的数据库/模式,数据来源于在DMS控制台中添加的数据库实例,其中MySQL、SQLServer、DRDS、MongoDB、DDS、ClickHouse、Oracle可选择到库级别,PostgreSQL可选择到模式级别。当前仅支持单选一个目标库/模式。 注意 如果未登录目标库/模式对应的实例,则选中目标库/模式后会弹出该实例的登录窗口。 导入文件类型 选择导入数据的上传文件类型: SQL:目前支持DDL和DML语句,请每条SQL语句以英文分号 (;)收尾,并做好换行。 选择该文件类型则无法指定“目标表 ”和“写入方式”。 CSV:CSV文件中的分隔符为英文逗号,且文件第一行为表的列名称。 TXT:TXT文件格式与CSV类似,文件中的分隔符为英文逗号,且文件第一行为表的列名称。 JSON:仅支持MongoDB和DDS数据源。 EXCEL:支持.xls和.xlsx格式,当前仅支持第一个sheet的内容导入。 以上文件类型支持打包上传.zip格式。 导入模式 当导入文件类型选择“SQL”时,可选择“导入模式”。 极速模式:不进行文件的扫描,只对数据源进行权限校验。 安全模式:整个SQL文件的扫描,安全性高但性能较差。 选择“安全模式”的工单,会在预检查阶段进行SQL风险和SQL规范检查(SQL风险和规范支持的数据库类型,详见SQL风险和SQL规范) 目标表 针对非MongoDB和DDS数据源,在选择目标数据库下,筛选导入的目标表。如果先上传zip文件,会出现“根据压缩包内文件名判断”字样,此时用户可手动选择仅导入到单表。 仅支持CSV/TXT/EXCEL格式导入。 文件编码 选择导入文件的编码类型: UTF8:默认选中。适用于大部分英文文本。 GBK:适用于文件中带有中文的情况。 自动识别:如果不能确定文件编码类型,可选该选项。 导入行为 针对MySQL和PostgreSQL数据源,在选择文件类型为CSV/TXT/EXCEL后,支持选择“新建表”,其余数据源类型默认为“现有表”。 选择“新建表”,系统会根据导入文件中的相关字段猜测您所需的建表结构,可点击新建表的表名称打开表结构编辑页面。 注意 当前“新建表”的表结构编辑,暂不支持数据库的自定义类型作为表字段类型。新建表字段类型与导入文件是否成功密切相关,如选择“新建表”请认真检查表结构是否符合需求。 写入方式 针对非MongoDB和DDS数据源,选择导入文件的写入方式: INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。 INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。 REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。 注意 为保证导入文件时数据库的性能,请尽可能选择INSERT操作。 目前MySQL数据库类型支持INSERT INTO,INSERT IGNORE INTO,REPLACE INTO这3种导入方式,PostgreSQL数据库类型支持INSERT INTO的导入方式,SQLServer数据库类型支持INSERT INTO的导入方式。 数据位置 当选择文件类型为CSV/TXT/EXCEL时,可选择文件首行属性是列名或者数据。 目标集合 针对MongoDB和DDS数据源,在选择目标数据库下,筛选导入的目标集合。如果先上传zip文件,会出现“根据压缩包内文件名判断”字样,此时用户可手动选择仅导入到单集合。仅支持JSON和CSV导入。 附件上传 单击上传文件,上传选中文件类型对应的文件。 注意 目前支持SQL,CSV,TXT,JSON,EXCEL五种文件格式,上传前请检查文件名后缀是否符合要求。 目前仅支持上传单个文件,EXCEL文件仅支持第一个sheet的内容导入。 上传文件大小最大限制为5GB,请控制好文件数据大小。 工单说明 描述工单备注内容。该内容将展示在工单详情弹窗页。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导入
        提交导入任务
      • 数据盘扩容
        本节介绍了云电脑(公众版)支持在”天翼云电脑“移动客户端进行数据盘扩容。 天翼云电脑(公众版)的数据盘为:16元/100GB/月,0.53元/100GB/日。 (注意:扩容数据盘会根据云电脑的有效时长进行费用的计算) 1. 登录“天翼云电脑”安卓移动客户端; 2. 选择“云电脑”列表查看需要扩容的云电脑; 3. 点击“管理”进入管理页面,选择“扩容“; 4. 选择新增数据盘或对已有数据盘进行扩大容量并提交订单; 5. 确认订单并完成支付,支付成功后扩容即生效。 说明 1、在天翼云电脑(安卓)App、天翼云App、天翼云官网进行订购的云电脑公众版支持在天翼云电脑移动客户端进行产品变更操作管理。 2、在营业厅订购云电脑公众版产品的用户请到营业厅咨询产品变更流程。
        来自:
        帮助文档
        天翼云电脑(公众版)
        产品变更
        数据盘扩容
      • 集群实例负载不均衡问题排查
        本节主要介绍负载不均衡的常见处理方法。 对于集群方式部署的实例,常见Shard间负载不均衡,一般有如下原因:没有做分片,片键选择不正确,不做chunk预置,shard间均衡速度低于数据插入速度等。 排查方法 步骤 1 通过客户端连接数据库。 步骤 2 执行如下命令,查看分片信息。 mongos> sh.status() Sharding Status sharding version: { "id" : 1, "minCompatibleVersion" : 5, "currentVersion" : 6, "clusterId" : ObjectId("60f9d67ad4876dd0fe01af84") } shards: { "id" : "shard1", "host" : "shard1/172.16.51.249:8637,172.16.63.156:8637", "state" : 1 } { "id" : "shard2", "host" : "shard2/172.16.12.98:8637,172.16.53.36:8637", "state" : 1 } active mongoses: "4.0.3" : 2 autosplit: Currently enabled: yes balancer: Currently enabled: yes Currently running: yes Collections with active migrations: test.coll started at Wed Jul 28 2021 11:40:41 GMT+0000 (UTC) Failed balancer rounds in last 5 attempts: 0 Migration Results for the last 24 hours: 300 : Success databases: { "id" : "test", "primary" : "shard2", "partitioned" : true, "version" : { "uuid" : UUID("d612d134a4994428ab21b53e8f866f67"), "lastMod" : 1 } } test.coll shard key: { "id" : "hashed" } unique: false balancing: true chunks: shard1 20 shard2 20 “databases”中列出的所有数据库都是通过enableSharding开放了分片的库。 “test.coll”表示开启分片的namespace信息,其中test为集合所在的库名,coll为开启分片的集合名。 “shard key”表示前面集合的分片键,分片方式“id : hashed”表示通过id进行哈希分片,如果是“id : 1”,则代表通过id的范围进行分片。 “chunks”代表分片的分布情况。 步骤 3 根据步骤2查询出的结果,分析分片信息。 1. 如果业务性能存在瓶颈的数据库和集合,在上述“databases”以及子项中不存在,则说明业务集合没有进行分片。对于集群来说这意味着业务只有一个Shard承载,没有应用DDS的水平扩展能力。 此场景下可以通过如下的命令开启分片,充分发挥实例的水平扩展能力。 mongos> sh.enableSharding(" ") mongos> use admin mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 2. 如果“shardKey”分片片键选择不合理,也会导致负载不均衡。典型场景有业务热点数据分布在某个范围内,而分片的片键选择范围分片的方式,那么可能会出现热点数据所在的chunk对应的Shard负载会明显的高于其他Shard,最终导致整体性能出现瓶颈。 此场景下可以通过重新设计片键的分布方式来达到目标,比如将范围分片修改为哈希分片。 mongos> db.runCommand({shardcollection:" . ",key:{"keyname": }}) 说明 一个集合选择了分片方式,则不能在原集合上随时修改。所在集合在设计阶段需要充分考虑分片方式。 更多关于设置数据分片的内容请参见 3. 如果存在集中大批量的插入数据的场景,数据量超过单shard承载能力的话,可能会出现Balance速度赶不上插入速度,导致主shard存储空间占用率过高。 此场景可以使用sar命令查看服务器网络连接情况,分析每个网卡的传输量和是否达到传输上限。 sar n DEV 1 //1为间隔时间 Average: IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s %ifutil Average: lo 1926.94 1926.94 25573.92 25573.92 0.00 0.00 0.00 0.00 Average: A10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A11 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: NIC0 5.17 1.48 0.44 0.92 0.00 0.00 0.00 0.00 Average: NIC1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: A00 8173.06 92420.66 97102.22 133305.09 0.00 0.00 0.00 0.00 Average: A01 11431.37 9373.06 156950.45 494.40 0.00 0.00 0.00 0.00 Average: B30 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 Average: B31 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 说明 “rxkB/s”为每秒接收的kB数。 “txkB/s”为每秒发送的kB数。 检查完后,按“Ctrl+Z”键退出查看。 对于网络过高的情况,建议对MQL语句进行分析,优化思路,降低带宽消耗,提升规格扩大网络吞吐能力。 建议排查业务是否存在分片集合的情况消息中未携带ShardKey的情况,此场景下请求消息会进行广播,增加带宽消耗。 控制客户端并发线程数,降低网络带宽流量。 以上操作无法解决问题时,请及时提升实例规格,高规格节点对应更高网络吞吐能力的虚拟机。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        集群实例负载不均衡问题排查
      • 1
      • ...
      • 233
      • 234
      • 235
      • 236
      • 237
      • ...
      • 326
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      镜像服务 IMS

      轻量型云主机

      弹性高性能计算 E-HPC

      训推服务

      AI Store

      公共算力服务

      应用托管

      推荐文档

      管理服务器

      使用场景

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号