云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云图数数据库_相关内容
      • 从ClickHouse 自建集群迁移数据(方案二)
        迁移方案概述 迁移方案是通过源集群的zookeeper 做副本数据同步,架构如下: 前提条件: 要求源、目标集群在同一个网络,源、目标集群的分片数是相同的,另外建议源、目标集群的ck内核版本也一致,避免不同版本使用到的zstd 版本不一致导致merge出错 迁移条件 & 情况: 目标集群必须跟源集群具备相同的分片数,目标集群跟源集群网络相通; 只支持依赖zk的副本表; partitiong同步过程,源集群可正常读写,迁移过程源集群能正常读,但是不能写; 数据同步和迁移过程,不会删除源集群的数据; 数据同步过程源集群下的数据(本地数据 + cos数据)都会同步到目标集群下,因此目标集群下的容量要足够。 迁移步骤: 整体的迁移环节可概括为:创建临时表 (开始同步数据)和正式表 》修改临时表引擎为 MergeTree — 》从临时表把数据转移到正式表 》删除临时表 具体步骤如下: 1、在目标集群的各个分片选择一个节点,加入到tmpcluster里头去(metrika.xml文件中新增tmpcluster),修改目标集群的config.xml文件,把源集群的zk信息配置进来,如果有多个,那分别加入 ip1 2181 ip2 2181 ip3 2181 60000 30000 2、在目标集群上创建临时的副本表,绑定源集群的zk,以ReplicatedMergeTree为例子: CREATE TABLE tablenametmp on cluster tmpcluster ( ... ) ENGINE ReplicatedMergeTree('zookeeper2:path', '{replica}') ... 备注说明: 创建的临时副本表使用临时表名,在正式表后面加tmp。 创建的临时副本表使用的ZooKeeper路径和源端搬迁表的ZooKeeper路径需保持一致。 创建的临时副本表的表结构需和源端搬迁表保持一致。 3、创建完临时副本表之后,集群会自动通过源zk做part同步到目标集群的副本。期间不用做任何处理,可以准备下一步骤工作 (这个过程不要对临时表做任何数据分区操作,因为操作临时表分区就等于操作源集群对应正式表) 4、在目标集群创建正式名字的 副本表,采用默认zookeeper(可直接通过on cluster defaultcluster去创建) 5、同步完成之后,检查源集群和目标集群,各个表数据分布情况,数据准确性校验(查询part数,以及count总数是否匹配,校验数据准确性时最好做到源集群停写) 6、检查无误之后,在目标集群metadata 目录下,修改所有临时表的sql,把Engine均改成MergeTree (这步是为了迁移过程影响到源集群,保证源集群的数据可读),修改完后重启集群 —— 有现成脚本 7、执行DETACH 命令对临时表中的每个partition DETACH,然后登入目标集群,把临时表下detached目录的所有part mv 到对应的目标表的detached 目录下 —— 如果分区多,可用脚本完成,有现成脚本 例如:default 下lineorder表,可以执行 mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/ detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 例如:default 下lineordertmp临时表,分区有'1992','1993','1994','1995','1996' 第一步:在studio上执行(也可以通过脚本去完成): ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1992'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1993'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1994'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1995'; ALTER TABLE default.lineordertmp on cluster tmpcluster DETACH PARTITION '1996'; 第二步:登入到目标集群在各个节点上,执行: mv /data/clickhouse/clickhouseserver/data/default/lineordertmp/detached/ /data/clickhouse/clickhouseserver/data/default/lineorder/detached/ 8、执行attach 命令,把目标表下detached的part加载到表内 —— 如果分区多,可用脚本完成,有现成脚本(可找作者提供) 例如:default 下lineorder表,可以执行 alter table default.lineorder attach partition 'partitionname'; 依次把所有的partition 加载到正式表 9、所有的表迁移完成之后,删除临时表,再删除config.xml文件中的 auxiliaryzookeepers配置; 说明: 数据副本同步过程因为某种原因导致副本服务中断(可能是网络、bug、人为手工停止),再次重启后支持断点续传,不会影响源数据同步传输。 操作过程会涉及到多个partition的 DETACH和 attach命令,同时还需要登入到目标节点执行mv 操作,为了简化工作提高效率,减少过多人为操作而导致的失误,建议 通过批量工具(天翼云ClickHouse提供) + 脚本方式执行(找作者提供) 批量工具:批量分发文件到目标集群各个节点,批量在目标集群各个节点执行命令脚本等 参考脚本:查询一个表下的所有partition 列表,然后执行 DETACH命令, mv 命令 和最后的 attach命令 注意: 在添加临时表之后,源集群表的part就会自动通过zk做part复制,因为数据量很大,建议分批创建临时副本表,以免对源zk造成负载过高,从而影响业务 在临时表数据同步的过程中,一定不要对临时表做任何数据或是分区操作,操作临时表就等于操作源集群对应的正式表 在临时表数据同步过程,不能有ddl变化 方案优点:可支持对巨量副本表(几百个以上)的数据迁移,数据同步过程通过zk 做到后台自动同步,无需干预;同时支持对cos 数据的迁移; 不足:只能迁移ReplicatedMergeTree 引擎表,其它表不支持这种方案。
        来自:
        帮助文档
        云数据库ClickHouse
        ClickHouse数据迁移
        从ClickHouse 自建集群迁移数据(方案二)
      • 查看集群静态资源
        本章节主要介绍翼MapReduce的查看集群静态资源操作。 操作场景 大数据管理平台支持通过静态服务资源池对没有运行在Yarn上的服务资源进行管理和隔离。系统支持基于时间的静态服务资源池自动调整策略,使集群在不同的时间段自动调整参数值,从而更有效地利用资源。 系统管理员可以在FusionInsight Manager查看静态服务池各个服务使用资源的监控指标结果,包含监控指标如下: 服务总体CPU使用率 服务总体磁盘IO读速率 服务总体磁盘IO写速率 服务总体内存使用大小 说明 启用多实例功能后,支持管理HBase所有服务实例使用的CPU、I/O和内存总量。 操作步骤 1. 在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 静态服务池”。 2. 在“配置组列表”,单击一个配置组,例如“default”。 3. 查看系统资源调整基数。 “系统资源调整基数”表示集群中每个节点可以被集群服务使用的最大资源。如果节点只有一个服务,则表示此服务独占节点可用资源。如果节点有多个服务,则表示所有服务共同使用节点可用资源。 “CPU”表示节点中服务可使用的最大CPU。 “Memory”表示节点中服务可使用的最大内存。 4. 在图表区域,查看集群服务资源使用状态指标数据图表。 说明 可通过“为图表添加服务”,将特定服务的静态服务资源数据添至图表,最多可选择12个服务。 管理单个图表的操作,可参见
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        集群管理
        管理集群
        静态服务池
        查看集群静态资源
      • 数据恢复
        本页介绍天翼云TeleDB数据库如何创建恢复任务和查看恢复任务详情。 操作场景 当在使用过程中出现数据损毁,您可使用恢复功能进行实例恢复。期间TeleDB对用户数据不会做任何更改。它是基于数据备份和日志备份进行实时数据恢复。 说明 您在使用物理备份恢复功能时,请注意以下几点: 该功能只支持整实例恢复,不支持指定数据库、指定表恢复。 该功能只支持状态为运行中的实例恢复数据。 该功能只支持时间点备份(全量备份和增量备份)恢复,不支持全量备份恢复。 若要恢复到其他实例功能,请保证源实例、目标实例字符集、引擎版本兼容、节点数量一致。 恢复至其他实例会覆盖目标实例数据,请谨慎操作 。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树上选择备份与恢复 ,在当前实例 下拉框选择目标实例,选择数据恢复 页签。 2. 创建恢复任务 1. 单击实例恢复 ,出现实例恢复对话框。 2. 选择目标实例,设置期望恢复时间点,勾选可恢复时间点,单击校验 ,出现校验实例对话框。 3. 在校验实例对话框,所有检查项检查结果通过,单击确定 完成数据恢复。 3. 查看恢复任务详情 1. 单击目标实例所在行操作列的详情 ,出现恢复详情对话框。 2. 在恢复详情对话框,您可查看详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V3.0.0版本产品文档
        管理平台使用手册
        备份与恢复
        数据恢复
      • 表膨胀问题和应对建议
        本页介绍天翼云TeleDB数据库中表膨胀问题和应对建议。 由于TeleDB的MVCC实现机制原因,表数据的历史版本是保存在当前数据文件中的,通过VACUUM标识和回收一定时间之前的历史版本。对于增、删、改频率很高的表,由于VACUUM回收需要一定的时间,且回收与长事务有关,长事务会导致VACUUM不能及时标识回收历史版本,而频繁的新增、更新操作会写更多的新的页(数据块),导致表数据文件不断膨胀。 表膨胀会带来一些性能影响,如占用了更多的空间,全表扫描时需要扫描更多的的页(数据块)、更耗I/O、更耗时、索引扫描效率也会降低;VACUUM FREEZE时因需要全表扫描,同样效率更低。这和Oracle数据库频繁增、删、改导致的高水位表现一样。 应对表膨胀的建议有几点: 定期清理长事务,避免因长事务导致VACUUM回收失效。 大事务尽量拆成小事务。 设置合理的AUTOVACUUM,尽量能及时回收空间。 配置更好的硬件资源,提高SQL执行效率,提升VACUUM回收效率。 定期监测表膨胀情况,必要时在维护窗口、业务低峰期进行手动回收,或重建表。 用其它方案代替高频增删改的表,例如加入缓存层,高频操作在缓存层实时操作,然后定时同步到数据库。 评估是否可以设计为分区表,通过定期清理历史分区的方式加快数据回收。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        SQL开发最佳实践
        运维最佳实践
        表膨胀问题和应对建议
      • 支持与不支持的命令
        本页介绍了文档数据库服务支持与不支持的命令。 文档数据库服务支持与不支持的命令如下: 命令类别 命令名称 3.4 4.0 :::: Aggregates Commands aggregate √ √ Aggregates Commands count √ √ Aggregates Commands distinct √ √ Aggregates Commands mapReduce √ √ Geospatial Commands geoNear √ √ Geospatial Commands geoSearch √ √ Query and Write Operation Commands find √ √ Query and Write Operation Commands insert √ √ Query and Write Operation Commands update √ √ Query and Write Operation Commands delete √ √ Query and Write Operation Commands findAndModify √ √ Query and Write Operation Commands getMore √ √ Query and Write Operation Commands getLastError √ √ Query and Write Operation Commands resetError √ √ Query and Write Operation Commands getPrevError √ √ Query and Write Operation Commands parallelCollectionScan √ √ Query Plan Cache Commands planCacheListFilters √ √ Query Plan Cache Commands planCacheSetFilter √ √ Query Plan Cache Commands planCacheClearFilters √ √ Query Plan Cache Commands planCacheListQueryShapes √ √ Query Plan Cache Commands planCacheListPlans √ √ Query Plan Cache Commands planCacheClear √ √ Authentication Commands logout √ √ Authentication Commands authenticate √ √ Authentication Commands copydbgetnonce √ √ Authentication Commands getnonce √ √ Authentication Commands authSchemaUpgrade x x User Management Commands createUser √ √ User Management Commands updateUser √ √ User Management Commands dropUser √ √ User Management Commands dropAllUsersFromDatabase √ √ User Management Commands grantRolesToUser √ √ User Management Commands revokeRolesFromUser √ √ User Management Commands usersInfo √ √ Role Management Commands invalidateUserCache √ √ Role Management Commands createRole √ √ Role Management Commands updateRole √ √ Role Management Commands dropRole √ √ Role Management Commands dropAllRolesFromDatabase √ √ Role Management Commands grantPrivilegesToRole √ √ Role Management Commands revokePrivilegesFromRole √ √ Role Management Commands grantRolesToRole √ √ Role Management Commands revokeRolesFromRole √ √ Role Management Commands rolesInfo √ √ Replication Commands replSetFreeze x x Replication Commands replSetGetStatus √ √ Replication Commands replSetInitiate x x Replication Commands replSetMaintenance x x Replication Commands replSetReconfig x x Replication Commands replSetStepDown x x Replication Commands replSetSyncFrom x x Replication Commands isMaster √ √ Replication Commands replSetGetConfig x x Sharding Commands flushRouterConfig x x Sharding Commands addShard x x Sharding Commands addShardToZone √ √ Sharding Commands balancerStart √ √ Sharding Commands balancerStatus √ √ Sharding Commands balancerStop √ √ Sharding Commands removeShardFromZone √ √ Sharding Commands updateZoneKeyRange √ √ Sharding Commands cleanupOrphaned x x Sharding Commands checkShardingIndex x x Sharding Commands enableSharding √ √ Sharding Commands listShards x x Sharding Commands removeShard x x Sharding Commands getShardMap x x Sharding Commands getShardVersion √ √ Sharding Commands mergeChunks √ √ Sharding Commands shardCollection √ √ Sharding Commands shardingState x x Sharding Commands split √ √ Sharding Commands splitChunk √ √ Sharding Commands splitVector √ √ Sharding Commands moveChunk √ √ Sharding Commands movePrimary √ x Sharding Commands isdbgrid √ √ Administration Commands setFeatureCompatibilityVersion √ √ Administration Commands renameCollection √ √ Administration Commands dropDatabase √ √ Administration Commands listCollections √ √ Administration Commands drop √ √ Administration Commands create √ √ Administration Commands clone x x Administration Commands cloneCollection x √ Administration Commands cloneCollectionAsCapped √ √ Administration Commands convertToCapped √ √ Administration Commands filemd5 √ √ Administration Commands createIndexes √ √ Administration Commands listIndexes √ √ Administration Commands dropIndexes √ √ Administration Commands fsync √ √ Administration Commands connectionStatus √ √ Administration Commands compact √ √ Administration Commands collMod √ √ Administration Commands reIndex √ √ Administration Commands setParameter x x Administration Commands getParameter √ √ Administration Commands repairDatabase x x Administration Commands touch √ √ Administration Commands shutdown x x Administration Commands logRotate x x Administration Commands killOp √ √ Administration Commands releaseFreeMemory √ √ Diagnostic Commands availableQueryOptions √ √ Diagnostic Commands buildInfo √ √ Diagnostic Commands collStats √ √ Diagnostic Commands connPoolStats √ √ Diagnostic Commands cursorInfo x x Diagnostic Commands dataSize √ √ Diagnostic Commands dbHash x x Diagnostic Commands dbStats √ √ Diagnostic Commands diagLogging x x Diagnostic Commands driverOIDTest √ √ Diagnostic Commands explain √ √ Diagnostic Commands features √ √ Diagnostic Commands getCmdLineOpts x x Diagnostic Commands getLog √ √ Diagnostic Commands hostInfo x x Diagnostic Commands isSelf √ √ Diagnostic Commands listCommands √ √ Diagnostic Commands listDatabases √ √ Diagnostic Commands netstat √ √ Diagnostic Commands ping √ √ Diagnostic Commands profile √ √ Diagnostic Commands serverStatus √ √ Diagnostic Commands shardConnPoolStats x √ Diagnostic Commands top √ √ Diagnostic Commands validate √ √ Diagnostic Commands whatsmyuri √ √
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据库管理
        支持与不支持的命令
      • 规格清单(鲲鹏)
        鲲鹏内存优化型规格清单 表 km1s型弹性云主机的规格 规格名称 vCPU 内存(GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 虚拟化类型 km1s.large.8 2 16 2/0.4 30 2 2 KVM km1s.xlarge.8 4 32 3/0.8 50 2 3 KVM km1s.2xlarge.8 8 64 4/1.5 80 4 4 KVM km1s.3xlarge.8 12 96 5/2 110 4 5 KVM km1s.4xlarge.8 16 128 7/3 140 4 6 KVM km1s.6xlarge.8 24 192 8/4 200 8 6 KVM km1s.8xlarge.8 32 256 10/5 260 8 6 KVM km1s.12xlarge.8 48 384 15/8 350 16 8 KVM km1s.15xlarge.8 60 480 18/10 400 16 8 KVM 鲲鹏超高IO型规格清单 表 ki1s型弹性云主机的规格 规格名称 vCPU 内存(GiB) 最大带宽/基准带宽(Gbps) 最大收发包能力(万PPS) 网卡多队列数 网卡个数上限 本地盘 虚拟化类型 ki1s.2xlarge.4 8 32 4/1.5 80 4 4 13.2T KVM ki1s.4xlarge.4 16 64 7/3 140 4 6 23.2T KVM ki1s.6xlarge.4 24 96 8/4 200 8 6 33.2T KVM ki1s.8xlarge.4 32 128 10/5 260 8 6 43.2T KVM ki1s.12xlarge.4 48 192 15/8 350 16 6 63.2T KVM ki1s.16xlarge.4 64 228 18/10 400 16 6 83.2T KVM
        来自:
      • 监控引擎
        本章节介绍如何查看ZooKeeper的监控数据 概述 MSE引擎开通成功后,我们提供可视化的引擎监控能力,包括业务监控、JVM监控、系统资源监控、TopN监控等细分项目监控功能。本文将介绍如何查看ZooKeeper的监控数据。 前提条件 已开通微服务引擎MSE,参考章节:创建ZooKeeper引擎 开通ZooKeeper实例并且状态正常。 操作步骤 1. 登录微服务引擎MSE注册配置中心管理控制台,选择资源池。 2. 在左侧导航栏,选择注册配置中心 > 实例列表。 3. 在实例列表页面,单击目标实例ID、实例名称或者目标行“管理”按钮均可跳转至实例基础信息页面。 4. 在左侧导航栏,选择监控分析> 业务监控/资源监控/JVM监控/TopN监控。 监控分析 根据需要观察的监控指标选择对应的页签,业务监控/资源监控/JVM监控/TopN监控等细分项目监控功能。 业务监控:支持监测ZooKeeper实例的Znode、Watch数、平均延迟、服务数和QPS等业务指标。 资源监控:支持实例CPU、内存、磁盘、网络等资源使用情况。 JVM监控:支持查看GC情况,堆内存使用率等。 TopN监控:支持查看tps,qps,变更次数等关键特征值排名靠前的ZNode。 默认的监控周期为30分钟,单击自定义时间,可以选择想要查看的时间周期。 单击右上角的刷新按钮,可以刷新当前选定时间的监控数据。
        来自:
        帮助文档
        微服务引擎
        用户指南
        注册配置中心
        ZooKeeper
        监控引擎
      • 容器隧道网络
        本文主要介绍 容器隧道网络。 容器隧道网络模型 容器隧道网络在节点网络基础上通过隧道封装构建的独立于节点网络平面的容器网络平面,CCE集群容器隧道网络使用的封装协议为VXLAN,后端虚拟交换机采用的是openvswitch,VXLAN是将以太网报文封装成UDP报文进行隧道传输。容器隧道网络具有付出少量隧道封装性能损耗,即可获得通用性强、互通性强、高级特性支持全面(例如NetworkPolicy网络隔离)的优势,可以满足大多数性能要求不高的场景。 图 容器隧道网络 说明 节点内Pod间通信:同节点的Pod间通信直接通过本节点的ovs网桥直接转发。 跨节点Pod间通信:所有跨节点Pod间的通信通过ovs隧道网桥进行封装后,转发到对端节点上。 优缺点 优点 容器网络和节点网络解耦,不受VPC配额规格、响应速度的限制(如VPC路由条目数、弹性网卡数、创建速度限制) 支持网络隔离,具体请参见网络策略( NetworkPolicy ) 支持带宽限制 支持大规模组网 缺点 由于隧道封装,网络问题排查难度较大,整体性能较低 无法直接利用VPC提供的负载均衡、安全组等能力 不支持外部网络与容器IP直通
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        容器网络模型
        容器隧道网络
      • 基于LLaMA-Factory微调DeepSeek-R1-Distill-Qwen-7B最佳实践
        步骤二:微调DeepSeek模型 1. 启动LLaMAFactory服务 在完成云主机开通后,即可通过ssh连接到到云主机命令行。模型及LLaMAFactory服务均已放置在/root目录下,且已完成配套环境安装,可直接运行。 plaintext 进入目录 cd /root/LLaMAFactory 启动webui服务 (也可通过nohup放到后台启动) llamafactorycli webui 在成功启动LLaMAFactory服务后,您将可以通过 访问到相关页面。 plaintext 访问服务 2. 配置基础大模型和微调方法 在成功进入LLaMAFactory页面后,您首先需要按照如图的内容进行页面语言,模型名称和模型路径的设置。 注意 注意模型预置在/root/DeepSeekR1DistillQwen7B目录下。 3. 配置微调数据集 在Train页面内,您需要配置用于微调训练的数据集。镜像内预置了alpaca格式的天翼云示例数据,您也可参考示例数据修改/root/LLaMAFactory/data/目录下的alpacazhctyun.json(微调数据集)和datasetinfo.json(数据集信息)两个文件,改用您自己的私有数据。 镜像内置两份数据集,单条内容示例如下: data/alpacazhctyun.json(天翼云文档数据集) plaintext { "instruction": "天翼云的通用型弹性云主机有哪些规格?", "input": "", "output": " 用户询问通用型云主机规格,首先需要明确通用型的定位是平衡计算和内存资源。根据产品文档,通用型以s7系列为代表,应当列举不同后缀规格及其配置差异,最后补充适用场景说明。 n通用型弹性云主机有多个规格,例如s7.small、s7.medium、s7.large、s7.xlarge等,每种规格提供不同的vCPU和内存配置,适合多种业务场景。" } data/alpacaenmedcalcbenchmax2k.json(医学计算数据集MedCalcBench) plaintext { "instruction": "A 16yearold female adolescent was referred to our hospital with severe hypertension (systolic pressure 178 mmHg), which was first detected 7 months prior to presentation during a routine annual physical ...", "input": "What is the patient's Creatinine Clearance using the CockroftGault Equation in terms of mL/min? You should use the patient's adjusted body weight in kg instead of the patient's actual body weight if the patient is ...", "output": " The formula for computing CockcroftGault is given by CrCl ((140 age) adjusted weight (gendercoefficient)) / (serum creatinine 72), where the gendercoefficient is 1 if male, and 0.85 if female..." } 4. 配置相关训练参数 在Train页面内,还有大量可修改的微调训练参数。如果您对他们还不够了解,可暂时不进行修改。其中,训练轮数与样本量级关联性较大,如果您的微调数据量很少,则可能需要设置较大的训练轮数,才能有效果。 5. 启动微调训练 点击最下方的开始按钮,即可基于上面选择的基础模型和微调数据集,启动模型微调训练。页面下方会显示实时的训练进度,训练日志和loss变化情况。 如果您的训练样本较多,单张A10显卡的24G显存很容易因为无法承载,而导致报错"CUDA out of memory"。此时,您需要将云主机变配到显存更大的机型规格,并开启DeepSpeed stage3进行模型参数分片,如下图所示。 同时,您还需要修改默认DeepSpeed配置中的部分参数,以保证训练正常进行。修改/root/LLaMAFactory/cache/dsz3config.json中的如下内容: plaintext "zerooptimization": { "stage": 3, "overlapcomm": true, "contiguousgradients": true, "subgroupsize": 1e9, "reducebucketsize": "auto", "stage3prefetchbucketsize": "auto", "stage3parampersistencethreshold": "auto", "stage3maxliveparameters": 1e4, //降低该参数以减少显存占用 "stage3maxreusedistance": 1e4, //降低该参数以减少显存占用 "stage3gather16bitweightsonmodelsave": true }
        来自:
        帮助文档
        弹性云主机 ECS
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        基于LLaMA-Factory微调DeepSeek-R1-Distill-Qwen-7B最佳实践
      • 基于LLaMA-Factory微调DeepSeek-R1-Distill-Qwen-7B最佳实践
        步骤二:微调DeepSeek模型 1. 启动LLaMAFactory服务 在完成云主机开通后,即可通过ssh连接到到云主机命令行。模型及LLaMAFactory服务均已放置在/root目录下,且已完成配套环境安装,可直接运行。 plaintext 进入目录 cd /root/LLaMAFactory 启动webui服务 (也可通过nohup放到后台启动) llamafactorycli webui 在成功启动LLaMAFactory服务后,您将可以通过 访问到相关页面。 plaintext 访问服务 2. 配置基础大模型和微调方法 在成功进入LLaMAFactory页面后,您首先需要按照如图的内容进行页面语言,模型名称和模型路径的设置。 注意 模型预置在/root/DeepSeekR1DistillQwen7B目录下。 3. 配置微调数据集 在Train页面内,您需要配置用于微调训练的数据集。镜像内预置了alpaca格式的天翼云示例数据,您也可参考示例数据修改/root/LLaMAFactory/data/目录下的alpacazhctyun.json(微调数据集)和datasetinfo.json(数据集信息)两个文件,改用您自己的私有数据。 镜像内置两份数据集,单条内容示例如下: data/alpacazhctyun.json(天翼云文档数据集) plaintext { "instruction": "天翼云的通用型弹性云主机有哪些规格?", "input": "", "output": " 用户询问通用型云主机规格,首先需要明确通用型的定位是平衡计算和内存资源。根据产品文档,通用型以s7系列为代表,应当列举不同后缀规格及其配置差异,最后补充适用场景说明。 n通用型弹性云主机有多个规格,例如s7.small、s7.medium、s7.large、s7.xlarge等,每种规格提供不同的vCPU和内存配置,适合多种业务场景。" } data/alpacaenmedcalcbenchmax2k.json(医学计算数据集MedCalcBench) plaintext { "instruction": "A 16yearold female adolescent was referred to our hospital with severe hypertension (systolic pressure 178 mmHg), which was first detected 7 months prior to presentation during a routine annual physical ...", "input": "What is the patient's Creatinine Clearance using the CockroftGault Equation in terms of mL/min? You should use the patient's adjusted body weight in kg instead of the patient's actual body weight if the patient is ...", "output": " The formula for computing CockcroftGault is given by CrCl ((140 age) adjusted weight (gendercoefficient)) / (serum creatinine 72), where the gendercoefficient is 1 if male, and 0.85 if female..." } 4. 配置相关训练参数 在Train页面内,还有大量可修改的微调训练参数。如果您对他们还不够了解,可暂时不进行修改。其中,训练轮数与样本量级关联性较大,如果您的微调数据量很少,则可能需要设置较大的训练轮数,才能有效果。 5. 启动微调训练 点击最下方的开始按钮,即可基于上面选择的基础模型和微调数据集,启动模型微调训练。页面下方会显示实时的训练进度,训练日志和loss变化情况。 如果您的训练样本较多,单张A10显卡的24G显存很容易因为无法承载,而导致报错"CUDA out of memory"。此时,您需要将云主机变配到显存更大的机型规格,并开启DeepSpeed stage3进行模型参数分片,如下图所示。 同时,您还需要修改默认DeepSpeed配置中的部分参数,以保证训练正常进行。修改/root/LLaMAFactory/cache/dsz3config.json中的如下内容: plaintext "zerooptimization": { "stage": 3, "overlapcomm": true, "contiguousgradients": true, "subgroupsize": 1e9, "reducebucketsize": "auto", "stage3prefetchbucketsize": "auto", "stage3parampersistencethreshold": "auto", "stage3maxliveparameters": 1e4, //降低该参数以减少显存占用 "stage3maxreusedistance": 1e4, //降低该参数以减少显存占用 "stage3gather16bitweightsonmodelsave": true }
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        基于LLaMA-Factory微调DeepSeek-R1-Distill-Qwen-7B最佳实践
      • 单机串接静态路由入云
        步骤五:绑定天翼云SDWAN实例 完成以下操作,通过将智能网关实例加载到SDWAN网络中,实现组网。 1. 登录天翼云SDWAN控制台。 2. 选择“智能网关”,单击目标智能网关实例“操作”列的“绑定网络实例”。 3. 根据页面提示,选择要加入的天翼云SDWAN实例。 4. 单击“确定”,完成智能网关实例绑定天翼云SDWAN实例。 步骤六:绑定云间高速(标准版)实例 完成以下步骤,将SDWAN实例绑定云间高速(标准版)实例,实现企业线下分支访问天翼云VPC资源。 1. 登录天翼云SDWAN控制台。 2. 选择“天翼云SDWAN”,单击目标SDWAN实例“操作”列的“绑定云间高速(标准版)”。 3. 根据页面提示,选择待绑定的云间高速(标准版)实例和其下的云企业路由器实例。 4. 单击“确定”,完成绑定。 步骤七:访问测试 完成上述配置后,您可以通过在线下分支机构的客户端访问已连接的VPC中部署的云资源,验证配置是否生效。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        单机串接静态路由入云
      • 表填充因子设计规范
        本页介绍天翼云TeleDB数据库的表填充因子设计规范。 对于更新(update/delete)频繁的表,要设置合适的填充因子,通常建议50~70%(默认100%),预留一部分页空间用于数据更新,这样可以减少或避免因部分字段更新而导致的索引更新问题(索引字段没有更新,但如果没有预留页空间,索引仍需要更新),而且并发性能更好。 可以设置表的填充因子,例如: alter table teledb1 set (fillfactor70); ALTER方式设置的填充因子,对于存量数据不会重新调整填充率,新写入的数据会按填充因子预留页空间;可以通过数据导出导入的方式更新存量数据填充率。 也可以在创建表时,指定填充因子,例如: create table teledb1(id int) with (fillfactor70);
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        SQL开发最佳实践
        开发设计最佳实践
        表填充因子设计规范
      • 删除实例
        本页介绍天翼云TeleDB数据库删除实例。 操作场景 TeleDB支持手动退订实例、销毁实例来删除已创建的实例,暂停进程,清空数据。 约束与限制 需先停止实例才可以注销实例。 操作步骤 1. 登录TeleDBDCP控制台,在左侧导航树选择实例管理 > 实例列表 ,进入实例列表页面。 2. 退订实例 说明 退订成功的实例会进入实例回收站,可在实例回收站恢复或销毁实例。 1. 在实例列表页面,单击目标实例所在行的更多 > 退订 ,出现退订确认对话框。 2. 在退订确认 对话框,单击确定 。 3. 您可在左侧导航树实例管理 > 工单管理页面目标实例所在行的查看流程中查看退订情况。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        维护管理实例
        删除实例
      • 同步复制机制
        本页介绍天翼云TeleDB数据库的同步复制机制。 TeleDB主从节点支持同步复制和异步复制。同步复制是指一种数据复制技术,它确保所有从节点备用数据在写操作完成后保持同步更新。您可以根据业务需求选择需要同步复制的从节点数量。如果您设置为同步复制模式,当业务请求发生后,需要DN从节点写入WAL日志成功,DN主节点确认写入成功,然后再将结果返回CN,CN再将结果返回给业务,从而确保主从节点的数据在任意时刻都保持一致。同步复制模式可以在所有节点级别进行设置,保证每个节点的主从数据一致,是整个容灾体系的基础。 同步复制机制如图所示:
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        容灾架构及高可用能力
        同步复制机制
      • 境内门店访问海外云资源
        操作场景 某企业已经在海外区域A创建了天翼云VPC并在其中部署了应用服务,现在该企业希望通过天翼云SDWAN服务将境内线下分支机构接入海外天翼云资源池。 前提条件 注册天翼云账号,并完成实名认证。具体操作,请参见天翼云账号注册流程。 您已经在海外区域A创建了VPC,具体操作,请参见创建虚拟私有云VPC。 操作步骤 步骤一:购买软件智能网关 购买软件智能网关部署到海外资源池的VPC中。您可以通过天翼云官网自行购买智能网关实例,也可以联系客户经理购买智能网关实例。通过天翼云官网自行下单,操作步骤如下: 1. 登录天翼云SDWAN控制台,选择“智能网关”,在“智能网关”页面单击“创建智能网关”,选择“创建智能网关”。 2. 根据页面提示配置参数,部分参数信息可参考如下: 参数 描述 :: 实例名称 智能网关实例名称,长度为164字符,以大小写字母或中文开头,可包含数字、“.”、 “”、“”。 区域 选择设备接入的区域。这里需要选择海外资源池所在的区域,以便部署到海外VPC中。 基础带宽 该分支接入SDWAN骨干网的带宽大小。 是否购买设备 表示是否需要从天翼云购买设备。选择“是”。 网关形态 可选择硬件版、软件版,这里我们选择软件版。 使用方式 表示设备的使用方式。这里选择“单机”。 购买数量 默认为1。这里设置为1。 3. 单击“提交订单”。确认订单信息无误后,勾选“我已阅读并同意相关协议《天翼云SDWAN产品服务协议》”,单击“确认下单”。 4. 订单支付成功后,完成购买。
        来自:
        帮助文档
        天翼云SD-WAN
        最佳实践
        境内门店访问海外云资源
      • 版本说明书
        本页简要介绍分布式数据库V2.0.0版本更新说明。 版本说明 V2.0.0版本说明 组件名称 版本号 发布时间 TeleDBXCore 2.0 2021年 07 月 新增和优化特性: 1. 新增软件包管理模块,包括查看软件包列表、上传软件包、删除软件包、搜索软件包和增加对软件包进行md5校验。 2. 新增主机管理模块,包括添加服务器、查看服务器列表、删除服务器列表、测试服务器连通性、检测服务器状态接口、编辑服务器信息和根据IP地址搜索服务器。 3. 新增资源模版管理,包括新建资源模版、查看模版列表、编辑资源模版、删除资源模版、检测模版是否被使用和根据模版名称搜索模版。 4. 新增服务器指标,包括服务器CPU使用率、服务器CPU负载、服务器内存占用率、服务器平均每次设备I/O操作服务时间、服务器平均设备I/O队列、服务器设备I/O操作等待时间、服务器入流量、服务器出流量、服务器TCP连接数、服务器数据库文件句柄数和服务器进程数。 5. 新增实例管理模块,包括实例操作、节点操作和健康检查。 6. 支持用户登录和退出数据库管理平台。 7. 新增参数管理和鉴权配置,包括查看数据库参数、自定义配置数据库参数、支持批量修改数据库参数、查看鉴权配置、修改鉴权配置、增加鉴权配置和删除鉴权配置。 8. 新增监控模块,包括集群预览、集群监控和节点监控。 9. 支持任务管理、用户管理和租户管理。 10. 新增备份恢复模块,包括备份策略、备份管理和恢复管理。 11. 新增分布式数据库能力,包括引入TeleDB分布式数据库内核和优化Oracle兼容性。 12. 优化Oracle兼容性。 修复漏洞 CVE20181115 漏洞名称:TeleDB:Quest DR Series Disk Backup软件操作系统命令注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20181058 漏洞名称:TeleDB:PostgreSQL 提权漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE202132029 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201810915 漏洞名称:TeleDB:PostgreSQL SQL注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201910208 漏洞名称:TeleDB:Postgresql PostgreSQL SQL注入漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201712172 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201715098 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:高危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201715099 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20201720 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE201910130 漏洞名称:TeleDB:PostgreSQL 访问控制错误漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 CVE20181052 漏洞名称:TeleDB:PostgreSQL 安全漏洞。 风险等级:中危漏洞 漏洞详情: 漏洞发布时间:2021年07月 漏洞修复时间:2020年06月 解决方案:产品版本升级版本至2.1及以上。 修复缺陷 1. 在indexonly场景下,修复删除数据脱敏列功能不生效的问题。 2. 修复在聚合操作(带有去重)下添加一个排序节点的操作。 3. 在cn上vacuum表时,有cn计算frozenxid,保证集群范围内的统一xid回卷。 4. 修复因为释放的指针未置空导致coredump;优化过程中不能正确获取表的行数导致执行计划不准确的问题。 5. squeue故障时,consuer退出,CN回滚事务时,置空连接状态,避免无限的嵌套循环。 6. 修复查询串格式化时可能导致coredump的问题。 7. 修复等待轻量级锁(lwlock)的进程不进入pgstaterror处理的问题。 8. 修复分布式事务prepare时,未持久化2pc的上下文信息,导致pgclean无法清理一些二阶段事务问题。 9. 考虑空值和已删除的列,将已删除的属性、空值(NULL)以及缺失的值设置为NULL值。 10. 修复没有删除列的之间映射的bug。 11. 在pgsubscriptiontable中同步修改的bug。 12. 逻辑复制在master上新加入的表的数据变更到消费端直接被丢弃。 13. 逻辑复制ALTER SUBSCRIPTION xxx REFRESH PUBLICATION相关BUG。 14. 去掉Pooler调试过程无必要的sleep逻辑。 15. 确保在连接到连接池之前进行事务处理,并确保当前的事务状态是正确的。 16. 删除子表回归测例缺失。 17. 使用GCC版本7.3时遇到编译器错误。 18. 数据节点上通过VACUUM分区表产生的错误的索引信息。 19. 为gtm的 synchronousstandbynames 修正警告信息的if条件。 20. 修复TOAST表相关问题。 21. 修复空指针导致的core dump。 22. 修复一条日志"skip delete portal resowner"打印的if条件。 23. 修复一个在处理Gather 节点的左子树时,未能正确将目标(target)添加到其目标列表(targetlist)中的问题。 24. 在rtables(关系表列表)中搜索之前,没有正确检查变量的层级(level)的bug。如果变量是分布式列,并且其层级正确,那么函数返回 true。 25. 在构建初始快照时,避免recovery时的重复XIDs。 26. 在子事务precommit时使用独立的memorycontext,避免类似plpsql场景下因为子事务导致OOM。 27. 在cn节点调用pgclearnodecoldaccess函数会产生coredump。 28. 在poolerasyncbuildconnection中,在建立连接前检查管道中空间的bug。 29. 增加一条LOG信息,用于记录关于逻辑复制应用在特定数据库和表上的错误或问题的详细信息。 30. 支持在聚合算子下面增加sort算子。 31. 指针和数据的使用不当。 32. 指针和数据的释放函数使用不当。 33. copy tuple时置分片id相关问题。 34. FlushXlogTrack的coredump。 35. 修复GTM备机每次收到主机的时间戳位置都进行持久化的问题。 36. 修复GUC中的coordinatorlxid参数由于超出INTMAX的范围而导致的溢出问题。 37. 修复MergeAppend/Append算子下推时,如果有一个子算子下推到所有DN(nodes为NULL),在通过并集计算之后反而会丢失部分DN节点,从而导致查询结果不完整的问题。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V2.0.0版本产品文档
        版本说明书
      • 钢筋计数模型训练教学与实践
        本实践基于科研助手进行钢筋计数模型训练、推理。 场景描述 概述 息壤·科研助手是一款适用于高校科研使用场景的一站式科研实训平台,可调度各种类型的计算资源,支持一键部署、随时随地、无需配置开箱即用。科研助手支持用户实现AI教学场景的模型训练、推理、调优等。 实践内容 钢筋是建筑业的重要材料,庞大的数量、工地现场环境复杂以及人工点验错漏等现实因素为钢筋点验工作制造了难度,那么如何才能快速且准确地完成对于整个建筑施工过程极为重要的钢筋点验工作环节呢?本次实践内容为“AI数钢筋”——通过人工智能技术实现钢筋数量统计。所谓“AI数钢筋”就是,通过多目标检测机器视觉方法以实现钢筋数量智能统计,达到提高劳动效率和钢筋数量统计精确性的效果。目标检测算法通过与摄像头结合,可以实现自动钢筋计数,再结合人工修改少量误检的方式,可以智能、高效地完成钢筋计数任务。 步骤简介 教程包括如下步骤: 应用商城选购:在科研助手的应用商城中选购自己所需的教学与实践镜像 创建开发机:购买开发机,选择所需的资源规格 访问开发机并开始实践:在开发机中进行相应的教学与实践 获取结果:将实践生成的内容保存至本地 实践步骤
        来自:
        帮助文档
        科研助手
        最佳实践
        钢筋计数模型训练教学与实践
      • 监控概览
        以应用为维度,统计整个应用的关键指标,帮助您快速掌握应用的整体状况。 功能入口 1. 选择目标资源池,并登录APM组件控制台。 2. 在左侧导航栏中选择「应用监控 」「应用列表」。 3. 在应用列表中选择您想查看的应用,点击「应用名称」打开新的应用详情链接。 4. 在左侧导航栏中选择「监控概览」查看相应信息。 功能说明 总览指标 总请求量:筛选时间段内,应用提供服务请求量+应用依赖服务请求量。 平均响应时间:筛选时间段内,(所有应用提供服务响应时间+所有应用依赖服务响应时间)/总请求量。 错误数:error,筛选时间段内,请求出错的数量,通常指http状态码为4xx、5xx的请求。 FullGC:筛选时间段内,整堆垃圾回收的次数,回收的区域包括年轻代、老年代以及方法区。 慢SQL :筛选时间段内,执行时间大于等于慢SQL阈值的SQL数量,默认500ms,您可根据实际情况在「SQL设置」中修改。 异常:exception,筛选时间段内,该应用报的异常数。 慢调用 :筛选时间段内,响应时间大于等于慢调用阈值的调用数量,默认500ms,您可根据实际情况在「URL采集设置」中修改响应时间阈值。
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        监控概览
      • 分区平衡
        手动平衡 1. 进入Kafka实例管理控制台。 2. 点击左侧菜单栏中的Topic管理,进入主题列表页面。 3. 选择需要平衡的主题,点击其右侧操作栏的更多选项。 4. 选择手动平衡,设置手动平衡参数。 ● 在“手动平衡”对话框右上角,单击“减少副本”/“添加副本”,为Topic的每个分区减少/增加副本数。 ● 在待修改分区平衡的副本名称下,单击Broker名称或,选择目标Broker的名称,副本即将迁移至目标Broker上。同一分区下的不同副本需要分配在不同的Broker上。 ● 在“带宽限制”中,输入带宽大小,默认值为“1”,表示不限制带宽。如果实例负载较低,建议不设置带宽限制。如果需要设置带宽限制,建议该参数值不小于待分区平衡Topic的总生产带宽 待分区平衡Topic的最大副本数。 ● 执行时间,支持立即执行和自定义时间,选择自定义时间时,自定义时间需要大于当前时间。通过定时任务去扫描任务,所以执行时间和自定义时间最多会有几分钟的偏差。 5. 单击“确认”,自动跳转到Topic列表页面。 6. 在Topic列表页面左上方单击“分区平衡任务”,查看分区平衡任务的状态。 说明 同一个topic不支持同时创建多个分区平衡任务,重复创建时会覆盖前一个任务
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Topic管理
        分区平衡
      • 步骤八:配置流水线,实现持续交付
        配置质量门禁 为了控制代码的质量,代码必须经过扫描,并且错误数量控制在合理范围内,才允许发布。通过添加质量门禁可以有效的自动化控制流程。 步骤 1 在流水线任务“phoenixsamplepipeline”详情页,单击页面右上角,在下拉列表中选择“编辑”。 步骤 2 在阶段“构建和检查”中,单击“质量门禁”下的。 步骤 3 添加质量门禁。 1. 在页面右侧滑框中,单击“点击创建”。 2. 在弹框中输入名称“代码检查门禁”。 3. 打开“CodeCheck问题数”开关。 4. 输入门禁阈值(例如“5”),单击“保存”。 步骤 4 在“门禁模板”下拉列表中选择“代码检查门禁”,单击“保存”。 步骤 5 保存流水线,并启动流水线任务。 若代码检查问题数门禁未通过,流水线任务执行失败。 配置代码变更自动触发流水线 通过以下配置,可实现代码变更自动触发流水线执行,从而实现项目的持续交付。 步骤 1 在流水线任务“phoenixsamplepipeline”详情页,单击页面右上角“编辑”。 步骤 2 选择“执行计划”页签,页面默认显示“持续集成”页面。打开“代码提交时触发”开关,并选择触发分支“master”,单击“保存”。 步骤 3 验证配置结果:修改代码并推送至master(代码开发方式请参考步骤三:开发代码,本节不再赘述),即可查看流水线是否自动执行。
        来自:
        帮助文档
        软件开发生产线CodeArts
        最佳实践
        HE2E DevOps实践
        实施步骤
        步骤八:配置流水线,实现持续交付
      • 排查实例CPU使用率高问题
        本页介绍了排查实例CPU使用率高问题的方法。 CPU使用率过高的一般排查步骤如下: 1. 在DDS控制台找到目标实例,单击监控图标, 然后在CPU页签下,查看CPU使用率较高的时间段。 2. 登录对应的实例机器查看系统资源使用情况:首先使用Linux的系统监控工具(如top、htop)或Windows的任务管理器,查看系统整体的CPU使用率和其他资源使用情况。确认是否只有MongoDB进程占用大量CPU资源,还是其他进程也在竞争CPU资源。 3. 文档数据库服务查询性能分析工具与方式: 1. MongoDB Compass等工具来查看当前正在执行的查询(MongoDB Compass 的下载与使用请参见Mongodb的官网下载)。 2. 使用MongoDB shell的db.currentOp()命令,检查是否有某个查询或操作占用了大量CPU资源。 db.currentOp()命令解析: 例如:连接上Mongodb shell 执行以下操作: > db.users.find({ age: { $gte: 18 } }).limit(10) > db.currentOp() { "inprog" : [ { "opid" : 1290, // 操作的唯一标识符 "op" : "query", // 操作类型:查询 "ns" : "exampledb.users", // 操作涉及的命名空间 "query" : { "age" : { "$gte" : 18 } }, // 查询条件 "client" : "127.0.0.1:57852", // 客户端IP地址和端口 "desc" : "conn211", // 操作的描述信息 "active" : true, // 操作是否活动中 "secsrunning" : 5, // 操作已经运行的时间(以秒为单位) "oplog" : false, "numYields" : 0, "locks" : { "Global" : "r", // 全局读锁 "MMAPV1Journal" : "r" // MMAPv1引擎的日志读锁 }, "waitingForLock" : false, "msg" : "", "numYieldOps" : 0, "database" : "exampledb", "command" : { "find" : "users", // 执行的命令:查找操作 "filter" : { "age" : { "$gte" : 18 } }, // 过滤条件 "limit" : 10 // 限制结果数 }, "planSummary" : "COLLSCAN", // 查询执行计划摘要 "lsid" : { "id" : { "UUID" : "e45ea9176c614a5e86812da4af89aa29" }, // 会话ID "uid" : ObjectId("ea6a1a2570a062f88eac10f5") // 用户ID }, "$clusterTime" : { "clusterTime" : Timestamp(1657796621, 1), "signature" : { "hash" : { "BsonData" : "wDUTByvnZXjN+MJB/M9Rlg", "Length" : 28 }, "keyId" : 6963168194386045953 } }, "stale" : false, "txnNumber" : 11, "startAt" : ISODate("20230721T15:57:01.246Z"), "autocommit" : false, "lastWrite" : { "opTime" : { "ts" : Timestamp(1657796621, 1), "t" : 1 }, "lastWriteDate" : ISODate("20230721T15:57:01Z"), "majorityOpTime" : { "ts" : Timestamp(1657796621, 1), "t" : 1 }, "majorityWriteDate" : ISODate("20230721T15:57:01Z") }, "activeShards" : {}, "numShards" : 0, "shardName" : "", "hashed" : false, "batchSize" : 0, "mode" : "scanned" } ] } 4. 确认索引使用情况:检查数据库中的索引是否被有效使用。缺少索引或索引使用不当可能导致查询性能下降,从而导致高CPU使用率。 5. 长时间运行的查询:检查是否有长时间运行的查询,这些查询可能会占用大量CPU资源。优化查询性能或者对长时间运行的查询进行调整可能有助于降低CPU使用率。 6. 调整Write Concern:写操作的Write Concern设置会影响数据写入的确认方式,使用较高级别的Write Concern可能会导致CPU开销增加。根据应用需求,选择合适的Write Concern。 7. 硬件性能:确认文档数据库运行在性能良好的硬件上,包括CPU、内存和磁盘。如果硬件性能不足,可能会导致CPU使用率过高。 8. 日志记录级别:考虑降低文档数据的日志记录级别,减少日志输出对CPU的影响。 9. 压力测试:进行压力测试以模拟生产环境的负载,并观察CPU使用率的变化。通过压力测试可以更好地理解系统的瓶颈和性能问题。 10. 数据分片:如果数据量较大,可以考虑使用文档数据库服务的分片集群,将数据分散到多个节点上,以实现水平扩展和负载均衡。 11. 数据库版本和配置:确保使用的文档数据库服务版本是较新的稳定版本,并根据硬件资源和负载情况合理配置文档数据库服务的参数。 注意 高CPU使用率可能是复杂的问题,可能有多个因素共同导致。在进行问题排查时,建议先在测试环境中进行实验和测试,逐步排查可能的原因。如果问题持续存在,可以考虑寻求专业的文档数据库技术支持。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        排查实例CPU使用率高问题
      • 排查内存使用率高问题
        本页介绍了排查内存使用率高问题方式与解决方案。 内存使用率高问题排查方式与解决方案: 1. 使用【监控图表】的【内存】进行查看。 2. 解决方案: 1. 控制并发连接数。连接数据库时,需要计算业务一共有多少个客户端, 每个客户端配置的连接池大小是多少,总的连接数不宜超过当前实例能承受的最大连接数的80%。连接太多会导致内存和多线程上下文的开销增加,影响请求处理延时。 2. 建议配置连接池,连接池最大不要超过200。 3. 降低单次请求的内存开销,例如通过创建索引减少集合的扫描、内存排序等。 4. 在连接数合适的情况下内存占⽤持续增⾼,建议升级内存配置,避免可能存在内存溢出和大量清除缓存而导致系统性能急剧下降。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        性能调优
        排查内存使用率高问题
      • CSI插件
        版本 发布日期 说明 适配的HBlock版本 1.6.1 2025年10月23日 1. 支持QoS策略。 2. 支持查询快照大小和快照对应的源卷大小。 3.53.10 1.5.1 2025年07月16日 1. 支持同一Kubernetes集群部署多套HBlock CSI插件。 3.53.9 1.5.0 2025年04月30日 1. 支持快照。 2. 支持创建克隆卷。 3.53.9 1.4 2025年03月03日 1. 支持卷的折叠副本数(仅HBlock集群版支持)。 2. 支持调整PV的服务端连接位置。 3.53.8 1.3.2 2024年12月11日 1. 支持Kubernetes service域名。 2. 支持指定HBlock创建LUN的等待时间。 3. 支持设置HBlock节点信息,用来控制卷的iqn所在区域。 3.53.7.2 1.3 2024年08月08日 1. 支持设置卷的存储池和缓存池。 2. 支持上云卷。 3. Target迁移后支持自动重连。 4. Block Volume模式支持RWX、ROX、RWO访问方式。 5. Filesystem模式支持RWO,同时静态PV场景下支持ROX。 3.53.7 1.2 2024年05月30日 1. 支持同时管理多个HBlock集群。 2. Block Volume支持RWX、ROX访问方式。 3. 支持Helm安装CSI插件。 4. 支持设置卷的最小副本数和Target最大连接数。 3.5 1.1 2023年11月15日 1. 新增Block Volume支持。 2. 创建Target时支持指定服务器个数,支持一主多备。 3. 创建卷时支持指定EC卷的切片大小。 3.5 1.0 2023年09月20日 第一次发布: 1. 支持静态PV和动态PV场景。 2. 支持MPIO,静态PV场景下支持一主多备。 3. 支持Target Portal IP。 3.4
        来自:
        帮助文档
        存储资源盘活系统
        文档下载
        CSI插件
      • 后端主机概述
        section2ecc09ece908f78a)。 后端主机类型 目前支持以下类型的后端主机: 云主机:天翼云弹性云主机。 弹性网卡/辅助IP:云主机的网卡或网卡上的辅助IP。 跨VPC后端IP:跨VPC下的云主机IP,该IP必须属于某个云主机;仅支持同账号下通过对等连接打通的跨VPC后端IP。 弹性容器ECI:弹性容器实例。 远端IP:通过云专线、VPN和IDC打通后的线下IDC侧主机。 其中,跨VPC后端IP和弹性容器ECI仅在部分集群模式资源池支持,主备模式资源池不支持设置,主备、集群模式资源池列表见 产品简介​>产品类型和规格,实际情况以控制台展现为准。 后端主机的权重 后端主机的权重用于指定负载均衡器在将请求分发给后端主机时所采用的权重比例。通过为每个后端主机设置不同的权重,可以实现对主机资源的分配控制和负载均衡策略的调整。 天翼云负载均衡支持的算法会根据后端主机的权重比例,决定将多少流量分发给每个后端主机,具体如下: 调度算法 权重 算法策略 轮询 调度算法权重算法策略轮询权重取值范围为[1,256] 根据后端主机的权重, 将流量按照顺序逐个分发给后端主机,每台主机依次接收请求,实现流量均衡。相应的权重表示后端主机的处理性能, 常用于短连接服务。 最小连接 权重取值范围为[1,256] 将流量分发给当前连接数最少的主机,以确保负载较小的主机能够处理更多的请求。加权最小连接即根据主机的权重和当前连接数来分发流量,常用于长连接服务。 源算法 在非0的权重下,由于使用了源算法,各个后端主机的权重属性将不再生效 将请求的源IP地址进行Hash运算,得到一个具体的数值,同时对后端主机进行编号,按照运算结果将请求分发到对应编号的主机上。这可以使得对不同源IP的访问进行负载分发,同时使得同一个客户端IP的请求始终被派发至某特定的主机。 通过调整后端服务器的权重,您可以根据服务器的性能、处理能力或其他因素,合理分配请求流量。较高权重的主机将处理更多的请求,而较低权重的主机将处理较少的请求,从而实现负载均衡和资源优化。
        来自:
        帮助文档
        弹性负载均衡 ELB
        用户指南
        后端主机
        后端主机概述
      • 运行Flink作业
        参数 参数说明 取值样例 ytm 设置每个TaskManager容器的内存(单位可选,默认单位:MB)。 1024 yjm 设置JobManager容器内存(单位可选,默认单位:MB)。 1024 yn 设置分配给应用程序的Yarn容器的数量,该值与TaskManager数量相同。 2 ys 设置TaskManager的核数。 2 ynm 自定义Yarn上应用程序名称。 test c 设置程序入口点的类(如“main”或“getPlan()”方法)。该参数仅在JAR文件未指定其清单的类时需要。 com.bigdata.mrs.test
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        作业管理
        运行Flink作业
      • 漏洞扫描
        漏洞扫描SysLog告警通知发送哪些数据? 资源消耗数据,包括 CPU 信息、内存信息、磁盘读写信息、网络读写速度信息。 任务扫描数据,包括任务名称、任务类型、任务状态、任务进度、任务开始结束时间、任务漏洞数。 审计日志数据,包括操作用户、操作时间、事件名称、详细信息、状态、操作类型。 弱点信息数据,包括所属任务 ID、漏洞名称、漏洞详情等。
        来自:
        帮助文档
        云等保专区
        常见问题
        产品配置类
        漏洞扫描
      • 索引切割
        参数 描述 取值范围 x 指定在x轴切割出的每块区域的长度。x参数与y参数只能任选其一。 [1,图片宽度] y 指定在y轴切割出的每块区域的长度。x参数与y参数只能任选其一。 [1,图片高度] i 选择切割后返回的图片区域。 [0,区域数) 默认为0,表示第一块。
        来自:
        帮助文档
        媒体存储
        数据处理指南
        图片处理
        图片处理参数
        索引切割
      • 创建自定义集群
        参数 参数说明 区域 选择区域。 不同区域的云服务产品之间内网互不相通。请就近选择靠近您业务的区域,可减少网络时延,提高访问速度。 集群名称 集群名称不允许重复。 只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 默认名称为mrsxxxx,xxxx为字母和数字的四位随机组合数,系统自动组合。 集群版本 当前版本为MRS 3.1.0。 集群类型 提供几种集群类型: 分析集群:用来做离线数据分析,提供的是Hadoop体系的组件。 流式集群:用来做流处理任务,提供的是流式处理组件。 混合集群:既可以用来做离线数据分析,也可以用来做流处理任务,提供的是Hadoop体系的组件和流式处理组件。建议同时需要做离线数据分析和流处理任务时使用混合集群。 自定义:用户可按照业务需求调整集群服务的部署方式,具体请参见 说明 MRS流式集群不支持“作业管理”和“文件管理”功能。如需在集群中安装全部组件,请选择“自定义”类型集群。 组件选择 MRS配套的组件如下: 分析集群组件 Presto:开源、分布式SQL查询引擎。 Hadoop:分布式系统基础架构。 Spark:内存分布式系统框架。(MRS 3.x版本不支持) Spark2x:Spark2x是一个对大规模数据处理的快速和通用引擎,基于开源Spark2.x版本开发。(仅MRS 3.x版本支持) Hive:建立在Hadoop上的数据仓库框架。 HBase:分布式列数据库。 Tez:提供有向无环图的分布式计算框架。 Hue:提供Hadoop UI能力,让用户通过浏览器分析处理Hadoop集群数据。 Loader:基于开源sqoop 1.99.7开发,专为Apache Hadoop和结构化数据库(如关系型数据库)设计的高效传输大量数据的工具。(MRS 3.x版本不支持) Hadoop为必选组件,且Spark与Hive组件需要配套使用。请根据业务选择搭配组件。 Flink:分布式大数据处理引擎,可对有限数据流和无限数据流进行有状态计算。 Oozie:Hadoop作业调度系统。(仅MRS 3.x版本支持) HetuEngine:HetuEngine是一个同异构大数据集的分布式SQL查询引擎。(仅MRS 3.1.x LTS版本支持) Ranger:一个基于Hadoop平台监控和管理数据安全的框架。 Impala:一种处理大量数据的SQL查询引擎。 ClickHouse:ClickHouse是一个用于联机分析(OLAP)的列式数据库管理系统(DBMS)。CPU架构为鲲鹏计算的ClickHouse集群表引擎不支持使用HDFS和Kafka。 Kudu:一种列存储管理器。 流式集群组件 Kafka:提供分布式消息订阅的系统。 Flume:提供分布式、高可用、高可靠的海量日志采集、聚合和传输系统。 ZooKeeper:一个集中的服务,它用于维护配置信息、命名、提供分布式的同步和提供分组服务。(仅MRS 3.x版本支持) Ranger:一个基于Hadoop平台监控和管理数据安全的框架。(仅MRS 3.x版本支持) 元数据 是否使用外部数据源存储元数据。 本地元数据: 元数据存储在集群本地。 数据连接:使用外部数据源元数据,若集群异常或删除时将不影响元数据,适用于存储计算分离的场景。 支持Hive或Ranger组件的集群支持该功能。 组件名 当“元数据”选择“数据连接”时该参数有效。用于表示可以设置外部数据源的组件类型。 Hive Ranger 数据连接类型 当“元数据”选择“数据连接”时该参数有效。用于表示外部数据源的类型。 Hive组件支持的数据连接类型: − RDS服务MySQL数据库− 本地数据库 Ranger组件支持的数据连接类型: − RDS服务MySQL数据库− 本地数据库 数据连接实例 当“数据连接类型”选择“RDS服务MySQL数据库”时,该参数有效。用于表示MRS集群与RDS服务数据库连接的名称,该实例必选先创建才能在此处引用。可单击“创建数据连接”进行创建,具体请参考
        来自:
        帮助文档
        翼MapReduce
        用户指南
        配置集群
        创建自定义集群
      • 扩容集群实例的磁盘空间
        本页介绍了扩容集群实例的磁盘空间。 文档数据库服务产品的分片集群规格实例,支持存储空间扩容和备份空间扩容。 存储空间扩容 集群规格实例存储空间扩容步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 在需要进行存储空间扩容实例的“操作”列,点击“更多”,可见“存储空间扩容”。 4. 点击“存储空间扩容”,自动进入到存储空间扩容页面。 5. 在存储空间扩容页面,根据指引,选择需要扩容的空间大小,点击“提交”。 6. 支付完成后,等待数分钟,刷新该实例的详细信息,可见存储空间大小已完成扩容。 备份空间扩容 集群规格实例备份空间扩容步骤如下: 1. 进入TeleDB数据库控制台。 2. 点击“DDS”>“实例管理”进入实例列表页面。 3. 在需要进行存储空间扩容实例的“操作”列,点击“更多”,可见“备份空间扩容”。 4. 点击“备份空间扩容”,自动进入到备份空间扩容页面。 5. 在备份空间扩容页面,根据指引,选择需要扩容的备份空间大小,点击“提交”。 6. 支付完成后,等待数分钟,刷新该实例的详细信息,可见备份空间大小已完成扩容。 注意 当备份空间为云硬盘,进行磁盘空间扩容时候需要同步扩容。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        实例变更
        实例磁盘扩容
        扩容集群实例的磁盘空间
      • 资源及磁盘管理类
        本章介绍天翼云关系型数据库在资源及磁盘管理时的常见问题及解决办法。 创建实例需要多长时间 对于RDS for MySQL和RDS for PostgreSQL实例: 正常情况下,无论是主备实例还是单机实例,创建时间都在57分钟之间。只读实例的创建时间与主实例的数据量有关,数据量越大,创建时间越长。如果是主实例是空实例,创建实例需78分钟。 对于RDS for SQL Server实例: 单机实例创建时间约1215分钟,主备实例创建时间约1518分钟。 如果超过这个时间,创建过程可能存在问题。 占用RDS磁盘空间的日志及文件有哪些 占用关系型数据库实例的磁盘空间的日志及文件如下表: MySQL数据库文件类型 数据库引擎 文件类型 :: MySQL 日志文件:数据库undolog、redolog和Binlog文件。 MySQL 数据文件:数据库内容文件和索引文件。 MySQL 其他文件:ibdata、iblogfile0和临时文件等。 PostgreSQL数据库文件类型 数据库引擎 文件类型 :: PostgreSQL 日志文件:数据库错误日志文件和事务日志文件。 PostgreSQL 数据文件:数据库内容文件、索引文件、复制槽数据文件、事务状态数据文件和数据库配置文件。 PostgreSQL 其他文件:临时文件。 Microsoft SQL Server数据库文件类型 数据库引擎 文件类型 :: Microsoft SQL Server 日志文件:数据库的错误日志、事务日志文件和跟踪文件。 Microsoft SQL Server 数据文件:数据库内容文件。 解决方案 1. 随着业务数据的增加,原来申请的数据库磁盘容量可能会不够用,您需要为关系型数据库实例进行扩容。 2. 针对数据空间过大,可以删除无用的历史表数据进行释放空间(DROP或TRUNCATE操作,如果是执行DELETE操作,需要使用OPTIMIZE TABLE来释放空间);如果没有可删除的历史数据,需要进行磁盘扩容。 3. 针对大量排序查询导致的临时文件过大,建议进行优化SQL查询。 1. 应用中存在大量的排序查询,产生了大量的临时文件。 2. 短期内大量增、删、改,产生大量binlog文件占用空间。 3. 由于大量的事务和写入操作产生了大量的binlog日志文件。 4. 云监控服务目前可以监控存储空间的大小、使用量、利用率等,并且设置告警策略。
        来自:
        帮助文档
        关系数据库SQL Server版
        常见问题
        资源及磁盘管理类
      • 数据恢复
        本页介绍天翼云TeleDB数据库如何进行数据恢复。 操作场景 当在使用过程中出现数据损毁,您可使用恢复功能进行实例恢复。期间TeleDB对用户数据不会做任何更改。它是基于数据备份和日志备份进行实时数据恢复。 说明 您在使用物理备份恢复功能时,请注意以下几点: 该功能只支持整实例恢复,不支持指定数据库、指定表恢复。 该功能只支持状态为运行中的实例恢复数据。 该功能只支持时间点备份(全量备份和增量备份)恢复,不支持全量备份恢复。 若要恢复到其他实例功能,请保证源实例、目标实例字符集、引擎版本兼容、节点数量一致。 恢复至其他实例会覆盖目标实例数据,请谨慎操作。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航树上选择备份与恢复 > 备份与恢复 ,在当前实例 下拉框选择目标实例,选择数据恢复页签。 2. 创建恢复任务 1. 单击实例恢复 ,出现实例恢复对话框。 2. 选择目标实例,设置期望恢复时间点,勾选可恢复时间点,单击校验,出现校验实例对话框。 3. 在校验实例对话框,所有检查项检查结果通过,单击确定完成数据恢复。 3. 查看恢复任务详情 1. 单击目标实例所在行操作列的详情 ,出现恢复详情对话框。 2. 在恢复详情 对话框,您可查看详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        备份与恢复
        数据恢复
      • 创建VPC和安全组
        本节介绍了如何创建所需的VPC和安全组。 创建VPC和安全组,为创建云数据库GaussDB 实例准备网络资源和安全组。 创建VPC 1. 登录天翼云控制台。 2. 单击管理控制台左上角的,选择区域。 3. 单击左侧的服务列表图标,选择“网络 > 虚拟私有云”。 进入虚拟私有云信息页面。 4. 单击“创建虚拟私有云”购买VPC。 5. 单击“立即创建”。 6. 返回VPC列表,查看创建VPC是否创建完成。 当VPC列表的VPC状态为“可用”时,表示VPC创建完成。 创建安全组 1. 登录天翼云控制台。 2. 单击管理控制台左上角的,选择区域。 3. 单击左侧的服务列表图标,选择“网络 > 虚拟私有云”。 进入虚拟私有云信息页面。 4. 选择“访问控制”>“安全组”。 5. 单击“创建安全组”。 6. 填写安全组名称等信息。 7. 单击“确定”。 8. 返回安全组列表,单击安全组名称“sgd1ce”。 9. 选择“入方向规则”,单击“添加规则”。 10. 配置入方向规则,添加源库的IP地址。
        来自:
        帮助文档
        云数据库GaussDB
        最佳实践
        Oracle迁移到云数据库GaussDB 最佳实践
        创建VPC和安全组
      • 1
      • ...
      • 138
      • 139
      • 140
      • 141
      • 142
      • ...
      • 411
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      推荐文档

      玩转天翼云②:linux系统攻击基本排查方法

      快速入门

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号