活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云对等连接_相关内容
      • 产品优势
        VPC终端节点产品为您提供安全可靠的私网连接服务,本文带您了解VPC终端节点的产品优势。 性能优异 每个网关节点可提供百万级对话,满足多种应用场景需求。 即开即用 秒级创建,快速生效,迅速响应,方便用户即时使用。 使用灵活 无需弹性IP,直连内网,使用更加灵活。 安全性高 用户能够通过终端节点私密地连接到终端节点服务,避免泄漏服务端相关信息所带来不可知的风险。
        来自:
        帮助文档
        虚拟私有云 VPC
        VPC终端节点
        产品优势
      • 导出导入作业
        导入作业 导入作业功能依赖于OBS服务,如无OBS服务,可从本地导入。 在作业目录中导入一个或多个作业 1. 单击作业目录中的 > 导入作业,选择已上传至OBS或者本地中的作业文件,以及重名处理策略。 说明 在硬锁策略下,如果锁在其他人手中,重名策略选择了覆盖,则会覆盖失败。软硬锁策略请参考 详见下图:导入作业定义及依赖 2. 单击“下一步”,根据提示导入作业。 说明 在导入作业过程中,若作业关联的数据连接、dli队列、ges图等在数据开发模块系统中不存在时,系统会提示您重新选择。 操作示例 背景信息: 在数据开发模块系统中创建一个DWS的数据连接“doctest” 在作业目录中创建实时作业“doc1”,作业中添加节点“DWS SQL”,配置节点的“数据连接”为“doctest”,配置“SQL脚本”和“数据库”。 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 详见下图:选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 3. 在作业搜索框中搜索作业“doc1”,导出作业到本地,并上传作业至OBS文件夹中。 4. 在数据开发模块系统中删掉作业关联的dws数据连接“doctest”。 5. 单击作业目录中的 > 导入作业,选择上传至OBS文件夹中的作业,并设置重名处理策略。 6. 单击“下一步”,根据导入作业页面的提示重新选择数据连接。 7. 单击“下一步”,再单击“关闭”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        作业开发
        (可选)管理作业
        导出导入作业
      • 创建Flink Jar作业
        本章节介绍如何新建FlinkJar作业。 用户可以基于Flink的API进行二次开发,构建自己的应用Jar包并提交到DLI的队列运行,DLI完全兼容开源社区接口。此功能需要用户自己编写并构建应用Jar包,适合对Flink二次开发有一定了解,并对流计算处理复杂度要求较高的用户。 前提条件 确保已创建独享队列。创建DLI独享队列,在购买队列时,勾选“专属资源模式”即可。 创建Flink Jar作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Flink作业支持访问的外部数据源详情请参考跨源连接和跨源分析概述。 创建跨源连接操作请参见增强型跨源连接。 创建完跨源连接后,可以通过“队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考 测试地址连通性。 用户运行Flink Jar作业时,需要将二次开发的应用代码构建为Jar包,上传到已经创建的OBS桶中。并在DLI“数据管理”>“程序包管理”页面创建程序包,具体请参考 创建程序包。 说明 DLI不支持下载功能,如果需要更新已上传的数据文件,可以将本地文件更新后重新上传。 由于DLI服务端已经内置了Flink的依赖包,并且基于开源社区版本做了安全加固。为了避免依赖包兼容性问题或日志输出及转储问题,打包时请注意排除以下文件: a.系统内置的依赖包,或者在Maven或者Sbt构建工具中将scope设为provided b.日志配置文件(例如:“log4j.properties”或者“logback.xml”等) c.日志输出实现类JAR包(例如:log4j等)
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业管理
        Flink作业管理
        创建Flink Jar作业
      • 功能特性
        本文为您介绍容器安全卫士的功能特性。 通过容器安全卫士服务,可以轻松应对各种云原生应用威胁和风险。 仪表盘 仪表盘通过图标可视化方式展示了镜像、容器、节点、镜像仓库、集群这些重要资产的数量统计信息、部署安全信息、以及安全威胁分布情况。可以更直观地显示各资产信息统计、漏洞信息统计、报警信息。使客户能够更快速的识别和了解威胁情况。 趋势和历史记录 提供可视化的界面和报告,以展示威胁情报的相关统计数据、趋势等信息,帮助决策者理解威胁情报的现状和趋势。 告警和事件管理 集成告警和事件管理系统,将安全事件和告警信息汇总展示在大屏幕上,并提供快速的事件处理和跟踪功能。 资产管理 展示每个资产的详细信息,包括集群资产、节点资产、命名空间、工作负载等资产,以帮助用户全面了解资产的特征和配置。 漏洞数据集成和可视化 将漏洞扫描结果数据进行集成,以可视化的方式展示漏洞分布、统计信息,帮助用户全面了解漏洞态势。 网络可视化 对容器环境中网络流量进行绘图,打破网络黑洞,支持对进程、容器、pod、服务、主机级别的网络监测。通过对单个业务之间,业务组之间,以及租户之间的网络访问策略配置,实现业务之间隔离,来减小被入侵之后的影响范围;通过网络拓扑图,从网络层面判断入侵影响范围。 容器安全卫士自动检测发现Kubernetes集群内的运行容器,应用以及镜像,关联相应的安全风险进行汇总,展示安全风险的数量以及风险级别的分布。支持自动发现容器内进程之间、容器之间、POD之间、服务之间、节点之间的网络连接状态,展示连接的原地址,目的地址以及端口。并对异常连接进行预警。支持对Kubernetes集群内POD之间的通信进行网络隔离控制、隔离策略支持配置POD的间的访问规则、阻断来自其他命名空间的所有流量、允许来自外部客户端的流量等。 支持租户隔离 支持对Kubernetes集群内租户进行隔离控制,租户之间默认禁止直接通信,可以通过配置RBAC、POD策略、网络策略等实现租户间的访问策略。 支持自定义网络策略 支持对Kubernetes集群内的隔离策略管理,展示各个POD已经配置的隔离策略并能进行配置和应用。 可视化的展示视角 通过雷达可视图的展示方式,用户可以查看到容器内进程之间、容器之间、POD之间、服务之间、节点之间的网络进出站信息,对指定的网桥、网卡进行流量的DPI分析,有助于识别、阻断流向异常的流量。 多种类型策略支持 基于用户不同的使用环境与业务需求,支持多种策略类型,包括: IPtables模式(可针对不同的资源之间设置网络访问策略)。 OVS模式(在OpenShift环境下, 针对不同的资源之间设置网络访问策略)。 NetworkPolicy模式(为指定资源设置允许进出站访问)。
        来自:
        帮助文档
        容器安全卫士
        产品介绍
        功能特性
      • 修改数据库端口
        本章节介绍在控制台如何修改数据库端口。 操作场景 关系型数据库服务支持修改主实例和只读实例的数据库端口,对于主备实例,修改主实例的数据库端口,该实例下备实例的数据库端口会被同步修改。 对于配置了安全组规则连接数据库实例的场景,修改数据库端口后,需要同步修改数据库实例所属安全组的入方向规则。 操作步骤 1、登录管理控制台。 2、单击管理控制台左上角的,选择区域和项目。 3、选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 4、在“实例管理”页面,选择指定的实例,单击主实例名称,或单击,单击只读实例名称。 5、在“基本信息”,在“连接信息”模块“数据库端口”处,单击,修改数据库端口。 您也可以在左侧导航栏,单击“连接管理”,在“连接信息”模块“数据库端口”处,单击 ,修改数据库端口。 说明 Microsoft SQL Server实例的端口设置范围为1433(默认)或2100~9500(其中5355和5985不可设置)。对于2019 EE、2019 SE、2019 Web版,5050、5353和5986不可设置。 单击 ,提交修改。 在弹出框中,单击“确定”,提交修改。 修改主实例数据库端口,对应的主备实例均会被修改且重启。 修改只读实例数据库端口,仅修改并重启该只读实例。 此过程需要1~5分钟左右。 说明 RDS for SQL Server2019企业版和2017企业版支持只读实例。 在弹出框中,单击“取消”,取消本次修改。 单击 ,取消修改。 6、在实例的“基本信息”页面,查看修改结果。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        连接管理
        修改数据库端口
      • Windows 客户端–单机版
        本节主要介绍Windlow客户端挂载HBlock单机版的卷。 1. 准备客户端操作系统 推荐使用win10、windows server 2012R2、windows server 2016R2等高版本的Windows操作系统,这些系统中自带了“iSCSI发起程序”,无需单独安装组件。 不同版本的客户端支持单卷容量不同,请参考下表: Windows版本 Block Size 单卷最大容量 Windows Server 2008R2 512 bytes / 4KiB 256 TiB Windows Server 2012R2 512 bytes / 4KiB 256 TiB Windows Server 2016 512 bytes / 4KiB 256 TiB Windows 10 512 bytes / 4KiB 1 PiB 2. 运行iSCSI发起程序 Windows客户端运行iSCSI发起程序,在“开始”>“搜寻程序和文件”输入“iSCSI”打开iSCSI发起程序,如下图所示: 1. 配置iSCSI发起程序 在“发现”>“发现门户”中输入服务器IP和端口,如下图所示: 在“目标”>“已发现目标”中搜索到HBlock发布的iSCSI target,查看到状态是“不活动”,点击“连接”,如下图所示: 2. 启用CHAP认证 若您的iSCSI target有开启CHAP认证,在弹出的连接到目标的对话框中,选择“高级”,如下图所示(没有开启请忽略此步骤直接连接即可): 勾选“启用CHAP登录”,在“名称”中输入在HBlock系统中设置的iSCSI认证的用户名,在“目标机密”中输入设置的iSCSI认证的密码,然后点“确定”。如下图所示: 3. 客户端使用iSCSI共享磁盘 打开“服务器管理器”>“存储”>“磁盘管理”,将刚刚连接成功的状态是“脱机”的磁盘“联机”。 然后“初始化”,再“新建卷”,指定盘符并格式化,如下图所示。 注意 如果卷容量小于等于2TiB时,可以使用MBR和GPT中的任意一种进行分区;如果卷容量大于2TiB,只能使用GPT分区。 打开“计算机”,可以看到新增的磁盘的盘符和容量,此时可以按使用本地磁盘的习惯使用HBlock发布的iSCSI磁盘了。如下图所示: 注意 如果客户端需要断开连接或者删除磁盘,需要先打开“服务器管理器”>“存储”>“磁盘管理”,点击磁盘右键进行“脱机”,然后在“iSCSI发起程序”中“断开iSCSI连接”。 如果客户端需要断开连接后再次接入,无需进行初始化、新建卷操作,重新连接后即可看到磁盘。 如果想查询HBlock卷对应的磁盘,可以在客户端输入下列命令行查询。 plaintext wmic diskdrive get Name, Manufacturer, Model, InterfaceType, MediaType, SerialNumber 如下例所示,查询信息Name列对应的盘符号,对应“磁盘”上的“数目”列。SerialName对应HBlock的卷名称和uuid。
        来自:
        帮助文档
        存储资源盘活系统
        快速入门
        客户端操作
        Windows 客户端–单机版
      • 数据监控
        本文介绍如何查看连接器集群的带宽趋势。 功能介绍 连接器管理数据监控模块,提供可视化的集群粒度带宽趋势统计。方便用户查询不同集群的上行或下行带宽。 操作步骤 1. 登录边缘安全加速平台控制台,在首页产品能力选择零信任进入工作台。 2. 在左侧导航栏选择AOne零信任网络连接器管理。 3. 根据主导览进行切换管理“数据监控”。 4. 选择需要查看连接器集群名称。 数据监控 展示所选连接器集群的带宽趋势。 支持查询最近6个月的数据。 查询时间跨度最长为1个月。 支持查看上行、下行、上行+下行的带宽趋势。 针对包含多个使用场景的连接器集群,支持查看不同场景的带宽趋势。 场景名称 说明 办公组网(加速模式)&远程办公&全球加速 即连接器集群报文经过AOne加速网络的部分,包括办公组网(加速模式)、远程办公、全球加速三个场景的带宽之和。 办公组网(连接模式) 即连接器集群报文未经过AOne加速网络的部分,该场景仅包含办公组网(连接模式)。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        网络管理
        连接器管理
        数据监控
      • 计费项及计费方式
        计费规则 计费特性 规则 计费周期 在一个计费周期内,不足1小时,按1小时计算。 优惠抵扣规则 当天翼云账号(主账号)中有多个地域的物理专线资源时,出方向流量免费额度根据资源购买先后顺序抵扣。 出方向流量费价格 下表中,出方向流量费的实际价格以账单为准。 计费项 产生出方向流量的区域 标准价格(元/GB) 出方向流量费 中国大陆 0.08 说明 流量的单位换算进制为1024,即:1TB1024GB,1GB1024MB(BByte)。 上云预连接 产品组成 上云预连接由物理线路、云端口组成,云端口产生的流量不涉及专线网关出方向流量费。该产品为用户提供端到端的上云接入方案,实现用户IDC机房与天翼云资源池的互联互通。 说明 上云预连接默认不开放,如需使用,请联系您的客户经理申请权限和报价。同时,可作为SDWAN最后一公里承载能力。 计费规则 计费项 计费说明 开通带宽 物理线路和云端口的带宽,用户根据业务规模选择需要开通的带宽。 开通等级 分为13级和轻量版等级,客户经理根据用户IDC地址、接入的天翼云资源池和物理专线类型来为用户选择适配的等级。 实施服务 分为15级和轻量版人工等级,客户经理根据用户IDC地址、接入的天翼云资源池和物理专线类型来为用户选择适配的等级。 说明 一个上云预连接仅包含一条线路和一个云端口。
        来自:
        帮助文档
        云专线 CDA
        计费说明
        计费项及计费方式
      • 计费项及计费方式(3)
        计费规则 计费特性 规则 计费周期 在一个计费周期内,不足1小时,按1小时计算。 优惠抵扣规则 当天翼云账号(主账号)中有多个地域的物理专线资源时,出方向流量免费额度根据资源购买先后顺序抵扣。 出方向流量费价格 下表中,出方向流量费的实际价格以账单为准。 计费项 产生出方向流量的区域 标准价格(元/GB) 出方向流量费 中国大陆 0.08 说明 流量的单位换算进制为1024,即:1TB1024GB,1GB1024MB(BByte)。 上云预连接 产品组成 上云预连接由物理线路、云端口组成,云端口产生的流量不涉及专线网关出方向流量费。该产品为用户提供端到端的上云接入方案,实现用户IDC机房与天翼云资源池的互联互通。 说明 上云预连接默认不开放,如需使用,请联系您的客户经理申请权限和报价。同时,可作为SDWAN最后一公里承载能力。 计费规则 计费项 计费说明 开通带宽 物理线路和云端口的带宽,用户根据业务规模选择需要开通的带宽。 开通等级 分为13级和轻量版等级,客户经理根据用户IDC地址、接入的天翼云资源池和物理专线类型来为用户选择适配的等级。 实施服务 分为15级和轻量版人工等级,客户经理根据用户IDC地址、接入的天翼云资源池和物理专线类型来为用户选择适配的等级。 说明 一个上云预连接仅包含一条线路和一个云端口。
        来自:
      • 连接信息
        本节介绍了:连接信息。 操作场景 获取集群的连接信息,通过API或者kubectl访问集群。 前提条件 ● 在查看集群信息前,您需要存在⼀个可用集群。若没有可⽤集群,请参照 订购集群 内容进⾏创建。 ● 如果需要公网访问,请提前绑定好弹性IP(EIP)。 操作步骤 1. 点击 复制 ,生成的配置可以直接在公网或者内网使⽤。 2. 可以吊销KubeConfig,当前的配置会失效并重新生成。 3. 选择生成临时KubeConfig,然后选择有效期,点击 生成临时KubeConfig ,最后点击 确认 ,即可重新⽣成⼀份新的配置信息。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        集群概述
        连接信息
      • 通过Helm v3客户端部署应用
        本文以Helm v3.3.0为例进行演示。 前提条件 在CCE中创建的Kubernetes集群已对接kubectl,具体请参见使用kubectl连接集群。 安装Helm v3 本文以Helm v3.3.0为例进行演示。 如需选择其他合适的版本,请访问 步骤 1 在连接集群的虚拟机上下载Helm客户端。 wget 步骤 2 解压Helm包。 tar xzvf helmv3.3.0linuxamd64.tar.gz 步骤 3 将Helm拷贝到系统path路径下,以下为/usr/local/bin/helm。 mv linuxamd64/helm /usr/local/bin/helm 步骤 4 查看Helm版本。 helm version version.BuildInfo{Version:"v3.3.0", GitCommit:"e29ce2a54e96cd02ccfce88bee4f58bb6e2a28b6", GitTreeState:"clean", GoVersion:"go1.13.4"} 安装Helm模板chart包 CCE提供的模板不能满足要求时,可下载模板的chart包进行安装。 在 1. 下载并解压已获取的chart包,一般chart包格式为.zip。 unzip chart.zip 2. 安装Helm模板。 helm install aerospike/ generatename 3. 安装完成后,执行helm list查看已经安装的模板实例状态。 常见问题 执行Helm version时,提示如下错误信息: Client: &version.Version{SemVer:"v3.3.0", GitCommit:"012cb0ac1a1b2f888144ef5a67b8dab6c2d45be6", GitTreeState:"clean"} E0718 11:46:10.132102 7023 portforward.go:332] an error occurred forwarding 41458 > 44134: error forwarding port 44134 to pod d566b78f997eea6c4b1c0322b34ce8052c6c2001e8edff243647748464cd7919, uid : unable to do port forwarding: socat not found. Error: cannot connect to Tiller 出现上述问题,说明未安装socat,请执行如下命令安装socat。 yum install socat y socat已安装,执行Helm version时,提示如下错误信息: $ helm version Client: &version.Version{SemVer:"v3.3.0", GitCommit:"021cb0ac1a1b2f888144ef5a67b8dab6c2d45be6", GitTreeState:"clean"} Error: cannot connect to Tiller Helm模板从“.Kube/config”中读取配置证书和kubernetes进行通讯,出现上述错误信息说明kubectl配置有误,请重新对接kubectl,具体请参见使用kubectl连接集群。 对接云存储后,存储未创建成功。 出现上述问题可能是创建的pvc中annotation字段导致的,请修改模板名称后再次进行安装。 如果kubectl没有配置好,helm install时会出现如下报错:
        来自:
        帮助文档
        云容器引擎
        用户指南
        模板管理(helm)
        通过Helm v3客户端部署应用
      • 集群
        本文介绍DDS集群架构的组成。 DDS集群由mongos、config、shard组成,节点架构示意图如下: 图 分片集群示意图 mongos mongos负责查询与数据写入的路由,是实例访问的统一入口。 每个实例有2~32个mongos,数量由用户自定义。 用户可直接连接mongos,mongos从config读取配置信息,将读写请求分发到shard。 config config负责存储实例的配置信息,由1个副本集组成。 config可用是部署一个实例或者修改实例元信息的前提。 用户不能直接连接config。 shard 集群实例的shard,负责存储用户的数据。 每个集群实例有2~32个shard,数量由用户自定义。 每个shard由1个副本集组成,副本集为每个shard的数据提供了冗余和高可靠性。 用户不能直接连接shard。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        常用概念
        集群
      • 自建MySql为源的订阅任务配置
        本节为您介绍自建MySql为源的订阅任务配置。 前提条件 (1)自建MySQL数据库的源端版本为5.6、5.7、8.0版本。 (2)自建MySQL数据库源端已关闭大小写敏感。 (3)自建MySQL数据库源端已开启开启binlog且格式为row。 源端权限要求 由于权限查询需要设计到mysql.user及mysql.db两张系统表。所以需要先授予用户以上两张表的SELECT权限。 订阅模式 所需权限 数据订阅 SELECT,开启binlog row模式 全局级别:REPLICATION CLIENT,REPLICATION SLAVE 源端配置: 数据源类型 选定为MySQL,可订阅版本范围内的MySQL数据库数据 服务器IP 待订阅源端数据库的连接IP 端口号 待订阅源端数据库的端口 用户名 用于连接待订阅源端数据库的用户名称 密码 用于连接待订阅源端数据库的用户的密码 数据库 要订阅的源端数据库名
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移模块
        数据传输
        数据同步
        数据订阅
        任务创建
        自建MySql为源的订阅任务配置
      • 自建SQL Server迁移至自建MySQL
        本节为您介绍自建SQL Server迁移至自建MySQL任务配置。 前提条件 (1)自建MySQL目标端版本为5.6、5.7、8.0版本。 (2)若您将列名仅大小写不同的字段写入到目标MySQL数据库的同一个表中,可能会因为MySQL数据库列名大小写不敏感,导致迁移失败。 目标端权限要求 迁移模式 所需权限 基础权限 SELECT, DELETE, INSERT 全量迁移 需具备基础权限,且具备ALTER权限 增量迁移 需基本基础权限 结构迁移 CREATE, REFERENCES, INDEX, TRIGGER, CREATE VIEW, DROP, CREATE ROUTINE, EXECUTE 稽核修复 需基本基础权限 目标端配置 数据源类型 选定为MySQL,可将源端迁移至版本范围内的MySQL数据库 服务器IP 目标端数据库的连接IP 端口号 目标端数据库的端口 用户名 用于连接待目标端数据库的用户名称 密码 用于连接待目标端数据库的用户的密码 数据库 目标端用于接收源端数据的数据库名称
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移模块
        数据传输
        数据迁移
        任务创建
        自建SQL Server为源的迁移任务配置
        自建SQL Server迁移至自建MySQL
      • pgxc_node
        名称 类型 定义 nodename NameData 节点的名称 nodetype char 节点类型 nodeport int32 节点连接的端口号 nodehost NameData 节点连接的主机名或IP 地址 nodeisprimary bool 是否是主节点 nodeispreferred bool 是否是首选节点 nodeid int32 节点标识符 nodeclustername NameData 节点所属的集群名称 fwdserverport int32 Forword进程端口号
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        数据字典
        元数据表
        pgxc_node
      • 容器化Web访问MySQL
        本节介绍了云容器引擎的最佳实践:容器化Web访问MySQL。 本篇以实际场景介绍如何发布无状态工作负载,并连接有状态数据库,并配合使用持久存储,在本片教程中,我们使用Local PV作为持久存储介质,在生产使用中建议使用Ceph存储。 创建持久存储类 选择Local存储,如下: 创建持久存储卷:在新建存储卷界面,选择第一步中创建的持久存储类 选择LocalPV所在节点以及LocalPV的目录,这里LocalPV所在节点即想要把容器数据持久化到哪一个k8s节点上,LocalPV的目录即是我们所选节点上的指定目录。 注意 此目录需要在我们所选择节点上存在,若不存在需要手动在改节点上创建目录。 创建MySQL有状态服务并使用持久存储卷: 出现新建存储卷界面,我们创建MySQL的流程如下: 点击新建PVC后,我们需要格外注意下图中的注意点。 StorageClasss名称:必须和第二步中创建的持久存储卷使用同一个StorageClass。 所需容量:这里选择的容量不能超过第二步中创建的持久存储卷的容量。 然后开始设置MySQL容器的参数,依次输入MySQL容器名称、选择MySQL镜像及版本号,需要格外注意挂载点的名称和容器路径。 其中数据卷选择刚刚添加的数据卷。 MySQL容器的数据目录为/Var/lib/mysql,所以容器路径输入这个目录。 设置容器的资源参数及环境变量,MySQL容器正常运行我们必须要设置MYSQLROOTPASSWORD这个环境变量,设置root用户密码,同时如果需要在MySQL容器启动后帮我们创建一个database,我们可以使用MYSQLDATABASE这个环境变量。 最后一步,我们为MySQL容器配置集群内访问方式,所以我们选择类型为ClusterIP。 注意 服务端口可以直接与容器端口相同。 创建web无状态工作负载并连接数据库 1、web工作负载配置 我们使用的web工作负载使用的配置文件如下: spring: jpa: showsql: false openinview: true datasource: driverclassname:"com.mysql.cj.jdbc.Driver" jdbcurl: "jdbc:mysql://{MYSQLHOST}:MYSQLHOST:{MYSQLPORT}/test?autoReconnecttrue&useUnicodetrue&characterEncodingUTF8&allowMultiQueriestrue&useSSLfalse" username: "${MYSQLUSERNAME}" password:"${MYSQLPASSWORD}" 在上述配置中,我们通过读取环境变量来设置应用所需的MySQL主机IP、端口、用户名、密码。 2、创建无状态工作负载 这里我们只介绍无状态工作负载的环境变量怎么设置,其他的参数配置与MySQL的类似:
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        最佳实践
        存储
        容器化Web访问MySQL
      • SPL加工
        SPL概述 云日志服务提供SPL语句(Semistructured Processing Language),对半结构化的日志数据做结构化处理,比如信息提取、字段操作、数据过滤等操作。SPL提供类Linux Shell脚本的管道级联功能,其中第一级管道前的表达式是数据源(可以是索引过滤条件或其他SPL语句的命名引用),后面的多级管道前后都是SPL命令表达式。 SPL语法说明 一个SPL语句由多个表达式组成,各表达式之间通过英文管道符 () 连接;一个SPL语句以英文分号 (;) 作为语句结束符。SPL语法结构如下: 语法 html sourceexpr cmdexpr cmdexpr; 参数说明 参数 说明 示例 sourceexpr 数据源。包括日志单元数据和SPL命名引用 · · $src 管道符:与Linux Shell中管道符作用类似,即管道前的指令的输出会作为管道后的指令的输入 cmdexpr 指令表达式,即SPL处理日志数据的各种表达式。 详情参考指令表达式语法。 parse typecsv raw as time,ip,level,msg 数据源 分类 场景 数据来源 说明 非命名引用 采集 采集器采集数据 使用星号()表示将采集器采集的全部原始数据作为输入 非命名引用 数据加工 日志单元数据 使用索引过滤结果作为输入。 · 目前索引过滤条件仅支持 命名引用 SPL 通过let指令定义的命名引用 前提:其他SPL表达式已通过let指令定义了命名引用; 通过$+命名引用名称,即可解引用并将其当作数据源
        来自:
        帮助文档
        云日志服务
        用户指南
        数据加工
        SPL加工
      • Service概述
        本文介绍Service概述。 创建服务 Kubernetes中每⼀个工作负载会有⼀个或多个实例(Pod),每个实例(Pod)的IP地址由网络插件动态随机分配(Pod重启后IP地址会改变)。为屏蔽这些后端实例的动态变化和对多实例的负载均衡,引入了服务(Service)这个资源对象。本文将介绍如何创建服务并对外发布应用。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 在本地使用命令之前,需要先通过kubectl连接Kubernetes集群。 通过命令创建应用 步骤一:创建Deplyoment 1. 登录云容器引擎控制台。 2. 在控制台的左侧导航栏中点击“集群” 。 3. 在集群列表页面中,单击目标集群的名称进入集群详情界面。 4. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“无状态” 。 5. 在无状态页面中单击左上角的“新增YAML” ,本次示例模板是一个Nginx的Deployment,具体内容如下所示: plaintext apiVersion: apps/v1 kind: Deployment metadata: name: nginxdeployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: name: nginx image: nginx:1.14.2 ports: containerPort: 80 6. 创建完成后可查看该应用。 1. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“无状态” 。 2. 在无状态页面中可以查看所有已经创建的Deployment。 3. 在目标Deployment项选项卡单击创建好的应用名称 ,查看其详情。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service管理
        Service概述
      • Service概述
        本节介绍了如何Service管理。 创建服务 Kubernetes中每⼀个工作负载会有⼀个或多个实例(Pod),每个实例(Pod)的IP地址由网络插件动态随机分配(Pod重启后IP地址会改变)。为屏蔽这些后端实例的动态变化和对多实例的负载均衡,引入了服务(Service)这个资源对象。本文将介绍如何创建服务并对外发布应用。 前提条件 确保您已经创建Serverless集群,具体操作请参阅创建Serverless集群。 在本地使用命令之前,需要先通过kubectl连接Kubernetes集群。 通过命令创建应用 步骤一:创建Deplyoment 1. 登录云容器引擎控制台。 2. 在控制台的左侧导航栏中点击“集群” 。 3. 在集群列表页面中,单击目标集群的名称进入集群详情界面。 4. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“无状态” 。 5. 在无状态页面中单击左上角的“新增YAML” ,本次示例模板是一个Nginx的Deployment,具体内容如下所示: apiVersion: apps/v1 kind: Deployment metadata: name: nginxdeployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: name: nginx image: nginx:1.14.2 ports: containerPort: 80 6. 创建完成后可查看该应用。 1. 在集群管理页面的左侧导航栏中,选择“工作负载” ,然后单击“无状态” 。 2. 在无状态页面中可以查看所有已经创建的Deployment。 3. 在目标Deployment项选项卡单击创建好的应用名称 ,查看其详情。
        来自:
        帮助文档
        云容器引擎 Serverless版
        用户指南
        网络
        Service概述
      • 支持的监控指标
        指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) bytesin 网络流入速率 该指标用于统计每秒流入测量对象的网络流量。 单位:字节/秒。 ≥0 bytes/s CDM集群实例 1分钟 bytesout 网络流出速率 该指标用于统计每秒流出测量对象的网络流量。 单位:字节/秒。 ≥0 bytes/s CDM集群实例 1分钟 cpuusage CPU使用率 该指标用于统计测量对象的CPU使用率。 单位:%。 0%~100% CDM集群实例 1分钟 memusage 内存使用率 该指标用于统计测量对象的内存使用率。 单位:%。 0%~100% CDM集群实例 1分钟 diskusage 磁盘利用率 该指标为从物理机层面采集的磁盘使用率,数据准确性低于从弹性云主机内部采集的数据。 单位:%。 0.001%~90% CDM集群实例 1分钟 diskio 磁盘io 该指标为从物理机层面采集的磁盘每秒读取和写入的字节数,数据准确性低于从弹性云主机内部采集的数据。 单位:Byte/sec 0~10GB CDM集群实例 1分钟 tomcatheapusage 堆内存使用率 该指标为从物理机层面采集的堆内存使用率,数据准确性低于从弹性云主机内部采集的数据。 单位:%。 0.001%~90% CDM集群实例 1分钟 tomcatconnect tomcat并发连接数 该指标为从物理机层面采集的tomcat并发连接数。 单位:Count/个。 0~2147483647 CDM集群实例 1分钟 tomcatthreadcount tomcat线程数 该指标为从物理机层面采集的tomcat所占线程数。 单位:Count/个。 0~2147483647 CDM集群实例 1分钟 pgconnect 数据库连接数 该指标为从物理机层面采集的postgres数据库连接数。 单位:Count/个。 0~2147483647 CDM集群实例 1分钟 pgsubmissionrow 历史记录表行数 该指标为从物理机层面采集的postgres数据库submission表行数。 单位:Count/个。 0~2147483647 CDM集群实例 1分钟 pgfailedjobrate 失败作业率 该指标为从物理机层面sqoop进程采集的失败作业率。 单位:%。 0.001%~100% CDM集群实例 1分钟 inodesusage Inodes利用率 该指标为从物理机层面采集的磁盘inodes使用率,数据准确性低于从弹性云主机内部采集的数据。 单位:%。 0.001%~0.9% CDM集群实例 1分钟
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        管理集群
        监控指标
        支持的监控指标
      • 云审计服务支持的VPN操作列表
        本文向您介绍云审计服务支持的VPN操作列表。 表企业版VPN操作列表 操作名称 资源类型 事件名称 创建用户对端网关 customergateway createCgw 更新用户对端网关 customergateway updateCgw 删除用户对端网关 customergateway deleteCgw 创建虚拟专用网络网关 vpngateway createVgw 更新虚拟专用网络网关 vpngateway updateVgw 删除虚拟专用网络网关 vpngateway deleteVgw 包周期创建VPN网关 vpngateway CreatePrePaidVgw 更新VPN网关状态 vpngateway UpdateResourceState 创建虚拟专用网络连接 vpnconnection createVpnConnection 更新虚拟专用网络连接 vpnconnection updateVpnConnection 删除虚拟专用网络连接 vpnconnection deleteVpnConnection 上传网关证书 vgwcertificate createVgwCertificate 更换网关证书 vgwcertificate updateVgwCertificate 创建资源标签 instance createResourceTag 删除资源标签 instance deleteResourceTag
        来自:
        帮助文档
        VPN连接
        用户指南
        审计
        云审计服务支持的VPN操作列表
      • 连接报错:URL无副本集配置
        本页介绍了 cannot list multiple servers 连接报错的处理方法。 问题描述 使用下列命令连接文档数据库服务副本集实例时报错: mongo mongodb://root: @ , /admin?authSourceadmin&replicaSet 报错信息为: FailedToParse: Cannot list multiple servers in URL without 'replicaSet' option 原因分析 可能的原因有: 客户端版本和文档数据库服务端版本不一致。 输入的命令格式不正确。 处理方法 1. 确保使用的客户端和服务端版本一致。 2. 确保 Connection URI 中正确指定了 replicaSet 设置。 3. 将 Connection URI 使用双引号括起来,否则可能会因为 URI 中包含了 '&' 字符导致命令后台运行的情况。
        来自:
        帮助文档
        文档数据库服务
        故障排除
        连接报错:URL无副本集配置
      • 客户端配置
        操作步骤 HBlock服务器端 查询要连接的LUN及LUN对应iSCSI Target的详细信息 plaintext ./stor lun ls { n name } LUNNAME ./stor target ls { n name } TARGETNAME Linux客户端 1. 使用如下命令发现Target IQN。 说明 如果卷对应多个Target IQN,建议将这些Target IQN都连上。 plaintext iscsiadm m discovery t st p ACTIVEIP iscsiadm m discovery t st p STANDBYIP iscsiadm m discovery t st p ColdStandbyIP 2. 登录iSCSI存储:建立多个iSCSI连接(按Active Target、Standby Target、ColdStandby顺序连接)。 说明 若您的iSCSI Target没有开启CHAP认证,请直接执行步骤 d 登录 Target。 1. 开启认证 plaintext iscsiadm m node T iSCSITARGETIQN o update name node.session.auth.authmethod valueCHAP 2. 输入CHAP用户名。 plaintext iscsiadm m node T iSCSITARGETIQN o update name node.session.auth.username valueUSER 3. 输入CHAP密码。 plaintext iscsiadm m node T iSCSITARGETIQN o update name node.session.auth.password valuePASSWORD 4. 登录Target。 plaintext iscsiadm m node T iSCSITARGETIQN p SERVERIP:port l port为iSCSI端口号 3. 设备显示会话情况,查看当前iSCSI连接。 plaintext iscsiadm m session lsscsi 查看新增磁盘 4. 查看 MPIO 设备、磁盘对应的LUN的WWID。 plaintext multipath ll 可增加参数v 3,显示更详细的信息 ll /dev/mapper/mpathX /lib/udev/scsiid whitelisted device/dev/sdX
        来自:
      • 路由表概述
        本章节向您介绍什么是企业路由器的路由表。 路由表是企业路由器发送报文的依据,包含了连接的关联关系、传播关系以及路由信息。 下表是企业路由器的路由表说明。 路由表类型 说明 自定义路由表 您可以在企业路由器中创建自定义路由表。 一个企业路由器可以拥有多个路由表,通过将连接关联至不同的路由表,可以实现网络的灵活互通和隔离。 默认路由表 默认路由表包括默认关联路由表和默认传播路由表,您可以指定一个路由表同时作为默认关联路由表和默认传播路由表,也可以指定不同的路由表,具体说明如下: 默认关联路由表:开启“默认路由表关联”功能,并指定默认关联路由表,系统会自动在默认关联路由表中为新接入的连接创建关联。 如果未指定默认关联路由表,系统会自动创建名称为“defaultRouteTable”的路由表,将其作为默认关联路由表。 默认传播路由表:开启“默认路由表传播”功能,并指定默认传播路由表,系统会自动在默认传播路由表中为新接入的连接创建传播。 如果未指定默认传播路由表,系统会自动创建名称为“defaultRouteTable”的路由表,将其作为默认传播路由表。 同时开启“默认路由表关联”和“默认路由表传播”功能,并不指定默认路由表,则默认关联路由表和默认传播路由表为同一个路由表,均为系统创建的名称为“defaultRouteTable”的路由表。 如果系统已有名称为“defaultRouteTable”的路由表,则不会重复创建。 默认路由表支持更换。
        来自:
        帮助文档
        企业路由器
        用户指南
        路由表
        路由表概述
      • 负载均衡(LoadBalancer)
        创建LoadBalancer类型Service 步骤 1 登录CCE控制台,单击集群名称进入集群。 步骤 2 在左侧导航栏中选择“服务发现”,在右上角单击“创建服务”。 步骤 3 设置参数。 Service名称: 自定义服务名称,可与工作负载名称保持一致。 访问类型 :选择“负载均衡 LoadBalancer”。 命名空间: 工作负载所在命名空间。 服务亲和: 详情请参见externalTrafficPolicy(服务亲和)。 集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 选择器: 添加标签,Service根据标签选择Pod,填写后单击“添加”。也可以引用已有工作负载的标签,单击“引用负载标签”,在弹出的窗口中选择负载,然后单击“确定”。 IPv6: 默认不开启,开启后服务的集群内IP地址(ClusterIP)变为IPv6地址。该功能仅在1.15及以上版本的集群创建时开启了IPv6功能才会显示。 负载均衡器: 选择对接的ELB实例,仅支持与集群在同一个VPC下的ELB实例。如果没有可选的ELB实例,请单击“创建负载均衡器”跳转到ELB控制台创建。 CCE控制台支持自动创建ELB实例,在下拉框选择自动创建,填写ELB实例名称、是否公网访问(将创建 5 Mbit/s 带宽的弹性公网 IP。默认按照流量计费),独享型ELB实例还需选择可用区、子网和规格。当前仅支持自动创建网络型(TCP/UDP)独享型ELB实例。 您可以单击“编辑”配置ELB实例的参数,在弹出窗口中配置ELB实例的参数。 分配策略:可选择加权轮询算法、加权最少连接或源IP算法。 说明 加权轮询算法:根据后端服务器的权重,按顺序依次将请求分发给不同的服务器。它用相应的权重表示服务器的处理性能,按照权重的高低以及轮询方式将请求分配给各服务器,相同权重的服务器处理相同数目的连接数。常用于短连接服务,例如HTTP等服务。 加权最少连接:最少连接是通过当前活跃的连接数来估计服务器负载情况的一种动态调度算法。加权最少连接就是在最少连接数的基础上,根据服务器的不同处理能力,给每个服务器分配不同的权重,使其能够接受相应权值数的服务请求。常用于长连接服务,例如数据库连接等服务。 源IP算法:将请求的源IP地址进行Hash运算,得到一个具体的数值,同时对后端服务器进行编号,按照运算结果将请求分发到对应编号的服务器上。这可以使得对不同源IP的访问进行负载分发,同时使得同一个客户端IP的请求始终被派发至某特定的服务器。该方式适合负载均衡无cookie功能的TCP协议。 会话保持类型:默认不启用,可选择“源IP地址”。负载均衡监听是基于IP地址的会话保持,即来自同一IP地址的访问请求转发到同一台后端服务器上。 健康检查:默认不启用。此处健康检查是设置负载均衡的健康检查配置。当端口配置协议为TCP时,支持TCP和HTTP协议,当端口配置协议为UDP时,支持UDP协议。健康检查默认使用业务端口(Service的NodePort和容器端口)作为健康检查的端口;您也可以重新指定端口用于健康检查,重新制定端口会为服务增加一个名为ccehealthz的服务端口配置。 端口配置: 协议:请根据业务的协议类型选择。 服务端口:Service使用的端口,端口范围为165535。 容器端口:工作负载程序实际监听的端口,需用户确定。例如nginx默认使用80端口。 步骤 4 单击“确定”,创建Service。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        Service
        负载均衡(LoadBalancer)
      • 应用场景
        适用场景 流量治理是一个非常宽泛的话题,例如: 动态修改服务间访问的负载均衡策略,如根据某个请求特征做会话保持。 同一个服务有两个版本在线,将一部分流量切到某个版本上。 对服务进行保护,例如限制并发连接数、限制请求数、隔离故障服务实例等。 动态修改服务中的内容,或者模拟一个服务运行故障等。 价值 在Istio中实现这些服务治理功能时无须修改任何应用的代码。 应用服务网格ASM基于Istio可以为管理的服务提供非侵入的流量治理能力。根据服务的协议,提供策略化、场景化的网络连接管理。在应用拓扑上对选定服务的选定端口,根据需要配置各种不同的治理规则。 优势 负载均衡:配置各种负载均衡策略,如随机、轮询、最大连接数等,还可以配置会话保持将流量发到特定的服务实例上。 连接池:通过连接池管理,可以对四层协议配置TCP的最大连接数、连接超时等连接配置,对七层协议配置最大等待HTTP请求数、最大请求数、每个连接的最大请求数、最大重试次数等,从而防止一个服务的失败级联影响到整个应用。 熔断:通过熔断配置实例被驱逐前的连续错误次数、驱逐间隔时长、最小驱逐时间、最大驱逐比例等参数,从而定期考察被访问的服务实例的工作情况,如果连续出现访问异常,则将服务实例标记为异常并进行隔离,在一段时间内不为其分配流量。过一段时间后,被隔离的服务实例会再次被解除隔离,尝试处理请求,如果还不正常,则被隔离更长的时间。从而实现异常服务实例的故障隔离和自动故障恢复。 故障注入:通过对选定的服务注入中断的故障、延时故障来构造故障场景,从而无需修改代码即可进行故障测试。 端到端的透明安全
        来自:
        帮助文档
        应用服务网格
        产品简介
        应用场景
      • DRS预检查项一览表
        MongoDB>DDS 表 预检查一览表 分类 预检查项 检查项详情 权限类 源数据库权限 全量迁移需要具备如下最小权限: − 副本集:连接源数据库的用户需要有admin库的readAnyDatabase权限。 − 单节点:连接源数据库的用户需要有admin库的readAnyDatabase权限。 − 集群:连接源数据库的用户需要有admin库的readAnyDatabase权限,有config库的read权限。 − 如果需要迁移源数据库用户和角色信息,连接源数据库和目标库数据库的用户需要有admin数据库的系统表system.users、system.roles的read权限。 全量+增量迁移需要具备如下最小权限: − 副本集:连接源数据库的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 − 单节点:连接源数据库的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 − 集群:连接源数据库mongos节点的用户需要有admin库的readAnyDatabase权限,有config库的read权限,连接源数据库分片节点的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 − 如果需要迁移源数据库用户和角色信息,连接源数据库和目标库数据库的用户需要有admin数据库的系统表system.users、system.roles的read权限。 权限类 目标数据库权限 连接目标数据库的用户需要有admin库的dbAdminAnyDatabase权限,有目标数据库的readWrite权限。 对于目标数据库是集群的实例,迁移账号还要有admin库的clusterManager权限。 版本类 源数据库版本 支持3.2、3.4、3.6、4.0、4.2、4.4版本。 版本类 目标数据库版本 支持3.4、4.0、4.2、4.4版本。 版本类 迁移版本检查 仅支持目标数据库版本等于或高于源数据库版本。 增量迁移类 Oplog开启 增量迁移时,源数据库的Oplog日志必须打开。 增量迁移类 Oplog保留时长 在磁盘空间允许的情况下,建议源数据库Oplog保存时间越长越好,建议为3天。 增量迁移类 Balancer关闭 如果迁移任务是源数据集群的增量,则源数据必须关闭Balancer。 增量迁移类 孤儿文档检查 如果是源数据为集群的全量+增量迁移任务,则源数据库必须关闭Balancer并清理孤儿文档。 目标数据库检查 磁盘空间检查 目标数据库实例必须有足够的磁盘空间。 目标数据库检查 磁盘空间检查 集群到集群的全量迁移,如果源数据库的集群没有开启分片,则需要保证目标数据库主shard节点的磁盘空间大于源数据库数据大小。 目标数据库检查 状态检查 目标数据库实例状态必须正常。 目标数据库检查 chunk数目检查 检查目标数据库的最大chunk数目是否足以支撑源库数据的分片分裂,当chunk个数达到目标库的最大支撑数目时,chunk不再分裂,会影响写入性能。 一致性检查 固定集合检查 检查源库和目标库数据库固定集合是否一致,若不一致,则导致迁移失败。 迁移对象类 关联对象检查 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。 迁移对象类 角色依赖检查 在进行用户迁移时,若所选迁移的用户与某些角色存在依赖关系,需要同时选择迁移该用户及所依赖的角色,否则会导致迁移失败。 迁移对象类 账号依赖检查 在进行用户迁移时,若所选迁移的用户与某些角色存在依赖关系,需要同时选择迁移该用户及所依赖的角色,否则会导致迁移失败。 迁移对象类 同名检查 目标数据库不能存在与源数据库同名的数据库下的同名非空集合。 迁移对象类 同名检查 目标数据库不能存在和源数据库同名数据库下的同名视图。 迁移对象类 名称检查 源数据库的库名不能包含/."$和空格,集合名和视图名中不能包含$字符或以system.开头。 迁移对象类 复合哈希索引检查 源库为4.4版本集群时,不支持复合哈希索引,不支持复合哈希分片键。 源库为4.4版本副本集时,不支持复合哈希索引。 迁移对象类 复合哈希分片键检查 源库为4.4版本集群时,不支持复合哈希索引,不支持复合哈希分片键。 源库为4.4版本副本集时,不支持复合哈希索引。 迁移对象类 索引检查 源库若存在没有索引(id)的集合,可能导致迁移失败。 迁移对象类 TTL索引检查 TTL索引会因为源数据库和目标库数据的时区,时钟不一致导致迁移后数据不一致。 迁移对象类 索引个数检查 索引的个数会影响整个迁移的时间,检查源数据库是否存在索引个数大于10的集合,若存在会影响迁移速度。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时迁移
        任务管理
        附录
        DRS预检查项一览表
      • DRS预检查项一览表(1)
        分类 预检查项 检查项详情 权限类 源数据库权限 全量迁移需要具备如下最小权限: − 副本集:连接源数据库的用户需要有admin库的readAnyDatabase权限。 − 单节点:连接源数据库的用户需要有admin库的readAnyDatabase权限。 − 集群:连接源数据库的用户需要有admin库的readAnyDatabase权限,有config库的read权限。 − 如果需要迁移源数据库用户和角色信息,连接源数据库和目标库数据库的用户需要有admin数据库的系统表system.users、system.roles的read权限。 全量+增量迁移需要具备如下最小权限: − 副本集:连接源数据库的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 − 单节点:连接源数据库的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 − 集群:连接源数据库mongos节点的用户需要有admin库的readAnyDatabase权限,有config库的read权限,连接源数据库分片节点的用户需要有admin库的readAnyDatabase权限,有local库的read权限。 − 如果需要迁移源数据库用户和角色信息,连接源数据库和目标库数据库的用户需要有admin数据库的系统表system.users、system.roles的read权限。 权限类 目标数据库权限 连接目标数据库的用户需要有admin库的dbAdminAnyDatabase权限,有目标数据库的readWrite权限。 对于目标数据库是集群的实例,迁移账号还要有admin库的clusterManager权限。 版本类 源数据库版本 支持3.2、3.4、3.6、4.0、4.2、4.4版本。 版本类 目标数据库版本 支持3.4、4.0、4.2、4.4版本。 版本类 迁移版本检查 仅支持目标数据库版本等于或高于源数据库版本。 增量迁移类 Oplog开启 增量迁移时,源数据库的Oplog日志必须打开。 增量迁移类 Oplog保留时长 在磁盘空间允许的情况下,建议源数据库Oplog保存时间越长越好,建议为3天。 增量迁移类 Balancer关闭 如果迁移任务是源数据集群的增量,则源数据必须关闭Balancer。 增量迁移类 孤儿文档检查 如果是源数据为集群的全量+增量迁移任务,则源数据库必须关闭Balancer并清理孤儿文档。 目标数据库检查 磁盘空间检查 目标数据库实例必须有足够的磁盘空间。 目标数据库检查 磁盘空间检查 集群到集群的全量迁移,如果源数据库的集群没有开启分片,则需要保证目标数据库主shard节点的磁盘空间大于源数据库数据大小。 目标数据库检查 状态检查 目标数据库实例状态必须正常。 目标数据库检查 chunk数目检查 检查目标数据库的最大chunk数目是否足以支撑源库数据的分片分裂,当chunk个数达到目标库的最大支撑数目时,chunk不再分裂,会影响写入性能。 一致性检查 固定集合检查 检查源库和目标库数据库固定集合是否一致,若不一致,则导致迁移失败。 迁移对象类 关联对象检查 相互关联的数据对象要确保同时迁移,避免迁移因关联对象缺失,导致迁移失败。 迁移对象类 角色依赖检查 在进行用户迁移时,若所选迁移的用户与某些角色存在依赖关系,需要同时选择迁移该用户及所依赖的角色,否则会导致迁移失败。 迁移对象类 账号依赖检查 在进行用户迁移时,若所选迁移的用户与某些角色存在依赖关系,需要同时选择迁移该用户及所依赖的角色,否则会导致迁移失败。 迁移对象类 同名检查 目标数据库不能存在与源数据库同名的数据库下的同名非空集合。 迁移对象类 同名检查 目标数据库不能存在和源数据库同名数据库下的同名视图。 迁移对象类 名称检查 源数据库的库名不能包含/."$和空格,集合名和视图名中不能包含$字符或以system.开头。 迁移对象类 复合哈希索引检查 源库为4.4版本集群时,不支持复合哈希索引,不支持复合哈希分片键。 源库为4.4版本副本集时,不支持复合哈希索引。 迁移对象类 复合哈希分片键检查 源库为4.4版本集群时,不支持复合哈希索引,不支持复合哈希分片键。 源库为4.4版本副本集时,不支持复合哈希索引。 迁移对象类 索引检查 源库若存在没有索引(id)的集合,可能导致迁移失败。 迁移对象类 TTL索引检查 TTL索引会因为源数据库和目标库数据的时区,时钟不一致导致迁移后数据不一致。 迁移对象类 索引个数检查 索引的个数会影响整个迁移的时间,检查源数据库是否存在索引个数大于10的集合,若存在会影响迁移速度。
        来自:
      • iptables与IPVS如何选择
        Service 与 kubeproxy Service是Kubernetes抽象出来的网络组件,它对外提供统一的IP,屏蔽后端 Pod 的变化,将请求负载到后端的容器 Pod。 kubeproxy是 Kubernetes 的核心组件之一,负责维护节点上 Service 到 Pod 的网络规则。云容器引擎的 kubeproxy 支持 iptables 和 IPVS 两种模式。 iptables iptables 是 Linux 用于过滤和处理数据包的内核功能,其原理是通过 Hook 机制挂载的一系列规则对路径上的数据包进行处理。在使用 iptables 模式时,kubeproxy 会为每一个 Service 添加一条 iptables 规则。通过这些规则流向 Service 的数据包将被随机转发到后端的容器 Pod上。适用的场景: 成熟稳定的kubeproxy代理模式,性能一般,适用于Service数量较少(小于3000)的场景 随机平等的负载均衡算法能满足需求的场景 IPVS IPVS(IP Virtual Server)是构建在传输层上的负载均衡,其原理是将客户端的 TCP 和 UDP 请求根据预设的调度算法分配到后端的真实服务器上,从而实现服务器集群的负载均衡。采用 IPVS 模式时,kubeproxy 会使用 IPVS 提供的高效查找算法将请求转发到后端的容器 Pod上,且处理效率与集群规模无关。适用的场景: 高性能的kubeproxy代理模式,适用于集群规模较大或Service数量较多的场景 有轮询、最短期望延迟、最少连接以及各种哈希方法等负载均衡算法需求的场景
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        新建集群
        iptables与IPVS如何选择
      • iptables与IPVS如何选择(1)
        Service 与 kubeproxy Service是Kubernetes抽象出来的网络组件,它对外提供统一的IP,屏蔽后端 Pod 的变化,将请求负载到后端的容器 Pod。 kubeproxy是 Kubernetes 的核心组件之一,负责维护节点上 Service 到 Pod 的网络规则。云容器引擎的 kubeproxy 支持 iptables 和 IPVS 两种模式。 iptables iptables 是 Linux 用于过滤和处理数据包的内核功能,其原理是通过 Hook 机制挂载的一系列规则对路径上的数据包进行处理。在使用 iptables 模式时,kubeproxy 会为每一个 Service 添加一条 iptables 规则。通过这些规则流向 Service 的数据包将被随机转发到后端的容器 Pod上。适用的场景: 成熟稳定的kubeproxy代理模式,性能一般,适用于Service数量较少(小于3000)的场景 随机平等的负载均衡算法能满足需求的场景 IPVS IPVS(IP Virtual Server)是构建在传输层上的负载均衡,其原理是将客户端的 TCP 和 UDP 请求根据预设的调度算法分配到后端的真实服务器上,从而实现服务器集群的负载均衡。采用 IPVS 模式时,kubeproxy 会使用 IPVS 提供的高效查找算法将请求转发到后端的容器 Pod上,且处理效率与集群规模无关。适用的场景: 高性能的kubeproxy代理模式,适用于集群规模较大或Service数量较多的场景 有轮询、最短期望延迟、最少连接以及各种哈希方法等负载均衡算法需求的场景
        来自:
      • 应用一致性Agent脚本无法下载或安装失败
        本章节介绍当使用数据库服务器备份, 应用一致性Agent脚本无法下载或安装失败, 可能造成的原因和解决方案。 现象描述 系统提示无法下载脚本或使用Linux系统方式二安装Agent时失败。 可能原因 原因1:DNS无法正常解析OBS的域名。 原因2:目标云服务器openssl版本过低。 原因1解决方法 原因1:DNS无法正常解析安装域名。 需要手动修改DNS服务器IP地址,IP地址请从技术工程师处获取。若修改DNS后仍无法正常解析,请稍候重试或使用Linux系统方式一进行安装。 Linux 系统操作步骤 步骤1、以root用户登录云服务器。 步骤2、执行vi /etc/resolv.conf命令编辑“/etc/resolv.conf”文件。在已有的nameserver配置前写入DNS服务器的IP地址,如下图所示。 配置DNS 格式如下: nameserver DNS服务器IP地址 步骤3、单击“Esc”,并输入 :wq ,保存退出。 步骤4、执行以下命令,查看IP地址是否写入成功。完成修改DNS。 cat /etc/resolv.conf Windows 系统操作步骤 步骤1、进入弹性云服务器界面,登录已创建好的Windows 2012版本的弹性云服务器。 步骤2、单击左下角“这台电脑”,弹出“这台电脑”界面。 步骤3、右键单击“网络”,选择“属性”。弹出“网络和共享中心”,如下图所示。选择“本地连接”。 网络和共享中心 步骤4、在“活动”区域,选择“属性”。如下图所示。 本地连接活动 步骤5、弹出“本地连接属性”对话框,选择“Internet 协议版本 4 (TCP/IPv4)”,单击“属性”。如下图所示。 本地连接属性 步骤6、在弹出的“Internet 协议版本 4(TCP/IPv4)属性”对话框中,选择“使用下面的DNS服务器地址”,如图138所示,根据需要配置DNS。需要手动修改DNS服务器IP地址,IP地址请从技术工程师处获取。配置完成后,单击“确定”,完成配置。 配置DNS
        来自:
        帮助文档
        云服务备份
        故障案例
        应用一致性Agent脚本无法下载或安装失败
      • PutObjectACL
        参数名称 参数描述 类型 是否必须 xamzacl 参数解释: 为当前对象设置的ACL名称 约束限制: 不能与其他 xamzgrant同时使用 取值范围: private:私有。 publicread:公共读。 publicreadwrite:公共读写。注意:由于安全限制,对象存储底层禁用公共读写,设置后不可匿名写,如需使用可提工单申请。 authenticatedread:所有经过认证的用户都可以获取该对象。 String 否 xamzgrantfullcontrol 参数解释: 被授权用户可以对当前对象进行read, read ACP, write ACP操作 约束限制: 格式”idxxx”或”emailAddressxxx”或者”urixxx”以及他们的组合(用逗号连接) String 否 xamzgrantread 参数解释: 被授权用户可以对当前对象进行读操作,即下载该对象 约束限制: 格式”idxxx”或”emailAddressxxx”或者”urixxx”以及他们的组合(用逗号连接) String 否 xamzgrantreadacp 参数解释: 被授权用户可以读取当前对象的ACL 约束限制: 格式”idxxx”或”emailAddressxxx”或者”urixxx”以及他们的组合(用逗号连接) String 否 xamzgrantwriteacp 参数解释: 被授权用户可以修改当前对象的ACL 约束限制: 格式”idxxx”或”emailAddressxxx”或者”urixxx”以及他们的组合(用逗号连接) String 否
        来自:
        帮助文档
        对象存储 ZOS
        API参考
        API(原生接口)
        Object操作
        PutObjectACL
      • 1
      • ...
      • 78
      • 79
      • 80
      • 81
      • 82
      • ...
      • 494
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      训推服务

      推荐文档

      安装网页防篡改集中管理中心

      操作类

      公告

      云课堂 第九课:如何选择天翼云云硬

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号