云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      电信云翼备份_相关内容
      • 逻辑集群概述
        场景二:不同业务要求的数据隔离,扩展数据集群多租户的能力 大规模数据库集群往往同时包含很多业务的数据,不同业务有不同的数据表,为了对不同业务进行资源隔离,可以通过创建多租户来实现。将不同业务用户分配给不同租户,以便减少业务之间资源竞争。但随着业务规模不断扩大,集群系统中的业务数目越来越多,通过划分多租户来管理越来越难以控制资源竞争。由于每个表都会分布在数据库集群的所有DN节点上,因此每次数据表操作都可能会涉及所有DN节点,这会导致网络压力增大和系统资源消耗,单纯通过扩大集群规模也很难解决。所以可通过划分多个逻辑集群解决业务数量扩大问题,如上图所示。 通过划分独立的逻辑集群,将新增的业务分配到独立的逻辑集群上,这样新增业务对原有业务的影响会很小。而原有逻辑集群中的业务规模如果扩大,也可以通过对原有逻辑集群扩容来解决。 说明 逻辑集群不适合将多个独立的数据库系统合并在一起管理,独立的数据库系统往往对独立运维要求很高,需要能够单独管理、监控、备份和升级,同时集群之间要求故障隔离,逻辑集群无法做到独立运维和完全的故障隔离。
        来自:
        帮助文档
        数据仓库服务
        用户指南
        逻辑集群管理
        逻辑集群概述
      • 重启实例
        本章主要介绍重启实例 DCS管理控制台支持重启运行中的DCS缓存实例,且可批量重启DCS缓存实例。 说明 重启DCS缓存实例后,单机实例中原有的数据将被删除。 在重启DCS缓存实例过程中,您无法对实例进行读写操作。 在重启DCS缓存实例过程中,如果有正在进行的备份操作,可能会重启失败。 重启DCS缓存实例会断开原有客户端连接,建议在应用中配置自动重连。 前提条件 只有当DCS缓存实例处于“运行中”或“故障”状态,才能执行此操作。 操作步骤 步骤 1 登录分布式缓存服务管理控制台。 步骤 2 在管理控制台左上角单击,选择区域和项目。 步骤 3 单击左侧菜单栏的“缓存管理”。进入缓存管理页面。 步骤 4 勾选“名称”栏下的相应DCS缓存实例名称左侧的方框,可选一个或多个。 步骤 5 单击信息栏左上侧的“重启”。 步骤 6 单击“是”,完成重启DCS缓存实例。 重启DCS缓存实例大约需要10秒到30分钟。DCS缓存实例重启成功后,缓存实例状态切换为“运行中”。 说明 如果重启单个实例,也可以在需要重启的DCS缓存实例右侧,单击“操作”栏下的“重启”。 重启DCS缓存实例具体需要时长同实例的缓存大小有关。
        来自:
        帮助文档
        分布式缓存服务Redis版
        用户指南
        实例日常操作
        重启实例
      • 更新omm用户ssh密钥
        本章主要介绍翼MapReduce的更新omm用户ssh密钥功能。 操作场景 在安装集群时,系统将自动为omm用户生成ssh认证私钥和公钥,用来建立节点间的互信。在集群安装成功后,如果原始私钥不慎意外泄露或者需要使用新的密钥时,系统管理员可以通过以下操作手动更改密钥值。 前提条件 已停止集群。 修改时禁止同时进行其他管理类操作。 操作步骤 1.以omm用户登录到需要替换ssh密钥的节点。 如果该节点是Manager管理节点,务必在主管理节点上执行相关操作。 2.执行以下命令,防止超时退出。 TMOUT0 说明 执行完本章节操作后,请及时恢复超时退出时间,执行命令 TMOUT 超时退出时间 。例如: TMOUT600 ,表示用户无操作600秒后超时退出。 3.执行以下命令,为节点生成新的密钥: 如果当前节点是Manager管理节点,执行以下命令: sh ${CONTROLLERHOME}/sbin/updatesshkey.sh 如果当前节点是非管理节点,执行以下命令: sh ${NODEAGENTHOME}/bin/updatesshkey.sh 执行上述命令时界面提示“Succeed to update ssh private key.”信息,表示ssh密钥生成成功。 4.执行以下命令将该节点的公钥拷贝到主管理节点: scp ${HOME}/.ssh/idrsa.pub omsip:${HOME}/.ssh/idrsa.pubbak omsip:表示主管理节点IP。 根据提示输入omm用户密码完成文件拷贝。 5.以omm用户登录到主管理节点。 6.执行以下命令,防止超时退出: TMOUT0 7.执行以下命令,切换目录: cd ${HOME}/.ssh 8.执行以下命令添加新的公钥信息: cat idrsa.pubbak >> authorizedkeys 9.执行以下命令移动临时公钥文件到其他目录,例如,移动到“/tmp”目录。 mv f idrsa.pubbak /tmp 10.拷贝主管理节点的authorizedkeys文件到集群内其他节点: scp authorizedkeys nodeip:/${HOME}/.ssh/authorizedkeys nodeip:集群内其他节点IP,不支持多个IP。 11.执行以下命令无需输入密码确认私钥替换完成: ssh nodeip nodeip:集群内其他节点IP,不支持多个IP。 12.登录FusionInsight Manager,在“主页”中单击待操作集群名称后的“ > 启动”,启动集群。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全加固
        更新omm用户ssh密钥
      • 查询域名的IP列表,区域,运营商
        接口描述:调用本接口查询域名的IP地址,及ip对应的区域,运营商信息 请求方式:post 请求路径:/auxiliarytools/queryvipsdetailbydomain 使用说明: 单个用户一分钟限制调用10000次,并发不超过100 请求参数说明(json): 参数 类型 是否必传 名称 描述 ::::: domain list 是 域名列表 最多支持5个 返回参数说明: 参数 类型 是否必传 名称及描述 :::: code int 是 状态码 message string 是 描述信息 result list 否 返回结果数组 result[].domain string 否 域名 result[].details list 否 域名对应的vip列表信息 result[].details[ ].vips string 否 vip信息,多个用逗号“,”分割 result[].details[ ].cityName string 否 城市名称 result[].details[ ].nodename string 否 节点名称 result[].details[ ].provinceName string 否 省份名 result[].details[ ].ispName string 否 运营商名称 示例: 请求路径: 请求参数: { "domain":[ "test.ctyun.cn" ] } 返回结果: { "code": 100000, "message": "success", "result": [ { "domain": "test.ctyun.cn", "details": [ { "vips": "xx.xx.xx.xx,xx:xx:xx:xx::", "cityName": "呼和浩特市", "nodename": "xxx1", "provinceName": "内蒙古自治区", "ispName": "中国电信" }, { "vips": "xx.xx.xx.xx,xx:xx:xx:xx::", "cityName": "通州区", "nodename": "xxx2", "provinceName": "北京市", "ispName": "中国电信" } ] } ] } 错误码请参考:参数code和message含义
        来自:
        帮助文档
        CDN加速
        API参考
        API
        辅助工具
        查询域名的IP列表,区域,运营商
      • 添加用户并绑定租户的角色
        本章节主要介绍翼MapReduce的添加用户并绑定租户的角色操作。 操作场景 创建好的租户不能直接登录集群访问资源,管理员需要通过FusionInsight Manager为已有租户创建新用户,通过绑定租户的角色继承其操作权限,以满足业务使用。 前提条件 管理员已明确业务需求,并已创建了租户。 操作步骤 1. 登录FusionInsight Manager,选择“系统 > 权限 > 用户”。 2. 若在系统中添加新的用户,请单击“添加用户”,打开添加用户的配置页面。 若为系统中已有的用户绑定租户权限,请单击该用户所在行的“修改”,打开修改用户的配置页面。 参见下表为用户配置属性。 用户参数一览 参数名 描述 用户名 指定当前的用户名,长度为3~32个字符,可包含数字、字母、下划线()、中划线()和空格。 “用户名”不能与集群各节点所有操作系统用户名相同,否则此用户无法正常使用。 不支持创建两个名称相同但大小写不同的用户。例如已创建用户“User1”,无法创建用户“user1”。使用“User1”时请输入正确的用户名。 用户类型 可选值包括“人机”和“机机”。 “人机”用户:用于在FusionInsight Manager的操作运维场景,以及在组件客户端操作的场景。选择该值需同时填写“密码”和“确认密码”。 “机机”用户:用于应用开发的场景。选择该值用户密码随机生成,无需填写。 密码 选择“人机”用户需填写“密码”。密码必须包含8~64个字符,至少包含以下类型字符中的四种:大写字母、小写字母、数字、特殊字符和空格。不能与用户名或倒序的用户名相同。 确认密码 再次输入密码。 用户组 单击“添加”,选择对应用户组将用户添加进去。 如果用户组添加了角色,则用户可获得对应角色中的权限。 例如,为新用户分配Hive的权限,请将用户加入Hive组。 主组 选择一个组作为用户创建目录和文件时的主组。下拉列表包含“用户组”中勾选的全部组。 角色 单击“添加”为用户绑定租户的角色。 说明 若一个用户想要获取使用“tenant1”租户包含的资源,且能够为“tenant1”租户添加/删除子租户,则需要同时绑定“Managertenant”和“tenant1 集群ID ”两个角色。 如果租户关联了HBase服务且当前集群启用了Ranger鉴权,用户需要通过Ranger界面配置HBase相关执行权限。 描述 配置当前用户的描述信息。 3. 单击“确定”完成用户创建。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        租户资源
        使用Superior调度器的租户业务
        创建租户
        添加用户并绑定租户的角色
      • FusionInsight Manager入门指导
        本章节主要介绍翼MapReduce的FusionInsight Manager操作。 概述 MRS为用户提供海量数据的管理及分析功能,快速从结构化和非结构化的海量数据中挖掘您所需要的价值数据。开源组件结构复杂,安装、配置、管理过程费时费力,使用FusionInsight Manager将为您提供企业级的集群的统一管理平台: 提供集群状态的监控功能,您能快速掌握服务及主机的运行状态。 提供图形化的指标监控及定制,您能及时的获取系统的关键信息。 提供服务属性的配置功能,满足您实际业务的性能需求。 提供集群、服务、角色实例的操作功能,满足您一键启停等操作需求。 提供权限管理及审计功能,您能设置访问控制及管理操作日志。 浏览器支持能力 Google Chrome 推荐使用Google Chrome 93~95版本。 Microsoft Edge 支持Windows 10系统自带的Microsoft Edge浏览器。 说明 推荐使用Windows平台的浏览器访问FusionInsight Manager。 系统界面简介 FusionInsight Manager提供统一的集群管理平台,帮助您快捷、直观的完成集群的运行维护。 详见下图:FusionInsight Manager系统界面 界面最上方为操作栏,中部为显示区,最下方为任务栏。 操作栏各操作入口的详细功能如下表所示。 界面操作入口功能描述 入口 功能描述 主页 提供柱状图、折线图、表格等多种图表方式展示集群的主要监控指标、主机的状态统计。您可以定制关键监控信息面板,并拖动到任意位置。系统概览支持数据自动刷新,请参见主页。 集群 提供各集群内服务监控、服务操作向导以及服务配置,帮助您对服务进行统一管理。请参见集群管理。 主机 提供主机监控、主机操作向导,帮助您对主机进行统一管理。请参见主机。 运维 提供告警查询、告警处理指导功能。帮助您及时发现产品故障及潜在隐患,并进行定位排除,以保证系统正常运行。请参见运维。 审计 提供审计日志查询及导出功能。帮助您查阅所有用户活动及操作。请参见审计。 租户资源 提供统一租户管理平台。请参见租户资源。 系统 提供对FusionInsight Manager的系统管理设置,例如用户权限设置。请参见系统设置。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        从这里开始
        FusionInsight Manager入门指导
      • 配置升级-服务配置修改建议
        本章节主要介绍配置升级后的服务配置修改建议。 操作场景 当节点组内ECS实例的规格(vCPU和内存)无法满足您的业务需求时,您可以使用配置升级功能提升ECS实例规格。升级配置后需要手动修改HDFS、YARN和Spark等服务的配置信息。本文为您介绍如何在翼MR Manager的“配置管理”页面修改配置项。 前提条件 已创建集群。 操作步骤 1. 在翼MR Manager中,单击“运维与配置”。 2. 单击“配置管理”。 3. 选择“所选集群服务”,点击查询,即可在当前页面修改配置信息。 配置修改建议说明 1. Doris:Doris所在节点配置升级后,Doris FE建议使用节点一半内存。 2. Elasticsearch:一个Elasticsearch节点,内存建议不超过64G。Elasticsearch所在节点配置升级后,Elasticsearch会自动根据节点情况设置内存值,一般无须用户手动修改,但需要重启集群。如果想手动设置,可以修改jvm.options文件配置Xms30g、Xmx30g参数,并重启集群。 3. HBase:HBase所在节点配置升级后,修改建议如下: hbasesite.xml:hbase.regionserver.handler.count 说明 :一般跟CPU核数相同。 hbaseenv.sh:export HBASEMASTEROPTS :"Xmsg Xmxg" 说明 :master不消耗很多内存,一般默认不添加或者分配2~8G左右。 hbaseenv.sh:export HBASEREGIONSERVEROPTS:"Xmsg Xmxg " 说明 :regionserver需要较多内存,一般配置内存配额的一半或更多。 4. HDFS:HDFS所在节点配置升级后,可以根据hadoopenv.sh 参数配置进行,通过调整服务的内存大小调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。NameNode 建议文件、目录、数据块之和1亿,配置50G。 5. Hive:Hive所在节点配置升级后,可以通过hiveenv.sh统一参数配置来进行,也可以在作业提交时使用额外参数指定来进行。通过调整服务的内存大小调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。内存大小可以根据机器的总内存而定,建议初始值为总内存大小的10%,后续根据性能需求调整。 6. Kafka:Kafka所在节点配置升级后,建议配置如下: kafkaenv.sh设置jvm配置参数:调整jvm堆大小,通过调整参数:export KAFKAHEAPOPTS"Xmx20G Xms20G Xmn4g"设置堆大小。 server.properties文件建议修改的配置项: num.io.threads:修改写磁盘的线程数,建议配置为CPU核数的50%; num.replica.fetchers:修改副本拉取线程数,建议配置为CPU核数50%的1/3; num.network.threads:修改数据传输线程数,建议配置为CPU核数的50%的2/3; replica.fetch.max.bytes:副本拉取数据量的大小。内存增加,可以适当加大该值; socket.send.buffer.bytes:调整socket发送的数据量。内存增加,可以适当加大该值; socket.receive.buffer.bytes:调整socke接受的数据量。内存增加,可以适当加大该值; socket.request.max.bytes:socket请求的数据量。内存增加,可以适当加大该值。 7. Kerberos:建议保持默认值,无需修改配置。 8. Kibana:Kibana是一个基于NodeJS的单页web应用,一般情况下,对内存CPU占用很少,无须修改内存、CPU等配置。 9. Kyuubi:Kyuubi一般情况下,对内存CPU占用很少,无须修改内存、CPU等配置。 10. OpenLDAP:建议保持默认值,无需修改配置。 11. Ranger:Ranger所在节点配置升级后,修改建议如下: rangeradmin通过{installdir}/ews/rangeradminservices.sh中变量 rangeradminmaxheapsize的值修改JMX,JAVAOPTS修改Xmx、Xmn等JVM参数,一般设置18g,1K policy建议设置为1G,1W policy建议设置为8G。 rangerusersync通过/{installdir}/rangerusersyncservices.sh中变量rangerusersyncmaxheapsize 的值修改JMX,JAVAOPTS修改Xmx Xmn等JVM参数,一般设置18g,1K policy建议设置为1G,1W policy建议设置为8G。 12. Spark:Spark所在节点配置升级后,修改建议如下: spark.history.kerberos.principal和spark.history.kerberos.keytab为spark读写eventLog的租户,用户如有特殊需求自行更改。 spark.yarn.historyServer.address:说明了history server的地址,用户如有特殊需求自行更改。 spark.dynamicAllocation.enabled 和 spark.dynamicAllocation.maxExecutors 分别控制动态和动态开启下能使用的最大资源,用户如有特殊需求自行更改。 spark.executor.cores 和 spark.executor.memory 确保spark.executor的每一个core分配到2~4g内存,标准是4g,具体视情况而定,设置core的memory设置过小executor容易oom。 13. Trino:Trino的服务包括coordinator和worker。Trino所在节点配置升级后,可以根据jvm.config参数配置进行,通过调整服务的内存大小调整服务的性能,如Xmx128g Xms128g,然后重启服务。 14. YARN:YARN所在节点配置升级后,可以根据yarnenv.sh 参数配置进行,通过调整服务的内存大小来调整服务的性能,如Xmx20g Xms20g Xmn4g,然后重启服务。NM用于集群中作业的内存和CPU,需要修改NM节点的yarnsite.xml中的yarn.nodemanager.resource.memorymb的值,该值用于所有作业的最多可用内存;以及yarn.nodemanager.resource.cpuvcores的值,该值用于所有作业的最多可用虚拟CPU核数。 15. ZooKeeper:ZooKeeper所在节点配置升级后,可通过配置java.env文件,在其中添加:export ZKSERVERHEAP2048(这里设置的单位默认是MB)。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        配置升级-服务配置修改建议
      • 约束与限制
        本章节主要介绍数据治理中心的约束与限制。 浏览器限制 您需要使用支持的浏览器版本登录DataArts Studio。 表1 浏览器兼容性 浏览器版本 建议版本 建议操作系统 备注 Google Chrome 115,114,113 Windows 10 分辨率最佳可视范围为最小1366768px,最大为19201080px。其中19201080px为最佳显示分辨率,界面自适应为最优显示。 使用限制 使用DataArts Studio前,您需要认真阅读并了解以下使用限制。 表2 DataArts Studio使用限制一览表 组件 约束限制 公共 DataArts Studio基于数据湖底座提供数据一站式集成、开发、治理等能力,本身不具备存储和计算的能力,需要配合数据湖底座使用。 每个企业项目下最多绑定一个DataArts Studio实例。当企业项目下已绑定实例时,再次创建实例会失败。 DataArts Studio各组件对不同数据源的支持程度不一,您需要按照您的业务需求来选择数据湖底座。DataArts Studio平台当前支持的数据湖产品请参见“DataArts Studio用户指南 > 管理中心 > DataArts Studio支持的数据源”。 管理中心 由于管理中心的限制,数据治理各组件(如数据架构、数据质量、数据目录等)暂不支持包含中文和“.”字符的库表名。 建议为管理中心数据连接的Agent和CDM迁移作业规划相互独立的CDM集群,避免双方使用同一集群,导致业务高峰期时资源抢占引起业务不可用。 CDM集群作为管理中心数据连接Agent时,单集群无法连接多个MRS安全集群。建议您按照业务情况规划多个Agent与MRS安全集群一一映射。 CDM集群作为管理中心数据连接Agent时,单集群的并发活动线程最大为200。即当多个数据连接共用同一Agent时,通过这些数据连接提交SQL脚本、Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 单工作空间允许创建的数据连接个数最多200个。 管理中心相关开放API并发限制为100qps。 数据集成 CDM作业支持自动备份和恢复,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据集成 > 管理作业 > 作业配置管理”章节。 CDM作业本身无配额限制,但建议作业数不超过CDM集群的vCPU核数2,否则作业运行性能可能会受到一定影响。 数据集成CDM集群为单集群部署,集群故障可能会导致业务、数据损失。建议您使用数据开发作业CDM Job节点调用CDM作业,并选择两个CDM集群以提升可靠性。详情请参见用户指南中“数据开发 > 节点参考 > CDM Job”章节。 当所连接的数据源发生变化(如MRS集群扩容等情况)时,您需要重新编辑并保存该连接。 在驱动更新场景下,上传驱动后必须在CDM集群列表中重启集群才能更新生效。 单作业的抽取并发数取值范围为1300,集群的总抽取并发数取值范围为11000。其中集群最大抽取并发数的设置与CDM集群规格有关,并发数上限建议配置为vCPU核数2,作业的抽取并发数建议不超过集群的总抽取并发数,过高的并发数可能导致内存溢出,请谨慎修改。 关于数据集成中的更多约束限制,请参考用户指南中“数据集成> 约束与限制”章节。 数据开发 数据开发脚本、作业等资产支持备份管理,将备份数据存储到OBS中,该功能需要您手动开启。详情请参见用户指南中“数据开发 > 运维调度 > 备份管理”章节。 脚本、作业或节点的历史运行记录依赖于OBS桶,如果未配置测试运行历史OBS桶,则无法查看历史运行的详细信息。 上传资源时,如果资源位置为HDFS,则只支持MRS Spark,MRS Flink Job,MRS MapReduce节点使用该资源。 单工作空间允许创建的脚本个数最多1万个,脚本目录最多5000个,目录层级最多为10层。 单工作空间允许创建的作业个数最多1万个,作业目录最多5000个,目录层级最多为10层。 RDS SQL、DWS SQL、HIVE SQL、SPARK SQL、DLI SQL脚本执行结果页面展示最多1千条,且数据量少于3MB。超过1千条数据可以使用转储功能,转储最多支持1万条。 实例监控、补数据监控只能展示最近6个月的数据。 通知记录只能展示最近30天的数据。 下载中心的下载记录会每7天做老化处理,老化时下载中心记录和已转储的OBS数据会同时被删除。 数据架构 数据架构当前支持关系建模和维度建模(仅支持星形模型)这两种建模方式。 数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 码表和数据标准的根目录下禁止直接创建码表和数据标准。 单工作空间中创建各类对象的配额如下: l主题5000个。 l数据标准目录500条,个数20000个。 l业务指标100000个。 l原子指标、衍生指标、复合指标各5000条。 配置中心中各类对象的自定义项配额如下: l主题自定义项10条。 l表自定义项30条。 l属性自定义项10条。 l业务指标自定义项50条。 数据质量 数据质量作业执行时长依赖数据引擎,如果底层数据引擎资源不足,可能会导致运行速度变慢。 单个数据质量作业最多可以配置50条规则,如有需要可拆分为多个质量作业。 单个数据连接上的质量作业关联SQL的并发数默认为1000,如果超出则等待排队执行。可配置范围101000。 单Region内的质量作业关联SQL的并发数为10000,如果超出则等待排队执行。 业务指标监控模块总览中的实例运行状态和实例告警状态支持按照7天展示,告警趋势、业务看板、指标看板支持按照7天、15天和30天展示。 数据质量监控模块总览中的变化趋势支持按照30天展示,质量告警分类趋势和规则数量趋势支持按照7天展示。 质量报告采用T+1日定时批量生成,质量报告数据保留90天。 导出质量报告至OBS,会将质量报告导出到工作空间中配置的作业日志OBS路径中,导出记录保留3个月。 数据目录 单工作空间中元数据采集任务最多创建100个。 元数据采集任务通过执行引擎相关的DDL SQL获取,不建议单个任务采集超过1000张表。如有需要可拆分为多个采集任务,另外调度时间和频次也需要根据业务需要进行合理设置,避免对引擎造成较大的访问和连接压力,设置建议如下: l若业务对元数据时效性要求为1天,则设置调度周期max(1天,单次采集周期时间),其他情况同理。 l若业务压力集中在白天,则设置调度时间在夜间,其他情况同理,选择数据源压力最小的时间段。 数据血缘的产生依赖于数据开发中调度运行的作业,测试运行的作业不会产生血缘。 元数据采集模块总览中的数据连接历史统计支持按照7天、15天和30天展示。 数据服务 数据服务共享版仅供开发测试使用,专享版性能优于共享版,推荐使用数据服务专享版。 DataArts Studio实例下最多支持创建5个数据服务专享版集群,且集群需要与某个工作空间绑定,不能多空间共用同一集群。 数据服务专享版集群创建后暂不支持修改规格或升级版本。 DataArts Studio实例下支持创建的专享版API最大数量由数据服务专享版API总分配配额(默认为5000)和当前实例下集群的API规格总和共同决定,取较小的作为限制。例如,某DataArts Studio实例下的数据服务专享版API总分配配额为5000,已分别创建了API规格为500和2000的两个集群,则当前实例下支持创建的专享版API最大数量为2500。 单工作空间下支持创建的专享版API最大数量由数据服务专享版API已分配配额(通过编辑工作空间信息分配)和当前空间下集群的API规格总和共同决定,取较小的作为限制。例如,某工作空间下的数据服务专享版API已分配配额为800,当前工作空间下已创建了API规格为500的两个集群,则当前工作空间下支持创建的专享版API最大数量为800。 单工作空间下支持创建的应用数量为1000。 单工作空间下支持创建的流控策略数量为500。 数据服务支持跟踪并保存事件。对于每个事件,数据服务会报告事件发生日期、说明、时间源(某个集群)等信息,事件保存时长为30天。 数据服务专享版日志信息仅查询集群最近100条访问记录,均分至集群全部所属节点中获取。 总览中的调用趋势、发布趋势、调用比率 top5、调用时间 top5和调用次数 top5支持按照近12小时、近1天、近7天和近30天展示,总调用数为前7天数据总和(不含当天)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        产品简介
        约束与限制
      • 图片处理概述
        使用说明 目前图片处理服务暂不支持客户自助开启,如需使用,请通过提交工单向天翼云客服申请。申请时,请说明具体希望达成如下哪种效果:自适应WEBP、自动瘦身、URL中携带特定参数实现图片处理。 自适应WEBP 自适应WEBP是图片格式转换的一种,开启自适应WEBP功能后,用户请求URL中无需携带相关参数,全站加速节点可将Accept请求头值中包括image/webp的图片格式自动转换为WEBP,以获得更好的压缩率及图像质量。 注意 开启自适应WEBP功能后,原始图片缓存会失效,短时间内文件命中率会下降,一段时间后会自行恢复,请避免在业务高峰期开启该功能。 自动瘦身 自动瘦身是图片质量转换的一种,开启自动瘦身后,用户请求URL中无需携带相关参数,全站加速节点可按照预先设定的相对质量比例自动完成图片质量转换,以对图片进行压缩,节省用户访问流量。 注意 如需配置自动瘦身功能,请在工单中注明自动瘦身比例。 URL中携带特定参数实现图片处理 开通图片处理功能后,用户可通过在URL中携带特定参数实现灵活的图片处理能力。 图片处理请求URL格式为: 具体字段含义如下: 参数 说明 www.ctyun.cn 在天翼云加速的全站加速域名。 a.jpg 需要处理的图片名称。 action 图片处理的固定参数名。 key1:value1 图片处理的具体参数,例如:format:bmp,则表示对该图片进行格式转换动作,将a.jpg转换为bmp格式。 key2:value2 图片处理的具体参数2,支持对同个图片做多个处理动作。 1. 存在多个处理参数时,getinfo优先级最高,如有该参数,其他参数忽略无效。 2. 存在多个处理参数,且不包括getinfo时,format格式转换参数将作为最后动作来处理,其他处理参数将按参数携带的先后顺序依次进行处理。 示例: 处理效果为:对a.jpg先将其绝对质量转换为80,再对其进行居中宽400高200的裁剪,最后将其转换为bmp图片格式。 目前支持的图片处理操作及对应参数如下: 图片处理功能 处理参数 说明 格式转换 format 对图片格式进行转换。 质量转换 quality 对图片质量进行转换,支持绝对质量转换和相对质量转换。 图片裁剪 cut 对图片进行指定位置的裁剪。 图片缩放 resize 对图片进行缩放。 图片旋转 rotate 对图片进行旋转。 图片色彩 brightnesscontrast 对图片的亮度和对比度进行调整。 添加水印 textwatermarks、imagewatermarks 添加文字水印或图片水印。 图片置灰 grayscale 对图片进行置灰。 渐进式加载 progressive 将图片转换为渐进式加载格式。 获取图片信息 getinfo 获取图片信息,包括图片的大小、宽、高、图片格式、图片质量和图片方向信息。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        文件处理
        图片处理
        图片处理概述
      • 开启Smart Connect
        本节介绍如何开启Kafka的Smart Connect功能。 Smart Connect用于Kafka实例和其他云服务(如OBS)之间的数据同步,或者两个Kafka实例之间的数据同步,实现数据的备份或迁移。 Smart Connect的使用流程为: 1. 开启Smart Connect。 2. 创建Smart Connect任务。 本章节主要介绍如何开启Smart Connect。 约束与限制 开启Smart Connect后,实例需要另外收取用于Smart Connect的代理费用。 例如:规格为kafka.4u8g.cluster的实例,会另外创建至少两个规格为kafka.4u8g的代理,用于Smart Connect,所以需要收取相应代理费用。 前提条件 已创建Kafka实例,且实例状态为“运行中”。 “auto.create.groups.enable”已设置为“true”。如果需要修改“auto.create.groups.enable”的取值,请参考修改Kafka实例配置参数。 开启Smart Connect 1、登录管理控制台。 2、在管理控制台左上角单击,选择Kafka实例所在的区域。 3、在管理控制台左上角单击,选择“应用服务 > 分布式消息服务 Kafka”,进入分布式消息服务Kafka专享版页面。 4、通过以下任意一种方法,开启Smart Connect。 在待开启Smart Connect的Kafka实例所在行,单击“更多 > 开启Smart Connect”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 开启Smart Connect”。 单击Kafka实例名称,进入实例详情页面。在“Smart Connect”后,单击。 单击Kafka实例名称,进入实例详情页面。在左侧导航栏单击“Smart Connect”,进入Smart Connect页面。单击“开启Smart Connect”。 5、单击,将Smart Connect设置为开启,并设置用于Smart Connect的代理数量,代理数取值范围为2~16个,单击“下一步”。 说明 代理数默认为2个,如果您预估2个Kafka实例间的同步流量比较大,例如大于50MB/s,请设置2个以上的代理数。 6、确认“Smart Connect”为开启状态,单击“提交”。 结束
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        Kafka数据迁移
        使用Smart Connect迁移Kafka数据
        开启Smart Connect
      • 回滚一致性快照
        本节主要介绍回滚一致性快照命令。 ./stor conssnap {R rollback } {n name } CONSISTENCYSNAPSHOTNAME 此命令用来回滚一致性快照。 前提条件:回滚的一致性快照和源卷都必须为Normal状态。 注意 此操作会将一致性快照中的数据覆盖到所有源卷的数据,建议操作前,对源卷数据通过创建快照或者一致性快照的方式进行备份。 如果源卷已被客户端挂载,需在客户端取消挂载卷后回滚,回滚后重新挂载卷: 对于Linux客户端,可以执行下列步骤: 1. 回滚一致性快照前,客户端执行命令:umount DIRECTORYNAMEORPATH 2. 回滚一致性快照后,客户端执行命令:mount /dev/sdx DIRECTORYNAMEORPATH 对于Windows客户端,可以执行下列步骤: 1. 回滚一致性快照前,在客户端将源卷对应的磁盘脱机。 2. 回滚一致性快照后,在客户端将源卷对应的磁盘重新联机。 如果一致性快照的卷快照的源卷是一个克隆卷,并且此克隆卷正在执行断开关系链的操作时,不能使用这个克隆卷的任何快照进行回滚。 说明 如果一致性快照中有一个单卷快照处于删除中的状态,可以回滚,对其余正常状态的单卷快照进行回滚,删除中状态的快照不回滚。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        一致性快照操作
        回滚一致性快照
      • 扩容磁盘
        本章主要介绍扩容磁盘 扩容集群实例的磁盘空间 随着业务数据的增加,原来申请的数据库磁盘容量不能满足需求,这时,您需要为实例进行磁盘扩容。扩容实例磁盘空间的同时备份空间也会随之扩大。 用户购买的存储空间超过600GB,当剩余的可用存储空间为18GB时,数据库会被设置成磁盘满只读状态。 用户购买的存储空间小于等于600GB,当实际使用量到总存储空间的97%时,数据库会被设置成磁盘满只读状态。 建议您设置“磁盘使用率”指标的告警规则,及时了解磁盘使用情况,起到预警作用,具体请参见设置告警规则。 数据库磁盘空间不足的原因和解决方案,请参见磁盘使用率高问题排查。 使用须知 账户需要有足够的余额,才可进行扩容。 对于集群实例,仅支持对shard节点进行磁盘扩容,mongos节点和config节点不能进行磁盘扩容。 存储容量变更只允许扩容,不能缩容。 选择磁盘加密的实例,新扩容的磁盘空间依然会使用原加密密钥进行加密。 实例处于以下状态时不可扩容: 创建中 规格变更中 节点扩容中 删除节点 小版本升级 磁盘扩容期间,服务不中断。DDS服务只支持扩容磁盘存储空间大小,不支持变更存储类型。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        变更实例
        扩容磁盘
      • 到期与欠费
        本页介绍了数据传输服务DTS的到期与欠费相关情况。 服务到期与欠费都会影响您的DTS实例的正常使用。 服务到期 “按需计费”任务,无需担心服务到期问题。 “包年/包月”任务到期后将会被暂停,在暂停期间您无法通过DTS控制台对该任务进行操作,无法调用相关接口,监控告警等服务也会停止。如果您没有在暂停期内续费,那么该DTS任务将被终止,并且传输数据也将被永久删除。为了避免数据丢失,我们强烈建议您在暂停期内及时续费,或者提前备份数据并另行妥善保存。 对于到期暂停的任务,您可以在7天内对相关任务进行续费,以继续享用服务。 欠费 “包年/包月”DTS任务,用户已经预先支付了资源费用,因此在账户出现欠费的情况下,已有的包年/包月DTS任务仍可正常使用。 “按需计费”DTS任务是按每小时扣费,当余额不足,无法对上一个小时的费用进行扣费,就会导致任务欠费,任务将会被暂停。您续费后暂停的任务,可继续正常使用,请注意在暂停期进行的续费,是以原到期时间作为生效时间,您应当支付从进入暂停期开始到续费时的服务费用。 对于欠费导致暂停的任务,您可以在7天内充值,对相关实例进行续费,以继续享用服务。
        来自:
        帮助文档
        数据传输服务DTS
        产品概述
        计费说明
        到期与欠费
      • 创建实例
        本页介绍了分布式融合数据库HTAP的创建实例流程。 详细的创建实例过程能够帮助您更好的开始使用天翼云分布式融合数据库HTAP产品。 操作场景 本节将介绍分布式融合数据库HTAP的创建实例过程。 分布式融合数据库HTAP支持“包年/包月”和“按需计费”购买,您可以根据业务需要定制相应计算能力和存储空间的数据库实例。 注意事项 分布式融合数据库HTAP的性能,取决于用户订购分布式融合数据库HTAP时所选择的配置。可供用户选择的硬件配置为性能规格、存储类型以及存储空间等。 操作步骤 1. 登陆天翼云官网。 2. 选择“产品 > 数据库 > 分布式融合数据库HTAP”,进入分布式融合数据库HTAP 产品详情页面,点击【立即开通】。 3. 进入开通页面,选择或输入实例的相关配置信息。 其中基础配置包括计费模式、区域、引擎类型、版本和可用区,可用区可以选择1个或者3个。 实例规格包括配置模板、性能类型、各节点规格及数量。 配置模板给出了入门配置和标准配置两种建议,您也可以自定义配置。 性能类型有三种,通用型、计算增强型、内存优化型,并可以搭配六代机和七代机使用。 计算节点至少1个,行存节点至少3个,列存节点可以为0个,管理节点固定为3个,监控节点固定为1个。计算节点、行存节点、列存节点可根据需求自定义数量,最大数量不超过50个。 数据备份默认开启,开启数据备份后,至少要添加一个同步节点。若不开启数据备份,则不用添加同步节点。 网络配置包括虚拟私有云、子网、安全组。 数据库设置可以设置实例名称,如果批量订购多个实例,从第二个实例开始,实例名称1,第三个实例名称2。 购买量包括购买时长、购买数量、是否自动续订,最多可以批量购买50个实例。 最后阅读相关产品协议,确认协议内容,同意则勾选协议。 4. 点击【确认订单】跳转到支付页面,可以看到所需开通实例的配置信息,包括开通页面中所选则的配置信息、购买量、资源池及购买时长,确认支付费用,确认无误后点击【立即支付】。 5. 支付成功后返回订单列表页面,能看到实例状态为 “开通中”。稍等一会后,刷新页面,待实例状态显示“已完成”,创建实例成功。
        来自:
        帮助文档
        分布式融合数据库HTAP
        快速入门
        创建实例
      • 使用DAS的导出和导入功能迁移RDS for MySQL数据
        本章节会介绍如何使用DAS导入和导出数据 数据导入 操作场景 数据管理服务支持用户本地导入及OBS桶导入数据进行数据的备份和迁移。 操作说明 当需要进行数据备份或迁移时,您可将数据导入目标数据表,目标CSV表数据类型须与待导入表数据类型保持一致,SQL文件同理。 约束限制 导入单文件大小最大可达1GB。 可以支持导入的数据文件类型包括CSV格式和SQL文件格式。 暂不支持BINARY、VARBINARY、TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB等二进制类型字段的导入。 资源池需具备数据管理服务DAS产品 操作步骤 在顶部菜单栏选择“导入·导出 > 导入”。 DAS支持从本地选取文件导入,同时也支持从OBS桶中直接选择文件进行导入操作。 上传文件 在导入页面单击左上角的“新建任务”,在弹出框选择导入类型,选择文件来源为“上传文件”、附件存放位置等信息并上传文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 为了保障数据安全,DAS将文件保存在OBS桶中。 说明 出于数据隐私性保护目的,DAS需要您提供一个您自己的OBS存储,用来接收您上传的附件信息,DAS会自动连接到该OBS文件,进行内存式读取,整个过程您的数据内容不会存储在DAS的任何存储介质上。 导入完成后若勾选删除上传的文件选项,则该文件导入目标数据库成功后,将从OBS桶中自动删除。 从OBS桶中选择 在导入页面单击左上角的“新建任务”,在弹出框设置导入类型,选择文件来源为“从OBS中选择”,在OBS文件浏览器弹窗中选择待导入文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 说明 从OBS桶中直接选择文件导入,导入目标数据库成功后,OBS桶不会删除该文件。 导入信息设置完成后,单击“创建导入任务”即可。由于导入任务可能会覆盖您原有的数据,需再次确认无误后单击“确定”。 您可在导入任务列表中查看导入进度等信息,在操作栏单击“查看详情”,您可在任务详情弹出框中,了解本次导入任务成功、失败等执行情况及耗时。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        数据库迁移实例
        使用DAS的导出和导入功能迁移RDS for MySQL数据
      • Kubernetes Web终端(停止维护)
        使用webterminal插件连接集群 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”。 步骤 2 在右侧找到webterminal,单击“访问”。 收缩webterminal权限 webterminal插件安装后,其kubectl默认使用clusteradmin ClusterRole权限,能够操作该集群k8s资源,若需手动配置为其他类型权限,可通过kubectl edit clusterrolebinding webterminal修改webterminal ServiceAccount绑定其他权限的ClusterRole。 ClusterRole、ClusterRoleBinding相关配置说明请参见命名空间权限(Kubernetes RBAC授权)。 注意 手动配置的webterminal权限在webterminal插件升级时存在被重置风险,需注意做好备份在插件升级后重新配置。 使用kubectl修改clusterrolebinding配置需确保当前kubectl有修改clusterrolebinding资源操作权限。 版本记录 CCE插件版本记录 插件版本 支持的集群版本 社区版本(仅1.17及以上版本集群支持) 1.1.12 /v1.(15171921)./ 0.6.6 1.1.6 /v1.(151719)./ 0.6.6 1.1.5 /v1.(151719)./ 0.6.6 1.1.3 /v1.(1719)./ 0.6.6 1.0.6 /v1.(1517)./ 0.6.6 1.0.5 /v1.(911131517)./ 0.6.6
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        Kubernetes Web终端(停止维护)
      • 配置HDFS数据传输加密
        本章主要介绍翼MapReduce的配置HDFS数据传输加密功能。 设置HDFS安全通道加密 默认情况下,组件间的通道是不加密的。您可以配置如下参数,设置安全通道为加密的。 参数修改入口:在FusionInsight Manager系统中,选择“集群 > 待操作集群的名称 > 服务 > HDFS > 配置”,展开“全部配置”页签。在搜索框中输入参数名称。 说明 配置后应重启对应服务使参数生效。 详见下表:参数说明 配置项 描述 默认值 hadoop.rpc.protection 须知 设置后需要重启服务生效,且不支持滚动重启。 设置后需要重新下载客户端配置,否则HDFS无法提供读写服务。 设置Hadoop中各模块的RPC通道是否加密。通道包括: 客户端访问HDFS的RPC通道。 HDFS中各模块间的RPC通道,如DataNode与NameNode间。 客户端访问Yarn的RPC通道 NodeManager和ResourceManager间的RPC通道。 Spark访问Yarn,Spark访问HDFS的RPC通道。 Mapreduce访问Yarn,MapReduce访问HDFS的RPC通道。 HBase访问HDFS的RPC通道。 说明 设置后全局生效,即Hadoop中各模块的RPC通道的加密属性全部生效。 安全模式:privacy 普通模式:authentication 说明 “authentication”:只进行认证,不加密。 “integrity”:进行认证和一致性校验。 “privacy”:进行认证、一致性校验、加密。 dfs.encrypt.data.transfer 设置客户端访问HDFS的通道和HDFS数据传输通道是否加密。HDFS数据传输通道包括DataNode间的数据传输通道,客户端访问DataNode的DT(Data Transfer)通道。设置为“true”表示加密,默认不加密。 说明 仅当hadoop.rpc.protection设置为privacy时使用。 业务数据传输量较大时,默认启用加密对性能影响严重,使用时请注意。 如果互信集群的一端集群配置了数据传输加密,则对端集群也需配置同样的数据传输加密。 FALSE dfs.encrypt.data.transfer.algorithm 设置客户端访问HDFS的通道和HDFS数据传输通道的加密算法。只有在dfs.encrypt.data.transfer配置项设置为“true”,此参数才会生效。 说明 缺省值为“3des”,表示采用3DES算法进行加密。此处的值还可以设置为“rc4”,避免出现安全隐患,不推荐设置为该值。 3des dfs.encrypt.data.transfer.cipher.suites 可以设置为空或“AES/CTR/NoPadding”,用于指定数据加密的密码套件。如果不指定此参数,则使用“dfs.encrypt.data.transfer.algorithm”参数指定的加密算法进行数据加密。默认值为“AES/CTR/NoPadding”。 AES/CTR/NoPadding
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        安全管理
        安全加固
        配置HDFS数据传输加密
      • 回滚一致性快照
        本节主要介绍如何使用API回滚一致性快照。 此操作用来回滚一致性快照。 注意 此操作会将一致性快照中的数据覆盖到所有源卷的数据,建议操作前,对源卷数据通过创建快照或者一致性快照的方式进行备份。 如果源卷已被客户端挂载,需在客户端取消挂载卷后回滚,回滚后重新挂载卷: 对于Linux客户端,可以执行下列步骤: 1. 回滚一致性快照前,客户端执行命令:umount DIRECTORYNAMEORPATH 2. 回滚一致性快照后,客户端执行命令:mount /dev/sdx DIRECTORYNAMEORPATH 对于Windows客户端,可以执行下列步骤: 1. 回滚一致性快照前,在客户端将源卷对应的磁盘脱机。 2. 回滚一致性快后,在客户端将源卷对应的磁盘重新联机。 如果一致性快照的卷快照的源卷是一个克隆卷,并且此克隆卷正在执行断开关系链的操作时,不能使用这个克隆卷的任何快照进行回滚。 说明 如果一致性快照中有一个单卷快照处于删除中的状态,可以回滚,对其余正常状态的单卷快照进行回滚,删除中状态的快照不回滚。 请求语法 plaintext PUT /rest/v1/block/conssnap/consistencySnapshotName/rollback HTTP/1.1 Date:date ContentLength: length Host: ip:port Authorization: authorization
        来自:
        帮助文档
        存储资源盘活系统
        API参考
        一致性快照管理
        回滚一致性快照
      • 退订包年包月文件系统
        本文介绍如何在控制台退订包年/包月文件系统。 操作场景 文件系统退订后,文件系统中存放的数据将无法恢复。为避免数据丢失,执行退订操作前,请确认存放在该文件系统中的文件都已经备份。 注意 退订文件系统时,会同时删除所有文件系统数据,请谨慎操作。 已经退订的文件系统不可恢复,请谨慎操作。 包年/包月的文件系统支持退订。 退订文件系统前,须解绑所有VPC。 操作步骤 包年包月付费的新购资源支持7天内无理由全额退订(不包含进行了扩容、续订操作的实例),非新购包年包月资源有条件退订,具体请参考退订规则。 1. 登录天翼云控制中心,在控制台左上角选择地域。 2. 选择 “存储>弹性文件服务SFS Turbo”,进入SFS Turbo文件系统列表页面。 3. 点击目标文件系统名称进入详情页,在VPC页签下点击VPC名称操作下的“解绑”按钮,解绑VPC,重复该动作解绑该文件系统所绑定的所有VPC。 4. 可以通过以下三种方式退订包年包月文件系统: 在SFS Turbo文件系统列表页,选中待退订的文件系统,点击操作栏退订,在弹出页面点击“确认”,完成退订。 在文件系统详情页,在右上角单击“退订”按钮,在弹出页面点击“确认”,完成退订。 在用户中心订单中心退订管理页面,选择待退订的文件系统,进行退订。
        来自:
        帮助文档
        弹性文件服务 SFS
        用户指南
        基础管理
        管理文件系统
        退订包年包月文件系统
      • 升级数据库版本
        本文介绍SQL Server实例大版本升级功能。 关系数据库SQL Server提供升级实例大版本功能,您可通过控制台调整配置,根据实际需要将实例升级到更高的数据库版本。 支持的版本 单机版、主备版,均支持大版本升级。 2014、2016、2017、2019的企业版、标准版、WEB版均支持大版本升级。 升级方式 单机版实例: 原地升级,即直接在原实例进行直接升级。 主备版实例:滚动升级+原地升级。滚动升级会先升级备节点,等待数据同步后切换主备,最后升级旧主节点。 前提条件 实例必须处于正常运行状态(运行中),并且与其他任务(比如重启、备份、恢复、主备切换等)无冲突情况下才允许执行升级操作。 限制条件 不允许跨多个版本进行升级,只支持跨一个版本升级,比如从2014升级到2016版本,不允许从2014直接升级到2017及之后版本。若需要跨版本升级到比较新的版本,可以通过多次升级以实现,比如2014 > 2016 > 2017 > 2019 > 2022。 只允许同系列升级,即WEB版本只允许升级到更高的WEB版、标准版只允许升级到更高的标准版、企业版只允许升级到更高的企业版。比如2014 标准版升级到2016 标准版、2014 企业版升级到2016 企业版。 符合以下几种情况的实例暂不支持升级版本: 创建了只读实例的实例。升级前需要释放只读实例。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理实例
        升级数据库版本
      • ALM-17003 Oozie服务不可用
        检查DBService服务 4.在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 服务”,检查DBService服务当前状态是否正常。 是,执行步骤6。 否,执行步骤5。 5.参考DBService服务的相关告警帮助进行处理,然后查看本告警是否恢复。 是,处理完毕。 否,执行步骤18。 6.登录Oozie数据库检查数据是否完整。 a.以root用户登录DBService主节点。 在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 服务 > DBService > 实例”,即可查看DBService主节点IP地址信息。 b.执行以下命令登录Oozie数据库。 su omm source ${BIGDATAHOME}/FusionInsightBASE8.1.0.1/install/FusionInsightdbservice2.7.0/.dbserviceprofile gsql U 用户名W Oozie数据库密码p 20051 d 数据库名称 c.登录成功后,输入 d ,检查数据表是否共有15张。 Oozie服务默认有15张数据表,如果这些数据表被删除或者表结构被修改都可能导致Oozie服务不可用,请联系运维人员备份相关数据后进行恢复。 检查HDFS服务。 7.在FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 服务”,检查HDFS服务当前状态是否正常。 是,执行步骤9。 否,执行步骤8。 8.参考HDFS服务的相关告警帮助进行处理,然后查看本告警是否恢复。 是,处理完毕。 否,执行步骤18。 9.登录HDFS检查Oozie文件目录是否完整。 a.下载并安装HDFS客户端。 b.以root用户登录客户端所在节点,执行以下命令,检查“/user/oozie/share”路径是否存在。 如果集群采用安全版本,要进行安全认证。 kinit admin hdfs dfs ls /user/oozie/share 是,执行步骤18。 否,执行步骤10。 10.在Oozie客户端安装目录中手动将share目录上传至HDFS的“/user/oozie”路径下,检查告警是否恢复。 是,处理完毕。 否,执行步骤18。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-17003 Oozie服务不可用
      • 数据导入介绍
        本文介绍数据导入的特点与应用场景。使用数据导入功能,可以让您的数据处理更加高效、灵活,发挥数据的最大价值。 前提条件 支持的数据库类型 关系型数据库: MySQL:关系数据库MySQL版,公网直连MySQL,其他来源MySQL。 PostgreSQL:分析型数据库PostgreSQL,公网直连PostgreSQL,其他来源PostgreSQL。 SQL Server:分析型数据库SQLServer,公网直连SQL Server,其他来源SQL Server。 DRDS:分布式关系型数据库DRDS,公网直连DRDS,其他来源DRDS。 ClickHouse:分析型数据库ClickHouse,公网直连ClickHouse,其他来源ClickHouse。 Oracle:公网直连Oracle,其他来源Oracle。 非关系型数据库: MongoDB:文档数据库MongoDB,公网直连MongoDB,其他来源MongoDB。 DDS:文档数据库服务DDS,公网直连DDS,其他来源DDS。 支持的数据格式 支持本地上传SQL文件、CSV文件(逗号分隔值)、TXT文件(逗号分隔值)、JSON文件、EXCEL文件,支持上传.zip文件。 支持的写入方式 注意 针对非MongoDB/DDS数据源。 INSERT INTO:插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错。 INSERT IGNORE INTO:插入数据,数据库会检查主键(PrimaryKey),如果表中已经存在相同的记录,则忽略当前新数据。 REPLACE INTO:插入替换数据,数据库会检查主键(PrimaryKey),如果数据库已经存在数据,则用新数据替换,如果没有数据效果则和INSERT INTO一样。 友好的用户界面 数据导入功能的用户界面简单直观,即使您不是技术专家,也能轻松上手使用。 应用场景 数据迁移: 在更换系统或平台时,数据导入可以帮助您将旧数据迁移到新系统中。 数据备份: 将源数据导出并导入到目标数据库,可以作为紧急备份,防止数据丢失。 注意事项 当前数据导入功能仅对单实例单个数据库/模式或单表实现变更操作,暂不支持同时对多个数据库或多表进行导入操作。 目前已支持批量导入SQL,支持的SQL类型有DDL和DML。用户可将建表SQL以及数据变更SQL导入以批量执行。每条SQL请以英文分号结束。 为了保证批量导入数据库的性能和速度,请使用SQL性能更好的方式,例如SQL语句采用INSERT,插入方式采用INSERT INTO。
        来自:
        帮助文档
        数据管理服务
        用户指南
        开发空间
        数据导入
        数据导入介绍
      • 导入导出
        本节主要介绍导入导出 数据导入 操作场景 数据管理服务支持用户本地导入及OBS桶导入数据进行数据的备份和迁移。 操作说明 当需要进行数据备份或迁移时,您可将数据导入目标数据表,目标CSV表数据类型须与待导入表数据类型保持一致,SQL文件同理。 约束限制 导入单文件大小最大可达1GB。 可以支持导入的数据文件类型包括CSV格式和SQL文件格式。 暂不支持BINARY、VARBINARY、TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB等二进制类型字段的导入。 操作步骤 1. 在顶部菜单栏选择“导入·导出 > 导入”。 2. DAS支持从本地选取文件导入,同时也支持从OBS桶中直接选择文件进行导入操作。 说明 上传文件 在导入页面单击左上角的“新建任务”,在弹出框选择导入类型,选择文件来源为“上传文件”、附件存放位置等信息并上传文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 为了保障数据安全,DAS将文件保存在OBS桶中。 出于数据隐私性保护目的,DAS需要您提供一个您自己的OBS存储,用来接收您上传的附件信息,DAS会自动连接到该OBS文件,进行内存式读取,整个过程您的数据内容不会存储在DAS的任何存储介质上。 导入完成后若勾选删除上传的文件选项,则该文件导入目标数据库成功后,将从OBS桶中自动删除。 从OBS桶中选择:在导入页面单击左上角的“新建任务”,在弹出框设置导入类型,选择文件来源为“从OBS中选择”,在OBS文件浏览器弹窗中选择待导入文件,选择导入数据库,设置字符集类型,按需勾选选项设置及填写备注信息。 从OBS桶中直接选择文件导入,导入目标数据库成功后,OBS桶不会删除该文件。 3. 导入信息设置完成后,单击“创建导入任务”即可。由于导入任务可能会覆盖您原有的数据,需再次确认无误后单击“确定”。 4. 您可在导入任务列表中查看导入进度等信息,在操作栏单击“查看详情”,您可在任务详情弹出框中,了解本次导入任务成功、失败等执行情况及耗时。
        来自:
        帮助文档
        数据管理服务
        用户指南
        MySQL数据库管理(开发工具)
        导入导出
      • 删除用户
        介绍分布式消息服务Kafka删除用户功能操作内容。 场景描述 Kafka删除用户的场景描述如下: 用户离职或不再需要访问权限:当用户离开组织或不再需要访问Kafka集群时,可以删除其用户账户。这可以确保已离职的用户无法再访问和操作Kafka,提高安全性和合规性。 角色调整或合并:在某些情况下,可能需要对用户角色进行调整或合并。如果某个角色不再需要或与其他角色重复,可以删除相关的用户账户和角色,以简化管理和维护。 用户账户过期或失效:如果用户账户的有效期已过或由于某种原因失效,可以删除该用户账户。这有助于清理无效的用户账户,减少安全风险和资源浪费。 安全审计和合规要求:根据安全审计和合规要求,可能需要删除某些用户账户。例如,当用户账户存在安全风险或违反合规规定时,需要及时删除相关账户以保护系统安全和数据隐私。 数据隔离和资源管理:在多租户环境中,当某个租户不再需要使用Kafka集群时,可以删除其相关的用户账户。这有助于释放资源,提高资源利用率和性能。 操作步骤 (1)登录管理控制台。 (2)进入Kafka管理控制台。 (3)在实例列表页在操作列,目标实例行点击“管理”。 (4)点击“用户管理”后进入应用用户管理页面,点击指定用户其右侧的“删除”按钮。 注意事项 Kafka删除用户时需要注意以下事项: 确认用户身份:在删除用户之前,确保要删除的用户的身份是正确的。验证用户的身份可以防止误删除或删除错误的用户账户。 备份和迁移数据:如果用户账户中存在重要的数据或信息,建议在删除用户之前进行数据备份和迁移。这可以确保数据的安全性和完整性,并防止数据的丢失或泄露。 通知相关人员:在删除用户之前,及时通知相关的管理人员或团队成员。这有助于协调和沟通,确保删除用户的操作得到充分的授权和确认。 关注系统性能:删除用户时,要注意对Kafka集群的性能影响。大规模的用户删除操作可能会对系统造成一定的负载和延迟,因此在合适的时间窗口进行删除操作,以减少对业务的影响。
        来自:
        帮助文档
        分布式消息服务Kafka
        用户指南
        用户管理
        删除用户
      • 域名管理概述
        本文介绍域名管理模块所涉及的功能。 概述 通过对域名管理相关的功能模块进行概括性介绍,方便您全面了解当前天翼云全站加速已支持的相关功能以及指引您快速找到对应功能的介绍入口,更快上手。 相关功能 相关管理模块功能简介如下: 功能 说明 []( 客户往往会存在多个域名需要配置,而配置又是相同的情况,这时我们提供批量配置域名的方式可以使客户快速、便捷的接入域名。 []( 介绍全站加速域名管理中的工单,它是用于跟踪和记录由客户操作发起的域名新增及域名配置变更任务的状态和执行结果,方便跟进变更的进度以及追溯变更历史,辅助管理客户业务。 []( 简述什么是标签和标签组,如何创建/删除标签和标签组,如何绑定/解绑标签,如何使用标签管理域名、筛选数据。 []( 简述基础配置所涉及的配置,包含:域名名称、加速类型选定、域名类型选定、加速区域选定、IPv6开关。 []( 简述天翼云全站加速产品回源相关的功能和配置,包括:源站地址、动态回源策略、回源协议、源站端口、回源HOST、回源SNI、回源HTTP请求头、回源HTTP响应头、回源URI改写、回源参数改写、Common name白名单、回源302/301跟随、Range回源、回源请求超时时间、分区域分运营商回源、区分ipv4/ipv6协议回源、指定源站回源HOST、高级回源等功能。 缓存配置 简述缓存配置相关功能,包括:缓存过期时间、状态码过期时间、配置HTTP响应头、错误页面自定义、自定义重定向、缓存key设置、跨域资源共享等。 []( 简述天翼云全站加速产品的HTTPS相关功能及配置方法。包括:HTTPS配置、国密HTTPS、HTTP2.0、强制跳转、OCSP Stapling、HSTS、TLS协议版本、HTTPS无私钥驻留加速方案、批量配置HTTPS证书、支持的SSL/TLS加密套件等。 []( 简述如何配置HTTP响应头,回源HTTP响应头,回源HTTP请求头。 []( 简述如何配置文件压缩、图片处理功能。 []( 简述访问控制策略及配置方法,包括:IP黑/白名单、Referer防盗链、UA黑/白名单、URI黑/白名单、URL鉴权、全网带宽控制、有序回源、单请求限速等策略。 []( 简述html页面优化、html禁止操作等功能。 []( 简述视频拖拉、视频试看、HLS标准加密改写功能。 websocket加速 简述websocket加速方案及配置方法。 []( 简述上传加速方案及配置方法。 []( 简述什么是QUIC协议,天翼云全站加速对QUIC协议的支持情况,以及配置说明。 []( 介绍天翼云全站加速平台高级配置,包括访问URL重定向,错误页面自定义。 []( 云备源服务可帮助客户实现定期将网站内容从主源自动同步至备源,如主源发生宕机,则全站加速可无缝切换至云备源,实现网站业务高可用。 防攻击处理预案说明 天翼云全站加速默认不提供防攻击服务。当某个客户的域名遭受攻击(例如CC攻击),而出现带宽或QPS异常大幅上涨触发平台稳定性红线时,全站系统有权(根据域名业务情况、攻击影响程度等因素综合判断)将对应客户的域名切入专用隔离资源池以隔离异常业务,避免影响其他正常用户的加速服务。在攻击较严重的情况下,同账户下的其他域名也会切入隔离资源池。 []( 介绍高性能网络的适用场景和配置方法。 []( 天翼云全站加速平台支持自动化业务指标监控和告警功能,客户可以依据实际业务监控/告警需要,设置相关的监控与告警规则。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        域名管理概述
      • 删除终端节点服务
        本文将向您介绍如何删除终端节点服务,以便您根据实际需求进行操作。 操作场景 当您的业务需求发生变化,需要重新配置或不再需要特定终端节点服务时,可以考虑将其删除。 注意事项 终端节点服务删除后无法恢复,在删除之前,请确保没有依赖该服务的其他资源,并备份必要的数据以防止数据丢失。 约束及限制 您只能删除由用户私有服务创建的终端节点服务,无权删除系统配置的终端节点服务。 当终端节点服务含有存在状态为“已连接”状态的终端节点时,无法直接删除,需先删除对应的终端节点。终端节点服务下终端节点的状态详情请参考终端节点有哪些状态。 操作步骤 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 在管理控制台上方点击图标,选择所需的资源池节点,以下操作选择华东华东1。 3. 在系统首页,选择“网络>VPC终端节点”,进入“终端节点”页面。 4. 在左侧导航栏选择“终端节点服务”。 5. 在终端节点服务列表选择要删除的终端节点服务,点击终端节点服务所在行的“删除”按钮。 6. 在弹出的对话框点击“确定”按钮,即可完成删除操作。
        来自:
        帮助文档
        VPC终端节点
        用户指南
        终端节点服务管理
        删除终端节点服务
      • 关系数据库MySQL版磁盘空间不足问题
        本文介绍查看空间使用情况的方式,以及各种空间问题的原因和解决方案。 如果MySQL数据库实例的磁盘空间满,会导致实例变为只读状态,写业务夯住,应用无法对数据库进行写入操作,从而影响业务正常运行。本文介绍查看空间使用情况的方式,以及各种空间问题的原因和解决方案。 查看空间使用情况 您可以在实例管理的基本信息页面查看存储空间和备份空间的使用情况,这里只展示当前的空间使用总量,没有展示各类数据分别占用的磁盘空间信息,也没有空间使用的历史信息。 您还可以在实例基本信息的查看监控指标"磁盘使用量" 查看磁盘空间使用的历史信息和变化曲线。 Binlog日志文件占用过多 原因及现象: 默认binlog日志是保留7天,如果是在迁移大量数据,实例磁盘空间太小的话,会短时间内产生大量的binlog导致磁盘空间不足。 解决方案: MySQL Binlog日志文件占用过多,可以在mysql命令行上使用PURGE BINARY LOGS BEFORE '20230626 10:00:00'或者PURGE BINARY LOGS TO 'mysqlbin.010'来临时清理本地binlog日志,释放磁盘空间,或者临时修改实例expirelogsdays参数。 表上的索引太多导致空间不足 原因及现象: 通常表上除了主键索引,还存在二级索引,二级索引越多,整个表空间就越大。 解决方案: 优化数据结构,减少二级索引的数量,合并索引建立联合索引等。
        来自:
        帮助文档
        关系数据库MySQL版
        最佳实践
        性能调优
        关系数据库MySQL版磁盘空间不足问题
      • 上传文件
        项目 描述 当前位置 文件上传的位置。 存储类型 文件的存储类型: 标准存储:访问时延低、吞吐量高,能够有效支持各种热点类型数据频繁访问。适用于各种音视频服务、图片服务、大型网站、大数据分析等应用的数据存储。标准存储是默认的存储类型。如果上传文件时未指定存储类型,OOS默认使用标准存储。 低频访问存储:适合长期保存不经常访问的数据。对于不经常访问但仍需要实时访问的数据,可以采用低频访问存储,例如各类移动应用、智能设备、企业数据的长期备份。 最短存储时间:低频访问存储的文件有最短存储时间,存储时间短于30天的文件被提前删除或变更时,会产生一定费用。 最小计费大小:低频访问存储文件有最小计费大小,即如果文件大小低于64KiB,会按照64KiB计算收费,文件大于等于64KiB按照实际存储收费。 数据取回:获取低频访问存储文件时会产生数据取回费用。 选择文件 可以通过将目录或文件拖到浮窗上传文件,也可以点击添加文件、添加文件夹按钮上传文件。 上传的文件中如果想移除的,可以勾选对应的文件,点击“移除”按钮,进行文件移除。 说明 在查找框中可以模糊匹配查找上传的文件。 元数据 用户可以编辑上传文件的文件元数据信息,具体元数据信息详见
        来自:
        帮助文档
        对象存储(经典版)I型
        快速入门
        控制台快速入门
        上传文件
      • 使用数据库安全服务
        建议购买数据库的同时,购买对应的数据库安全服务。 数据库安全服务(Database Security Service,DBSS)是一个智能的数据库安全服务,基于机器学习机制和大数据分析技术,提供数据库审计,SQL注入攻击检测,风险操作识别等功能,保障云上数据库的安全。 建议使用DBSS来提供扩展的数据安全能力,详情请参考数据库安全服务。 优势 助力企业满足等保合规要求。 满足等保测评数据库审计需求。 满足国内外安全法案合规需求,提供满足数据安全标准(例如SarbanesOxley)的合规报告。 支持备份和恢复数据库审计日志,满足审计数据保存期限要求。 支持风险分布、会话统计、会话分布、SQL分布的实时监控能力。 提供风险行为和攻击行为实时告警能力,及时响应数据库攻击。 帮助您对内部违规和不正当操作进行定位追责,保障数据资产安全。 数据库安全审计采用数据库旁路部署方式,在不影响用户业务的提前下,可以对数据库进行灵活的审计。 基于数据库风险操作,监视数据库登录、操作类型(数据定义、数据操作和数据控制)和操作对象,有效对数据库进行审计。 从风险、会话、SQL注入等多个维度进行分析,帮助您及时了解数据库状况。 提供审计报表模板库,可以生成日报、周报或月报审计报表(可设置报表生成频率)。同时,支持发送报表生成的实时告警通知,帮助您及时获取审计报表。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        安全与加密
        使用数据库安全服务
      • 产品功能
        本节介绍了云容器引擎的产品功能。 功能特性 强大的集群管理 单集群支持数千节点规模 高性能自研网络插件,VM与容器直连互通,性能提升20% 丰富的集群插件,开箱即用 一站式容器应用管理 支持原生5种类型工作负载 内置应用模板,支持一键部署Helm应用 支持灰度发布,蓝绿发布,应用弹性伸缩 极致弹性&高效调度 支持HPA/CronHPA伸缩策略 支持基于历史指标/事件驱动的弹性伸缩 提供负载感知调度,解决原生k8s调度不均问题 企业级的安全稳定 支持3Master高可用,镜像服务高可用能力 提供集群备份恢复插件,支持多种存储介质 支持安全容器,提供镜像签名和镜像扫描 功能列表 一级分类 二级分类 功能点 功能点描述 核心功能 集群 一键快速部署 支持界面化订购,自动开通Kubernetes集群,兼容原生Kubernetes 核心功能 集群 节点管理 支持界面化进行扩缩容,支持节点标签、调度设置 核心功能 集群 命名空间 支持资源配额设置、支持网络隔离设置 核心功能 集群 运行时 支持Docker、Containerd 核心功能 工作负载 生命周期管理 支持应用创建、启停、扩缩容、注销等生命周期操作 核心功能 工作负载 工作负载 支持界面化发布有状态、无状态、守护进程、任务、定时任务等工作负载 核心功能 工作负载 多容器 支持一个Pod中发布多个容器,支持设置特权级容器 核心功能 工作负载 探针 支持界面化自定义策略检测应用的可用性 核心功能 工作负载 滚动升级 支持业务不中断平滑升级 核心功能 工作负载 亲和性/反亲和 支持主机及应用的亲和性与反亲和性调度 核心功能 工作负载 资源管控 支持容器级别的资源需求和限额设置,防止资源的浪费 核心功能 弹性调度 Pod弹性伸缩 支持自动伸缩规则设置,基于CPU/内存等资源自动伸缩应用,支持HPA、CronHPA和基于事件的弹性策略 核心功能 弹性调度 节点弹性伸缩 支持节点弹性伸缩 核心功能 弹性调度 负载感知调度 支持调度Pod时考虑节点的实际负载 核心功能 路由 多协议支持 支持TCP、UDP、HTTP以及HTTPS等协议 核心功能 路由 Service支持 支持NodePort、ClusterIP,LB等对外提供访问、支持无头服务 核心功能 路由 Ingress支持 支持Nginx Ingress 核心功能 路由 灰度/蓝绿发布 支持支持灰度/蓝绿发布,支持应用的多个版本在线运行 核心功能 配置管理 配置项 支持配置项 核心功能 配置管理 Secret 支持保密字典、凭证等 核心功能 网络 网络插件 支持高性能网络插件Calico 核心功能 网络 网络插件 支持自研网络插件CubeCNI实现容器与虚拟机网络直通 核心功能 网络 网络策略 支持容器访问策略和流控限制 核心功能 存储 多类型存储 支持Local、NFS、Ceph常见持久存储类;支持csi驱动程序,集成天翼云的云硬盘、弹性文件、对象存储等云存储 核心功能 存储 持久卷声明 支持界面化创建持久卷声明,支持监控存储使用量 核心功能 存储 持久卷 支持界面化创建持久卷,支持持久卷的动态生成 核心功能 日志管理 日志中心 支持容器日志的采集、存储和检索,支持集成三方开源日志解决方案 核心功能 监控与告警 监控中心 支持集群、节点、容器多级别的监控与告警配置,支持审计日志,支持集成三方开源监控解决方案 核心功能 系统管理 接入平台 作为平台组件对外提供服务,支持订单方式进行集群的开通、扩缩容、删除等 核心功能 系统管理 权限管理 多租户支持,租户资源隔离,用户角色授权,支持集群和命名空间的授权 高级功能 应用 插件市场 支持通过Chart对插件打包发布到插件市场,界面化一键部署监控等插件,通过插件与其他产品集成 高级功能 应用 模板市场 支持通过Chart对应用打包发布到模板市场,界面化安装部署等 高级功能 应用 有状态应用 支持挂载持久化存储,实现有状态应用容器化部署 高级功能 能力开放 OpenAPI 支持开放API,对接持续集成和私有部署系统 高级功能 高可用部署 Kubernetes高可用 支持Kubernetes高可用部署 容器镜像服务 镜像 镜像仓库 支持对接多镜像中心,支持界面化创建仓库 容器镜像服务 镜像 租户隔离 支持公开仓库的可见性及私有仓库的不可见性 容器镜像服务 镜像 镜像管理 支持管理海量镜像,支持多版本镜像 容器镜像服务 镜像 镜像收藏 支持快速检索镜像并收藏 容器安全 授权 权限管理 支持基于k8s RBAC授权 容器安全 配置安全 容器安全策略 支持SecurityContext配置
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        产品介绍
        产品功能
      • 概述
        本文主要介绍概述 本文以Linux操作系统为例,介绍如何将已下载的集群备份文件的数据恢复至自建数据库。关于如何下载备份文件,请参见下载备份文件。 使用须知 该方法仅适用于集群实例。 目前仅支持3.4和4.0版本,4.2版本暂不支持通过该方式在本地进行恢复。 操作步骤中的目录,IP地址和端口信息,可按照实际恢复环境配置。 configsvr节点备份文件有一个,shardsrv的备份文件有多个,依据实际shardsvr数量而定。 备份文件下载完成后,需要解压(需要安装lz4解压工具)。参考命令:lz4 d $1 tar xC $2 $1:下载下来的备份文件。 $2:备份文件解压至的目标路径。 前提条件 本地自建MongoDB数据库已安装3.4或4.0版本客户端工具。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到本地自建数据库
        恢复集群备份到本地自建数据库
        概述
      • 产品定义
        本页介绍了文档数据库服务的产品定义。 文档数据库服务(Document Database Service,后文简称:CTDDS、DDS)是一款基于云计算平台的在线非关系型数据库服务,具有即开即用、稳定可靠、安全运行、弹性伸缩等特点。其完全兼容MongoDB协议,在容灾、备份、恢复、监控、告警等方面提供全套数据库解决方案。可降低管理维护成本,使用户能专注于应用开发和业务发展。文档数据库服务有如下基础特性: 文档数据库服务是一种非关系型数据库,它采用文档型的方式来存储数据,每个文档都是一个JSON格式的数据结构,可以包含任意数量和类型的字段。这种方式比传统的关系型数据库更加灵活,可以适应不同类型和规模的数据。 提供高可用性、高性能和可扩展性,支持从单节点部署到分布式集群的不同场景。它采用了分布式的数据存储和查询方式,可以水平扩展集群规模,提高系统的负载能力和容错性。同时,文档数据库服务还支持数据复制和故障恢复,确保数据的可靠性和持久性。 在查询方面提供了多种方式,包括基本的CRUD操作、聚合框架、文本搜索、地理空间查询等。这些功能可以满足各种不同的查询需求,使得文档数据库服务在数据分析和处理领域得到广泛应用。 文档数据库服务提供多项性能监控指标及告警功能,以及数据库性能可视化管理。 文档数据库服务支持灵活的部署架构,提供单节点、副本集(支持三节点、五节点、七节点共三种副本集类型)、分片集群三种实例类型,副本集实例类型还提供只读从节点的扩展服务,能够满足不同的业务场景。 单节点实例:单节点适用于开发、测试及其他非企业核心数据存储的场景。 副本集实例:副本集的高可用架构,提供了数据冗余与高可靠性的节点集合。副本集之间数据自动同步,保证数据的高可靠性。并支持自动容灾切换。 集群实例:分片集群架构,提供了副本集具备的数据冗余与高可靠的特性,同时拥有数据分片存储与处理能力,轻松适用于高并发场景。
        来自:
        帮助文档
        文档数据库服务
        产品介绍
        产品定义
      • 1
      • ...
      • 107
      • 108
      • 109
      • 110
      • 111
      • ...
      • 455
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      科研助手

      一站式智算服务平台

      推荐文档

      查看云间高速

      首页

      玩转天翼云①:如何获得管理员权限的方法

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号