活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      商企云数据_相关内容
      • 多运维人员权限设置案例
        职能团队 需要授予的策略 权限说明 资源总运维 CtyunResourceAdmin 天翼云全量资源(接入IAM的一类资源池节点全量云服务)、订单、合同、账务、卡券等管理权限,不包含IAM功能权限。 财务管理 CtyunBssAdmin 天翼云订单、合同、标签、客户信息管理全量操作权限(包含一类、二类资源池节点) 财务管理 mkt admin 优惠券管理者权限 财务管理 CtyunAcctAdmin 天翼云账务类(如成本、账单、发票等)全量操作权限(包含一类、二类资源池节点) 计算域运维 ecs admin 云主机服务管理者权限 计算域运维 CCSE admin CCSE 超级管理员权限 网络域运维 vpc admin 虚拟私有云管理者权限 网络域运维 elb admin 负载均衡管理者权限
        来自:
        帮助文档
        统一身份认证(一类节点)
        最佳实践
        多运维人员权限设置案例
      • 回退历史版本
        云应用引擎创建完成后,还需不断迭代升级,如果升级的版本出现问题,需要回退至所需的历史版本。 说明 系统仅保留已发布成功最新的至多十个历史版本配置信息 功能入口 1. 在云应用引擎控制台左侧导航栏选择应用管理 > 应用列表。 2. 在应用列表页面,单击目标应用名称,进入应用基本信息页。 3. 在目标应用的基础信息页面,单击回退历史版本。 4. 在回退历史版本页面,选择需要回退的版本以及配置升级方式。 5. 单击确定即可进行回退操作。
        来自:
        帮助文档
        云应用引擎
        用户指南
        应用管理
        回退历史版本
      • 告警事件历史
        本文主要介绍云日志服务中查看告警事件历史。 告警事件历史展示当前租户下所有告警事件历史,支持筛选及查看详情。 功能入口 1. 登录云日志服务控制台。 2. 在左侧导航栏中选择告警管理告警事件历史。 功能说明 告警事件历史页面展示当前租户下所有告警事件信息。 支持对事件名称、事件状态、事件对象进行筛选。 事件名称:显示告警规则名称。 事件状态:显示事件当前状态是告警中、已恢复、静默。 事件对象:指触发告警的日志项目。 支持查看事件详情。 支持查看告警详情。
        来自:
        帮助文档
        云日志服务
        用户指南
        日志告警
        告警历史
        告警事件历史
      • API使用说明
        本页主要介绍云容器引擎产品的API使用说明。 OpenAPI门户提供了产品的API 文档、API调试、SDK中心等。 关于用户如何使用云容器引擎产品API的详细介绍,请参见使用API。您可以在OpenAPI门户可以了解到具体的调用前必知、API概览、如何调用API以及具体的API的接口详细说明。 Java SDK:ccesdkjavav2.0.5.tar.gz Go SDK:ccesdkgov2.0.3.tar.gz
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        API参考
        API使用说明
      • 文档数据库DDS支持的事件列表
        事件名称 事件ID 事件级别 事件说明 处理建议 事件影响 创建实例业务失败 DDSCreateInstanceFailed 重要 创建文档数据库实例失败产生的事件,一般是由于磁盘个数、配额不足,底层资源耗尽导致。 检查磁盘个数、配额大小是否满足需求,并考虑释放资源后重新创建实例。 无法创建数据库实例。 复制状态异常 DDSAbnormalReplicationStatus 重要 出现”复制状态异常“事件通常有两种情况: 1、主机与备机或只读实例之间复制时延太大(一般在写入大量数据或执行大事务的时候出现),在业务高峰期容易出现阻塞。 2、主机与备机或只读实例之间的网络中断,导致主机与备机或只读实例复制异常。 提交工单。 不会导致原来实例的读写中断,客户的应用是无感知的。 复制状态异常已恢复 DDSReplicationStatusRecovered 重要 复制时延已回到正常范围内,或者主备之间的网络通信恢复。 不需要处理。 无 实例运行状态异常 DDSFaultyDBInstance 重要 由于灾难或者物理机故障导致实例故障时,会上报该事件,属于关键告警事件。 提交工单。 可能导致数据库服务不可用。 实例运行状态异常已恢复 DDSDBInstanceRecovered 重要 针对灾难性的故障,NoSQL有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 节点运行状态异常 DDSFaultyDBNode 重要 由于灾难或者物理机故障导致数据库节点故障时,会上报该事件,属于关键告警事件。 检查数据库服务是否可以正常使用,并提交工单。 可能导致数据库服务不可用。 节点运行状态异常已恢复 DDSDBNodeRecovered 重要 针对灾难性的故障,NoSQL有高可用工具会自动进行恢复或者手动恢复,执行完成后会上报该事件。 不需要处理。 无 实例主备切换 DDSPrimaryStandbySwitched 重要 在手动触发的主备倒换或节点故障自动触发的故障倒换场景下,会上报该事件。 不需要处理。 无 数据盘空间不足 DDSRiskyDataDiskUsage 重要 数据盘空间不足,产生此告警。 请参见对应服务用户指南中“扩容磁盘”的内容,进行磁盘扩容。 实例被设为只读模式,数据无法写入。 数据盘空间已扩容并恢复可写 DDSDataDiskUsageRecovered 重要 数据盘空间已扩容并恢复可写,产生此事件。 无需处理。 无影响。 用户计划删除KMS密钥 DDSplanDeleteKmsKey 重要 一般是由于用户计划删除kms的key导致。 计划删除kms的key后,及时恢复kms的key或者及时解密数据。 kms的key被删除后用户无法进行磁盘加密。
        来自:
        帮助文档
        云监控服务
        用户指南
        事件监控
        事件监控支持的事件说明
        文档数据库DDS支持的事件列表
      • ALM-12039 OMS数据库主备不同步
        本章节主要介绍ALM12039 OMS数据库主备不同步。 告警解释 OMS数据库主备不同步,系统每10秒检查一次主备数据同步状态,如果连续30次查不到同步状态,或者同步状态异常,产生告警。 当主备数据同步状态正常,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 12039 紧急 是 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 OMS数据库主备不同步,如果此时主实例异常,会出现数据丢失或者数据异常的情况。 可能原因 主备节点网络不稳定。 备OMS数据库异常。 备节点磁盘空间满。 处理步骤 检查主备节点网络是否正常 1.在FusionInsight Manager界面上选择“运维 > 告警 > 告警”,在告警列表中,单击此告警所在行的,查看该告警的OMS数据库备节点IP地址。 2.以root用户登录主OMS数据库节点。 3.执行ping 备OMS数据库心跳IP地址命令检查备OMS数据库节点是否可达。 是,执行步骤6。 否,执行步骤4。 4.联系网络管理员查看是否为网络故障。 是,执行步骤5。 否,执行步骤6。 5.修复网络故障,然后查看告警列表中,该告警是否已清除。 是,处理完毕。 否,执行步骤6。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        告警参考(适用于MRS 3.x版本)
        ALM-12039 OMS数据库主备不同步
      • 客户短信登录流程说明
        介绍客户端的实名信息登记功能以及如何启动客户端的短信登录校验。 客户实名信息展示 1.访问云电竞租户控制台。 2.单击【登录授权信息】栏目,可查看您账号下已登记的客户实名信息,实名信息需由账号权限所有人自行登记,仅用于公安机关监管要求的实名短信登录校验。 3.展示的登录授权信息内容包括:姓名、手机号(默认隐藏部分信息,点击眼睛按钮可展示完整内容)、身份证号(默认隐藏部分信息,点击眼睛按钮可展示完整内容)、资源可用性(该客户是否有权限使用云电竞的资源)、有效期(该客户的权限有效截止日期)、已注册客户端名称(该客户已注册使用过的客户端)、连接状态(实例连接状态)、连接的实例ID。 4.对客户登录授权信息可进行的操作项包括: 修改:对已登记的信息进行修改。 历史使用记录:可查询客户的历史使用记录,展示的信息包括串流使用过的客户端名称、串流起止时间(精细到秒)、串流过的实例 ID。 如何使用短信校验 1.访问云电竞租户控制台。 2.单击【客户实名信息】栏目。 3.页面右上角单击【启用短信校验】,弹出二次确认窗口,如确认,后续可访问使用该账号名下的云电竞资源的客户必须使用已经由账号权限所有人已登记过的实名信息的手机号才可登录。 4.如已启用短信校验,按钮状态会变更为【停用短信校验】,点击调起二次确认窗口,如确认,停用需要短信校验的客户端登录方式。
        来自:
        帮助文档
        云电竞
        用户指南
        客户端管理
        客户短信登录流程说明
      • 节点限制检查
        本文主要介绍节点限制检查 检查项内容 当前检查项包括以下内容: 检查节点是否可用 检查节点操作系统是否支持升级 检查节点是否含有非预期的节点池标签 检查K8S节点名称是否与云主机保持一致 解决方案 问题场景一:节点不可用 若检查发现节点不可用,请登录CCE控制台,前往“集群信息>节点管理”处查看节点状态,请确保节点处于“运行中”状态。节点处于“安装中”、“删除中”状态时,均不支持升级。 若节点状态异常,请修复节点后,重试检查任务。 问题场景二:节点操作系统升级支持受限 当前集群升级支持的节点操作系统范围如下表所示,若您的节点OS不在支持列表之内,暂时无法升级。您可将节点重置为列表中可用的操作系统。 节点OS支持列表 操作系统 限制 CentOS 无限制 Ubuntu 部分局点受限,若检查结果不支持升级,请联系技术支持人员 问题场景三:节点含有非预期的节点池标签 由节点池迁移至默认节点池的节点,仍然会保留节点池标签"cce.cloud.com/ccenodepool",影响集群升级。请确认该节点上的负载调度是否依赖改标签: 若无依赖,请删除该标签。 若存在依赖,请修改负载调度策略,解除依赖后再删除该标签。 问题场景四:K8S节点名称与云主机一致 CCEK8S节点名称默认“与节点私有IP保持一致”,若创建节点时选择“与云主机名称保持一致”,当前暂不支持升级。 请登录CCE控制台,前往“集群信息>节点管理”处查看节点标签,对比节点标签kubernetes.io/hostname的值是否与云主机名称是否一致。如果一致,则需在集群升级前移除该节点。
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群升级
        升级前检查
        节点限制检查
      • 添加Agent
        参数名称 说明 取值样例 添加方式 您可以选择Agent的添加方式。 选择已有Agent 当某个应用端连接了多个数据库时,如果该应用端的一个数据库已经在应用端添加了Agent。其他数据库在添加Agent时,只需要选择“选择已有Agent”添加方式。 创建Agent 如果待添加Agent的数据库需要创建Agent,请创建新的Agent。 创建Agent 安装节点类型 当“添加方式”选择“创建Agent”时,需配置该参数。 审计RDS关系型数据库,需要选择“应用端”。 应用端 安装节点IP “安装节点类型”选择“应用端”时,需配置该参数。安装节点IP只能填写一个,每个Agent安装节点IP不同。 IP地址为应用端内网IP地址。 IP必须为内网IP地址,支持IPv4和IPv6格式。 须知 当审计RDS关系型数据库且应用端在云下时,代理端将作为应用端,此时,“安装节点IP”需要配置为代理端的IP地址。 192.168.1.1 审计网卡名称 可选参数。“安装节点类型”选择“应用端”时,可以配置该参数。 指待审计的应用端节点的网卡名称。 CPU阈值(%) 可选参数。“安装节点类型”选择“应用端”时,可以配置该参数。 指待审计的应用端节点的CPU阈值,缺省值为“80”。 须知 当服务器的CPU超过设置的阈值,为了保证您业务的正常运行,Agent将自动关闭,停止运行。 80 内存阈值(%) 可选参数。“安装节点类型”选择“应用端”时,可以配置该参数。 指待审计的应用端节点的内存阈值,缺省值为“80”。 须知 当服务器上的内存超过设置的阈值,为了保证您业务的正常运行,Agent将自动关闭,停止运行。 80 操作系统 可选参数。“安装节点类型”选择“应用端”时,可以配置该参数。 指待审计的应用端节点的操作系统,可以选择“LINUX64”或“WINDOWS64”。 LINUX64
        来自:
        帮助文档
        数据库安全
        快速入门
        添加Agent
      • DDS空间分析
        空间分析可以直观地查看数据库实例的Top库分析、Top集合分析。 前提条件 仅限来源为天翼云DDS数据库。 已录入DMS中,且实例状态为正常的数据库实例。 操作步骤 1. 登录数据管理服务。 2. 在左侧导航栏中,单击 智能运维 > 空间分析,选择目标实例即可查看空间分析。 功能介绍 空间分析可以直观地查看数据库实例的Top库分析、Top集合分析等。 Top库分析:Top20的库的总物理文件大小、索引占用空间、数据空间、平均文档大小、文档总数,以及空间变化趋势。 Top集合分析:Top20的集合的总占用总空间、集合占用的物理空间,索引占用空间、集合中存储的原始数据大小、压缩率、平均文档大小、文档总数、索引名称和占用空间大小,以及空间变化趋势。
        来自:
        帮助文档
        数据管理服务
        用户指南
        智能运维
        空间分析
        DDS空间分析
      • 设置应用环境变量
        本章节主要介绍设置应用环境变量 环境变量是应用运行环境中设定的一个变量。可以在应用组件部署后修改,为应用提供极大的灵活性。 本节为您介绍云容器引擎部署方式下的应用环境变量配置方法。 云容器引擎部署方式 部署应用组件时,在“基本配置”界面,“部署系统”选择“云容器引擎”时,请参考本方法添加环境变量。 1、在“组件配置”界面,展开“高级设置> 组件配置”。 2、参考表添加环境变量。 表 环境变量类型 环境变量类型 操作步骤 :: 手动添加 单击“添加环境变量”,选择“手动添加”。 输入新增环境变量的“变量名称”和“变量/变量引用”。 密钥导入 创建密钥,请参考创建密钥。 单击“添加环境变量”,选择“密钥导入”。 输入“变量名称”。 在“变量/变量引用”的下拉框中选择对应的密钥名称。 配置项导入 创建配置项,请参考创建配置项。 单击“添加环境变量”,选择“配置项导入”。 输入“变量名称”。 在“变量/变量引用”的下拉框中选择对应的配置项。 从文件导入 单击“从文件导入”,选择本地配置文件。 导入的文件应为字符串形式的键值对映射,且仅支持json及yaml格式。例如: {"key1":"value1","key2":"value2"}
        来自:
        帮助文档
        微服务云应用平台
        用户指南
        应用管理
        应用高级设置
        设置应用环境变量
      • 开发Shell脚本
        本章节主要介绍开发脚本的开发Shell脚本。 对Shell脚本进行在线开发、调试和执行,开发完成的脚本也可以在作业中执行(请参见开发作业)。 前提条件 已新增Shell脚本,请参见新建脚本。 已新建主机连接,该主机用于执行Shell脚本,请参见下表。 当前用户已锁定该脚本,否则需要通过“抢锁”锁定脚本后才能继续开发脚本。新建或导入脚本后默认被当前用户锁定,详情参见提交版本并解锁章节中的 编辑锁定功能。 操作步骤 1. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 选择数据开发 2. 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 3. 在脚本目录中,双击脚本名称,进入脚本开发页面。 4. 在编辑器上方,配置如下表所示的属性。 Shell脚本属性 参数 说明 示例 主机连接 选择执行Shell脚本的主机。 参数 填写执行Shell脚本时,向脚本传递的参数。多个参数之间使用空格分隔,例如:a b c。此处的“参数”需要在Shell脚本中使用位置变量(如$1,$2,$3)引用,否则配置无效。位置变量由0开始,其中0变量预留用来保存实际脚本的名字,1变量对应脚本的第1个参数,依次类推。如$1、$2、$3分别引用参数a、参数b和参数c。 注意 shell脚本中若引用变量请直接使用args格式,不要使用 {args}格式,否则会导致被作业中同名参数替换。 例如参数输入为“a b c”,执行如下shell脚本,执行结果显示为“b” 。 echo $2 交互式输入 填写交互式参数,即执行Shell脚本的过程中,需要用户输入的交互式信息(例如密码)。 例如执行如下交互式shell脚本, 交互参数1、2、3 分别对应 begin、end、exit。 当交互参数输入1时,执行结果显示为“start something”。 当交互参数输入2时,执行结果显示为“stop something”。 当交互参数输入3时,执行结果显示为“exit”。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        脚本开发
        开发脚本
        开发Shell脚本
      • 订购前须知
        本小节介绍SSL VPN的订购前须知,包括确认使用需求和产品规格以及SSL VPN支持的客户端操作系统。 确认使用需求和产品规格 请综合未来业务发展情况合理评估需要订购的规格。 订购SSL VPN系统会自动匹配合适的云主机,无需用户单独下单,云主机和SSL VPN会同步计费。 SSL VPN支持的客户端操作系统 支持Win7、Win8、Win10操作系统,不支持Window server操作系统接入。 支持苹果Mac系统(包括支持最新的mac10.12和mac10.13系统)。 支持安卓和苹果iOS的手机平板。
        来自:
        帮助文档
        SSL VPN
        快速入门
        订购前须知
      • 创建虚拟私有云VPC
        本文帮助您快速熟悉虚拟私有云VPC的创建。 操作场景 当需要为您的弹性云主机构建隔离的、用户自主配置和管理的虚拟网络环境时,首先要申请虚拟私有云。 操作步骤 1. 登录控制中心。 2. 在控制中心页面左上角点击,选择区域,本文我们选择华东华东1。 3. 依次选择“网络”,单击“虚拟私有云”;进入网络控制台页面。 4. 在“虚拟私有云列表”界面,单击“创建虚拟私有云”。 5. 在“申请虚拟私有云”页面,根据界面提示配置参数。 参数 说明 取值样例 资源类型 创建VPC支持两种资源类型: (1)VPC:包含VPC、子网、网关等基本网络要素配置 (2)VPC和扩展选项:除了VPC基本网络要素配置之外还可以创建ZOS终端节点、关联DHCP选项集。通过ZOS终端节点可以实现内网对ZOS的便捷访问。 VPC 名称 VPC名称 VPC001 VPC网段(IPv4) VPC的地址范围,VPC内的子网地址必须在VPC的地址范围内。建议使用网段:10.0.0.0/828、172.16.0.0/1228、192.168.0.0/1628。如果要使用其他网段,请参考VPC网段和扩展网段。 192.168.0.0/16 VPC网段(IPv6) 是否分配虚拟私有云VPC的IPv6地址,仅部分可用区资源池支持为VPC开启IPv6,不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 开启 IPv6地址类型 开启IPv6的情况下,显示此选项,默认仅支持中国电信单线。 中国电信单线 VPC IPv6地址段 开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 自动分配 企业项目 可以为VPC实例关联企业项目 project1 VPC描述 备注信息 测试VPC 子网配置 子网类型 普通子网:默认选项,此类子网中可以用于创建除标准裸金属服务器外的资源,推荐选择; 标准裸金属子网:仅支持创建标准裸金属服务器和虚拟IP,仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 普通子网 子网名称 子网的名称 Subnet001 子网网段(IPv4) 子网的地址范围,需要在VPC的地址范围内 192.168.0.0/24 网关(IPv4) 子网的网关,默认为子网内第一个可用IP。 对于可用区资源池,网关地址默认为.1,不可以指定其他地址(部分可用区资源池指定其他地址;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准)。 对于地域资源池,网关地址默认为.1,可以指定其他地址。 192.168.0.1 DHCP(IPv4) 子网的DHCP地址,仅部分可用区资源池支持指定;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 192.168.0.2 子网IPv6网段 开启IPv6功能后,将自动为子网分配IPv6网段,但您不能选择IPv6地址范围 开启 子网IPv6地址段 子网开启IPv6的情况下,显示此选项。 自动分配: 系统会在客户选定的IPv6地址类型中自动分配一个56位的可用网段。 手动分配:您可以输入十进制数字,来自定义VPC的IPv6网段。 IPv6地址类型为中国电信单线时,仅支持自动分配。 仅部分可用区资源池支持此选项;不同资源池列表见产品简介资源池区别页面,实际情况以控制台展现为准。 自动分配 DNS服务器地址 部分可用区资源池默认值为100.95.0.1,该地址为天翼云DNS服务的地址,支持解析内网域名和公网域名;其他资源池默认值为114.114.114.114、8.8.8.8 100.95.0.1 子网描述 备注信息 测试子网
        来自:
        帮助文档
        虚拟私有云 VPC
        虚拟私有云VPC管理
        创建虚拟私有云VPC
      • 恢复副本集库表到指定时间点
        本文主要介绍恢复副本集库表到指定时间点 为了保证数据的完整性,以及降低对原实例的性能影响,在进行库表级时间点恢复备份时,首先将选中时间点的全量数据和增量数据在后台恢复至一个临时实例,然后自动导出用户需要恢复的库表,再将这些库表恢复至原实例。由于需要对实例的所有数据进行备份及恢复操作,对于数据量较大的实例,所需时间较长,请耐心等待。 通过库表级时间点恢复数据,会在实例上新生成恢复后的库表,不会导致实例数据被覆盖,您可以根据需要恢复库表。 使用须知 目前,DDS 4.0版本的副本集实例支持库表级时间点恢复。 开启自动备份策略后,才允许按时间点恢复库表数据。 恢复成功后,默认会在实例上生成以“原表名bak时间戳”命名的新表,如果有索引,索引的ns会相应的变成“原库名.原表名bak时间戳”,请您根据实际情况对表进行重命名或者后续的数据处理。 由于会在原实例上生成恢复后的新库表,请您确保原实例磁盘空间充足。 “库名.表名”长度小于等于120字符,“库名.表名.索引名”长度小于等于128字符,请您确保恢复后的库表名和索引名长度符合要求,避免恢复失败。 请您确保恢复后的表名和已有表名不同,避免恢复失败。 选择表级恢复,如果对应时间不存在该表,则系统会创建一个空表,选择库级恢复,则不会创建该表。
        来自:
        帮助文档
        文档数据库服务
        用户指南
        数据恢复
        恢复备份到指定时间点
        恢复副本集库表到指定时间点
      • Spark组件优化后TPC-DS测试结果
        测试准备 生成数据 通过集成TPCDS官网测试工具TPCDSToolsv3.2.0的程序来生成数据。通过调整数据生成程序中相关Hadoop参数,优化后续数据导入的时间。 生成SQL 从官方提供的99条SQL模板生成Power Test和Throughput Test 所需SQL,从官方提供的mtsqls模板中生成Maintenance Test所需SQL。 利用工具用以下两种命令生成本次测试使用的SQL。由于生成数据的命令中含有随机数,所以生成的SQL在过滤条件上有所不同。 ./dsqgen directory ../querytemplates input ../querytemplates/templates.lst scale $SCALE streams 9 outputdir ${QUERYDIR} dialect sparksql rngseed date +%m%d%H%M%S%1N sed i "s/XXXXX1/$date11/g" ${MTQUERYDIR}/mtqueries$id/.sql 导入数据Load Test( Tld )并验证数据量 将生成的数据以Parquet格式导入到Hive的库中。测试库中有表24张,包括维度表datedim、timedim、item、customer、customerdemographics、householddemographics、customeraddress、store、promotion、warehouse、shipmode、reason、incomeband、callcenter、webpage、catalogpage、website共17张和事实表storesales、storereturns、websales、webreturns、catalogsales、catalogreturns、inventory共7张。 验证表的数据量结果见下表,10T的数据行数与官网材料参考值会有少许偏差,TPC官网的TPCDS榜上公司报告中也有同样的情况。 10T表行数统计 表名 翼MR Spark/开源Spark3.3.3 官方参考值 callcenter 54 54 catalogpage 40000 40000 catalogreturns 1440033112 1440033112 catalogsales 14399964710 14399964710 customer 65000000 65000000 customeraddress 32500000 32500000 customerdemographics 1920800 1920800 datedim 73049 73049 householddemographics 7200 7200 incomeband 20 20 inventory 1311525000 1311525000 item 402000 402000 promotion 2000 2000 reason 70 70 shipmode 20 20 store 1500 1500 storereturns 2879544257 2879970104 storesales 28800104574 28799983563 timedim 86400 86400 warehouse 25 25 webpage 4002 4002 webreturns 720020485 720020485 websales 7199963324 7199963324 website 78 78
        来自:
        帮助文档
        翼MapReduce
        组件性能
        Spark组件优化后TPC-DS测试结果
      • Kafka Connect接入Kafka
        本节主要介绍Kafka Connect接入Kafka。 最佳实践概述 场景描述 Kafka Connect可以将完整的数据库注入到Kafka的Topic中,或者将服务器的系统监控指标注入到Kafka,然后像正常的Kafka流处理机制一样进行数据流处理。而导出工作则是将数据从Kafka Topic中导出到其它数据存储系统、查询系统或者离线分析系统等。 如果您想要在流数据平台场景下,使用Kafka Connect快速实现数据从Kafka和其它系统之间进行导入导出,可以参考本实践方案。 技术架构图 暂无。 方案优势 用户可按业务需要,参考Kafka Connect数据导入导出,实现流数据的消息消费。 前提条件 需已购买Kafka实例、创建Topic,并且已成功消费消息。 资源规划 本实践方案内容仅涉及Kafka专享版实例和Flink的安装配置。 分布式消息服务 Figure 1 分布式消息服务 资源类型 配置项 配置明细 说明 :::: 企业中间件 DMS Kafka专享实例 需已购买kafka专享实例,创建好Topic,并成功消费消息。 Kafka Connect流数据平台 Figure 2 Kafka Connect流数据平台 资源类型 配置项 配置明细 说明 :::: 应用软件 Flink框架 Flink 1.14 使用开源Apache Flink 方案正文 Kafka Connect 目前支持两种执行模式:standalone 和 distributed。 standalone模式 通过以下命令以 standalone 模式启动 connect: 接入Kafka专享版与接入开源 Apache Kafka 没有区别,仅需要修改 bootstrap.servers 为申请实例时分配的 IP。 distributed模式 通过以下命令以 distributed 模式启动 connect: 该模式下,Kafka Connect 会将 offsets、configs 和 task status 信息存储在 Kafka Topic 中,存储的Topic 在 connectdistributed 中的以下字段配置: 这三个 Topic 需要手动创建,才能保证创建的属性符合 connect 的要求。 config.storage.topic 需要保证只有一个 partition,多副本且为 compact 模式。 offset.storage.topic 需要有多个 partition,多副本且为 compact 模式。 status.storage.topic 需要有多个 partition,多副本且为 compact 模式。 配置 bootstrap.servers 为申请实例是分配的 IP。 配置 group.id,用于标识 connect 集群,需要与消费者分组区分开来。
        来自:
        帮助文档
        分布式消息服务Kafka
        最佳实践
        Kafka Connect接入Kafka
      • 按需计费
        计费项 用量统计方式 存储空间 服务每5分钟生成一个统计点,统计一次当前存储空间用量数据;一个计费周期内总共生成12个统计点。 统计完成后,取12个统计点的数据平均值作为该计费周期的存储用量数据进行计费。 流出流量 根据计费周期内所使用的流出流量总和进行计费。 请求次数 根据计费周期内所使用的请求次数总和进行计费。
        来自:
        帮助文档
        媒体存储
        计费说明
        按需计费
      • 使用系统自带磁盘清理工具清理磁盘空间
        本章节主要介绍使用系统自带磁盘清理工具清理磁盘空间。 操作场景 本章节指导用户通过Windows操作系统自带的磁盘清理工具来清理空间不足的磁盘。 本文以操作系统为“Windows Server 2016 Standard 64bit”的云服务器为例。不同操作系统的云服务器清理步骤可能不同,本文仅供参考,具体操作步骤和差异请参考对应操作系统的产品文档。 操作步骤 1. 在云服务器桌面,单击左下方开始图标。 弹出常用程序窗口。 2. 在左侧导航栏中,选择“Windows管理工具 > 磁盘清理”。 弹出“磁盘清理:驱动器选择”窗口。 图 磁盘清理:驱动器选择 3. 在下拉框中,选择待清理的磁盘,以“C盘”为例。 弹出“磁盘清理”窗口,此时系统自动计算可在C盘上释放的空间。 图 磁盘清理 4. 自动计算完成后,在弹窗中勾选要删除的文件,并单击“确定”。 弹出确认删除对话框。 图 确认删除 5. 单击“删除文件”,开始清理磁盘,释放磁盘空间。
        来自:
        帮助文档
        云硬盘 EVS
        最佳实践
        处理Windows云主机磁盘空间不足的办法
        使用系统自带磁盘清理工具清理磁盘空间
      • 删除对等连接路由
        对等连接的路由信息添加后支持删除,本文帮助您快速熟悉如何删除对等连接路由信息。 操作场景 如果您确认不再需要当前对等连接的路由信息,可以进行删除操作。 删除对等连接的路由(同账户) 1. 登录控制中心,单击控制中心左上角的,选择地域,此处选择华东华东1。 2. 点击“网络 >虚拟私有云”,进入虚拟私有云主页面。 3. 在左侧导航栏选择“对等连接”。 4. 在对等连接列表,选择指定的对等连接名称,进入对等连接详情页面。 5. 点击“本端路由”页签,根据界面提示,点击“路由表”超链接,进入本端VPC路由表的详情页面。 6. 在目的地址列表找到要删除的路由,点击操作列下的“删除”按钮。 7. 在弹出的对话框中点击“确定”,完成对等连接路由删除操作。 删除对等连接的路由(跨账户) 删除本端路由信息 1. 本端账户登录控制中心,单击控制中心左上角的,选择地域,此处选择华东华东1。 2. 点击“网络 >虚拟私有云”,进入虚拟私有云主页面。 3. 在左侧导航栏选择“对等连接”。 4. 在对等连接列表,选择指定的对等连接名称,进入对等连接详情页面。 5. 点击“本端路由”页签,根据界面提示,点击“路由表”超链接,进入本端VPC路由表的详情页面。 6. 在目的地址列表找到要删除的路由,点击操作列下的“删除”按钮。 7. 在弹出的对话框中点击“确定”,完成对等连接路由删除操作。
        来自:
        帮助文档
        对等连接(文档停止维护)
        用户指南
        删除对等连接路由
      • 创建备份任务
        本章节主要介绍翼MapReduce的创建备份任务操作。 操作场景 FusionInsight Manager支持在界面上创建备份任务,运行备份任务将对指定的数据进行备份。 操作步骤 1. 登录FusionInsight Manager。 2. 选择“运维 > 备份恢复 > 备份管理 > 创建”。 3. 设置“备份对象”为“OMS”或需要备份数据的集群。 4. 在“任务名称”输入参数值。 5. 在“备份类型”选择任务执行属性。 备份类型说明 类型 参数 说明 周期备份 开始时间 表示周期备份任务第一次启动的时间 周期备份 周期 表示任务下次启动,与上一次运行的时间间隔,支持“小时”或“天” 周期备份 备份策略 可以选择下策略: 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份 手动备份 无 需要手动运行任务才能进行备份 6. 在“备份配置”指定需要备份的数据。 支持备份元数据和业务数据。 各组件不同数据的备份任务操作请参考备份恢复管理。 7. 单击“确定”保存。 8. 在备份任务列表,可以查看刚创建的备份任务。 在指定的备份任务“操作”列,选择“更多 > 即时备份”,可以立即运行备份任务。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        FusionInsight Manager操作指导(适用于3.x)
        运维
        备份恢复设置
        创建备份任务
      • 通过数据分片提升服务性能
        本页介绍了文档数据库服务如何使用分片实例提升数据库性能。 对于数据量和请求量很大的业务场景,可以使用文档数据库服务集群版本来提升容量和性能。 集群版本包含的 3 种组件: mongos 节点。用户通过 mongos 节点操作数据库,mongos 会将用户的操作请求路由到底层的存储分片中,并收集结果进行合并等操作后赶回给客户端。 config server 节点。底层是 3 副本主从架构,存储路由表、用户、集群配置等信息。对于用户来说是不感知的。 shard server 节点。分片集群有 2 个或者多个 shard,每个 shard 都是独立的 3 副本主从架构。每个 shard server 存储具体的用户数据,执行具体的数据操作。 创建分片表 如果使用集群版本,用户可以在建表时指定片建创建分片表。后续对分片表的读写操作会根据指定的分片建路由到合适的 shard server 中。 需要注意的是,集群版本也能创建非分片表。如果用户在连接 mongos 之后没有按照分片表的方式建表,默认会创建一个非分片表,并存储在某一个 shard server 上,此时容量和性能都会受限。 选择分片策略 文档数据库服务集群常用的分片方式有范围和哈希方式。 范围分片 范围分片方式会按照分片键的范围将数据分成多个 chunk,每个 chunk (默认配置是 64MB) 存储一部分范围连续的数据。范围分片能够很好地满足范围查询需求,但是缺点也很明显。如果业务的写入模型有明显按照分片建递增或者递减的趋势,则写入操作很大程度上会分布再同一个 shard 上,导致无法扩展写能力。 哈希分片 哈希分片方式会先计算分片键的哈希值,然后再根据哈希值的取值范围进行分片,将文档分布到不同的 chunk 中。基于哈希分片能够保证数据在各个分片上的分布基本均衡。但是缺点在于如果出现范围查询,mongos 节点需要将请求广播到 shard server 上,导致查询效率会有所下降。
        来自:
        帮助文档
        文档数据库服务
        最佳实践
        通过数据分片提升服务性能
      • 帐号管理
        库角色管理 您可以在数据管理服务控制台新建角色,并管理这些角色。 操作步骤 1、登录管理控制台。 2、单击管理控制台右上角的,选择区域和项目。 3、单击页面左上角的,选择“数据库 > 数据管理服务”,进入数据管理服务页面。 4、在左侧导航栏中,单击“开发工具”,进入开发工具页面。 5、选择需要登录的目标数据库实例,单击操作列表中的“登录”,登录目标数据库实例。 6、在顶部菜单中,选择“帐号管理”>“库角色管理”,进入角色管理页面。 7、选择目标数据库,单击“新建角色”,进入角色信息编辑页面。 8、在角色编辑页面填写常规信息、拥有的Schema、角色成员、安全对象等信息。 库角色信息 说明 角色名 库角色的名称。 所有者 该角色的所有者。 拥有的Schema 配置该角色拥有的架构列表。 角色成员 配置具有此角色的库用户列表。一个用户具有某个角色,表示该用户具有此角色包含的所有权限。 安全对象 配置该角色对数据库对象的具体权限。 9、编辑完成,单击“保存”,并在SQL预览弹窗中单击“确定”。 10、在角色管理列表中查看库角色信息。您也可以对库角色进行编辑、重命名、删除等操作。
        来自:
        帮助文档
        数据管理服务
        用户指南
        SQL Server数据库管理(开发工具)
        帐号管理
      • DRDS事务模型
        基于XA的事务方案 XA的定义 XA是X/Open DTP定义的两阶段提交协议,是交易中间件与数据库之间的接口规范(即接口函数),交易中间件用它来通知数据库事务的开始、结束以及提交、回滚等,提交或回滚事务必须产生一致的结果(全部提交或全部回滚)。XA接口函数由数据库厂商提供。通常情况下,交易中间件与数据库通过XA接口规范,使用两阶段提交来完成一个全局事务,XA规范的基础是两阶段提交协议。 原理 分布式XA事务利用物理数据库提供了对XA事务的支持,实现跨数据库事务的一致性。为保证事务的原子性(Atomicity)和一致性(Consistency),使用二阶段提交,将事务提交分成PREPARE和COMMIT两个阶段: PREPARE阶段中,数据节点准备好所有事务提交所需的资源(例如加锁、写日志等);这个阶段保证了事务数据的高可用性:数据库挂了恢复后,也会恢复还没提交的PREPARE事务。 COMMIT阶段中,各个数据节点才真正提交事务。 当用户进行一个分布式XA事务时,DRDS作为事务管理器角色。DRDS会屏蔽XA事务实现的细节。对用户而言,跟普通事务是一样的流程。 XA事务流程 1. XA事务开启:执行UDAL XA START。这时DRDS会返回这个XA事务的XID。 2. XA事务执行:执行各种语句。这时DRDS跟普通事务一样的处理。 3. XA事务提交 : 执行COMMIT或ROLLBACK。 DRDS首先等待所有数据节点(MySQL服务器)PREPARE成功,之后再向各个数据节点发送COMMIT请求。
        来自:
        帮助文档
        分布式关系型数据库
        最佳实践
        DRDS事务模型
      • 添加服务器(集群版适用)
        参数 描述 s SERVERIP [: PORT ] 或 server SERVERIP [: PORT ] 添加服务的IP( SERVERIP )及API端口号( PORT )。 服务器IP:IPv4或[IPv6]。 API端口号:取值范围是[1, 65535],默认值为1443。需要和该服务器安装HBlock时设置的API端口号保持一致。 parentnode PARENTNODE 指定父节点。 默认为根节点。 n NODENAME 或 name NODENAM E 指定服务器节点名称。 取值:字符串形式,长度范围1~63,只能由字母、数字、句点(.)、下划线()和短横线()组成,字母区分大小写,且仅支持以字母或数字开头。 默认使用服务器ID作为节点名称。 p PATH 或 path PATH 指定数据目录,支持多个数据目录,以英文逗号(,)隔开。 取值:只能包含字母、数字、汉字和特殊字符(~ ! @ $ ( ) + ; . :)。 注意 数据目录用于存储数据,建议不要与操作系统共用磁盘或文件系统。 capacityquota CAPACITYQUOTA 指定数据目录的容量配额,即针对加入到服务器中的每个数据目录,HBlock可写入的数据总量。当HBlock的使用空间一旦达到配额,就立刻阻止数据写入,不允许再使用超出配额的空间。 取值:整型。小于数据目录所在磁盘的总容量,单位是K/k、M/m、G/g、T/t、P/p,默认单位是G/g。负整数表示无限制写入,0表示禁止写入。默认不限制写入。 注意 如果一次添加多个数据目录,只能配置一个容量配额,配置的容量配额适用添加的所有目录。 portrange PORT1PORT2 指定端口范围。存储服务以及未指定端口的服务将从此范围中自动取值。 取值:整型,取值范围为[1, 65535], PORT1 为端口范围最小值, PORT2 为端口范围最大值,且 PORT1 < PORT2 。 PORT1 默认取值为20000,PORT2默认取值为20500。 说明 建议指定的端口范围至少包含500个端口。 dataport1 DATAPORT1 数据端口1,整型,取值为[1, 65535]。 iscsiport ISCSIPORT iSCSI端口,整型,取值为[1, 65535],默认端口为3260。 managementport1 MANAGEMENTPORT1 管理服务端口1,整型,取值为[1, 65535]。 managementport2 MANAGEMENTPORT2 管理服务端口2,整型,取值为[1, 65535]。 managementport3 MANAGEMENTPORT3 管理服务端口3,整型,取值为[1, 65535]。 managementport4 MANAGEMENTPORT4 管理服务端口4,整型,取值为[1, 65535]。 managementport5 MANAGEMENTPORT5 管理服务端口5,整型,取值为[1, 65535]。 managementport6 MANAGEMENTPORT6 管理服务端口6,整型,取值为[1, 65535]。
        来自:
        帮助文档
        存储资源盘活系统
        命令行参考
        服务器操作
        添加服务器(集群版适用)
      • 自建Oracle迁移至天翼云CT-RDS MySQL
        本节为您介绍自建Oracle迁移至天翼云CTRDS MySQL任务配置。 目标端配置请参照自建Oracle迁移至自建MySQL。
        来自:
        帮助文档
        云迁移服务CMS
        用户指南
        数据库迁移服务模块
        数据传输
        数据迁移
        任务创建
        自建Oracle为源的迁移任务配置
        自建Oracle迁移至天翼云CT-RDS MySQL
      • ECI加载DeepSeek R1
        本文为您介绍如何使用ECI加载DeepSeek R1。 DeepSeek R1介绍 DeepSeekR1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeekR1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAIo1 表现相当,并且通过精心设计的训练方法,提升了整体效果。 使用限制 模型 推荐规格(云主机) 支持资源池 DeepSeekR1:1.5b 内存:4GB起 所有ECI已上线资源池 DeepSeekR1:7b 内存:16GB起 所有ECI已上线资源池 DeepSeekR1:8b 内存:16GB起 所有ECI已上线资源池 DeepSeekR1:14b 内存:32GB起 所有ECI已上线资源池 DeepSeekR1:32b 内存:64GB起 起临时存储空间:100GB起 所有ECI已上线资源池 DeepSeekR1:70b 内存:128GB起 临时存储空间:150GB起 所有ECI已上线资源池 ECI弹性容器实例接入DeepSeek R1最佳实践 1. 订购弹性容器实例,以最小模型1.5b为例。 2. 选择开源容器镜像(opensource/openwebuideepseekr1) 。 3. 打开容器高级设置,自定义环境变量。 其中PORT代表Open WebUI服务暴露的端口,ENABLEOPENAIAPI代表是否启用OpenAI的API,RAGEMBEDDINGENGINE代表RAG(Retrieval Augmented Generation:检索增强生成)使用的嵌入式引擎。 说明 国内环境建议按照示例配置。 4. 点击下一步,绑定弹性IP。支持自动创建或绑定已有EIP。 5. 确认订单,等待容器实例Running。 6. 检查端口连通性。 7. 安全组放开指定端口(PORT环境变量)。 8. 通过浏览器访问Open WebUI,如 EIP:PORT,点击Get started。 9. 创建管理员帐号/密码登入。 10. 进入主界面。 11. 模型验证。
        来自:
      • 旁路部署配置
        本小节介绍态势感知旁路部署配置。 态势感知控制端配置前准备 确保态势感知控制端的安全组放行 22 端口,态势感知控制端云主机网卡关闭源/目的检查。 态势感知控制端的配置需要配合态势感知技术工程师,由态势感知技术工程师配置。 旁路部署场景,使用天翼云平台的流量镜像功能引流,不涉及网络割接,只需开通态势感知控制端。 配置步骤 1. 确认所在资源池流量镜像功能可用性,是否存在配额或弹性云主机类型限制。 2. 登录天翼云网络控制台,在左侧选择“流量镜像 > 筛选条件”创建筛选条件。根据需要监控的云主机配置出入方向规则。 3. 创建完成后,单击筛选条件的名称,进入筛选条件详情,创建入方向规则。 4. 在左侧导航栏选择“流量镜像 > 镜像会话”,创建镜像会话,选择对应筛选条件,配置镜像源和镜像目的:镜像源选择需要监测的弹性网卡,镜像目的选择态势感知控制端的辅助网卡。 5. 开通完毕后,启动镜像会话,态势感知控制端验证镜像流量。
        来自:
        帮助文档
        态势感知
        快速入门
        旁路部署配置
      • 通过DAS连接Microsoft SQL Server实例(推荐)
        本节介绍了 通过DAS连接Microsoft SQL Server实例(推荐)的相关内容。 操作场景 通过数据管理服务(Data Admin Service,简称DAS)这款可视化的专业数据库管理工具,可获得执行SQL、高级数据库管理、智能化运维等功能,做到易用、安全、智能的管理数据库。关系型数据库服务默认开通DAS连接权限。推荐使用DAS连接实例。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,在操作列单击“登录”,进入数据管理服务实例登录界面。 您也可以在“实例管理”页面,单击目标实例名称,进入基本信息页面,在页面右上角单击“登录”,进入数据管理服务实例登录界面。 步骤 5 正确输入数据库用户名和密码,单击“登录”,即可进入您的数据库并进行管理。 结束
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        连接实例
        通过DAS连接Microsoft SQL Server实例(推荐)
      • 执行Spark任务报内存不足告警如何处理?
        Spark整体heap内存是由 spark.executor.memory和spark.driver.memory控制的 Spark将spark.xxxx.memory内存分为 user heap(other)、execution heap、storage heap、system heap(300MB)。 spark.memory.fraction 可以将 spark.xxxx.memory分割出 heap storage 和 heap execution 两部分。 Heap storage Heap storage作用 Spark Heap Storage内存用于存储spark Rdd cache。 在spark SQL中也可以用于存储 view、或存储 cache table的表。 Heap storage不足 Heap storage不足一般发生在executor端。主要是因为 cache RDD 太多了,因为动态占用机制,占用heap execution空间,导致分配到当前executor的heap execution不够用,从而告警。 我们可以通过spark UI 查看 作业的storage 选项卡,定位告警的executor Id,查看cache的大小,与environment 选项卡中的spark.executor.memory做比对。 这种情况下,我们可以酌情,增加spark.executor.memory,或者uncache 或者 drop view 不需要的RDD 或者cached table。 Heap execution Heap execution作用 Heap execution 可以用于存储输入数据。 Spark是内存计算,需要将父RDD的partition读入内存中,这个数据将会被blockManager读入。 在spark shuffle map stage 或者 reduce stage都会发生读入操作。 Heap execution 可以用于shuffle 缓冲区 和 序列化反序列化。 Spark的一些使用heap缓冲区进行shuffle的场景需要分配heap space。 Heap execution空间不足 一般是读入的数据太多或者发生了数据倾斜。 spark shuffle map task读入hdfs文件块数据。 发生在shuffle map stage,spark需要读取hdfs 文件块。 这个文件快太大且不可分割,或者数据压缩密度太大,会导致task memory 急速膨胀,超过1/n 的 executor heap space 和 executor storage space总和。(此处的n是spark executor的running task数目)。 如果hdfs文件块可以分割读入task,尝试使用spark.files.maxPartitionBytes去分割读取的hdfs文件 或者 扩大 spark.executor.memory。但是后者不适用于个别hdfs大文件块情况。 如果hdfs 文件块是gzip这种的不可压缩,可能只能扩大spark.files.maxPartitionBytes,或者 在业务上有控制写入hdfs的文件格式是可分割的。 spark shuffle reduce task读入shuffle block数据太多了,也就是发生数据倾斜。 一般shuffle block 都会连续小幅度的拉入 reduce task侧,此时如果溢出,spark 会将这些数据spill disk。 如果出现reduce task读取超大shuffle block 或者 并发读取太快,会导致数据内存膨胀太快,而直接OOM。 此时spark会有task重启机制,会过滤并发过多情况。如果是读入shuffle block太大,则会反复的发生task failed情况。 此时可以适当降低map侧 shuffle write的shuffle block大小,可以尝试增加 shuffle reduce的并行度 或者 尽量使用sortBaseShuffleWriter,使用sortBaseShuffleWriter 可以实现map combiner。
        来自:
        帮助文档
        翼MapReduce
        常见问题
        大数据业务开发
        执行Spark任务报内存不足告警如何处理?
      • 导出参数模板
        本节主要介绍导出参数模板。 操作场景 您可以导出您创建的数据库实例参数列表,生成一个新的参数模板,供您后期使用。请参考应用参数模板将导出的参数模板应用到新的实例。 您可以将该实例对应的参数模板信息(参数名称,值,描述)导出到CSV中,方便查看并分析。 操作步骤 1. 登录管理控制台。 2. 在服务列表中选择“数据库 > 云数据库 GeminiDB”。 3. 在左侧导航栏选择“实例管理”,单击指定实例名称,进入基本信息页面。 4. 在左侧导航栏选择“参数修改”,单击参数页签下的“导出”。 图1 导出参数模板 导出到参数模板。将该实例对应参数列表导出并生成一个参数模板,供您后期使用。 在弹出框中,填写新参数模板名称和描述,单击“确定”。 说明 参数模板名称在1位到64位之间,区分大小写,可包含字母、数字、中划线、下划线或句点,不能包含其他特殊字符。 参数模板的描述长度不能超过256个字符,且不能包含回车和>!<"&'特殊字符。 创建完成后,会生成一个新的参数模板,您可在“参数模板管理”页面的对其进行管理。 导出到文件。将该实例对应的参数模板信息(参数名称,值,描述)导出到CSV表中,方便用户查看并分析。 在弹出框中,填写文件名称,单击“确定”。 说明 文件名称在4位到81位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他特殊字符。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Influx接口
        用户指南
        参数模板管理
        导出参数模板
      • 容器镜像服务企业版使用Helm Chart发布工作负载到容器集群
        本节介绍了容器镜像服务:容器镜像服务企业版使用Helm Chart发布工作负载到容器集群。 操作场景 将应用打包成Helm Chart,推送到容器镜像服务仓库后,发布到容器集群。 前提条件 已开通容器镜像服务企业版实例 已开通云容器引擎集群 操作步骤 准备Helm Chart 用户可以根据自身的业务需求,将涉及的Deployment、ConfigMap、Secret、Service等打包成一个Helm Chart。 使用一个nginx的helm chart作为示例。 plaintext nginxchartdemo ├── Chart.yaml ├── templates │ ├── deployment.yaml │ └── service.yaml └── values.yaml 创建Helm Chart命名空间 登录容器镜像服务控制台,选择企业版实例进入,左侧菜单Helm Chart 命名空间 ,点击创建命名空间按钮。 推送Helm Chart到容器镜像仓库。 plaintext 登录容器镜像服务 helm registry login myinstanceregistryhuabei2.crs.ctyun.cn 推送Chart helm push nginxchartdemo0.1.0.tgz oci://myinstanceregistryhuabei2.crs.ctyun.cn/mychartns 推送成功后,可以在容器镜像服务控制台查看到Chart。 在云容器引擎部署Helm Chart 登录云容器引擎控制台,点击菜单模板市场我的模板,选择容器镜像服务实例和命名空间,可以看到上一步骤上传的Helm Chart。 选择Chart指定版本后,点击发布,选择容器集群和集群的命名空间,即可把Chart部署到云容器引擎集群中。 发布后可以在模板市场模板实例看到发布后的Chart实例。
        来自:
        帮助文档
        容器镜像服务
        最佳实践
        容器镜像服务企业版使用Helm Chart发布工作负载到容器集群
      • 1
      • ...
      • 267
      • 268
      • 269
      • 270
      • 271
      • ...
      • 591
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      镜像服务 IMS

      一站式智算服务平台

      知识库问答

      人脸属性识别

      动作活体识别

      通用型OCR

      营业执照识别

      推荐文档

      主机新手使用指南

      玩转天翼云⑦:Linux扩展Swap分区的三种方法

      续订

      上报自定义指标并进行监控

      VPC安全组删除规则

      产品定义

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号