云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      翼来单_相关内容
      • 产品规格
        数据库安全审计提供了基础版、专业版和高级版三种服务版本。 产品规格 您可以根据业务需求选择相应的服务版本,各版本的性能规格说明如表所示。 数据库安全审计版本性能规格说明如下: 版本 支持的数据库实例 系统资源要求 性能参数 基础版 最多支持3个数据库实例 CPU:4U 内存:16GB 硬盘:500GB 吞吐量峰值:3,000条/秒 入库速率:360万条/小时 4亿条在线SQ语句存储 50亿条归档SQ语句存储 专业版 最多支持6个数据库实例 CPU:8U 内存:32GB 硬盘:1000GB 硬盘:1T 吞吐量峰值:6,000条/秒 入库速率:720万条/小时 6亿条在线SQ语句存储 100亿条归档SQ语句存储 高级版 最多支持30个数据库实例 CPU:16U 内存:64GB 硬盘:2000GB 硬盘:2T 吞吐量峰值:30,000条/秒 入库速率:1080万条/小时 15亿条在线SQ语句存储 600亿条归档SQ语句存储 说明 数据库实例通过数据库 IP+ 数据库端口计量。如果同一数据库IP具有多个数据库端口,数据库实例数为数据库端口数。1个数据库IP只有1个数据库端口,即为一个数据库实例;1个数据库IP具有N个数据库端口,即为N个数据库实例。例如:用户有2个数据库资产分别为IP1和IP2 ,IP1有一个数据库端口,则为1个数据库实例;IP2有3个数据库端口,则为3个数据库实例。IP1和IP2合计为4个数据库实例,选择服务版本规格时需要大于或等于4个数据库实例,即选用专业版(最多支持审计6个数据库实例)。 不支持修改规格。若要修改,请退订后重购。 本表中在线SQL语句的条数,是按照每条SQL语句的容量为1KB来计算的。
        来自:
        帮助文档
        数据库安全
        产品介绍
        产品规格
      • 课程/班级学习
        课程是学习的基本单位,学员需要加入到某个课程以后才可开始学习(公开课不需要加入)。班级是一系列课程的组合,班级也是学习的单位,学员在加入某个班级后,可以学习该班级下的所有课程。 学员可以通过首页的课程推荐模块选择自己需要课程进行购买,价格为0的商品(课程/班级)将不生成订单,学员直接点击【加入学习】即可开始学习。 课程/班级购买 课程/班级详情页中展示了该课程/班级的所有相关信息,包括标题、封面、价格等,学员可在充分了解后,再决定是否要进行购买。 1) 点击【购买课程】按钮,进入下单流程。 2) 进入到下单流程后会展现订单信息页面,如果学员有平台的优惠券,可以输入优惠券码进行使用,确认优惠金额无误后,点击【提交订单】,进入支付页面。 a) 购买课程:订单信息页面会展示打折、优惠券这些优惠信息。优惠逻辑是:课程打折价乘以折扣优惠券或者课程打折减去抵价优惠券。 b) 购买班级(班级中包含学员已经购买过的课程):优惠逻辑是将已购买课程的费用进行扣除,但是只扣除学员实际支付金额,不包含优惠券金额。例如,班级价格是1000元,学员之前购买了其中一门100元的课程,使用了50元的优惠券,实际课程支付使用了50元,则学员再购买班级时,需要支付100050950元。 付款流程 1) 若学员在购买时,通过使用各种优惠,实付金额已经变为0元,则【提交订单】后,不再进入支付流程,商品直接成功购买。 2) 若订单实付金额不为0元,则【提交订单】后,进入订单详情页面。学员在该页面查看并确认本条订单的详细信息,如果没有问题继续点击【支付订单】按钮,进入到支付环节。 点击【支付订单】按钮跳转到收银台,学员可以选择翼支付、支付宝或者微信进行支付,支付完成后,系统会自动跳转。 课程/班级学习 课程学习界面效果如下图: 1) 左侧是课程内容: 此处显示具体的课程内容,包括视频、音频、图文、PPT、PDF、DOC、Flash、作业、考试、练习、资料、讨论、直播在内的各种内容。 2) 右侧是菜单: 显示课程的学习目录,学员可以点击课时进行学习,课时显示为未学、学过、学完的三种状态。在解锁式学习的课程中,未解锁的课时将无法查看内容。此外还包括菜单目录的伸缩按钮、笔记工具的按钮、问答工具的按钮、知识点工具的按钮。 a) 笔记:学员在学习的过程中可以记录自己的想法 b) 问答:学员在学习的过程中可以就此学习内容对老师进行提问 c) 知识点:学员在学习这个课时的时,可以点击【知识点】按钮查看本课时所涵盖的知识点介绍
        来自:
        帮助文档
        天翼云学堂
        操作指导
        课程/班级学习
      • 新增/测试/编辑/删除非天翼云数据库
        本文为您介绍新增/测试/编辑/删除非天翼云数据库的具体操作。 新增非天翼云数据库 使用条件 单次同步天翼云数据库实例上限为10个。 进行同步或新增数据库等相关资源同步操作前,需创建命名空间。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“资源管理”“数据库”,进入数据库列表页。 5. 点击列表上方标签页中“非天翼云数据库”栏,进入非天翼云数据库列表页。 6. 在列表上方下拉菜单中选择需要进行新增非天翼云数据库操作的命名空间。 7. 点击页面右上角“新增非天翼云数据库”按钮,弹出新增非天翼云数据库弹窗。 8. 填写新增非天翼云数据库相关信息,各配置项信息如下: 参数 是否必填 配置说明 数据库实例名 √ 填写数据库实例名,同命名空间下非天翼云数据库名称需唯一。 长度为263字符。 所属分区 √ 选择当前命名空间下数据库所属分区。 数据库类型 √ 选择数据库类型,可选MySQL/Redis/ PostgreSQL/MongoDB。 连接地址 √ 填写数据库实例配置的公网IP地址,默认回显当前公网IP,无公网IP不展示。 连接端口 √ 填写数据库实例配置的连接端口。所选数据库类型为MySQL时,默认为3306,所选数据库类型为Redis时,默认为6379,所选数据库类型为PostgreSQL时,默认为5432,所选数据库类型为MongoDB时,默认为27017。 端口范围为165535。 数据库名 √ 填写数据库实例配置的数据库名,Redis类型数据,不展示属性。 长度最多为63位。 用户名 √ 填写数据库实例配置的用户名,非Redis类型数据库,用户名为必填项,Redis类型数据库用户名为选填项。 长度最多为63位。 密码 √ 填写数据库实例密码。 长度最多为63位。 描述 × 填写描述。 长度为0100个字符。 连接状态 √ 调试当前数据库状态,点击“测试”按钮进行连接测试,测试状态可为未知、连接成功、连接失败、测试中。 9. 点击“确定”按钮,完成新增非天翼云数据库。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源管理
        同步数据库资源
        新增/测试/编辑/删除非天翼云数据库
      • 功能概述
        特性 说明 相关操作 修改镜像属性 为了方便您管理私有镜像, 您可以根据需要修改镜像的如下属性:名称、描述信息、最小内存、最大内存, 以及是否支持网卡多队列这些高级功能。 共享镜像 您可以将镜像共享给其他天翼云帐号使用。 该帐号可使用您共享的私有镜像,快速创建运行同一镜像环境的云主机, 或者相同数据的云硬盘。 导出镜像 导出私有镜像到您的个人OBS桶,再下载至本地进行备份。 加密镜像 您可以创建加密镜像来提升数据安全性,加密方式为KMS的信封加密。 外部镜像文件或者加密云主机均可用来创建加密镜像。 区域内复制镜像 通过区域内复制镜像功能可以实现加密镜像与非加密镜像的转换, 或者使镜像具备一些高级特性(如快速发放)。 标记镜像 为您的私有镜像贴上标签,便于管理和搜索。 导出镜像列表信息 支持以“CSV”格式导出某个区域的公共镜像和私有镜像的信息列表, 方便本地维护和查看。 删除镜像 如果您不再需要某个私有镜像,可以将其删除,删除镜像对已创建的云主机没有影响。
        来自:
        帮助文档
        镜像服务 IMS
        产品简介
        功能概述
      • 安装部署
        rpm ivh dto包名.rpm 安装完成后,确认当前DTO版本信息与安装包名的版本是否一致: rpm qa grep dto 编辑system.conf文件(安装包安装的默认位置为:/usr/drbksoft/dto/conf/)来指定与控制机通信的DTO主机IP地址,具体添加内容如下: rpcip 0.0.0.0 说明:如果要求必须指定具体IP地址,则需要填写DTO主机网卡的实际IP地址;如果DTO主机有多个IP地址时,则需要配置控制机(Webconsole主机)能够访问的DTO主机IP地址。 2. 进入到DTO的安装路径下,本例为默认安装路径: cd /usr/drbksoft/dto/ DTO安装后需要使用命令如下设置密码(exampleuser用户的密码),在控制台上注册DTO主机认证时使用: /usr/drbksoft/dto/jdk/bin/java jar /usr/drbksoft/dto/lib/dto.jar resetPasswd 同时需要生成对应的认证码用于在控制台上注册。 /usr/drbksoft/dto/jdk/bin/java jar /usr/drbksoft/dto/lib/dto.jar ccproxyConfig 填写代理主机地址(nodeproxymdr),提示success说明连接成功。 3. 重启drdto: systemctl restart drdto b)DTO启动与停止 DTO有两种启停方式:服务方式和脚本方式,选择其中一种方式进行启/停操作即可,推荐使用脚本方式。不同方式的适用场景如下: 1. 服务方式:备份服务器和DTO在同一台机器上,如本地/NAS存储与对象存储间数据同步场景。 2. 脚本方式:备份服务器和DTO在不同机器上,如对象存储与对象存储间数据同步场景。 服务方式:DTO和备份服务器在一起时,配置内存建议是16~24G。服务方式使用系统命令进行DTO的启动和停止,相关命令如下: 1. 进入到dto的安装路径下,本例为默认安装路径:
        来自:
        帮助文档
        多活容灾服务
        用户指南
        资源同步管理
        对象存储数据灾备
        安装部署
      • 使用大模型学习机微调自己的图像生成模型
        启动训练 点击页面底部Train Embedding按钮开始训练,等待进度条结束。 注意 在batch size默认设置为1的情况下,训练需要消耗6G显存。 4. 加载微调过的模型 在txt2img页面的Textual inversion标签下,点击右侧的刷新按钮,如果看到新训的小模型即代表成功。 5. 使用模型示例 在提示词prompt中附加上微调过的小模型名称,即可生成类似训练数据的新图片。如果发现图片质量不佳,可以尝试加大训练时的Max Steps,或者加大Create embedding时的Number of vectors per token,或者准备更多高质量的训练图片(数据最关键)。 四、微调新LoRA模型插件安装 stablediffusionwebui本体没有微调LoRA模型的功能,需要安装Dreambooth插件。下面将以此为例介绍如何在本框架中安装插件。 stablediffusionwebui本身提供了自动下载和安装插件的功能(见extensions页),但由于github和pip库访问受限,自动下载无法成功。因此本文采用了手动安装的方式。 手动安装需要您通过ssh或远程登录等方式登录到云主机系统内,您可以参考修改大模型学习机登录密码的相关内容。 同时,由于涉及到服务运行环境的修改,因此所有操作都将在docker 容器内执行 。进入容器的方式参考: plaintext 检查容器状态 docker ps a 进入容器 docker exec it stablediffusion bash 注意 执行完进入容器的命令后,命令行界面并不会有明显变化,您可以通过执行命令docker ps是否能成功,来判断当前在容器内还是云主机内。 1.
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        大模型学习机最佳实践
        使用大模型学习机微调自己的图像生成模型
      • 快照原理
        本文带您了解云硬盘快照的原理。 创建原理 快照可以分为全量快照和增量快照,全量快照是所有数据的一个完整的只读副本,增量快照保存基于全量快照的差异化数据。云硬盘创建的第一个快照是全量快照,不对空数据块进行备份。后续创建的快照均是增量快照,仅备份上一个快照以来有变化的数据块。全量快照和增量快照的元信息中均会存储全量的数据块信息,因此在通过任一快照回滚云硬盘时,均可以恢复对应历史时间点所有的云硬盘数据。 删除原理 删除快照时需要根据快照包含的数据块以及数据块的引用关系来进行空间的释放。当云硬盘的第一个全量快照删除后,全量快照的属性会被该云硬盘的第一个增量快照继承,该增量快照会补充备份全量快照中的数据块,导致该增量快照使用容量增加。 容量原理 以一块云硬盘所有快照的数据块占用的存储空间为粒度统计快照使用容量。云硬盘快照总容量为该云硬盘已保留的第一份快照(即全量快照)的全量大小与后续所有增量快照的增量大小之和。您可以在云硬盘控制台上通过查看云硬盘详情查看快照容量的大小。具体操作,请参见查看快照使用容量。 说明 快照数据保存在块存储集群中,不会占用云硬盘本身的空间。快照按实际占用的容量收取快照费用(分地域计费)。更多信息,请参见云硬盘快照计费说明。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘快照
        快照原理
      • 产品定义
        私网NAT网关 使用私网NAT网关的SNAT和DNAT功能,可以实现云上VPC使用指定私网地址和其他VPC或IDC进行跨VPC私网互访。 公网NAT网关如何和IPV4网关配合规划用户网络 背景信息 VPC创建时,部分资源池默认会创建IPv4网关来统一管理进出VPC的公网流量,所有通过公网IP访问公网的流量都受到IPv4网关的管理。IPv4网关和VPC同生命周期,不允许单独删除IPv4网关。 在VPC中创建NAT网关后,在子网关联的路由表中增加一条目的地址为0.0.0.0/0指向NAT网关的路由规则后(可用区资源池(如华东1,华北2等)需要执行该步骤,以控制台为准),VPC中的云主机可以通过NAT网关的SNAT或DNAT规则访问公网或对外提供服务。 注意 系统类型的路由规则不允许修改、删除;路由目的地址相同时系统类型的路由规则优先级低于客户手动创建的路由规则。 在同一个子网内云主机同时绑定公网IP和SNAT规则时,由于指向NAT网关的路由优先级高于指向IPv4网关的系统路由,默认会通过SNAT访问公网,云主机绑定的EIP无法访问公网。因此,不建议同一个子网内的云主机同时绑定公网IP或者NAT网关。 操作步骤 具体操作步骤参见弹性IP如何通过弹性公网IP或NAT网关访问公网。 如何访问NAT网关 天翼云提供如下方式进行NAT网关的配置和管理: 控制台:天翼云提供Web化的服务管理平台 OpenAPI:天翼云提供基于HTTPS请求的API(Application programming interface)管理方式
        来自:
        帮助文档
        虚拟私有云 VPC
        NAT网关
        产品定义
      • 管理共享云硬盘
        本节介绍了管理共享云硬盘的相关内容。 如何使用VBD和SCSI共享云硬盘? 您可以创建VBD类型的共享云硬盘和SCSI类型的共享云硬盘。建议将共享云硬盘挂载至位于同一个反亲和性云主机组内的ECS,以提高业务可靠。 ● VBD类型的共享云硬盘:创建的共享云硬盘默认为VBD类型,该类型云硬盘可提供虚拟块存储设备,不支持SCSI锁。当您部署的应用需要使用SCSI锁时,则需要创建SCSI类型的共享云硬盘。 ● SCSI类型的共享云硬盘:SCSI类型的共享云硬盘支持SCSI锁。 说明 ● 为了提升数据的安全性,建议您结合云主机组的反亲和性一同使用SCSI锁,即将SCSI类型的共享云硬盘挂载给同一个反亲和性云主机组内的ECS。 ● 如果ECS不属于任何一个反亲和性云主机组,则不建议您为该ECS挂载SCSI类型的共享云硬盘,否则SCSI锁无法正常使用,并且会导致您的数据面临风险。 反亲和性和SCSI锁的相关概念: 1. 云主机组的反亲和性:ECS在创建时,将会分散地创建在不同的物理主机上,从而提高业务的可靠性。 2. SCSI锁的实现机制:通过SCSI Reservation命令来进行SCSI锁的操作。如果一台ECS给云硬盘传输了一条SCSI Reservation命令,则这个云硬盘对于其他ECS就处于锁定状态,避免了多台ECS同时对云硬盘执行读写操作而导致的数据损坏。 3. 云主机组和SCSI锁的关系:同一个云硬盘的SCSI锁无法区分单个物理主机上的多台ECS,因此只有当ECS位于不同物理主机上时才可以支持SCSI锁,因此建议您结合云主机组的反亲和性一起使用SCSI锁命令。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理共享云硬盘
      • 使用天翼云弹性文件服务进行WordPress网站搭建
        步骤三:安装WordPress 1. 本次测试使用Docker容器来安装WordPress,执行如下命令安装Docker容器。 yum install docker y 2. 拉取WordPress镜像。 docker pull wordpress 3. 拉取mysql镜像。 docker pull mysql:5.7 4. 安装完成之后,使用 docker image ls 查看容器镜像。 5. 执行如下命令,启动mysql容器。此处设置账号:root,密码:{password},实际操作使用中应该填写自己的复杂密码。 "/root/mysql"表示Docker的mysql容器映射到云主机中的目录,可以按照自己的使用需求修改目录。 docker run name mysql d p 3306:3306 v /root/mysql:/var/lib/mysql e MYSQLROOTPASSWORD{password} restartalways mysql:5.7 6. 使用 docker ps查看mysql容器的ID,见下图。然后执行以下命令进入容器。{mysqlid}为查询获得,根据查询结果进行替换。 docker exec it {mysqlid} /bin/bash 7. 在容器内部依次执行以下指令,创建WordPress使用的数据库,请注意替换{password}为自行设置的复杂密码。 mysql uroot p alter user 'root'@'localhost' identified by '{password}'; CREATE DATABASE wordpress; 创建完成之后,连续输入两次“exit”退出mysql和mysql的Docker容器。 8. 执行如下命令,启动WordPress。 docker run name wordpress link mysql p 22330:80 v /mnt/wordpressdata/:/var/www/html d restartalways wordpress:latest "link {name}"表示WordPress启动时连接的mysql容器名,在步骤8中启动mysql容器时设置的name是mysql,此处按照实际的name填写。 9. 启动之后执行 docker ps查看容器:
        来自:
        帮助文档
        弹性文件服务 SFS
        最佳实践
        基于弹性文件服务搭建应用
        使用天翼云弹性文件服务进行WordPress网站搭建
      • 云主机内存高负载
        本章节介绍云主机内存高负载故障演练。 背景介绍 当云主机的内存被异常占用(例如,由应用内存泄漏、缓存数据无限制膨胀或资源配额不足引起),其内存使用率会飙升。一旦可用内存耗尽,系统可能会频繁进行内存交换,甚至触发 OOM Killer(OutOfMemory Killer)来强制终止进程,导致服务中断。本演练模拟内存资源被持续占用的高负载场景,帮助您检验系统的内存监控告警、评估应用的内控管理能力,并验证 OOM Killer 触发时的系统行为。 基本原理 预先在探针管理处将内部自研Agent安装至云主机上,使用管控通道下发动作执行命令。 原理是启动自定义程序不断申请内存,模拟主机内存负载升高。 注意 设置高负载的内存故障注入后,可能会使得机器无法登入与控制,请谨慎使用。 故障注入 1、纳管实例资源 1. 导航至 故障演练 > 目标应用 > 应用资源页面。 2. 在资源类型页签中选择云主机 ,然后单击添加资源。 3. 在弹出的对话框中,勾选目标云主机 实例,单击确定。 2、编排演练任务 1. 导航至 故障演练 > 目标应用 > 演练管理 页面,单击新建演练。 2. 在基本信息 页面,按提示填写演练名称和描述,然后单击下一步。 3. 在演练对象配置页面: 配置动作组 :为动作组 命名,资源类型选择云主机。 添加实例 :单击添加实例 ,勾选上一步中添加的云主机实例。 添加故障动作 :单击立即添加 ,在列表中选择内存高负载动作。 4. 在弹出的参数配置框中,配置所需参数,然后单击确定。 持续时间:故障动作持续时间。 内存占用率:取值范围为0100。注意:设置过高的占用率可能出现无法自动恢复的情况,可在云主机控制台操作重启机器恢复。
        来自:
        帮助文档
        应用高可用
        用户指南
        故障演练服务
        故障动作库
        计算
        弹性云主机
        云主机内存高负载
      • 数据迁移任务
        本页介绍天翼云TeleDB数据库数据迁移任务相关操作。 功能概览 数据传输服务支持多种数据源之间的数据迁移,不同数据库的支持情况如下: 源库类型及版本 目标库类型及版本 迁移类型 MYSQL 5.7, 8.0 TELEDB 结构迁移 全量迁移 增量迁移 POSTGRESQL 12, 13, 14, 15 TELEDB 结构迁移 全量迁移 增量迁移 Oracle 12c, 19c, 21c TELEDB 结构迁移 全量迁移 增量迁移 模块架构 管理服务:用户在DCP平台开通DTS实例后,可通过DTS的管理服务来配置一个数据迁移任务,并进行数据迁移任务管理。 核心配置集群:存储迁移任务的核心状态、监控信息。 元数据库:存储配置好的数据迁移任务的元数据信息,例如源库连接地址、目标库连接地址等。 执行模块+迁移模块(工作节点):用户配置好迁移任务后,由执行模块进行具体的数据迁移工作。数据迁移完成后,由稽核模块进行数据校验。一个管理服务可以管理多个工作节点。 DTS数据迁移提供多种迁移类型:结构对象迁移、全量数据迁移及增量数据迁移。如果需要实现不停服务迁移,需要选择结构对象迁移、全量数据迁移和增量数据迁移。 全量数据迁移过程持续较久,在这个过程中,源实例不断有业务写入,为保证迁移数据的一致性,在全量数据迁移之前,会记录当前源实例的日志位点,存储在本地数据库中。 当全量数据迁移完成后,DTS会启动增量日志回放模块,增量日志回放模块会从增量日志读取模块中获取增量数据,经过反解析、过滤、封装后迁移到目标实例,从而实现增量数据迁移。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        数据迁移任务
      • 退订、冻结等相关问题
        什么情况下轻量型云主机会被冻结,冻结后怎么办? 客户在天翼云购买产品后,产品到期后会进入冻结状态,冻结15天后,用户主机中的数据将被删除、同时资源将被释放。 当轻量型云主机资源被冻结后,用户可通过续订来解冻资源,恢复资源的正常使用。 已经到期的包年/包月轻量型云主机不能发起退订,未到期的包年/包月云主机可以退订。 资源冻结时:资源将被限制访问和使用,会导致您的业务中断。 资源解冻时:资源将被解除限制,但是需要您自行检查并恢复业务。 资源释放时:资源将被释放,存储在资源中的数据将被删除,数据无法找回。 已到期资源如果续订,续订周期如何计算? 若资源进入冻结状态后续费,所有资源续费周期的开始时间为解冻时间。例如,用户A于2020年4月1日订购包月云主机1个月,资源于2020年4月30日到期,用户A于2020年5月10日续订1个月,新的资源到期时间为6月10日。为了您的业务不受影响,请在到期之前进行续订。 是否支持账户余额变动提醒? 支持。当用户账户发生账户余额调整、充值到账、客户在线充值时,将系统会以邮件、短信形式给客户发送账户余额变动通知。 用户也可以自行进行额度预警设置,当余额低于设置的预警阈值时,系统将发送短信提醒,设置流程如下: 1. 登录天翼云账户。 2. 依次单击右上角【我的】,【费用中心】,进入费用中心界面。 3. 打开【可用额度预警】开关,修改预警阈值,当用户的余额低于阈值,系统会发送短信提醒。
        来自:
      • 回源SNI
        本文简述回源SNI功能。 功能介绍 如果一个源站IP地址绑定多个域名,且天翼云边缘安全加速平台安全与加速服务使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源SNI原理 SNI(Server Name Indication)是为了解决一个服务器使用多个域名和证书的问题,而对SSL/TLS协议所作的一个扩展。它允许服务器在同一个IP地址和TCP端口下支持多个证书,从而允许多个HTTPS网站使用相同的源站IP和端口。开启回源SNI后,边缘节点向源站发起TLS握手时,源站会根据TLS握手中携带的回源SNI信息来确认边缘节点请求的具体域名,然后返回该域名对应的SSL证书给边缘节点。 设置回源SNI后的工作流程如下: 1. 当边缘节点以HTTPS协议回源时,需要在回源SNI中设置访问的域名。 2. 源站收到请求后,返回SNI中设置的域名对应的SSL证书。 3. 边缘节点收到SSL证书后,与源站建立连接。 配置说明 1. 登录边缘安全加速控制台。 2. 单击左侧导航栏【域名管理】。 3. 在【域名管理】页面,找到目标域名,单击【操作】列的【基础配置】。 4. 单击右下方【回源配置】。 5. 在【回源SNI】模块,开启功能。 6. 配置SNI。 7. 单击【保存】,完成配置。 参数名 说明 SNI 回源SNI域名,只能配置精确域名,不支持泛域名。
        来自:
        帮助文档
        边缘安全加速平台
        安全与加速
        域名操作指导
        基础配置
        回源配置
        回源SNI
      • 通过DAS实现数据的导入和导出
        导出数据库 步骤 1 登录管理控制台。 步骤 2 单击管理控制台右上角的,选择区域和项目。 步骤 3 单击页面左上角的,选择“数据库 > 数据管理服务”,进入数据管理服务页面。 步骤 4 在左侧导航栏中,单击“开发工具”,进入开发工具页面。 步骤 5 选择需要登录的目标数据库实例,单击操作列表中的“登录”,登录目标数据库实例。 步骤 6 在顶部菜单栏选择“导入·导出 > 导出”。 步骤 7 在页面左上角选择“新建任务 > 导出数据库”。 步骤 8 在新建数据库导出任务弹框中,根据需要设置基本信息、及高级选项等。 新建数据库导出任务时,您可以通过是否勾选“导出数据库中所有表”的选项来选择导出全库数据或者指定导出部分表的数据。 数据库部分用户库和系统库,系统库不支持导出。如需导出,您需要把创建用户数据库的业务部署到用户库,然后再执行导出操作。 DAS在执行导出操作时,会连接到您的备库进行导出,可以有效规避导出时对主库的性能影响,但当备库复制延迟较大时,会存在“导出的数据不是最新数据“的可能性。 DAS不会保存任何用户数据,导出的数据文件将保存到您创建的OBS桶中。 创建OBS桶免费,但保存文件将产生一定的费用。 步骤 9 设置完导出任务信息,单击弹出页面下方的“确定”,创建导出任务。 步骤 10 在导出任务列表页面,您可查看任务ID、任务类型、任务状态、进度等信息。 步骤 11您可在列表操作栏,单击“查看详情”,在任务详情弹出页面,查看本次导出任务执行的详情信息。
        来自:
        帮助文档
        数据管理服务
        最佳实践
        通过DAS实现数据的导入和导出
      • 配置SSL CA证书用于访问MySQL实例
        本页介绍如何配置SSL CA证书用于访问关系数据库MySQL版的实例。 操作场景 为了提高关系数据库MySQL版的链路安全性,您可以启用SSL(Secure Sockets Layer)加密,并安装SSL CA证书到需要的应用服务。SSL在传输层对网络连接进行加密,能提升通信数据的安全性和完整性,同时会增加网络连接响应时间。 约束限制 实例的SSL状态需要为“开启”状态。 已下载SSL CA证书。 操作步骤 开启SSL加密后,应用或者客户端连接MySQL时需要配置SSL CA证书。本文以MySQL Workbench、Navicat配置方法为例,介绍SSL CA证书安装方法。其它应用或者客户端请参见对应产品的使用说明。 MySQL Workbench配置方法: 1. 打开MySQL Workbench。 2. 选择Database > Manage Connections。 3. 启用Use SSL,并导入SSL CA证书。 说明 如果关闭SSL后又需要重新开启,SSL CA证书将会重新生成,用户需要下载最新的证书连接数据库,旧证书将失效无法进行数据库连接。 为防止开启SSL后无需证书也可以连接数据库,请设置用户登录方式限制,指令可参考:alter user 'root'@'%' require ssl。 Navicat配置方法: 1. 打开Navicat。 2. 选择目标数据库并单击鼠标右键,选择编辑连接。 3. 选择SSL页签,选择.pem格式CA证书的路径。 4. 单击确定。 5. 通过双击目标数据库来测试能否正常连接。 通过SSL连接数据库示例代码,Python示例: 1. 需要首先安装依赖pymysql shell pip install pymysql 2. 编写代码 python import pymysql import traceback try: conn pymysql.connect( host'192.168..', user'', passwd'', db'', sslTrue, sslca'/path/cafilename') cursor conn.cursor() cursor.execute('select version()') data cursor.fetchone() print('Database version:', data[0]) cursor.close() except pymysql.Error as exc: print(traceback.formatexc())
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        访问管理
        配置SSL CA证书用于访问MySQL实例
      • 产品定义
        私网NAT网关 使用私网NAT网关的SNAT和DNAT功能,可以实现云上VPC使用指定私网地址和其他VPC或IDC进行跨VPC私网互访。 公网NAT网关如何和IPV4网关配合规划用户网络 背景信息 VPC创建时,部分资源池默认会创建IPv4网关来统一管理进出VPC的公网流量,所有通过公网IP访问公网的流量都受到IPv4网关的管理。IPv4网关和VPC同生命周期,不允许单独删除IPv4网关。 在VPC中创建NAT网关后,在子网关联的路由表中增加一条目的地址为0.0.0.0/0指向NAT网关的路由规则后(可用区资源池(如华东1,华北2等)需要执行该步骤,以控制台为准),VPC中的云主机可以通过NAT网关的SNAT或DNAT规则访问公网或对外提供服务。 注意 系统类型的路由规则不允许修改、删除;路由目的地址相同时系统类型的路由规则优先级低于客户手动创建的路由规则。 在同一个子网内云主机同时绑定公网IP和SNAT规则时,由于指向NAT网关的路由优先级高于指向IPv4网关的系统路由,默认会通过SNAT访问公网,云主机绑定的EIP无法访问公网。因此,不建议同一个子网内的云主机同时绑定公网IP或者NAT网关。 操作步骤 具体操作步骤参见弹性IP如何通过弹性公网IP或NAT网关访问公网。 如何访问NAT网关 天翼云提供如下方式进行NAT网关的配置和管理: 控制台:天翼云提供Web化的服务管理平台 OpenAPI:天翼云提供基于HTTPS请求的API(Application programming interface)管理方式
        来自:
        帮助文档
        NAT网关
        产品简介
        产品定义
      • 弹性伸缩概述
        本文主要介绍弹性伸缩概述。 弹性伸缩是根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。 背景介绍 随着Kubernetes已经成为云原生应用编排、管理的事实标准,越来越多的应用选择向Kubernetes迁移,用户也越来越关心在Kubernetes上应用如何快速扩容面对业务高峰,以及如何在业务低谷时快速缩容节约资源与成本。 在Kubernetes的集群中,“弹性伸缩”一般涉及到扩缩容Pod个数以及Node个数。Pod代表应用的实例数(每个Pod包含一个或多个容器),当业务高峰的时候需要扩容应用的实例个数。所有的Pod都是运行在某一个节点(虚机或裸机)上,当集群中没有足够多的节点来调度新扩容的Pod,那么就需要为集群增加节点,从而保证业务能够正常提供服务。 弹性伸缩在CCE上的使用场景非常广泛,典型的场景包含在线业务弹性、大规模计算训练、深度学习GPU或共享GPU的训练与推理、定时周期性负载变化等。 CCE弹性伸缩 CCE的弹性伸缩能力分为如下两个维度: 工作负载弹性伸缩 : 即调度层弹性,主要是负责修改负载的调度容量变化。例如,HPA是典型的调度层弹性组件,通过HPA可以调整应用的副本数,调整的副本数会改变当前负载占用的调度容量,从而实现调度层的伸缩。 节点弹性伸缩 : 即资源层弹性,主要是集群的容量规划不能满足集群调度容量时,会通过弹出ECS等资源的方式进行调度容量的补充。 两个维度的弹性组件与能力可以分开使用,也可以结合在一起使用,并且两者之间可以通过调度层面的容量状态进行解耦。
        来自:
        帮助文档
        云容器引擎
        用户指南
        弹性伸缩
        弹性伸缩概述
      • 设置环境变量
        操作场景 环境变量是指容器运行环境中设定的一个变量,环境变量可以在工作负载部署后修改,为工作负载提供极大的灵活性。 CCE中设置的环境变量与Dockerfile中的“ENV”效果相同。 在CCE中,您可以通过三种方式来添加环境变量:手动添加、密钥导入、配置项导入。 须知: 容器启动后,容器中的内容不应修改。如果修改配置项(例如将容器应用的密码、证书、环境变量配置到容器中),当容器重启(例如节点异常重新调度pod)后,会导致配置丢失,业务异常。 配置信息应通过入参等方式导入容器中,以免重启后配置丢失。 手动添加 步骤 1 创建工作负载时,添加容器镜像后,展开“环境变量”,单击“添加环境变量”。 步骤 2 根据实际需求,设置如下参数。 类型:手动添加。 变量名称:自定义填写变量名称,如demo。 变量/变量引用:输入变量的值,如value。 密钥导入 步骤 1 您需要先创建密钥,详细步骤请参见创建密钥。 步骤 2 创建工作负载时,添加容器镜像后,展开“环境变量”,单击“添加环境变量”。 步骤 3 根据实际需求,设置如下参数。 类型: 密钥导入。 变量名称: 自定义填写变量名称。 变量/变量引用: 请选择对应的密钥名称和键。 密钥导入 配置项导入 步骤 1 您需要先创建配置项,详细步骤请参见创建配置项。 步骤 2 创建工作负载时,添加容器镜像后,展开“环境变量”,单击“添加环境变量”。 步骤 3 根据实际需求,设置如下参数。 类型: 配置项导入。 变量名称: 自定义填写变量名称。 变量/变量引用: 请选择对应的配置项名称和键。 配置项导入
        来自:
        帮助文档
        云容器引擎
        用户指南
        旧版UI
        工作负载
        容器设置
        设置环境变量
      • 创建工作负载弹性伸缩(CustomedHPA)
        本文主要介绍如何创建工作负载弹性伸缩(CustomedHPA)。 CustomedHPA策略是自研的弹性伸缩增强能力,能够基于指标(CPU利用率、内存利用率)或周期(每天、每周、每月或每年的具体时间点),对无状态工作负载进行弹性扩缩容。 主要功能如下: 支持按照当前实例数的百分比进行扩缩容。 支持设置一次扩缩容的最小步长。 支持按照实际指标值执行不同的扩缩容动作。 前提条件 使用CustomedHPA策略必须安装ccehpacontroller。若ccehpacontroller版本低于1.2.11,则必须安装prometheus插件;若版本大于或等于1.2.11,则需要安装能够提供Metrics API的插件,如kubeprometheusstack、metricsserver或Prometheus。 约束与限制 CustomedHPA策略:仅支持1.15及以上版本的集群创建。 每个工作负载只能创建一个策略,即如果您创建了一个HPA策略,则不能再对其创建CustomedHPA策略或其他HPA策略,您可以删除该HPA策略后再创建。 1.19.10以下版本的集群中,如果使用HPA策略对挂载了EVS卷的负载进行扩容,当新Pod被调度到另一个节点时,会导致之前Pod不能正常读写。 1.19.10及以上版本集群中,如果使用HPA策略对挂载了EVS卷的负载进行扩容,新Pod会因为无法挂载云硬盘导致无法成功启动。 ccehpacontroller插件的资源使用量主要受集群中总容器数量和伸缩策略数量影响,通常场景下建议每5000容器配置CPU 500m, 内存1000Mi资源,每1000伸缩策略CPU 100m,内存500Mi。 若ccehpacontroller插件版本低于1.2.11,不支持使用kubeprometheusstack插件提供Metrics API来实现工作负载弹性伸缩。
        来自:
        帮助文档
        云容器引擎
        用户指南
        弹性伸缩
        工作负载弹性伸缩
        创建工作负载弹性伸缩(CustomedHPA)
      • 创建工作负载弹性伸缩(HPA)
        参数 参数说明 策略名称 新建策略的名称,请自定义。 命名空间 请选择工作负载所在的命名空间。 关联工作负载 请选择要设置HPA策略的工作负载。 实例范围 请输入最小实例数和最大实例数。策略触发时,工作负载实例将在此范围内伸缩。 冷却时间 请输入缩容和扩容的冷却时间,单位为分钟, 缩容扩容冷却时间不能小于1分钟 。 该设置仅在1.15及以上版本的集群中显示,1.13版本的集群不支持该设置。 策略成功触发后,在此缩容/扩容冷却时间内,不会再次触发缩容/扩容,目的是等待伸缩动作完成后在系统稳定且集群正常的情况下进行下一次策略匹配。 策略规则 策略规则可基于系统指标或自定义指标。 指标:可选择“CPU利用率”或“内存利用率”。 说明 利用率 工作负载Pod的实际使用量 / 申请量。 期望值:请输入期望资源平均利用率。期望值表示所选指标的期望值,通过向上取整(当前指标值 / 期望值 × 当前实例数)来计算需要伸缩的实例数。阈值:请输入缩容和扩容阈值。当指标值大于缩容阈值且小于扩容阈值时,不会触发扩容或缩容。 阈值仅在1.15及以上版本的集群中支持 。 自定义策略(仅在1.15及以上版本的集群中支持) 自定义指标名称:自定义指标的名称,输入时可根据联想值进行选择。 指标来源:在下拉框中选择对象类型,可选择“Pod”。 期望值:Pod支持指标为平均值。br伸缩范围:当指标值处于伸缩范围中时才会触发伸缩 说明 HPA在计算扩容、缩容实例数时,会选择最近5分钟内实例数的最大值。
        来自:
        帮助文档
        云容器引擎
        用户指南
        弹性伸缩
        工作负载弹性伸缩
        创建工作负载弹性伸缩(HPA)
      • 快速创建Kubernetes集群
        创建节点 集群创建成功后,您还需要在集群中创建运行工作负载的节点。 步骤 1 登录CCE控制台。 步骤 2 单击创建的集群,进入集群控制台。 步骤 3 在左侧菜单栏选择节点管理,单击右上角“创建节点”,在弹出的页面中配置节点的参数。 本例中大多数配置保留默认值,仅解释必要参数。 计算配置 可用区:默认即可。 节点类型:选择“虚拟机节点”。 节点规格:请根据业务需求选择相应的节点规格。 容器引擎:请根据业务需要选择相应的容器引擎。 操作系统:请选择节点对应的操作系统。 节点名称:自定义节点名称。 登录方式: 选择“密码”:用户名默认为“root”,请输入登录节点的密码,并确认密码。请妥善管理密码,登录节点时需要使用该密码,系统无法获取您设置的密码内容。 选择“密钥对”:在选项框中选择用于登录本节点的密钥对,并单击勾选确认信息。 密钥对用于远程登录节点时的身份认证。若没有密钥对,可单击选项框右侧的“创建密钥对”来新建。 存储配置 系统盘:按您的业务需求选择,缺省值为50GB。 数据盘:按您的业务需求选择,缺省值为100GB。 网络配置 虚拟私有云:使用默认,即创建集群时选择的子网。 节点子网:选择节点所在的子网。 节点IP:支持指定节点IP地址。 弹性公网IP:默认为“暂不使用”。支持“选择已有”和“自动创建”。 步骤 4 在页面最下方选择节点的数量,单击“下一步: 规格确认”。 步骤 5 查看节点规格无误后,阅读页面上的使用说明,勾选“我已阅读并知晓上述使用说明”,单击“提交”。 等待节点创建成功,添加节点预计需要610分钟左右,请耐心等待。 创建成功后在节点管理下会显示一个运行中的节点。
        来自:
        帮助文档
        云容器引擎
        快速入门
        快速创建Kubernetes集群
      • 非结构化数据
        本章节为您介绍非结构化数据的分类分级任务。 针对非结构化数据,分类分级任务列表的展示字段包括:数据源名称、数据源类型、主机窗口、业务系统、部门、责任人、创建用户、创建时间、最近更新时间、分类分级状态。 您可以通过输入数据源名称、主机、分类分级状态来查询现有任务,并且可以对任务进行(批量)删除、(批量)执行、编辑、查看结果等操作。 新增分类分级任务 1.使用安全管理员账号登录数据分类分级实例。 2.在左侧导航栏选择“分类分级任务 > 非结构化数据”即可进入“非结构化数据”页面。 3.单击页面左上角的“新增”按钮,开始新增分类分级任务。 4.填写数据源相关参数。 参数 参数说明 填写样例 数据源名称 自定义数据源名称 Test 数据源类型 选择连接数据源的类型: FTP SFTP LOCAL LOCAL 主机 填写连接数据源的主机IP地址 192.168.0.1 端口 填写连接数据源的主机端口 8080 账号 填写连接主机的账号 admin 密码 填写连接主机的账号密码 5.填写完成后,单击“保存”即可完成数据源新增。 后续操作 编辑分类分级任务:选择需要编辑的分类分级任务,选择“操作”列的“编辑”按钮即可编辑分类分级任务。 删除分类分级任务:选择需要删除的分类分级任务,选择“操作”列的“更多 > 删除”按钮即可删除分类分级任务。 执行分类分级任务:选择需要执行的分类分级任务,选择“操作”列的“执行”按钮即可执行分类分级任务。 说明 除分类分级结果外,扫描过程中,系统在扫描过程中还会检测文件是否包含敏感字段信息,结果记录为“敏感字段匹配次数”。 查看分类分级任务结果:选择需要查看结果的分类分级任务,选择“操作”列的“查看”按钮即可查看结果。
        来自:
        帮助文档
        数据安全专区
        用户指南
        数据分类分级操作指导
        分类分级任务
        非结构化数据
      • 查看实例详情
        本页介绍天翼云TeleDB数据库查看实例详情。 实例详情页面向我们展示了目标实例的基本信息、高可用管理、定时任务和节点组管理。 基本信息:包括实例信息、GTM节点信息、协调节点信息和数据节点信息。 高可用管理:您可参考《高可用管理》章节。 定时任务:您可参考《定时任务》章节。 节点组管理:您可参考《节点组管理》章节。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台。 2. 在左侧导航树中,单击实例列表,进入实例列表页面。 3. 您可通过以下两种方式查看实例详情页面。 在实例列表页面,单击目标实例的实例名称可跳转至实例详情页面。 在实例列表页面,单击目标实例所在行的详情可进入实例详情页面。 4. 在实例详请页面,您可查看实例基本信息。 实例信息:实例ID、实例名称、账户、字符集和创建日期。 说明 您可单击修改来修改实例名称。 GTM节点信息:规格、节点名称/ip/端口、角色、同步类型、日志同步状态、状态、操作状态、更新时间、版本号、VIP和操作。 数据节点信息:规格、节点名称/IP/端口、角色、同步类型、日志同步状态、状态、操作状态、更新时间、版本号和操作。 协调节点信息:规格、节点名称/IP/端口、角色、同步类型、日志同步状态、状态、操作状态、更新时间、版本号和操作。 数据库实例状态 数据库实例状态是数据库实例的运行情况。用户可以使用管理控制台和API操作查看数据库实例状态。 状态 说明 运行中 数据库实例正常运行。 停止 数据库实例已停止。 已退订 数据库实例已退订。 恢复中 正在恢复备份到数据库实例中。 恢复失败 数据库实例恢复失败。 启动失败 数据库实例启动失败。 停止失败 数据库实例停止失败。 创建中 正在创建数据库实例。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        维护管理实例
        查看实例详情
      • 节点扩容
        本页介绍天翼云TeleDB数据库节点扩容。 操作场景 随着业务的增长,数据库在运行性能及存储上逐渐会达到瓶颈。此时,需要通过增加节点来提升集群的性能及存储能力。该任务用于指导对协调节点(CN)和数据节点(DN)进行扩容。协调节点和数据节点都是按组添加。每组数量与创建实例时选择的实例系列相关联。机器规格和原实例规格保持一致。用户可自定义新增节点所在服务器。 注意 主备节点所在服务器不能为同一台服务器。 增加节点前请检查所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据无法完成迁移导致新增节点失败。 扩容数据节点后请手动使用数据重平衡功能。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击实例列表,进入实例列表页面。 2. 在实例列表页面,单击目标实例所在行的详情,进入实例详情页面。 3. 单击右上角操作下拉框,单击节点扩容 ,出现节点扩容(协调、数据节点)对话框。 4. 进入节点扩容 对话框,根据以下内容填写基本信息,单击确定完成扩容。 扩容节点类型:可根据实际情况填写协调节点或数据节点。 说明 当扩容节点类型为协调节点,则下面出现节点名称。当扩容节点为数据节点,则下面出现节点组名称。 节点名称:默认不可更改。 节点组名称:默认不可更改。 节点规格:默认不可更改。 VIP:可选参数,可根据实际需求选择vip。 主节点节点信息:可选参数,可根据实际需求选择主节点ip。 备节点节点信息:可选参数,可根据实际需求选择备节点ip。 5. 弹出提示 对话框。可单击立即前往,在任务管理页面查看执行详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V4.0.0版本产品文档
        管理平台使用手册
        维护管理实例
        节点扩容
      • 管理模型
        本节将介绍如何管理模型,如启用、停用、删除模型等操作。 启用模型:态势感知(专业版)支持利用模型对管道中的日志数据进行监控,如果检测到有满足模型中设置触发条件的内容时,将产生告警提示。当用户完成模型新建后,需要使用模型来生成告警,则需要启用模型。 停用模型:当用户不再需要模型生成告警提示,则可以停用模型。 删除模型:当模型规则不再适用且确认未来也不会使用时,用户可选择删除模型。 约束与限制 仅支持对自定义创建的模型进行启用、停用、删除操作。 操作步骤 1. 登录管理控制台。 2. 单击页面左上方的,选择“安全 > 态势感知(专业版)”,进入态势感知(专业版)管理页面。 3. 在左侧导航栏选择“工作空间 > 空间管理”,并在工作空间列表中,单击目标工作空间名称,进入目标工作空间管理页面。 4. 在左侧导航栏选择“建模分析> 智能建模”,进入智能建模的可用模型页面。 5. 在可用模型页面中,管理模型。 操作 操作说明 启用模型 在模型列表中,单击目标模型所在行“操作”列的“启用”。 说明 如需批量启动模型,可以勾选所有需要启动的模型,然后单击列表左上角的“启用”。 当模型状态更新为启用,则表示启动模型成功。 停用模型 在模型列表中,单击目标模型所在行“操作”列的“停用”。 说明 如需批量暂停模型,可以勾选所有需要暂停的模型,然后单击列表左上角的“停用”。 当告警模型状态更新为“停用”,表示停用成功。 删除模型 1. 在模型列表中,单击目标模型所在行“操作”列的“删除”。 说明 如需批量删除模型,可以勾选所有需要删除的模型,然后单击列表左上角的“删除”。 2. 在弹出的确认框中,单击“确定”。
        来自:
        帮助文档
        态势感知(专业版)(新版)
        用户指南
        建模分析
        智能建模
        管理模型
      • 节点扩容
        本页介绍天翼云TeleDB数据库节点扩容。 操作场景 随着业务的增长,数据库在运行性能及存储上逐渐会达到瓶颈。此时,需要通过增加节点来提升集群的性能及存储能力。该任务用于指导对协调节点(CN)和数据节点(DN)进行扩容。协调节点和数据节点都是按组添加。每组数量与创建实例时选择的实例系列相关联。机器规格和原实例规格保持一致。用户可自定义新增节点所在服务器。 注意 主备节点所在服务器不能为同一台服务器。 增加节点前请检查所有表都已设置主键或设置表级别参数REPLICA IDENTITY为FULL,否则数据无法完成迁移导致新增节点失败。 扩容数据节点后请手动使用数据重平衡功能。 操作步骤 1. 以用户名和密码登录分布式数据库TeleDB控制台,在左侧导航单击实例列表,进入实例列表页面。 2. 在实例列表页面,单击目标实例所在行的详情,进入实例详情页面。 3. 单击右上角操作下拉框,单击节点扩容 ,出现节点扩容(协调、数据节点)对话框。 4. 进入节点扩容 对话框,根据以下内容填写基本信息,单击确定完成扩容。 扩容节点类型:可根据实际情况填写协调节点或数据节点。 说明 当扩容节点类型为协调节点,则下面出现节点名称。当扩容节点为数据节点,则下面出现节点组名称。 节点名称:默认不可更改。 节点组名称:默认不可更改。 节点规格:默认不可更改。 VIP:可选参数,可根据实际需求选择vip。 主节点节点信息:可选参数,可根据实际需求选择主节点ip。 备节点节点信息:可选参数,可根据实际需求选择备节点ip。 5. 弹出提示 对话框。可单击立即前往,在任务管理页面查看执行详情。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        管理平台使用手册
        维护管理实例
        节点扩容
      • 回源SNI
        本文介绍回源SNI功能的原理和使用说明。 功能介绍 如果一个源站IP地址绑定多个域名,且CDN加速使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源SNI原理 SNI(Server Name Indication)是为了解决一个服务器使用多个域名和证书的问题,而对SSL/TLS协议所作的一个扩展。它允许服务器在同一个IP地址和TCP端口下支持多个证书,从而允许多个HTTPS网站使用相同的源站IP和端口。开启回源SNI后,CDN节点向源站发起TLS握手时,源站会根据TLS握手中携带的回源SNI信息来确认CDN节点请求的具体域名,然后返回该域名对应的SSL证书给CDN节点。 设置回源SNI后的工作流程如下: 1. 当CDN节点以HTTPS协议回源时,需要在回源SNI中设置访问的域名。 2. 源站收到请求后,返回SNI中设置的域名对应的SSL证书。 3. CDN节点收到SSL证书后,与源站建立连接。 配置说明 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【回源配置】。 5. 在【回源SNI】模块,开启功能。 6. 配置SNI。 7. 单击【保存】,完成配置。 参数名 说明 SNI 回源SNI域名,只能配置精确域名,不支持泛域名。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源SNI
      • 开发一个DLI Spark作业
        本章节主要介绍DataArts Studio的开发一个DLI Spark作业流程。 在本章节您可以学习到数据开发模块资源管理、作业编辑等功能。 场景说明 用户在使用DLI服务时,大部分时间会使用SQL对数据进行分析处理,有时候处理的逻辑特别复杂,无法通过SQL处理,那么可以通过Spark作业进行分析处理。本章节通过一个例子演示如何在数据开发模块中提交一个Spark作业。 操作流程如下: 1. 创建DLI集群,通过DLI集群的物理资源来运行Spark作业。 2. 获取Spark作业的演示JAR包,并在数据开发模块中关联到此JAR包。 3. 创建数据开发模块作业,通过DLI Spark节点提交Spark作业。 环境准备 已开通对象存储服务OBS,并创建桶,例如“obs://dlfexample”,用于存放Spark作业的JAR包。 已开通数据湖探索服务DLI,并创建Spark集群“sparkcluster”,为Spark作业提供运行所需的物理资源。 获取Spark作业代码 本示例使用的Spark作业代码来自maven库,此Spark作业是计算π的近似值。 1. 获取Spark作业代码JAR包后,将JAR包上传到OBS桶中,存储路径为“obs://dlfexample/sparkexamples2.101.1.1.jar”。 2. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 选择数据开发 3. 在数据开发主界面的左侧导航栏,选择“配置管理 > 资源管理”。单击“新建资源”,在数据开发模块中创建一个资源关联到步骤1的JAR包,资源名称为“sparkexample”。 创建资源
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        使用教程
        开发一个DLI Spark作业
      • 作业运维报错
        问题原因 上述报错可能原因是当前导入的文件数据量较大,同时因为spark.sql.shuffle.partitions参数设置的并行度过大,导致缓存区大小不够而导入数据报错。 解决方案 建议可以尝试调小spark.sql.shuffle.partitions参数值来解决缓冲区不足问题。具体该参数设置步骤如下: 1.登录DLI管理控制台,单击“作业管理 > SQL作业”,对应SQL作业行的操作列,单击“编辑”按钮,跳转到“SQL编辑器”。 2.在“SQL编辑器”中,单击“设置”,参考如下图配置添加参数。 3.重新执行作业。 SQL作业运行报错:DLI.0002 FileNotFoundException 问题现象 SQL作业执行报错,报错信息大致如下: Please contact DLI service. DLI.0002: FileNotFoundException: getFileStatus on obs://xxx: status [404] 解决方案 请排查在同一时间点是否还有另外作业对当前报错作业操作的表信息有删除操作。 DLI不允许同时有多个作业在同一时间点对相同表进行读写操作,否则会造成作业冲突,导致作业运行失败。 用户通过CTAS创建hive表报schema解析异常错误 目前DLI支持hive语法创建TEXTFILE、SEQUENCEFILE、RCFILE、ORC、AVRO、PARQUET文件类型的表,如果用户CTAS建表指定的文件格式为AVRO类型,而且直接使用数字作为查询语句(SELECT)的输入,如“CREATE TABLE tbavro STORED AS AVRO AS SELECT 1”则会报schema解析异常。 此问题的原因是如果不指定列名,则会把SELECT后的内容同时作为列名和插入值,而AVRO格式的表不支持列名为数字,所以会报解析schema异常错误。 用户可以通过“CREATE TABLE tbavro STORED AS AVRO AS SELECT 1 AS colName”指定列名的方式解决该问题,或者将存储格式指定为除AVRO以外的其它格式。 在DataArts Studio上运行DLI SQL脚本,执行结果报org.apache.hadoop.fs.obs.OBSIOException错误
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        SQL作业相关问题
        作业运维报错
      • MRS HDFS数据迁移到OBS
        本章节主要介绍MRS HDFS数据迁移到OBS。 操作场景 CDM支持文件到文件类数据的迁移,本章节以MRS HDFS>OBS为例,介绍如何通过CDM将文件类数据迁移到文件中。流程如下: 1.创建CDM集群并绑定EIP 2.创建MRS HDFS连接 3.创建OBS连接 4.创建迁移作业 前提条件 已获取OBS的访问域名、端口,以及AK、SK。 已经了MRS。 拥有EIP配额。 创建CDM集群并绑定EIP 1.参考创建CDM集群,集群创建CDM集群。 关键配置如下: CDM集群的规格,按待迁移的数据量选择,一般选择cdm.medium即可,满足大部分迁移场景。 CDM集群所在VPC、子网、安全组,选择与MRS集群所在的网络一致。 2.CDM集群创建完成后,选择集群操作列的“绑定弹性IP”,CDM通过EIP访问MRS HDFS。 说明 如果用户对本地数据源的访问通道做了SSL加密,则CDM无法通过弹性IP连接数据源。 创建MRS HDFS连接 1.在CDM集群管理界面,单击集群后的“作业管理”,选择“连接管理 > 新建连接”,进入连接器类型的选择界面。 2.连接器类型选择“MRS HDFS”后单击“下一步”,配置MRS HDFS链接参数。 名称:用户自定义连接名称,例如“mrshdfslink”。 Manage IP:MRS Manager的IP地址,可以单击输入框后的“选择”来选定已创建的MRS集群,CDM会自动填充下面的鉴权参数。 用户名:选择KERBEROS鉴权时,需要配置MRS Manager的用户名和密码。 从HDFS导出目录时,如果需要创建快照,这里配置的用户需要HDFS系统的管理员权限。 密码:访问MRS Manager的用户密码。 认证类型:访问MRS的认证类型。 运行模式:选择HDFS连接的运行模式。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        MRS HDFS数据迁移到OBS
      • 表结构设计
        选择分布列 采用Hash分布方式,需要为用户表指定一个分布列(distribute key)。当插入一条记录时,系统会根据分布列的值进行hash运算后,将数据存储在对应的DN中。 所以Hash分布列选取至关重要,需要满足以下原则: 1.列值应比较离散,以便数据能够均匀分布到各个DN 。例如,考虑选择表的主键为分布列,如在人员信息表中选择身份证号码为分布列。 2.在满足第一条原则的情况下尽量不要选取存在常量filter 的列 。例如,表dwcjk相关的部分查询中出现dwcjk的列zqdh存在常量的约束(例如zqdh’000001’),那么就应当尽量不用zqdh做分布列。 3.在满足前两条原则的情况,考虑选择查询中的连接条件为分布列 ,以便Join任务能够下推到DN中执行,且减少DN之间的通信数据量。 对于Hash分表策略,如果分布列选择不当,可能导致数据倾斜,查询时出现部分DN的I/O短板,从而影响整体查询性能。因此在采用Hash分表策略之后需对表的数据进行数据倾斜性检查,以确保数据在各个DN上是均匀分布的。可以使用以下SQL检查数据倾斜性 select xcnodeid, count(1) from tablename group by xcnodeid order by xcnodeid desc; 其中xcnodeid对应DN,一般来说,不同DN 的数据量相差5% 以上即可视为倾斜,如果相差10% 以上就必须要调整分布列 。 4.一般不建议用户新增一列专门用作分布列,尤其不建议用户新增一列,然后用SEQUENCE的值来填充做为分布列。因为SEQUENCE可能会带来性能瓶颈和不必要的维护成本。
        来自:
        帮助文档
        数据仓库服务
        最佳实践
        调优表实践
        表结构设计
      • 1
      • ...
      • 155
      • 156
      • 157
      • 158
      • 159
      • ...
      • 198
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      弹性高性能计算 E-HPC

      模型推理服务

      一站式智算服务平台

      智算一体机

      人脸检测

      人脸属性识别

      人脸比对

      推荐文档

      编辑

      修改数据库端口

      修改描述

      天翼云进阶之路⑦:怎么设置sql2008数据库最大服务器内存

      云课堂 第六课:如何让云主机不放在同一个篮子里

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号