活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云文件储存_相关内容
      • 重启实例
        GPU云主机作为弹性云主机的一类实例规格,其重启操作与弹性云主机保持一致。 操作场景 重启操作是维护云主机的一种常用方式,如系统更新、重启保存相关配置等。 注意 以下场景都有可能引起GPU设备ID变化: 手动关机并再次开机时。 手动重启GPU实例时。 GPU云主机故障后,触发冷迁移时。 操作步骤 1. 登录控制中心。 2. 单击控制中心顶部的,选择“地域”。 3. 选择“计算 > 弹性云主机”。 4. 根据实际需求对云主机进行重启。 a. 对单台云主机进行重启操作:在云主机列表中,选择需要重启的云主机,点击云主机列表左上角的重启操作按钮。 b. 对多台云主机进行重启操作:在云主机列表中,选择需要重启的多台云主机,点击云主机列表左上角的重启操作按钮。 5. 在重启弹窗中,设置重启方式,并确认操作是否正确,无误后点击确定。 设置 说明 重启方式 重启:正常重启流程。 强制重启:等同于断电重启,可能丢失云主机操作系统中未写入磁盘的数据。 注意 请注意云主机状态的说明:如果云主机在中间状态停留超过30分钟(如启动中、停止中、重启中),表示可能出现异常情况,请及时提交工单以寻求进一步处理。
        来自:
        帮助文档
        GPU云主机
        用户指南
        管理GPU云主机
        重启实例
      • 将MySQL同步到MySQL
        参数 描述 IP地址或域名 目标数据库的IP地址或域名。 端口 目标数据库服务端口,可输入范围为1~65535间的整数。 数据库用户名 目标数据库的用户名。 数据库密码 目标数据库用户名所对应的密码。 SSL安全连接 通过该功能,用户可以选择是否开启对同步链路的加密。如果开启该功能,需要用户上传SSL CA根证书。 说明 最大支持上传500KB的证书文件。 如果不使用SSL证书,请自行承担数据安全风险。
        来自:
        帮助文档
        数据库复制
        用户指南
        实时同步
        出云
        将MySQL同步到MySQL
      • SQL Server错误日志轮转
        本节介绍了SQL Server错误日志轮转的相关内容。 操作场景 使用存储过程关闭当前的错误日志文件,并循环错误日志扩展编号(就像重新启动服务器)。 新错误日志包含版本和版权信息,以及表明新日志已创建的一行。 前提条件 成功连接RDS for SQL Server实例。通过SQL Server客户端连接目标实例。 操作步骤 执行以下命令,循环RDS for SQL Server错误日志。 EXEC [msdb].[dbo].[rdscycleerrorlog] 执行成功后,系统将会如下提示:
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        存储过程的使用
        SQL Server错误日志轮转
      • 接入方式
        本节介绍了RabbitMQ 接入方式。 安全接入点 RabbitMQ 安全接入点支持 "PLAIN"、"AMQPLAIN" 授权机制。 1、访问控制 RabbitMQ "PLAIN"、"AMQPLAIN"授权机制需要创建用户,从而获得对应虚拟主机的访问权限。 2、接入步骤 (1)新建用户(集群管理>用户>新建用户) (2)运行demo 客户端关键参数设置 "PLAIN"、"AMQPLAIN" 授权机制的客户端关键参数配置 String host "192.168.0.0"; //安全接入点ip Integer port 5672; //安全接入点port String username "xxx"; //集群管理用户列表的用户名 String password "xxx"; String vhost "/"; ConnectionFactory connectionFactory new ConnectionFactory(); connectionFactory.setHost(host); connectionFactory.setPort(port); connectionFactory.setUsername(username); connectionFactory.setPassword(password); connectionFactory.setVirtualHost(vhost); SSL接入点 RabbitMQ 安全接入点支持 "EXTERNAL" 授权机制 1、访问控制 无 2、接入步骤 (1)下载SSL证书(实例概览>导出服务>下载SSL文件) (2)运行demo 客户端关键参数设置 "EXTERNAL" 授权机制的客户端关键参数配置 java String host "192.168.0.0"; //SSL接入点ip int port 5671; //SSL接入点port //以下2个ssl文件可通过控制台获取安装包, 具体的获取方式可以查看2.2.1接入步骤的第二小节 String ksFile "D:tmpsslclientrabbitmqkey.p12"; String tksFile "D:tmpssltruststore"; String vhost "/"; char[] keyPassphrase "W3zT98Zz9Io".toCharArray(); KeyStore ks KeyStore.getInstance("PKCS12"); ks.load(new FileInputStream(ksFile), keyPassphrase); KeyManagerFactory kmf KeyManagerFactory.getInstance("SunX509"); kmf.init(ks, keyPassphrase); char[] trustPassphrase null; trustPassphrase "W3zT98Zz9Io".toCharArray(); KeyStore tks KeyStore.getInstance("JKS"); tks.load(new FileInputStream(tksFile), trustPassphrase); TrustManagerFactory tmf TrustManagerFactory.getInstance("SunX509"); tmf.init(tks); SSLContext c SSLContext.getInstance("tlsv1.2"); c.init(kmf.getKeyManagers(), tmf.getTrustManagers(), null); ConnectionFactory connectionFactory new ConnectionFactory(); connectionFactory.setHost(host); connectionFactory.setPort(port); connectionFactory.setVirtualHost(vhost); connectionFactory.setSaslConfig(DefaultSaslConfig.EXTERNAL); connectionFactory.useSslProtocol(c);
        来自:
        帮助文档
        分布式消息服务RabbitMQ
        最佳实践
        RabbitMQ接入
        接入方式
      • S3Browser
        S3 Browser是一个支持S3接口服务的免费windows客户端工具。 安装方法 使用浏览器打开S3 Browser网站 使用方法 1、安装完成后双击打开客户端,点击菜单栏中“Accounts”,出现下拉菜单后再点击“Add new account..”,会弹出新增账号信息弹出框。 2、在弹出框中,填下相应的信息,点击“Add new account”保存。填写说明如下: l Account Name:用户根据自己的需要进行命名。 l Account Type:选择“S3 Compatible Storage”。 l REST Endpoint:填写对象存储节点地址访问域名,如xiongan2.zos.ctyun.cn。 l Access Key ID:用户需进入对象存储控制台,查看对象存储Access Key信息,复制粘贴到Access Key ID中。 l Secret Access Key:用户需选择上述Access Key对应的Secret Key进行填写。 l Use secure transfer(SSL/TLS):外网使用需要勾选此选项,内网使用不用勾选。 注意 在云内使用S3 Browser,请勿勾选下方的"Use Secure Transfer"和"Verify SSL"。因为云内属于安全网络ZOS仅提供http访问,不提供https访问。 如果通过公网访问ZOS,则建议勾选"Use Secure Transfer"和"Verify SSL"。 3、账号添加成功后,您即可在工具中查看到ZOS中目前已经存在的桶和文件。用户点击相应的菜单和按钮进行桶和文件的管理。
        来自:
        帮助文档
        对象存储 ZOS
        常用工具
        S3Browser
      • 术语解释
        此小节介绍数据库审计的产品术语。 Agent 本文中所述的Agent指的是审计代理插件,是安装在数据库系统或者业务系统上的插件,其功能是捕获访问数据库系统的数据包,并将数据包发送至数据库审计。 Kafka Kafka是一种高吞吐量的分布式发布订阅消息系统,可以处理消费者规模的网站中所有动作流数据。这些数据通常由于吞吐量要求而通过处理日志和日志聚合来解决。 SNMP SNMP是简单网络管理协议(Simple Network Management Protocol)的简称,是标准IP网络管理协议,支持目前主流的网络管理系统。 SQL SQL是结构化查询语言(Structured Query Language)的简称,是一种数据库查询和程序设计语言,用于存取数据以及查询、更新和管理关系数据库系统;同时也是数据库脚本文件的扩展名。 Syslog Syslog是一种行业标准的协议,可用来记录设备的日志。Syslog日志消息既可以记录在本地文件中,也可以通过网络发送到接收Syslog的服务器。服务器可以对多个设备的Syslog消息进行统一的存储,或者解析其中的内容做相应的处理。常见的应用场景是网络管理工具、安全管理系统、日志审计系统。 数据库 数据库(Database)是用于存放数据的仓库,按照一定的数据结构(即数据的组织形式或数据之间的联系)来组织、存储,用户可以通过数据库提供的多种方法来管理数据库中的数据。 规则 本文中所述的规则是指根据一些特征(如客户端、服务端、SQL语句)定义的危险行为(安全规则)及可以信任的行为(过滤规则)。当系统审计到对数据库的操作匹配安全规则时会触发告警,对于匹配过滤规则的行为则不进行审计。
        来自:
        帮助文档
        数据库审计
        产品介绍
        术语解释
      • 运维指导
        本章节主要介绍Flink作业相关问题中有关运维指导的问题。 Flink作业提交错误,如何定位 1.在Flink作业管理页面,将鼠标悬停到提交失败的作业状态上,查看失败的简要信息。 常见的失败原因可能包括: −CU资源不足:需扩容队列。 −生成jar包失败:检查SQL语法及UDF等。 2.如果信息不足以定位或者是调用栈错误,可以进一步单击作业名称,进入到作业详情页面,选择“提交日志”页签,查看作业提交日志。 Flink作业运行异常,如何定位 1.在“Flink作业”管理页面,对应作业“操作”列单击“编辑”按钮,在作业运行界面确认作业是否勾选“保存作业日志”参数。 −是,则执行3。 −否,则运行日志不会转储OBS桶,需要先执行2保存作业运行日志。 2.在作业运行界面勾选“保存作业日志”,在“OBS桶”参数选择存储运行日志的OBS桶。单击“启动”重新运行作业。作业重新运行完成后再执行3及后续步骤。 3.在Flink作业列表单击对应作业名称,进入作业详情页面,选择“运行日志”页签。 4.单击OBS桶,获取对应作业的完整运行日志。 5.下载最新“jobmanager.log”文件,搜索“RUNNING to FAILED”关键字,通过上下文的错误栈,确认失败原因。 6.如果“jobmanager.log”文件中的信息不足以定位,可以在运行日志中找到对应的“taskmanager.log”日志,搜索“RUNNING to FAILED”关键字,确认失败原因。 Flink作业重启后,如何判断是否可以从checkpoint直接恢复 Flink作业重启后,可以从两个角度判断是否可以从checkpoint直接恢复: 调整或者增加优化参数、并行度,修改Flink SQL语句、Flink Jar作业等操作,无法从checkpoint直接恢复。 仅修改“单TM所占CU数”参数时,可以从checkpoint直接恢复。
        来自:
        帮助文档
        数据湖探索
        常见问题
        操作类
        Flink作业相关问题
        运维指导
      • 从基础设施到智能中枢:DeepSeek如何重塑公有云服务价值链
        天翼公有云×DeepSeek 产品架构和技术优势 天翼公有云智算底座主推产品 天翼公有云×DeepSeek方案 返回DeepSeek专题导航。
        来自:
        帮助文档
        天翼云SD-WAN
        DeepSeek专题
        图解:DeepSeek与公有云深度融合
        从基础设施到智能中枢:DeepSeek如何重塑公有云服务价值链
      • 本地盘云主机
        本文介绍本地盘云主机的规格类型。 使用须知 本地盘云主机所在的物理机发生故障时,不支持弹性云主机的迁移恢复: 部分宿主机硬件故障或亚健康等场景,需要用户配合关闭ECS完成宿主机硬件维修动作。 本地盘云主机不支持规格变更。 本地盘云主机不支持本地盘的快照、备份和克隆。 可使用本地盘和云硬盘两类磁盘存储数据,通过挂载云硬盘,可以提供更大的存储空间。关于本地盘和云硬盘的使用,有如下约束与限制: 系统盘只能部署在云硬盘上,不可以部署在本地盘上。 数据盘可以部署在云硬盘和本地盘上。 本地盘云主机的本地磁盘数据有丢失的风险(比如宿主机宕机或本地磁盘损坏时),如果您的应用不能做到数据可靠性的架构,强烈建议您使用云盘搭建您的弹性云主机。 删除本地盘云主机后,本地盘中的数据会被自动清除,请提前做好数据备份。删除本地盘数据的时间较长,因此,资源释放的时间较之常规云主机略长。 由于本地盘数据的可靠性取决于物理服务器和硬盘的可靠性,存在单点故障风险,建议您在应用层做好数据冗余,以保证数据的可用性,需要长期保存的业务数据建议使用云硬盘存储。 对于本地盘云主机,关机后其基础资源(包括vCPU、内存、镜像)会继续收费。如需停止计费,需删除弹性云主机。 您不能单独购买本地盘,本地盘的数量和容量由您选择的弹性云主机规格决定,只能在创建本地盘云主机的同时购买本地盘。 ir3型弹性云主机的本地盘为拆分型本地盘,一块本地盘可能被多个弹性云主机使用。当本地盘损坏时,会影响多个弹性云主机。建议您在创建Ir3型弹性云主机时,将弹性云主机加入云主机组,避免出现一块本地盘损坏影响多个弹性云主机的情况。
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        本地盘云主机
      • API导入导出
        本章主要介绍API导入导出常见问题。 API导入失败是什么原因? 可能原因1:单次导入的API数量超出上限。当前单次最高能导入300个API,如超出此数量,请分批导入,或提交配额修改工单,调整API单次导入上限。 可能原因2:参数错误,需要检查和修正。建议先在API网关控制台界面创建一个API,将其导出作为API文件的模板。 swagger导入API的扩展字段有没有模板? 模板在开发中。 您可以先配置好1~2个API,再导出作为模板。
        来自:
        帮助文档
        API网关
        常见问题
        API导入导出
      • 计费、到期续费与退订
        此小节介绍计费、到期续费与退订常见问题。 云堡垒机如何续费,更新授权? 为保证用户正常使用云堡垒机服务,在云堡垒机到期前或保留期期间,用户可通过手动“续费”增加授权使用期限。 在云堡垒机到期前,可以通过“续费”操作延长到期时间。 在云堡垒机到期后,通过“续费” 继续使用云堡垒机。若未及时续费,则进入 “保留期” 将冻结云堡垒机,不能访问或使用云堡垒机。 “保留期”到期仍未续订或充值,存储在云堡垒机中的数据将被删除、资源将被释放。 为避免产品到期未及时续费,导致资源数据被删除,购买包年/包月产品后,可设置开通自动续费。开通自动续费后,系统将在产品到期前自动续费,无需客户再手动操作。 适用场景 云堡垒机实例已到期或即将到期。 云堡垒机系统“消息中心”提示,授权License快到期,需及时更新License许可证。 云堡垒机系统无法正常登录,提示需更新授权,更新License许可证。 前提条件 拥有CBH操作权限。 已放通安全组和防火墙ACL出方向9443端口,解除网络限制,否则可能导致续费更新授权失败。 手动续费 1. 登录管理控制台。 2. 选择“安全与合规 > 云堡垒机”,进入云堡垒机控制台页面。 3. 单击待续费的实例,“ 操作”列的“更多 > 续费”,进入 “续费”配置页面。 4. 根据需要选择续费时长。 5. 单击“去支付”,在支付页面完成付款。 6. 返回云堡垒机实例列表页面,在“计费模式”列查看授权后最新到期时间。大约5分钟后可正常登录云堡垒机系统。 云堡垒机支持哪些计费方式? 云堡垒机服务提供包月和包年的计费方式。 在购买云堡垒机实例时,需要使用弹性云服务器的弹性IP,弹性IP需单独计费。 云堡垒机实例可以退订吗? 若用户不再有使用云堡垒机实例需求,或配置的实例VPC或安全组等信息有误,可执行退订操作。
        来自:
        帮助文档
        运维安全中心(云堡垒机)
        常见问题
        计费、到期续费与退订
      • 刷新
        本文通过图文说明刷新功能的类别,操作方法及注意事项。 功能介绍 天翼云CDN支持URL刷新、目录刷新和正则刷新三种内容刷新方式。不同刷新方式实现机制稍有不同,但最终都能确保用户访问时获得最新的内容。常用于客户对源站内容做更新后,需要CDN节点上对该内容做同步更新的场景。 URL刷新:执行URL刷新请求后,CDN节点会直接删除URL对应的缓存内容,此时,如果客户端向CDN节点请求该内容,节点会回源站获取并缓存新的内容,同时返回给用户。 目录刷新/正则刷新:执行目录或正则刷新请求后,节点缓存将被标记为缓存过期状态(也叫缓存置过期),此时,如果客户端向CDN节点请求该内容,节点会携带IfModifiedSince请求头或IfNoneMatch请求头回源站校验内容是否有更新。如果源站响应304,说明源站内容未更新,节点则只更新缓存状态不拉取新内容,使用已有缓存响应给用户;如果源站响应200或206,说明源站内容有更新,节点将拉取新内容并缓存,使用新内容响应给用户。 配置说明 1. 登录CDN控制台。 2. 单击左侧导航栏【刷新预取】。 3. 在【刷新预取】页面,单击【创建任务】。 4. 按实际场景需求,选择【URL刷新】、【目录刷新】或【正则刷新】。 5. 按照对应刷新类型标题下方的提示内容,填写待刷新URL。 6. 配置完成后,单击【确定】。 功能 说明 URL刷新 1.输入需要刷新的完整URL,每个URL要以 2.URL刷新会获取提交的URL缓存key进行刷新,即与提交的URL相同缓存key的文件都刷新。 如用户访问URL与缓存key不一样,请提交用户访问URL。 目录刷新 1.输入需要刷新的目录,目录要以 2.目录刷新会获取提交的目录URL缓存key进行刷新(参照URL刷新),即与提交的目录相同缓存key的文件都刷新。 如用户访问目录与缓存key不一样,请提交用户访问目录。 3.根目录刷新任务下发后全部缓存均会过期回源,存在较高业务风险,默认不支持根目录刷新,如确认需要执行根目录刷新,请通过工单提交给天翼云客服。 正则刷新 1.输入需要刷新的正则URL,每个URL均为域名+正则路径,域名要以 2.正则刷新会获取提交的正则缓存协议(http/https)及缓存host进行刷新,即与提交的正则相同缓存协议及缓存host都刷新。
        来自:
        帮助文档
        CDN加速
        用户指南
        刷新预取
        刷新
      • 步骤一:使用云专线或VPN连通三层网络
        企业交换机建立二层通信网络时,依赖云下IDC和云上VPC之间的三层网络。本文为您介绍使用云专线或VPN连通三层网络的操作方法。 前提条件 使用企业交换机之前,需要规划云下和云上所需的资源,资源规划请参考企业交换机工作原理。 操作步骤 1. 创建云专线或者VPN,并进行配置,打通云下IDC和云上VPC的三层网络。 具体请参见《云专线用户指南》或《虚拟专用网络用户指南》。 2. 提交工单给云专线或VPN服务,确认您的云专线或VPN是否支持和企业交换机对接(VXLAN),若不支持,需要联系客服技术工程师开通云专线或VPN服务的对接企业交换机能力。
        来自:
        帮助文档
        企业交换机
        快速入门
        步骤一:使用云专线或VPN连通三层网络
      • 管理云硬盘备份
        本文将为您介绍如何为云硬盘创建备份与管理备份。 创建云硬盘备份 操作场景 在云硬盘控制台对已有的云硬盘进行备份。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 在云硬盘页面,单击待创建备份的云硬盘所在行“操作>更多>创建云硬盘备份”, 进入“创建云硬盘备份”页面。 5. 选择合适的存储库和企业项目,您所操作的云硬盘会默认被勾选并展示在右侧。 如果有其他云硬盘需要备份,可以在云硬盘列表中勾选需要备份的云硬盘,勾选后点击右向箭头,将在已勾选云硬盘列表区域展示,如下图所示。对于已选磁盘操区域中不需要备份的磁盘,可以勾选后点击左向箭头进行删除。 6. 确认需备份云硬盘和存储库信息无误后,在下方“备份配置”模块中为已选择的云硬盘配置对应的备份方式:“自动备份”“立即备份”,确认配置后点击“下一步”。 自动备份:需要在“备份策略”的下拉菜单中,选择一个已有的备份策略,或者单击右侧的“创建策略”创建一个新的备份策略。在备份创建完成后,所选云硬盘会绑定到该备份策略中,按照备份策略进行周期性备份。注意:如果选择的云硬盘已经绑定到其他备份策略,在选择新的备份策略后,云硬盘会自动从原备份策略解绑,并绑定到新的备份策略。 立即备份:会对选择的云硬盘将立即进行一次备份。 同时选择两种备份方式,即立即执行一次备份,后续按照备份策略进行周期性备份。 7. 在云硬盘备份资源详情页面,确认配置无误后,点击“我已阅读并同意相关协议《云硬盘备份服务协议》”,点击“确认下单”;若配置信息有误,点击上一步进行修改。 8. 根据页面提示,返回“云硬盘备份控制台页面”,点击“备份副本”切换至备份副本列表。您可以手动刷新页面,查看备份创建状态。当云硬盘备份副本的“状态”变为“可用”时,表示备份创建成功。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理云硬盘备份
      • 模型压缩
        查看压缩任务 1. 查看任务详情:在任务列表点击任务名称,进入详情页面,可查看任务配置及任务日志。 2. 操作:可在列表操作列中点击【详情】以查看任务详情,点击【停止】以停止任务。 3. 获取压缩结果:压缩任务运行完成后,压缩后的模型会自动保存到用户指定的模型管理中的位置。可以通过开发机挂载模型、或者下载模型来查看模型文件本身。压缩后的模型可以直接通过我的服务进行服务部署,部署为推理效果更优的大模型服务。
        来自:
        帮助文档
        训推服务
        用户指南
        模型工具
        模型压缩
      • 模型压缩
        查看压缩任务 1. 查看任务详情:在任务列表点击任务名称,进入详情页面,可查看任务配置及任务日志。 2. 操作:可在列表操作列中点击【详情】以查看任务详情,点击【停止】以停止任务。 3. 获取压缩结果:压缩任务运行完成后,压缩后的模型会自动保存到用户指定的模型管理中的位置。可以通过开发机挂载模型、或者下载模型来查看模型文件本身。压缩后的模型可以直接通过我的服务进行服务部署,部署为推理效果更优的大模型服务。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型工具
        模型压缩
      • 产品购买
        本页为您介绍翼云快销的产品购买指南。 登录天翼云官网甄选商城,搜索“翼云快销”,在产品选配中选择订购规格、订购周期并点击立即购买即可订购。
        来自:
        帮助文档
        翼云快销
        购买指南
        产品购买
      • 无法建立与文档数据库服务的连接
        排查思路 确认数据库实例状态 : 通过文档数据库服务控制台检查文档数据库服务实例是否运行正常。 验证连接字符串 : 检查连接字符串是否正确,包含正确的主机名(或IP地址)、端口号、用户名和密码等信息。 检查网络连接 : 确保你的网络连接正常,尝试访问其他网站或服务来验证网络是否工作正常。 检查安全组和防火墙规则 : 确保安全组和防火墙规则允许与DDS实例相关的端口通过,特别是如果涉及公网访问。 验证SSL配置(如果使用) : 如果连接使用SSL方式,首先通过文档数据库服务控制台基本信息查看SSL是否开启,并且上传证书到ECS。 连接命令如下: sh ./mongo ssl host port u p authenticationDatabase sslCAFile sslAllowInvalidHostnames 其中,各参数的含义如下: ssl: 启用 SSL 连接。 host : 指定 MongoDB 数据库的主机名或 IP 地址。 port : 指定 MongoDB 数据库的端口号。 u : 指定用于认证的 MongoDB 用户名。 p: 表示在命令行中输入密码。在输入该命令后,系统会提示您输入 MongoDB 用户的密码。 authenticationDatabase : 指定认证所使用的数据库。在这里指定为认证用户所在的数据库。 sslCAFile : 指定 SSL 连接时的 CA(Certificate Authority)文件的路径。该文件用于验证服务器端证书的合法性。 sslAllowInvalidHostnames: 允许连接到 SSL 服务器时不验证服务器的主机名。这个选项用于在连接时忽略 SSL 证书中的主机名不匹配错误。 需要将 、 、 、 和 替换为实际的 MongoDB 数据库的主机名、端口号、用户名、认证数据库和 SSL CA 文件的路径。 确认用户权限 : 确保使用的用户名和密码具有连接到文档数据库服务实例的权限。 尝试使用其他客户端工具 : 如果连接失败是由于客户端工具问题,尝试使用其他客户端工具进行连接,以排除客户端工具本身的问题。 查看错误日志 : 检查连接失败时产生的错误日志或错误消息,这些信息可能有助于找到问题的原因。 检查连接数和资源使用情况 : 确认文档数据库服务实例的连接数是否达到上限,以及磁盘和CPU的使用情况是否正常。 验证内网/公网访问配置 : 对于内网访问,确认文档数据库服务和ECS实例是否在同一区域和VPC,且正确配置安全组和白名单,如果不在同一VPC,检查VPC对等连接配置。 对于公网访问,确保ECS和文档数据库服务实例的安全组、白名单以及网络ACL规则允许相应端口通过,并验证ECS是否能够ping通文档数据库服务实例地址的端口。 排除其他因素 : 排除可能影响连接的其他因素,例如阻塞的进程、资源竞争等。
        来自:
        帮助文档
        文档数据库服务
        常见问题
        操作类
        数据库连接
        无法建立与文档数据库服务的连接
      • 设计预案阶段
        本文为您介绍设计预案阶段的具体操作。 使用条件 若预案阶段设计需要脚本任务,需要预先在脚本库中新建脚本并发布。 操作场景 在您创建预案阶段后,可以通过多活容灾服务控制台进行预案阶段中任务的编排。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“预案编排”“预案阶段”,进入预案阶段列表页。 5. 在列表上方下拉菜单中选择需要进行预案阶段操作的命名空间。 6. 点击预案阶段列表中的“预案阶段设计”按钮。 1. 若当前预案阶段状态为草稿,直接进入预案阶段设计页面。 2. 若当前预案阶段状态为已启用,且未被预案关联,直接进入预案阶段设计页面。 3. 若当前预案阶段状态为已启用,且存在被草稿/已启用/已停用状态关联的预案,弹出预案阶段设计提示弹窗,用户确认已知晓相关信息后,点击确认按钮后,进入预案阶段设计页面。不同状态的预案与预案阶段的关联情况如下: 1. 若当前预案阶段已被草稿状态的预案关联,对预案阶段重新设计后,对应预案将自动关联最新的预案阶段。 2. 若当前预案阶段已被启用状态的预案关联,对预案阶段重新设计后,对应预案状态将更新为“待重新启用”,需重新启用预案。 3. 若当前预案阶段已被停用状态的预案关联,对预案阶段重新设计后,对应预案状态不改变,启用预案时自动关联最新预案。 7. 在预案阶段设计页面,用户可拖拽普通任务、条件任务、开始节点和结束节点至画布中,同时可点击任务节点进行任务配置。 流程绘制说明如下: 1. 普通任务:通过关联自定义脚本或平台内置能力对单个资源执行预期操作。 2. 条件任务:在普通任务基础上支持根据条件任务的执行结果(正常/异常)分别配置后续工作,配置条件任务在配置自身任务信息外,需对后面的箭线配置执行条件,条件任务后只能有2条箭线。 3. 任务并行编排通过任务间的箭线决定,一条箭线两端的任务为串行执行顺序,一个任务后有多条普通箭线(非条件判断箭线)代表此任务执行完成后需并行执行其后的任务。 8. 用户拖拽普通任务至画布后,点击“普通任务”,弹出编辑任务弹窗,可对普通任务进行任务编辑。任务类型分为脚本任务、人工任务、内置任务。 1. 当任务类型为脚本任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为脚本任务。任务类型可选脚本任务、人工任务、内置任务。 脚本名称 √ 选择脚本名称,下拉数据源为脚本库中“已发布”状态脚本的脚本名称。 目标资源 √ 选择容灾管理中心,下拉数据源为当前命名空间下所有运行的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源。其中: 若所选脚本的资源类型为“主机”:下拉数据源为对应操作系统类型的开启了远程连接的非天翼云主机。 若所选脚本的资源类型为“数据库”:下拉数据源为对应数据库类型的配置连接信息的数据库实例。 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为自定义时,由用户自定义设置参数值。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 失败重试次数 √ 填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 2. 当任务类型为人工任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 目标资源 × 选择容灾管理中心,下拉数据源为当前命名空间下容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下资源类型的资源实例。 预计耗时 √ 填写预计耗时时间(单位:s)。预计耗时不影响任务执行,仅作为切换整体进度的参数。 取值范围为17200s。 描述 × 填写预案阶段描述。 长度为0100个字符。 3. 当任务类型为内置任务时,各配置项说明如下: 参数 是否必填 配置说明 任务名称 √ 填写任务名称。任务名称需要在命名空间范围内唯一。 长度为263字符。 任务类型 √ 选择任务类型为内置任务。任务类型可选脚本任务、人工任务、内置任务。 任务目的 √ 选择任务目的,可选资源操作、流程控制。 操作名称 √ 选择操作名称。 任务目的为资源操作时:可选云主机关机、云主机重启、云主机开机、MySQL/Redis/PostgreSQL/MongoDB主备切换、ELB流量切换、ELB流量调节、ELB流量回切。 任务目的为流程控制时:可选等待。 等待时长 √ 仅任务目的为流程控制时可见,填写等待时长时间(单位:s)。 取值范围为17200s。 目标资源 √ 选择容灾管理中心: 1. 任务为非流量配置相关的任务时:可选当前命名空间下所有运行中的容灾管理中心。 2. 任务为流量配置相关的任务时:可选当前命名空间下配置了ELB的运行中的容灾管理中心。 选择目标资源,下拉数据源为所选容灾管理中心下相应资源: 1. 主机相关任务:资源所选容灾管理中心下的云上云主机 2. 数据库相关任务:资源为所选容灾管理中心下的云上数据库 3. 流量相关任务:资源为所选容灾管理中心下接入成功的且流量配比进行过初始配置的应用 请求参数名 √ 选择参数类型,可选自定义、参数引用。 参数类型为参数引用时,引用任务下拉框为画布中排在当前任务前的所有任务,引用参数下拉框为所选任务的所有返回参数名。 预计耗时 √ 任务目的为资源操作时:填写预计耗时时间(单位:s)。 任务目的为流程控制时:与等待时长一致,不可编辑。 失败重试次数 √ 仅任务目的为资源操作时可见,填写失败重试次数。 取值范围为15次。 描述 × 填写预案阶段描述。 长度为0100个字符。 9. 编辑任务完毕后,点击弹窗底部“确定”按钮。若存在参数引用的相关配置,用户确认知晓提示内容后,点击“已确认”。 10. 条件任务按上方基础任务配置后,需对后面的箭线配置执行条件。点击箭线后,弹出条件配置弹窗。条件判定可选择正常或异常,选择完毕后,点击“确认”按钮,完成条件配置,配置结果显示在箭线上。 11. 整体预案阶段设计完毕后,检查是否符合预案阶段设计流程规则,如下: 1. 有且必须有一个开始节点; 2. 有且必须有一个结束节点; 3. 至少有一个普通任务或条件任务节点,且所有任务节点均不能为空; 4. 所有节点必须通过箭线连接; 5. 条件任务节点后必须跟2条箭线,且箭线上需配置判定条件,同时两条箭线的判定条件不能相同; 6. 两个节点间只能有1条箭线(不区分箭头方向); 7. 开始节点不能有入方向箭线,结束节点不能有出方向箭线。 12. 确认符合规则后,点击画布上方“保存”按钮,保存当前预案阶段设计。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        预案编排
        预案阶段
        设计预案阶段
      • 创建手动备份
        关系数据库MySQL版支持为正常运行的主实例创建手动备份。您可以选择手动做全量备份和部分的库表备份,然后通过手动备份恢复数据,从而保证数据可靠性。本文介绍关系数据库 MySQL版产品如何创建手动备份。 前提条件 实例状态为运行中。 约束限制 实例中表的数量会影响备份速度,表数量建议上限为50万。 备份效率与实例数据量大小成正比。 全量备份时,会连接备份所属的实例,校验该实例的状态。如果校验存在以下两种情况,则校验不通过,会自动进行校验重试。如果重试结束后,仍然无法满足,则备份失败: 备份所属的实例正在执行DDL操作。 从备份所属的实例获取备份锁失败。 影响 单机实例在备份会影响数据库性能,建议您配置在业务量较小时执行备份或升级实例为主备实例。 单机实例中的慢SQL会阻碍备份操作导致备份失败,若您有较大SQL需要执行,建议您避免在此时间进行实例备份或升级实例为主备实例。 备份空间不足会导致备份失败,此时建议您进行备份空间扩容。 操作步骤 注意 手动备份的文件,也会按照自动清理策略被清理,如有重要数据,请增多保留天数或及时做好数据保存,以免被系统清理。 1. 在天翼云官网首页的顶部菜单栏,选择产品 > 数据库 > 关系型数据库 > 关系数据库MySQL版 ,进入关系数据库MySQL产品页面。然后单击管理控制台 ,进入概览页面。 2. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。然后在顶部菜单栏,选择区域和项目。 3. 在实例列表中,单击目标实例名称,进入基本信息页面。 4. 单击备份恢复 ,进入基础备份列表页签。 5. 单击创建备份。 6. 在创建备份 面板中,设置备份参数,然后单击提交。 备份类型 :支持选择物理备份或者逻辑备份,如果选择逻辑备份,则需要配置相关的参数,更为详细的逻辑备份内容可参见逻辑备份。(仅部分资源池支持逻辑备份,具体以页面实际展示为准。) 备份方式 :支持选择全量备份或者库表备份,如果选择库表备份,则需要选择需要备份的库表,更为详细的库表备份内容可参见库表备份。 备份名称:名称长度在4位到64位之间,不区分大小写,可以包含中文、字母、数字、中划线或下划线,不能包含其他特殊字符。 描述 :不能超过256位,且不能包含特殊字符 > ! 备份管理,进入基础备份列表页面,管理备份文件。 方式二: 1. 在左侧导航栏,选择MySQL > 实例管理,进入实例列表页面。 2. 单击实例名称,进入实例基本信息页面。 3. 单击备份恢复,进入基础备份列表页签,管理备份文件。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        备份与恢复
        备份
        创建手动备份
      • 云硬盘备份
        本节介绍了什么是云硬盘备份、备份原理、使用场景、使用方法。 什么是云硬盘备份 您可以通过云硬盘备份功能为云硬盘创建在线备份,无需关闭云主机。针对病毒入侵、人为误删除、软硬件故障等导致数据丢失或者损坏的场景,可通过任意时刻的备份恢复数据,以保证用户数据正确性和安全性,确保您的数据安全。 备份原理 云硬盘备份原理,请参见《云硬盘备份介绍》。 说明 ● 创建云硬盘备份时,系统会自动创建一个名称以“autobksnapshotvbs”开头的快照,并且只会保留该云硬盘最近一次备份时自动创建的快照。 使用场景 设置备份策略,根据策略自动对云硬盘进行数据备份,通过定期创建的备份作为基线数据,用来创建新的云硬盘或者恢复数据到云硬盘。 使用方法 云硬盘备份的使用方法,具体请参见管理备份云硬盘或者《云硬盘备份用户指南》。
        来自:
      • 物理机故障时,弹性云主机是否会自动恢复?
        本文主要介绍物理机故障时,弹性云主机是否会自动恢复 弹性云主机在物理机故障时,可以自动恢复。 弹性云主机运行在物理机上,虽然提供了多种机制来保证系统的可靠性、容错能力和高可用性,但是,服务器的硬件、电源等部件仍有较小概率的损坏。如果物理设备的损坏导致物理机电源无法正常工作或重启,会导致CPU和内存数据丢失,无法进行热迁移来恢复弹性云主机。 云平台默认提供了自动恢复功能,以冷迁移的方式重启弹性云主机,使弹性云主机具备高可靠性和强大的动态迁移能力。当弹性云主机所在的硬件出现故障时,系统会自动将弹性云主机迁移至正常的物理机,保障您受到的影响最小,该过程会导致云主机重启。 您可以在云监控服务控制台为弹性云主机开启“一键告警”功能,以便在HA发生(弹性云主机所在的物理机出现故障,系统自动迁移弹性云主机至正常的物理机)时,及时获得通知。 说明 自动恢复功能不保证用户数据的一致性。 仅支持物理主机故障产生的弹性云主机自动恢复,弹性云主机本身故障当前不支持自动恢复。 弹性云主机所在的物理主机关机后,才能执行自动恢复。如果物理主机内存故障等因素导致物理主机未关机,则不能执行自动恢复。 对于同一弹性云主机,如果发生物理主机故障,12小时内仅允许1次自动恢复操作。 如下场景时,可能会引起自动恢复弹性云主机失败: 系统发生大规模故障,导致迁移弹性云主机前,找不到可用的物理主机。 迁移弹性云主机时,用于迁移的物理主机临时容量不足。 对于包含如下特殊资源的弹性云主机,暂不支持自动恢复功能: 本地盘
        来自:
      • 区域和格式化相关参数
        本页介绍天翼云TeleDB数据库区域和格式化相关参数。 DateStyle (string) 设置日期和时间值的显示格式,以及解释有歧义的日期输入值的规则。由于历史原因,这个变量包含两个独立的部分:输出格式声明(ISO、Postgres、SQL或German)、 输入/输出的年/月/日顺序(DMY、MDY或YMD)。这些可以被独立设置或者一起设置。关键字Euro和European是DMY的同义词;关键字US、NonEuro和NonEuropean是MDY的同义词。内建默认值是ISO, MDY,但是initdb将用对应于选中的lctime区域行为的设置初始化配置文件。 IntervalStyle (enum) 设置间隔值的显示格式。值sqlstandard将产生匹配SQL标准间隔文本的输出。IntervalStyle参数也可以影响对有歧义的间隔输入的解释。 TimeZone (string) 设置用于显示和解释时间戳的时区。内建默认值是GMT,但是它通常会在postgresql.conf中被覆盖;initdb将安装一个对应于其系统环境的设置。 timezoneabbreviations (string) 设置服务器接受的日期时间输入中使用的时区缩写集合。默认值为'Default',这个集合在全世界大多数地方都能工作。也还有'Australia'和'India',以及可能为一种特定安装定义的其他集合。 extrafloatdigits (integer) 这个参数为浮点值调整显示的位数,包括float4、float8以及几何数据类型。参数值被加在标准的位数(FLTDIG或DBLDIG,视情况而定)上。该值最高可以被设置为 3 来包括部分有效位;这特别有助于转储需要被准确恢复的否点数据。或者它可以被设置为负值来消除不需要的位。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        参数指南
        客户端连接默认相关参数
        区域和格式化相关参数
      • 云硬盘备份与其他云服务的关系
        本章节介绍了云硬盘备份与其他云服务的关系。 弹性云硬盘(EVS) 为云硬盘提供数据备份功能,同时,可以使用云硬盘备份创建新的云硬盘。 云主机备份(CSBS) 云主机备份和云硬盘备份均属于备份服务,为租户数据提供备份保护,CSBS产生的备份会同时显示在云硬盘备份界面。
        来自:
        帮助文档
        云硬盘备份 VBS
        产品简介
        云硬盘备份与其他云服务的关系
      • 基本概念
        本节主要介绍基本概念 使用企业项目管理服务时常用的基本概念包括:帐号、IAM用户、帐号与IAM用户的关系、用户组、授权、权限、身份凭证、IAM项目、企业项目。 账号 当您首次使用天翼云时注册的帐号,该帐号是您的资源归属、资源使用计费的主体,对其所拥有的资源及云服务具有完全的访问权限,可以重置用户密码、分配用户权限等。 帐号不能在IAM中修改和删除,您可以在天翼云网门户“个人中心”修改帐号信息,如果您需要删除帐号,可以在“个人中心”进行注销。 IAM用户 由帐号在IAM中创建的用户,一般为具体云服务的使用人员,具有独立的身份凭证(密码和访问密钥),根据帐号授予的权限使用资源。 如果您忘记了IAM用户的登录密码,可以在天翼云网门户“账号中心 > 子用户”中重置密码。 帐号与IAM用户的关系 帐号与IAM用户可以类比为父子关系,帐号是资源归属以及计费主体,对其拥有的资源具有所有权限。IAM用户由帐号创建,只能拥有帐号授予的资源使用权限,帐号可以随时修改或者撤销IAM用户的使用权限。 图 账号与IAM用户 授权 授权是您将完成具体工作所需要的权限授予IAM用户,授权通过定义权限策略生效,通过给用户组授予策略(包括系统策略和自定义策略),用户组中的用户就能获得策略中定义的权限,这一过程称为授权。用户获得具体云服务的权限后,可以对云服务进行操作,例如,管理您帐号中的ECS资源。 图 授权
        来自:
        帮助文档
        企业项目管理
        产品简介
        基本概念
      • 从回收站恢复云硬盘
        本文将为您介绍被放入回收站的云硬盘如何恢复至云硬盘列表并可以正常使用。 操作场景 恢复回收站中的云硬盘。 因天翼云云硬盘回收站功能仅能保存云硬盘7天,用户可以参考本章在7天之内恢复已删除的云硬盘。 约束与限制 当账号被冻结或受限时,回收站的资源无法支持恢复操作。 回收站内的云硬盘资源为不可用状态时,回收站功能会失效。 云硬盘恢复后默认计费模式为按需计费。 操作步骤 1. 登录控制中心。 2. 单击控制中心左上角的,选择地域,此处我们选择华东1。 3. 单击“存储>云硬盘”,进入云硬盘主页面。 4. 在云硬盘主页面,单击“回收站”页签,进入回收站控制台。 5. 单击待恢复云硬盘所在行的“操作>恢复”按钮。 6. 此外,您还可以选中云硬盘左侧的复选框,点击“恢复”按钮,批量恢复云硬盘。 7. 通过以上两种方式恢复云硬盘后,弹出确认框,确认后,云硬盘就被恢复到云硬盘列表中。操作成功后,在云硬盘列表中可看到该条云硬盘信息,该条云硬盘信息从回收站列表中消失。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘回收站
        从回收站恢复云硬盘
      • 变更配置
        本章介绍天翼云关系型数据库如何弹性变更配置。 选择需要变更的实例,点击“更多”,选择“规格变更”进行变更操作
        来自:
        帮助文档
        关系数据库SQL Server版
        计费说明
        变更配置
      • 产品咨询类
        本节主要介绍产品咨询类问题 区域和可用区 什么是区域、可用区? 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region)指物理的数据中心。每个区域完全独立,这样可以实现最大程度的容错能力和稳定性。资源创建成功后不能更换区域。 可用区(AZ,Availability Zone)是同一区域内,电力和网络互相隔离的物理区域,一个可用区不受其他可用区故障的影响。一个区域内可以有多个可用区,不同可用区之间物理隔离,但内网互通,既保障了可用区的独立性,又提供了低价、低时延的网络连接。 图阐明了区域和可用区之间的关系。 区域和可用区 如何选择区域? 建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 什么是数据库复制 数据复制服务(Data Replication Service,简称DRS)是一种易用、稳定、高效、用于数据库实时迁移和数据库实时同步的云服务。 数据复制服务围绕云数据库,降低了数据库之间数据流通的复杂性,有效地帮助您减少数据传输的成本。 您可通过数据复制服务快速解决多场景下,数据库之间的数据流通问题,以满足数据传输业务需求。 实时迁移 实时迁移是指在数据复制服务器能够同时连通源数据库和目标数据库的情况下,只需要配置迁移的源、目标数据库实例及迁移对象即可完成整个数据迁移过程,再通过多项指标和数据的对比分析,帮助确定合适的业务割接时机,实现最小化业务中断的数据库迁移。 实时迁移支持多种网络迁移方式,如:公网网络、VPC网络、VPN网络和专线网络。通过多种网络链路,可快速实现跨云平台数据库迁移、云下数据库迁移上云或云上跨区域的数据库迁移等多种业务场景迁移。 特点:通过增量迁移技术,能够最大限度允许迁移过程中业务继续对外提供使用,有效的将业务系统中断时间和业务影响最小化,实现数据库平滑迁移上云,支持全部数据库对象的迁移。 备份迁移 由于安全原因,数据库的IP地址有时不能暴露在公网上,但是选择专线网络进行数据库迁移,成本又高。这种情况下,您可以选用数据复制服务提供的备份迁移,通过将源数据库的数据导出成备份文件,并上传至对象存储服务,然后恢复到目标数据库。备份迁移可以帮助您在云服务不触碰源数据库的情况下,实现数据迁移。 常用场景:云下数据库迁移上云。 特点:云服务无需碰触源数据库,实现数据迁移。 实时灾备 为了解决地区故障导致的业务不可用,数据复制服务推出灾备场景,为用户业务连续性提供数据库的同步保障。您可以轻松地实现云下数据库到云上的灾备、跨云平台的数据库灾备,无需预先投入巨额基础设施。 数据灾备支持两地三中心、两地四中心灾备架构。
        来自:
        帮助文档
        数据库复制
        常见问题
        产品咨询类
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • DNS最佳实践
        本节介绍了:DNS最佳实践的用户指南。 DNS最佳实践 DNS是Kubernetes集群中至关重要的基础服务之一,在客户端设置不合理、集群规模较大等情况下DNS容易出现解析超时、解析失败等现象。本文介绍Kubernetes集群中DNS的最佳实践,帮助您避免此类问题。 前提条件 创建Kubernetes集群 获取集群KubeConfig并通过kubectl工具连接集群 优化域名解析请求 DNS域名解析请求是Kubernetes最高频的网络行为之一,其中很多请求是可以优化和避免的。您可以通过以下方式优化域名解析请求: (推荐)使用连接池:当一个容器应用需要频繁请求另一服务时,推荐使用连接池。连接池可以将请求上游服务的链接缓存在内存中,避免每次访问时域名解析和TCP建连的开销。 (推荐)使用DNS缓存:当您的应用无法改造成通过连接池连接另一服务时,可以考虑在应用侧缓存DNS解析结果。 优化resolv.conf文件:由于resolv.conf文件中ndots 和search两个参数的机制作用,容器内配置域名的不同写法决定了域名解析的效率。 优化域名配置:当容器内应用需要访问某域名时,可以最大程度减少域名解析尝试次数,继而减少域名解析耗时。 使用合适的容器镜像 Alpine容器镜像内置的musl libc库与标准glibc的实现存在以下差异: 3.3及更早版本Alpine不支持search参数,不支持搜索域,无法完成服务发现。 并发请求/etc/resolv.conf中配置的多个DNS服务器,导致NodeLocal DNSCache优化失效。 并发使用同一Socket请求A和AAAA记录,在旧版本内核上触发Conntrack源端口冲突导致丢包问题。 当Kubernetes集群中部署的容器采用了Alpine作为基础镜像时,可能会因为上述musl libc特性而无法正常解析域名,建议尝试更换基础镜像,如Debian、CentOS等。
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        网络
        服务发现DNS
        DNS最佳实践
      • 创建微服务引擎
        参数 说明 企业项目 选择微服务引擎所在的企业项目。 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管理。 开通企业项目,创建并启用新的企业项目后可以使用,默认选择default。 规格 选择微服务引擎规格。 须知引擎创建成功后,不支持规格变更。 引擎类型 选择微服务引擎的类型。 集群集群模式部署,主机级容灾。 单机单节点部署,不支持容灾。 须知: “引擎类型”为“单机”的微服务引擎专享版仅适用于开发测试环境,不适用于生产环境; 不支持变更引擎类型。如选择使用,请先阅读约束说明并勾选“我已知晓如下约束”。 引擎名称 输入微服务引擎的名称,引擎创建后不能修改名称。 可用区 选择可用区。 “引擎类型”选择“集群”时,根据环境可用区数量,为引擎选择1个或者3个可用区。− 选择1个可用区,可提供主机级别容灾能力。− 选择3个可用区,可提供可用区级别容灾能力。 “引擎类型”选择“单机”时,为引擎选择1个可用区。 网络 为引擎选择已创建的虚拟私有云及其子网,可以为您的引擎构建隔离的、自主配置和管理的虚拟网络环境。ServiceComb引擎支持IPv4和IPv6两种版本的IP地址。启用IPv6前,请确保ServiceComb引擎所在的VPC和子网已开启IPv6配置,在VPC和子网中开启IPv6配置的应用场景和操作步骤请参考《虚拟私有云用户指南》中的“IPv4/IPv6双栈管理”章节。启用IPv6后,ServiceComb引擎可在双堆栈模式下运行,即可拥有两个不同版本的IP地址:IPv4地址和IPv6地址,此时引擎通过IPv4和IPv6进行通信,且IPv4和IPv6通信彼此独立。 描述 输入引擎描述信息。单击 ,输入引擎描述信息。单击 ,保存描述。 安全认证 开启了“安全认证”的微服务引擎专享版,通过微服务控制台提供了基于RBAC(RoleBased Access Control,基于角色的访问控制)的系统管理功能。l 选择“开启安全认证”:1. 根据业务需要确认需开启安全认证后,勾选“我已知晓:开启安全认证后,需要在微服务的配置文件中添加对应用户的帐号密码,否则服务无法注册到引擎。”。2. 输入root帐号的“密码”,并在“再次输入密码”输入框输入密码进行确认。密码请妥善保管,以免遗失。l 选择“关闭安全认证”:无需配置帐户名、密码即可将服务注册到引擎,效率性能更高,建议用于VPC内访问时使用。
        来自:
        帮助文档
        微服务引擎
        用户指南
        ServiceComb引擎
        创建微服务引擎
      • 创建MySQL连接器
        本章节主要介绍创建MySQL连接器。 MySQL连接适用于第三方云MySQL服务,以及用户在本地数据中心或ECS上自建的MySQL。本教程为您介绍如何创建MySQL连接器。 前提条件 已获取连接MySQL数据库的IP地址、端口、数据库名称、用户名、密码,且该用户拥有MySQL数据库的读写权限。 本地MySQL数据库可通过公网访问。如果MySQL服务器是在本地数据中心或第三方云上,需要确保MySQL可以通过公网IP访问,或者是已经建立好了企业内部数据中心到云服务平台的VPN通道或专线。 已创建CDM集群。 新建MySQL连接器 1.进入CDM主界面,单击左侧导航上的“集群管理”,选择CDM集群后的“作业管理 >连接管理 > 驱动管理”,进入驱动管理页面。 详见下图:上传驱动 2.单击“驱动管理”页面左上角“驱动下载地址”链接下载MySQL的驱动,详情请参见管理驱动章节中的“如何获取驱动”。 3.在“驱动管理”页面中,选择以下方式上传MySQL驱动。 方式一:单击对应驱动名称右侧操作列的“上传”,选择本地已下载的驱动。 方式二:单击对应驱动名称右侧操作列的“从sftp复制”,配置sftp连接器名称和驱动文件路径。 4.在“集群管理”界面,单击集群后的“作业管理”,选择“连接管理 > 新建连接”,进入连接器类型的选择界面,如下图所示。 选择连接器类型 5.连接器类型选择“MySQL”后单击“下一步”,配置MySQL连接的参数,参数如下表所示。 详见下图:创建MySQL连接 MySQL连接参数 参数名 说明 取值样例 名称 输入便于记忆和区分的连接名称。 mysqllink 数据库服务器 MySQL数据库的IP地址或域名。 192.168.1.110 端口 MySQL数据库的端口。 3306 数据库名称 MySQL数据库的名称。 sqoop 用户名 拥有MySQL数据库的读、写和删除权限的用户。 admin 密码 用户的密码。 使用本地API 使用数据库本地API加速(系统会尝试启用MySQL数据库的localinfile系统变量)。 是 使用Agent 是否选择通过Agent从源端提取数据。 是 localinfile字符集 mysql通过localinfile导入数据时,可配置编码格式。 utf8 驱动版本 适配mysql的驱动。 Agent 单击“选择”,选择连接Agent中已创建的Agent。 单次请求行数 指定每次请求获取的行数。 1000 单次提交行数 支持通过agent从源端提取数据 1000 连接属性 自定义连接属性。 useCompressiontrue 引用符号 连接引用表名或列名时的分隔符号。默认为空。 ' 单次写入行数 指定单次批量写入的行数,当写入行数累计到单次批量提交行数时提交一次,该值应当小于单次提交行数。 100 6.单击“保存”回到连接管理界面,完成MySQL连接器的配置。 说明 如果保存时出错,一般是由于MySQL数据库的安全设置问题,需要设置允许CDM集群的EIP访问MySQL数据库。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据集成
        使用教程
        创建MySQL连接器
      • 1
      • ...
      • 245
      • 246
      • 247
      • 248
      • 249
      • ...
      • 560
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      科研助手

      推荐文档

      如何提现?

      盘符客户端

      源端安装客户端

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号