活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      天翼云视频内容审核_相关内容
      • 初始化Linux数据盘(fdisk)
        设置开机自动挂载磁盘 如果您需要在服务器系统启动时自动挂载磁盘,不能采用在/etc/fstab直接指定 /dev/sdb1的方法,因为云中设备的顺序编码在关闭或者开启服务器过程中可能发生改变,例如/dev/sdb可能会变成/dev/sdc。推荐使用UUID来配置自动挂载数据盘。 说明 磁盘的UUID(Universally Unique Identifier)是Linux系统为磁盘分区提供的唯一的标识字符串。 1. 执行如下命令,查询磁盘分区的UUID。 plaintext blkid 磁盘分区 以查询磁盘分区“/dev/sdb1”的UUID为例: plaintext blkid /dev/sdb1 回显类似如下信息: plaintext [root@bmsb656 test] blkid /dev/sdb1 /dev/sdb1: UUID"1851e23f1c5740ab86bb5fc5fc606ffa" TYPE"ext4" 表示“/dev/sdb1”的UUID。 2. 执行以下命令,使用vi编辑器打开“fstab”文件。 plaintext vi /etc/fstab 3. 按“i”,进入编辑模式。 4. 将光标移至文件末尾,按“Enter”,添加如下内容。 plaintext UUID1851e23f1c5740ab86bb5fc5fc606ffa /mnt/sdc ext4 defaults 0 2 5. 按“ESC”后,输入:wq,按“Enter”。保存设置并退出编辑器。
        来自:
        帮助文档
        物理机 DPS
        快速入门
        登录物理机服务
        初始化数据盘
        初始化Linux数据盘(fdisk)
      • 配置函数异步
        配置说明 异步调用目标的事件内容参见如下示例: { "timestamp": "20200820T12:00:00.000Z", "requestcontext": { "requestid": "1167bf8c87b043ab8f5f26b16c64f252", "functionurn": "urn:fss:xxxxxxx:xxxxxxx:function:xxxx:xxxx:latest", "condition": "", "approximateinvokecount": 0 }, "requestpayload": "", "responsecontext": { "statuscode": 200, "functionerror": "" }, "responsepayload": "hello world!" } 异步调用目标的配置说明参见下表: 配置参数说明 参数 说明 timestamp 调用时间戳。 requestcontext 请求上下文。 requestcontext.requestid 异步调用的请求ID。 requestcontext. functionurn 异步执行的函数URN。 requestcontext.condition 调用错误类别。 requestcontext. approximateinvokecount 异步调用的执行次数。当该值大于1时,说明函数计算对您的函数进行了重试。 requestpayload 请求函数的原始负载。 responsecontext 返回上下文。 responsecontext.statusCode 调用函数的返回码(系统)。当该返回码不为200时,说明出现了系统错误。 responsecontext.functionerror 调用错误信息。 responsepayload 执行函数返回的原始负载。
        来自:
        帮助文档
        函数工作流
        用户指南
        配置函数
        配置函数异步
      • 查看元数据
        本章节主要介绍查看元数据。 元数据说明 元数据(Metadata)是用来定义数据类型的数据。主要是描述数据自身信息,包含源、大小、格式或其它数据特征。数据库字段中,元数据用于诠释数据仓库的内容。 创建表时,会定义元数据,由列名、类型、列描述三列组成。 “元数据”页面将显示目标表的列名、列类型、类型和描述。 查看元数据步骤 查看元数据的入口有两个,分别在“数据管理”和“SQL编辑器”页面。 在“数据管理”页面查看元数据。 1. 在管理控制台左侧,单击“数据管理”>“库表管理”。 2. 单击需导出数据对应数据库名称,进入该数据库“表管理”页面。 3. 单击目标表“操作”栏中的“更多”,选择“表属性”,即可在“元数据”页签查看该表的元数据信息。 在“SQL编辑器”页面查看元数据。 1. 在管理控制台左侧,单击“SQL编辑器”。 2. 在“SQL编辑器”页面的左侧导航栏中,选择“数据库”页签。 3. 单击对应数据库名,进入该数据库的表列表。 4. 鼠标左键单击对应表右侧的,在列表菜单中选择“表属性”,即可在“元数据”页签查看该表的元数据信息。
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        库表管理
        查看元数据
      • 重置数据库账号密码
        本节介绍了重置数据库账号密码的相关内容。 操作场景 您可重置自己创建的数据库账号密码,安全考虑,请定期(如三个月或六个月)修改密码,防止出现密码被暴力破解等安全风险。 限制条件 恢复中的实例,不可进行该操作。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 在“实例管理”页面,选择目标实例,单击实例名称,进入实例的“基本信息”页。 步骤 5 在左侧导航栏,单击“账号管理”,选择目标账号,单击操作列的“重置密码”。 步骤 6 在弹出框中输入新密码和确认密码,单击“确定”,提交修改。 密码长度为8~32个字符,至少包含大写字母、小写字母、数字、特殊字符三种字符的组合,其中允许输入~!@$%^+?,特殊字符。 密码不能与账号名或倒序的账号名相同。 建议您输入高强度密码,以提高安全性,防止出现密码被暴力破解等安全风险。 重置密码后数据库不会重启,权限不会发生变化。 结束
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        账号管理(非管理员权限)
        重置数据库账号密码
      • 挂载已有数据的共享磁盘
        操作场景 本章节指导用户挂载已有数据的共享磁盘,只可以用作数据盘。 您可以在磁盘列表中查看磁盘信息,磁盘信息符合以下条件,该磁盘支持挂载至云主机用作数据盘。 共享盘:共享 磁盘属性:数据盘 磁盘状态:可用或者正在使用 说明 卸载后的系统盘即为启动盘,根据您选择的挂载点不同,启动盘可以重新挂载给云主机用作系统盘或者数据盘。 共享磁盘最多可以挂载至16台云主机,当共享盘状态为“正在使用”时,必须确保该共享盘还未挂满。 操作步骤 1. 登录管理控制台。 2. 选择“专属存储 > 磁盘”。 进入“磁盘”页面。 3. 在磁盘列表,找到需要挂载的磁盘,单击“挂载”。 1. 共享磁盘支持批量挂载操作,可以同时将一块共享磁盘挂载至多台云主机。“挂载磁盘”对话框左侧区域为可选的云主机列表,选择目标云主机后,则已选云主机会显示在右侧区域。 2. 只有当共享盘状态为“可用”或者“正在使用”时,才支持挂载至云主机。 4. 选择磁盘待挂载的云主机,该云主机必须与磁盘位于同一个可用分区,通过下拉列表选择“挂载点”。 说明 一个挂载点只能挂载一块磁盘,已经被使用的挂载点不会显示在列表中,无法进行选择。 返回磁盘列表页面,此时磁盘状态为“正在挂载”,表示磁盘处于正在挂载至云主机的过程中。当磁盘状态为“正在使用”时,表示挂载至云主机成功。 说明 直接将共享磁盘挂载给多台云主机无法实现文件共享功能,如需在多台云主机之间共享文件,需要搭建共享文件系统或类似的集群管理系统。
        来自:
        帮助文档
        专属云(存储独享型)
        用户指南
        磁盘管理
        挂载已有数据的磁盘
        挂载已有数据的共享磁盘
      • 通过云主机创建Windows私有镜像
        本节为您介绍如何通过云主机创建 Windows 私有镜像。 操作场景 本节将为您详细介绍如何通过云主机创建 Windows 私有镜像的步骤和方法。通过本节您将了解到如何在弹性云主机上创建您自己的 Windows 私有镜像,以满足您特定的应用需求和个性化配置。 前提条件 已有安装 Windows 操作系统的云主机。 确保创建私有镜像所使用的云主机网卡设置为 DHCP 的方式动态获取网络地址,系统默认满足。 操作步骤 1. 登录控制中心,切换到相应节点。 2. 单击“左侧导航栏>服务列表”,选择“计算>镜像服务”。 3. 单击“创建私有镜像”。 4. 从弹出的云主机列表中选择相应的Windows云主机。 5. 输入“镜像名称”,单击“下一步”按钮。 6. 检查确认创建私有镜像参数,确认无误后勾选“我已阅读”,单击“确认下单”。 7. 镜像创建时间与镜像文件本身大小有关可能稍慢,当镜像的状态为“正常”时,表示创建完成。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机镜像
        通过云主机创建Windows私有镜像
      • 云主机安装Cloud-Init可以做什么?
        本节介绍了云主机CloudInit及安装方法。 CloudInit介绍 CloudInit是开源的云初始化工具,使用安装了CloudInit的镜像创建云主机时可以通过“用户数据注入”功能,注入初始化自定义信息(例如为云主机设置登录密码);还可以通过查询、使用元数据,对正在运行的云主机进行配置和管理。不安装CloudInit工具,将无法对云主机进行自定义配置,只能使用镜像原有密码登录云主机。 安装方法 建议您在创建私有镜像前先安装CloudInit/CloudbaseInit,安装方法如下: 如果是Windows操作系统,请下载并安装CloudbaseInit。 安装CloudbaseInit相关操作请参考安装并配置CloudbaseInit工具。 如果是Linux操作系统,请下载并安装CloudInit。 安装CloudInit相关操作请参考安装CloudInit工具。 配置CloudInit相关操作请参考配置CloudInit工具。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        Cloud-init操作类
        云主机安装Cloud-Init可以做什么?
      • 产品优势
        本节描述了弹性云主机的优势。 弹性云主机可以根据业务需求和伸缩策略,自动调整计算资源。您可以根据自身需要自定义服务器配置,灵活地选择所需的内存、CPU、带宽等配置,帮助您打造可靠、安全、灵活、高效的应用环境。 稳定可靠 丰富的磁盘种类 根据IO性能划分云硬盘的磁盘类型,您可根据应用程序要求选择您所需的云硬盘。 普通IO云硬盘:安全、可靠、可弹性扩展,适用于大容量、读写速率要求不高、事务性处理较少的应用场景。 高IO云硬盘:高性能、高扩展、高可靠,适用于性能相对较高,读写速率要求高,有实时数据存储需求应用场景。 通用型SSD:高性价比,适用于高吞吐、低时延的企业办公。 超高IO云硬盘:低时延、高性能,适用于高性能,高读写速率要求,读写密集型应用场景。 极速型SSD:采用了结合全新低时延拥塞控制算法的RDMA技术,适用于需要超大带宽和超低时延的应用场景。 高数据可靠性 基于分布式架构的,可弹性扩展的虚拟块存储服务;具有高数据可靠性,高I/O吞吐能力,能够保证任何一个副本故障时快速进行数据迁移恢复,避免单一硬件故障造成数据丢失。 支持云主机和云硬盘的备份及恢复 可预先设置好自动备份策略,实现在线自动备份。也可以根据需要随时通过控制台或API,备份云主机和云硬盘指定时间点的数据。
        来自:
      • 卸载Tesla驱动
        本文为您介绍卸载Tesla驱动的操作方法。 背景信息 警告:GPU云主机必须配备了相关驱动才可以正常使用。如果您因某种原因需要卸载当前驱动,请务必再安装与您实例规格及操作系统相匹配的正确驱动,否则会因GPU云主机与安装的驱动不匹配而造成业务无法正常进行的风险。 在Windows操作系统中卸载Tesla驱动 以下操作以操作系统为Windows Server 2019的GPU计算加速型云主机PI7为例。 1. 登录控制中心。 2. 单击“左侧导航栏>服务列表”,选择“计算 > 弹性云主机”。 3. 获取GPU云主机密码。VNC方式登录GPU云主机时,需已知其密码,然后再采用VNC方式登录。 4. 在云主机列表中,选择目标GPU云主机,其对应的“操作”列下,点击“远程登录”。 5. (可选)如果界面提示“Press CTRL+ALT+DELETE to log on”,请单击远程登录操作面板右上方的“Send CtrlAltDel”按钮进行登录。 6. 根据界面提示,输入GPU云主机的密码登录。 7. 单击Windows桌面左下角图标,单击“控制面板”。 8. 在控制面板中,选择“程序 > 卸载程序”。 9. 右键单击待卸载的GPU驱动,然后单击“卸载/更改(U)”。 10. 在弹出的卸载程序对话框中,单击“卸载(U)”。 11. 卸载完成后,单击“马上重新启动(R)”。重启完成后,则GPU驱动已卸载成功。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机实例
        安装驱动和工具包(可选)
        卸载Tesla驱动
      • 变更
        本文介绍如何变更安全加速套餐。 您如果有变更套餐的需求,您可以登录天翼云官网,在订单管理产品中找到您的订单,点击“订购”提交您的变更需求。目前套餐变更只支持升级套餐,不支持降级套餐的操作。 产品变更页面
        来自:
        帮助文档
        安全加速(文档停止维护)
        计费说明
        变更
      • 二进制操作函数
        本页介绍天翼云TeleDB数据库Oracle语法中的二进制操作函数。 emptyclob 需要加载插件teledbxoraclepackagefunction create extension teledboraclepackagefunction; 初始化CLOB 字段。 teledb select emptyclob(); emptyclob (1 row) teledb create table t1 (f1 int,f2 clob); CREATE TABLE teledb insert into t1(f1,f2) values (1,emptyclob()); INSERT 0 1 teledb
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        开发手册
        Oracle 兼容语法
        兼容性函数
        二进制操作函数
      • 与其他服务关系
        虚拟私有云 虚拟私有云为分布式缓存服务Redis版实例提供一个逻辑隔离的区域,构建一个安全可靠、 可配置和管理的虚拟网络环境。更多信息请参见虚拟私有云产品定义。 弹性云主机 分布式缓存服务Redis版订购后,默认按照用户选择的实例规格开通弹性云主机,云主机由 CPU、内存、镜像、云硬盘组成,同时结合VPC、安全组、数据多副本保存等能力,打造一个既高效又可靠安全的计算环境,确保分布式缓存服务Redis持久稳定运行。更多信息请参见弹性云主机产品定义。 云硬盘 分布式缓存服务Redis版订购后,默认按照一定的存储大小开通云硬盘。云硬盘是一种可弹性扩展的块存储设备,可以为分布式缓存服务Redis提供高性能、高可靠的块存储服务。更多信息请参见云硬盘产品定义。 弹性IP 弹性IP是可以独立申请的公网 IP 地址,包括公网IP地址与公网出口带宽服务。可以与分布式缓存服务Redis动态绑定和解绑,实现云资源的互联网访问。针对需要公网访问分布式缓存服务Redis版实例的需求,用户可开通弹性IP后,在Redis实例开通页面进行绑定。更多信息请参见绑定公网IP。
        来自:
        帮助文档
        分布式缓存服务Redis版
        产品介绍
        与其他服务关系
      • 通过控制台登录弹性云主机时提示1006或1000怎么办
        问题现象 当用户通过VNC远程登录方式登录云主机,VNC登录界面出现disconnected(code:1006)或者disconnected(code:1000)提示字样。 可能原因 出现以上的现象,有可能是由于以下原因造成: 连接期间长时间未操作,链接已断开。 弹性云主机非正常可用状态。 存在其他子用户登录VNC。 排查步骤 当出现该现状时,用户可首先通过重新连接VNC远程登录界面进行排查,操作步骤如下: 1. 退出当前VNC登录界面。 2. 选中云主机,选择远程登录,重新登录主机。若登录失败,则请用户检查当前云主机运行状态,是否处于“运行中”,若此时云主机状态异常,请联系人工客服解决问题。 3. 确认是否有其他子用户正在使用该台云主机的VNC界面。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        登录与连接
        控制台登录类
        通过控制台登录弹性云主机时提示1006或1000怎么办
      • 功能概述
        本文带您了解云硬盘快照的功能。 云硬盘快照是磁盘数据在特定时间点的完整副本或镜像。作为一种主要的灾难恢复方法,用户可以使用快照将数据完全恢复到创建快照时的时间点。 功能 功能说明 详情链接 创建云硬盘快照 支持用户手动创建快照。为降低操作风险,您可为云硬盘创建快照,并为该快照设置保留时间。 创建云硬盘快照 快照回滚 当发生误操作或系统故障等问题时,您可以使用快照回滚数据,实现数据的恢复。 快照回滚 从快照创建云硬盘 您可以通过快照快速创建出多个具有相同数据的云硬盘。 从快照创建云硬盘 删除快照 您可删除不再使用的快照以节省资源。 删除快照 查看快照详情 您可以查看快照列表及快照详细信息。 查看快照详情 修改快照保留时间 您可对快照的保留时间进行修改,保留时间到期后系统会自动删除该快照。 修改快照保留时间 查看快照使用容量 您可实时查询一块云硬盘所有快照的总使用容量。 查看快照使用容量
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        云硬盘快照
        功能概述
      • 从快照回滚数据(公测)
        本节介绍了从快照回滚数据的操作场景、约束与限制、操作步骤。 操作场景 如果云硬盘的数据发生错误或者损坏,可以回滚快照数据至创建该快照的云硬盘,从而恢复数据。 约束与限制 ● 只支持回滚快照数据至源云硬盘,不支持快照回滚到其它云硬盘。 ● 只有当快照的状态为“可用”,并且源云硬盘状态为“可用”(即未挂载给云主机)或者“回滚数据失败”时,您才可以执行该操作。 ● 开头为“autobksnapshotvbs”、“manualbksnapshotvbs”、“autobksnapshotcsbs”、“manualbksnapshotcsbs”的快照,是创建备份时系统自动生成的快照。该快照仅支持查看详细信息,无法用于回滚数据。 操作步骤 步骤 1 登录管理控制台。 步骤 2 选择“存储 > 云硬盘”。 步骤 3 在左侧导航栏,选择“云硬盘 > 快照”。 进入“快照”页面。 步骤 4 在快照列表中,找到目标快照并单击快照所在行的“操作”列下的“回滚数据”。 步骤 5 在弹出的对话框中,只有当快照的状态为“可用”,并且源云硬盘状态为“可用”或者“回滚数据失败”时,才可以单击“确定”。 步骤 6 返回快照列表页面,当快照状态由“正在回滚”变为“可用”时,表示回滚数据成功。
        来自:
        帮助文档
        云硬盘 EVS
        用户指南
        管理快照
        普通快照(公测)
        从快照回滚数据(公测)
      • 云硬盘备份 VBS
        云硬盘备份(CTVBS,Volume Backup Service)是针对云主机的系统盘、数据盘提供的备份服务。用户可对存储重要数据的云硬盘进行备份,并在云硬盘故障、用户误删数据、遭到黑客攻击等情况下,使用备份快速恢复数据,最大限度保证用户数据的安全性。
        来自:
        帮助文档
        云硬盘备份 VBS
      • 申请开通
        本节介绍应用市场的开通与试用流程。 管理员可以在AI云电脑(政企版)控制台的协同套件功能中选择“试用”或“开通”不同版本的应用市场服务。 1.登录AI云电脑(政企版)控制台,选择菜单“协同套件”,打开应用市场可选择开启试用,每个租户只有一次免费试用机会,试用期90天,试用版具备与旗舰版一致的完整功能,且不限制管控桌面数,可用存储为100GB。 2.在开通功能页面,可选择所需的应用市场版本、桌面数、可用存储空间等。 3.应用市场提供基础版与旗舰版,功能与价格有所差异,开通时请按需选择。 版本 功能 价格 基础版 提供企业自建应用库 免费 旗舰版 基础版功能上,提供应用分发、黑白名单管控、日志记录等 10元/台/月 4.自建应用存储空间按25GB步长增减;自建应用存储空间适用AI云电脑数据盘资源包资费:40元/100GB/月。 5.使用资源包抵扣支付开通按计算包1C2G41元/月,存储包100GB=40元/月的价格换算抵扣,每1C2G或100GB约开通4个管控桌面,当余数不足4个桌面时按4个桌面进行资源包扣除。支持计算包和存储包组合抵扣,实际抵扣额请以开通页面为准。 举例:开通旗舰版和7个开通桌面数,需2C4G计算包进行抵扣。 6.开通后,可根据使用需求进行版本升级、扩容、续订、退订等操作,并可在应用市场菜单中使用和配置相关功能。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        应用市场
        管理员指南
        开通指引
        申请开通
      • 云主机访问云上资源
        当您创建云主机时,可以使用内网DNS进行解析,不经公网直接访问OBS、SMN等内部服务。 当您创建云主机时: 若关联VPC子网的DNS服务器设置为公共DNS,云主机对云服务的访问需要通过公共DNS在Internet上进行解析。 当云主机访问OBS,SMN等云上服务时,解析过程如下图右侧的的“1~10”所示。 在解析过程中,因需要通过Internet,访问时延大,体验差。 若关联VPC子网的DNS服务器默认设置为内网DNS,云主机对云服务的访问直接通过内网DNS进行解析。 当云主机访问OBS、SMN等云上服务时,内网DNS直接返回这些云服务的内网地址,无需通过Internet,访问时延小,性能高,解析过程如下图左侧的“1~4”所示。 在这种情况下,无需配置即可通过内网DNS进行域名解析。 图访问内部服务
        来自:
        帮助文档
        内网DNS
        产品简介
        内网DNS的应用场景
        云主机访问云上资源
      • 什么是VPC?
        虚拟私有云(Virtual Private Cloud,VPC),为云服务器、云容器、云数据库等云上资源构建隔离、私密的虚拟网络环境。您可以完全掌控自己的专有网络,VPC丰富的功能帮助您灵活管理云上网络,包括创建子网、设置安全组和网络ACL、管理路由表、申请弹性公网IP和带宽等。此外,您还可以通过云专线、VPN等服务将VPC与传统的数据中心互联互通,灵活整合资源,构建混合云网络。
        来自:
        帮助文档
        函数计算
        常见问题
        函数管理
        什么是VPC?
      • 自定义服务配置
        本章节主要介绍自定义服务配置的使用方法。 操作场景 HDFS、YARN、Hive等服务含有大量配置项,为便于服务使用,您可使用自定义服务配置功能,在创建集群或新增服务前修改或添加配置项。 前提条件 当前支持用户对HDFS、Hive、Spark、HBase、YARN、Kyuubi的部分文件进行修改与添加配置项。其他组件服务暂不支持使用自定义服务配置功能。 操作步骤 1、支持用户在订购环节对所选服务进行配置修改与添加。 1)在翼MR订购页软件配置环节选择所需组件服务。 2)在软件配置环节,开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 2、支持用户在新增集群服务环节对所选服务的配置进行修改与添加。 1)在翼MR控制台集群服务管理页面选择需要新增部署的组件服务。 2)在弹窗中开启自定义服务配置开关。 3)在输入框中添加JSON 格式的配置信息。 配置说明 在创建集群或新增集群服务过程中,可通过自定义服务配置功能,添加JSON格式的配置文件,覆盖或添加集群服务的默认参数。JSON文件的内容示例如下: plaintext [ { "applicationName":"YARN", "configFileName":"mapredsite.xml", "configItemKey":"mapreduce.task.timeout", "configItemValue":"200000" }, { "applicationName":"HDFS", "configFileName":"hdfssite.xml", "configItemKey":"dfs.replication", "configItemValue":"2" } ] 参数含义说明: 参数名称 说明 applicationName 服务的名称。 configFileName 配置文件的名称。 configItemKey 配置项的名称。 configItemValue 该配置需要设置的具体内容。 针对不同文件自定义服务配置的修改方式有所不同 1、全文修改 部分配置文件只能进行全文覆盖。用户需要使用CONFCONTENT作为configItemKey,在configItemValue中输入转义后的配置文件内容,输入的配置文件内容会在部署后自动覆盖到服务对应的配置上。文件内容的字符串需要用户对常见字符进行转义,如双引号、单引号、换行符、反斜杠等。需要通过全文覆盖方式进行配置修改的文件如下: 服务名称 配置文件 HBase hbaseenv.sh HBase log4j.properties HDFS hadoopenv.sh YARN mapredenv.sh YARN yarnenv.sh Hive hiveenv.sh Hive hivelog4j2.properties Kyuubi kyuubienv.sh 2、按配置项修改 部分配置文件支持按配置项进行修改,支持修改的配置项如下: 说明 1)Kerberos的krb5.conf文件,只支持使用kerberosRealm作为configItemKey来配realm,暂不支持配置其它配置项。 2)Spark的sparkenv.sh文件中,customsparkenv配置项需要对参照上文全文修改的方式,对文件内容进行转义。 服务名称 配置文件 配置项 HBase hbasesite.xml hbase.cluster.distributed HBase hbasesite.xml hbase.coprocessor.abortonerror HBase hbasesite.xml hbase.coprocessor.master.classes HBase hbasesite.xml hbase.coprocessor.region.classes HBase hbasesite.xml hbase.master.kerberos.principal HBase hbasesite.xml hbase.master.keytab.file HBase hbasesite.xml hbase.master.loadbalancer.class HBase hbasesite.xml hbase.quota.enabled HBase hbasesite.xml hbase.quota.refresh.period HBase hbasesite.xml hbase.regionserver.kerberos.principal HBase hbasesite.xml hbase.regionserver.keytab.file HBase hbasesite.xml hbase.rest.authentication.kerberos.keytab HBase hbasesite.xml hbase.rest.authentication.kerberos.principal HBase hbasesite.xml hbase.rest.kerberos.principal HBase hbasesite.xml hbase.rootdir HBase hbasesite.xml hbase.security.authentication HBase hbasesite.xml hbase.security.authorization HBase hbasesite.xml hbase.superuser HBase hbasesite.xml hbase.thrift.kerberos.principal HBase hbasesite.xml hbase.thrift.keytab.file HBase hbasesite.xml hbase.tmp.dir HBase hbasesite.xml hbase.unsafe.stream.capability.enforce HBase hbasesite.xml hbase.wal.provider HBase hbasesite.xml hbase.zookeeper.property.clientPort HBase hbasesite.xml hbase.zookeeper.quorum HBase hbasesite.xml zookeeper.znode.parent HDFS coresite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS coresite.xml fs.AbstractFileSystem.jfs.impl HDFS coresite.xml fs.defaultFS HDFS coresite.xml fs.du.interval HDFS coresite.xml fs.getspaceused.jitterMillis HDFS coresite.xml fs.jfs.impl HDFS coresite.xml fs.permissions.umaskmode HDFS coresite.xml fs.trash.checkpoint.interval HDFS coresite.xml fs.trash.interval HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.m HDFS coresite.xml ha.failovercontroller.newactive.rpctimeout.ms HDFS coresite.xml ha.healthmonitor.rpctimeout.ms HDFS coresite.xml ha.zookeeper.quorum HDFS coresite.xml ha.zookeeper.sessiontimeout.ms HDFS coresite.xml hadoop.caller.context.enabled HDFS coresite.xml hadoop.kerberos.kinit.command HDFS coresite.xml hadoop.proxyuser.hdfs.groups HDFS coresite.xml hadoop.proxyuser.hdfs.hosts HDFS coresite.xml hadoop.proxyuser.hive.groups HDFS coresite.xml hadoop.proxyuser.hive.hosts HDFS coresite.xml hadoop.proxyuser.HTTP.groups HDFS coresite.xml hadoop.proxyuser.HTTP.hosts HDFS coresite.xml hadoop.proxyuser.httpfs.groups HDFS coresite.xml hadoop.proxyuser.httpfs.hosts HDFS coresite.xml hadoop.proxyuser.yarn.groups HDFS coresite.xml hadoop.proxyuser.yarn.hosts HDFS coresite.xml hadoop.rpc.protection HDFS coresite.xml hadoop.security.authtolocal HDFS coresite.xml hadoop.security.authentication HDFS coresite.xml hadoop.security.authorization HDFS coresite.xml hadoop.security.group.mapping HDFS coresite.xml hadoop.security.group.mapping.ldap.base HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.password.file HDFS coresite.xml hadoop.security.group.mapping.ldap.bind.user HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts HDFS coresite.xml hadoop.security.group.mapping.ldap.num.attempts.before.failover HDFS coresite.xml hadoop.security.group.mapping.ldap.posix.attr.uid.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.group.name HDFS coresite.xml hadoop.security.group.mapping.ldap.search.attr.member HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.group HDFS coresite.xml hadoop.security.group.mapping.ldap.search.filter.user HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users HDFS coresite.xml hadoop.security.group.mapping.provider.ldap4users.ldap.url HDFS coresite.xml hadoop.security.group.mapping.provider.shell4services HDFS coresite.xml hadoop.security.group.mapping.providers HDFS coresite.xml hadoop.security.group.mapping.providers.combined HDFS coresite.xml httpfs.proxyuser.mapred.groups HDFS coresite.xml httpfs.proxyuser.mapred.hosts HDFS coresite.xml io.compression.codec.lzo.class HDFS coresite.xml io.file.buffer.size HDFS coresite.xml ipc.client.connection.maxidletime HDFS coresite.xml ipc.server.listen.queue.size HDFS coresite.xml ipc.server.log.slow.rpc HDFS coresite.xml jeekefs.cachedir HDFS coresite.xml jeekefs.cachesize HDFS coresite.xml jeekefs.discovernodesurl HDFS coresite.xml jeekefs.meta HDFS coresite.xml jeekefs.serverprincipal HDFS coresite.xml topology.script.file.name HDFS hdfssite.xml dfs.block.access.token.enable HDFS hdfssite.xml dfs.blockreport.incremental.intervalMsec HDFS hdfssite.xml dfs.blockreport.initialDelay HDFS hdfssite.xml dfs.blockreport.intervalMsec HDFS hdfssite.xml dfs.blockreport.split.threshold HDFS hdfssite.xml dfs.blocksize HDFS hdfssite.xml dfs.client.failover.proxy.provider.ctyunns HDFS hdfssite.xml dfs.client.read.shortcircuit HDFS hdfssite.xml dfs.client.sockettimeout HDFS hdfssite.xml dfs.cluster.administrators HDFS hdfssite.xml dfs.datanode.address HDFS hdfssite.xml dfs.datanode.cacheddfsused.check.interval.ms HDFS hdfssite.xml dfs.datanode.data.dir HDFS hdfssite.xml dfs.datanode.data.dir.perm HDFS hdfssite.xml dfs.datanode.directoryscan.threads HDFS hdfssite.xml dfs.datanode.du.reserved.calculator HDFS hdfssite.xml dfs.datanode.du.reserved.pct HDFS hdfssite.xml dfs.datanode.failed.volumes.tolerated HDFS hdfssite.xml dfs.datanode.fileio.profiling.sampling.percentage HDFS hdfssite.xml dfs.datanode.handler.count HDFS hdfssite.xml dfs.datanode.http.address HDFS hdfssite.xml dfs.datanode.kerberos.principal HDFS hdfssite.xml dfs.datanode.keytab.file HDFS hdfssite.xml dfs.datanode.max.transfer.threads HDFS hdfssite.xml dfs.datanode.max.xcievers HDFS hdfssite.xml dfs.datanode.peer.stats.enabled HDFS hdfssite.xml dfs.domain.socket.path HDFS hdfssite.xml dfs.encrypt.data.transfer.cipher.suites HDFS hdfssite.xml dfs.ha.automaticfailover.enabled HDFS hdfssite.xml dfs.ha.fencing.methods HDFS hdfssite.xml dfs.ha.namenodes.ctyunns HDFS hdfssite.xml dfs.hosts.exclude HDFS hdfssite.xml dfs.image.transfer.bandwidthPerSec HDFS hdfssite.xml dfs.internal.nameservices HDFS hdfssite.xml dfs.journalnode.edits.dir.ctyunns HDFS hdfssite.xml dfs.journalnode.httpaddress HDFS hdfssite.xml dfs.journalnode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.journalnode.kerberos.principal HDFS hdfssite.xml dfs.journalnode.keytab.file HDFS hdfssite.xml dfs.journalnode.rpcaddress HDFS hdfssite.xml dfs.namenode.accesstime.precision HDFS hdfssite.xml dfs.namenode.acls.enabled HDFS hdfssite.xml dfs.namenode.audit.log.async HDFS hdfssite.xml dfs.namenode.avoid.read.stale.datanode HDFS hdfssite.xml dfs.namenode.avoid.write.stale.datanode HDFS hdfssite.xml dfs.namenode.block.deletion.increment HDFS hdfssite.xml dfs.namenode.checkpoint.dir HDFS hdfssite.xml dfs.namenode.checkpoint.edits.dir HDFS hdfssite.xml dfs.namenode.checkpoint.period HDFS hdfssite.xml dfs.namenode.checkpoint.txns HDFS hdfssite.xml dfs.namenode.deletefiles.limit HDFS hdfssite.xml dfs.namenode.edit.log.autoroll.multiplier.threshold HDFS hdfssite.xml dfs.namenode.fslimits.maxdirectoryitems HDFS hdfssite.xml dfs.namenode.fslock.fair HDFS hdfssite.xml dfs.namenode.handler.count HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.httpaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.kerberos.internal.spnego.principal HDFS hdfssite.xml dfs.namenode.kerberos.principal HDFS hdfssite.xml dfs.namenode.keytab.file HDFS hdfssite.xml dfs.namenode.lock.detailedmetrics.enabled HDFS hdfssite.xml dfs.namenode.name.dir HDFS hdfssite.xml dfs.namenode.name.dir.restore HDFS hdfssite.xml dfs.namenode.quota.initthreads HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.rpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.safemode.thresholdpct HDFS hdfssite.xml dfs.namenode.service.handler.count HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn1 HDFS hdfssite.xml dfs.namenode.servicerpcaddress.ctyunns.nn2 HDFS hdfssite.xml dfs.namenode.shared.edits.dir.ctyunns HDFS hdfssite.xml dfs.namenode.stale.datanode.interval HDFS hdfssite.xml dfs.namenode.startup.delay.block.deletion.sec HDFS hdfssite.xml dfs.namenode.support.allow.format HDFS hdfssite.xml dfs.namenode.write.stale.datanode.ratio HDFS hdfssite.xml dfs.nameservices HDFS hdfssite.xml dfs.permissions.superusergroup HDFS hdfssite.xml dfs.qjournal.selectinputstreams.timeout.ms HDFS hdfssite.xml dfs.qjournal.startsegment.timeout.ms HDFS hdfssite.xml dfs.qjournal.writetxns.timeout.ms HDFS hdfssite.xml dfs.replication HDFS hdfssite.xml dfs.replication.max HDFS hdfssite.xml dfs.web.authentication.kerberos.keytab HDFS hdfssite.xml dfs.web.authentication.kerberos.principal HDFS hdfssite.xml dfs.webhdfs.enabled HDFS hdfssite.xml hadoop.caller.context.enabled HDFS hdfssite.xml rpc.metrics.percentiles.intervals HDFS hdfssite.xml rpc.metrics.quantile.enable Hive hivesite.xml hive.auto.convert.join Hive hivesite.xml hive.auto.convert.sortmerge.join Hive hivesite.xml hive.auto.convert.sortmerge.join.to.mapjoin Hive hivesite.xml hive.compactor.initiator.on Hive hivesite.xml hive.default.fileformat Hive hivesite.xml hive.default.fileformat.managed Hive hivesite.xml hive.exec.compress.output Hive hivesite.xml hive.exec.dynamic.partition Hive hivesite.xml hive.exec.stagingdir Hive hivesite.xml hive.execution.engine Hive hivesite.xml hive.hook.proto.basedirectory Hive hivesite.xml hive.insert.into.multilevel.dirs Hive hivesite.xml hive.limit.optimize.enable Hive hivesite.xml hive.mapred.reduce.tasks.speculative.execution Hive hivesite.xml hive.merge.mapredfiles Hive hivesite.xml hive.metastore.authorization.storage.checks Hive hivesite.xml hive.metastore.warehouse.dir Hive hivesite.xml hive.metastore.warehouse.external.dir Hive hivesite.xml hive.optimize.bucketmapjoin Hive hivesite.xml hive.optimize.dynamic.partition.hashjoin Hive hivesite.xml hive.optimize.index.filter Hive hivesite.xml hive.optimize.metadataonly Hive hivesite.xml hive.optimize.remove.identity.project Hive hivesite.xml hive.server2.proxy.user Hive hivesite.xml hive.stats.fetch.column.stats Hive hivesite.xml hive.txn.strict.locking.mode Hive hivesite.xml hive.update.last.access.time.interval Hive hivesite.xml hive.user.install.directory Hive hivesite.xml hive.vectorized.execution.mapjoin.minmax.enabled Hive hivesite.xml hive.vectorized.execution.mapjoin.native.fast.hashtable.enabled Hive hivesite.xml hive.vectorized.groupby.checkinterval Hive hivesite.xml metastore.expression.proxy Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.json.log.path Kyuubi kyuubidefaults.conf kyuubi.backend.server.event.loggers Kyuubi kyuubidefaults.conf kyuubi.delegation.token.renew.interval Kyuubi kyuubidefaults.conf kyuubi.ha.namespace Kyuubi kyuubidefaults.conf kyuubi.metrics.reporters Kyuubi kyuubidefaults.conf kyuubi.operation.getTables.ignoreTableProperties Kyuubi kyuubidefaults.conf kyuubi.session.engine.idle.timeout Kyuubi kyuubidefaults.conf kyuubi.session.idle.timeout Kyuubi kyuubidefaults.conf spark.master Kyuubi kyuubidefaults.conf spark.submit.deployMode Kyuubi kyuubidefaults.conf spark.yarn.queue Spark sparkdefaults.conf spark.driver.cores Spark sparkdefaults.conf spark.driver.extraJavaOptions Spark sparkdefaults.conf spark.driver.extraLibraryPath Spark sparkdefaults.conf spark.driver.maxResultSize Spark sparkdefaults.conf spark.driver.memory Spark sparkdefaults.conf spark.dynamicAllocation.enabled Spark sparkdefaults.conf spark.dynamicAllocation.initialExecutors Spark sparkdefaults.conf spark.dynamicAllocation.maxExecutors Spark sparkdefaults.conf spark.dynamicAllocation.minExecutors Spark sparkdefaults.conf spark.eventLog.dir Spark sparkdefaults.conf spark.executor.cores Spark sparkdefaults.conf spark.executor.extraJavaOptions Spark sparkdefaults.conf spark.executor.extraLibraryPath Spark sparkdefaults.conf spark.executor.heartbeatInterval Spark sparkdefaults.conf spark.executor.memory Spark sparkdefaults.conf spark.executorEnv.JAVAHOME Spark sparkdefaults.conf spark.files.openCostInBytes Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress Spark sparkdefaults.conf spark.hadoop.mapreduce.output.fileoutputformat.compress.codec Spark sparkdefaults.conf spark.hadoop.yarn.timelineservice.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.enabled Spark sparkdefaults.conf spark.history.fs.cleaner.interval Spark sparkdefaults.conf spark.history.fs.cleaner.maxAge Spark sparkdefaults.conf spark.history.fs.logDirectory Spark sparkdefaults.conf spark.history.kerberos.enabled Spark sparkdefaults.conf spark.history.kerberos.keytab Spark sparkdefaults.conf spark.history.store.maxDiskUsage Spark sparkdefaults.conf spark.history.ui.maxApplications Spark sparkdefaults.conf spark.history.ui.port Spark sparkdefaults.conf spark.io.compression.lz4.blockSize Spark sparkdefaults.conf spark.kryo.unsafe Spark sparkdefaults.conf spark.kryoserializer.buffer.max Spark sparkdefaults.conf spark.locality.wait Spark sparkdefaults.conf spark.master Spark sparkdefaults.conf spark.memory.offHeap.enabled Spark sparkdefaults.conf spark.memory.offHeap.size Spark sparkdefaults.conf spark.network.timeout Spark sparkdefaults.conf spark.port.maxRetries Spark sparkdefaults.conf spark.rdd.parallelListingThreshold Spark sparkdefaults.conf spark.reducer.maxSizeInFlight Spark sparkdefaults.conf spark.resultGetter.threads Spark sparkdefaults.conf spark.rpc.io.backLog Spark sparkdefaults.conf spark.scheduler.maxReqisteredResourcesWaitingTime Spark sparkdefaults.conf spark.shuffle.accurateBlockThreshold Spark sparkdefaults.conf spark.shuffle.file.buffer Spark sparkdefaults.conf spark.shuffle.io.connectionTimeout Spark sparkdefaults.conf spark.shuffle.manager Spark sparkdefaults.conf spark.shuffle.mapOutput.dispatcher.numThreads Spark sparkdefaults.conf spark.shuffle.memoryFraction Spark sparkdefaults.conf spark.shuffle.push.enabled Spark sparkdefaults.conf spark.shuffle.push.maxBlockSizeToPush Spark sparkdefaults.conf spark.shuffle.push.merge.finalizeThreads Spark sparkdefaults.conf spark.shuffle.push.mergersMinStaticThreshold Spark sparkdefaults.conf spark.shuffle.readHostLocalDisk Spark sparkdefaults.conf spark.shuffle.service.enabled Spark sparkdefaults.conf spark.shuffle.unsafe.file.output.buffer Spark sparkdefaults.conf spark.speculation Spark sparkdefaults.conf spark.speculation.interval Spark sparkdefaults.conf spark.speculation.minTaskRuntime Spark sparkdefaults.conf spark.speculation.multiplier Spark sparkdefaults.conf spark.speculation.quantile Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.initialPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.adaptive.enabled Spark sparkdefaults.conf spark.sql.adaptive.forceApply Spark sparkdefaults.conf spark.sql.adaptive.forceOptimizeSkewedJoin Spark sparkdefaults.conf spark.sql.adaptive.shuffle.targetPostShuffleInputSize Spark sparkdefaults.conf spark.sql.autoBroadcastJoinThreshold Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog Spark sparkdefaults.conf spark.sql.catalog.sparkcatalog.type Spark sparkdefaults.conf spark.sql.cbo.joinReorder.enabled Spark sparkdefaults.conf spark.sql.extensions Spark sparkdefaults.conf spark.sql.files.maxPartitionBytes Spark sparkdefaults.conf spark.sql.files.openCostInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.advisoryPartitionSizeInBytes Spark sparkdefaults.conf spark.sql.finalStage.adaptive.coalescePartitions.minPartitionNum Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionFactor Spark sparkdefaults.conf spark.sql.finalStage.adaptive.skewJoin.skewedPartitionThresholdInBytes Spark sparkdefaults.conf spark.sql.hive.convertMetastoreOrc Spark sparkdefaults.conf spark.sql.hive.dropPartitionByName.enabled Spark sparkdefaults.conf spark.sql.inMemoryColumnarStorage.batchSize Spark sparkdefaults.conf spark.sql.join.preferSortMergeJoin Spark sparkdefaults.conf spark.sql.legacy.charVarcharAsString Spark sparkdefaults.conf spark.sql.legacy.timeParserPolicy Spark sparkdefaults.conf spark.sql.optimizer.finalStageConfigIsolation.enabled Spark sparkdefaults.conf spark.sql.optimizer.inferRebalanceAndSortOrders.enabled Spark sparkdefaults.conf spark.sql.optimizer.insertRepartitionBeforeWriteIfNoShuffle.enabled Spark sparkdefaults.conf spark.sql.optimizer.inSetConversionThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.creationSideThreshold Spark sparkdefaults.conf spark.sql.optimizer.runtime.bloomFilter.enabled Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.number.threshold Spark sparkdefaults.conf spark.sql.optimizer.runtimeFilter.semiJoinReduction.enabled Spark sparkdefaults.conf spark.sql.orc.aggregatePushdown Spark sparkdefaults.conf spark.sql.orc.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.orc.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.aggregatePushdown Spark sparkdefaults.conf spark.sql.parquet.columnarReaderBatchSize Spark sparkdefaults.conf spark.sql.parquet.enableNestedColumnVectorizedReader Spark sparkdefaults.conf spark.sql.parquet.pushdown.inFilterThreshold Spark sparkdefaults.conf spark.sql.query.table.file.max.count Spark sparkdefaults.conf spark.sql.query.table.file.max.length Spark sparkdefaults.conf spark.sql.query.table.partition.max.count Spark sparkdefaults.conf spark.sql.sessionWindow.buffer.in.memory.threshold Spark sparkdefaults.conf spark.sql.shuffle.partitions Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.parallelism Spark sparkdefaults.conf spark.sql.sources.parallelPartitionDiscovery.threshold Spark sparkdefaults.conf spark.sql.statistics.fallBackToHdfs Spark sparkdefaults.conf spark.sql.storeAssignmentPolicy Spark sparkdefaults.conf spark.sql.subquery.maxThreadThreshold Spark sparkdefaults.conf spark.sql.support.block.inferior.sql Spark sparkdefaults.conf spark.storage.decommission.shuffleBlocks.maxThreads Spark sparkdefaults.conf spark.task.reaper.enabled Spark sparkdefaults.conf spark.unsafe.sorter.spill.reader.buffer.size Spark sparkdefaults.conf spark.yarn.appMasterEnv.JAVAHOME Spark sparkdefaults.conf spark.yarn.containerLauncherMaxThreads Spark sparkdefaults.conf spark.yarn.scheduler.heartbeat.intervalms Spark sparkdefaults.conf spark.yarn.scheduler.initialallocation.interval Spark sparkenv.sh customsparkenv Spark sparkenv.sh sparkengine YARN mapredsite.xml mapreduce.application.classpath YARN mapredsite.xml mapreduce.cluster.acls.enabled YARN mapredsite.xml mapreduce.framework.name YARN mapredsite.xml mapreduce.job.aclmodifyjob YARN mapredsite.xml mapreduce.job.counters.counter.name.max YARN mapredsite.xml mapreduce.job.counters.group.name.max YARN mapredsite.xml mapreduce.job.counters.groups.max YARN mapredsite.xml mapreduce.job.counters.max YARN mapredsite.xml mapreduce.jobhistory.admin.acl YARN mapredsite.xml mapreduce.jobhistory.bindhost YARN mapredsite.xml mapreduce.jobhistory.donedir YARN mapredsite.xml mapreduce.jobhistory.http.policy YARN mapredsite.xml mapreduce.jobhistory.intermediatedonedir YARN mapredsite.xml mapreduce.jobhistory.recovery.enable YARN mapredsite.xml mapreduce.jobhistory.recovery.store.leveldb.path YARN mapredsite.xml mapreduce.map.env YARN mapredsite.xml mapreduce.map.java.opts YARN mapredsite.xml mapreduce.map.log.level YARN mapredsite.xml mapreduce.map.memory.mb YARN mapredsite.xml mapreduce.map.output.compress YARN mapredsite.xml mapreduce.map.output.compress.codec YARN mapredsite.xml mapreduce.map.sort.spill.percent YARN mapredsite.xml mapreduce.map.speculative YARN mapredsite.xml mapreduce.output.fileoutputformat.compress YARN mapredsite.xml mapreduce.output.fileoutputformat.compress.codec YARN mapredsite.xml mapreduce.reduce.env YARN mapredsite.xml mapreduce.reduce.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.java.opts YARN mapredsite.xml mapreduce.reduce.log.level YARN mapredsite.xml mapreduce.reduce.memory.mb YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.enabled YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.intervalms YARN mapredsite.xml mapreduce.reduce.shuffle.fetch.retry.timeoutms YARN mapredsite.xml mapreduce.reduce.shuffle.input.buffer.percent YARN mapredsite.xml mapreduce.reduce.shuffle.merge.percent YARN mapredsite.xml mapreduce.reduce.shuffle.parallelcopies YARN mapredsite.xml mapreduce.reduce.speculative YARN mapredsite.xml mapreduce.shuffle.port YARN mapredsite.xml mapreduce.task.io.sort.factor YARN mapredsite.xml mapreduce.task.io.sort.mb YARN mapredsite.xml mapreduce.task.timeout YARN mapredsite.xml yarn.app.mapreduce.am.env YARN mapredsite.xml yarn.app.mapreduce.am.log.level YARN mapredsite.xml yarn.app.mapreduce.am.resource.mb YARN mapredsite.xml yarn.app.mapreduce.am.stagingdir YARN yarnsite.xml hadoop.http.authentication.simple.anonymous.allowed YARN yarnsite.xml hadoop.http.filter.initializers YARN yarnsite.xml hadoop.registry.client.auth YARN yarnsite.xml yarn.acl.enable YARN yarnsite.xml yarn.logaggregation.retainseconds YARN yarnsite.xml yarn.logaggregationenable YARN yarnsite.xml yarn.nodelabels.enabled YARN yarnsite.xml yarn.nodelabels.fsstore.rootdir YARN yarnsite.xml yarn.nodemanager.address YARN yarnsite.xml yarn.nodemanager.containerexecutor.class YARN yarnsite.xml yarn.nodemanager.diskhealthchecker.maxdiskutilizationperdiskpercentage YARN yarnsite.xml yarn.nodemanager.localizer.cache.targetsizemb YARN yarnsite.xml yarn.nodemanager.localizer.client.threadcount YARN yarnsite.xml yarn.nodemanager.localizer.fetch.threadcount YARN yarnsite.xml yarn.nodemanager.log.retainseconds YARN yarnsite.xml yarn.nodemanager.logaggregation.compressiontype YARN yarnsite.xml yarn.nodemanager.logaggregation.debugenabled YARN yarnsite.xml yarn.nodemanager.logaggregation.numlogfilesperapp YARN yarnsite.xml yarn.nodemanager.logaggregation.rollmonitoringintervalseconds YARN yarnsite.xml yarn.nodemanager.recovery.dir YARN yarnsite.xml yarn.nodemanager.recovery.enabled YARN yarnsite.xml yarn.nodemanager.recovery.supervised YARN yarnsite.xml yarn.nodemanager.remoteapplogdir YARN yarnsite.xml yarn.nodemanager.remoteapplogdirsuffix YARN yarnsite.xml yarn.nodemanager.resource.cpuvcores YARN yarnsite.xml yarn.nodemanager.resource.memorymb YARN yarnsite.xml yarn.nodemanager.resource.percentagephysicalcpulimit YARN yarnsite.xml yarn.nodemanager.resourcemanager.connect.wait.secs YARN yarnsite.xml yarn.nodemanager.vmemcheckenabled YARN yarnsite.xml yarn.nodemanager.vmempmemratio YARN yarnsite.xml yarn.nodemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.resourcemanager.clusterid YARN yarnsite.xml yarn.resourcemanager.fusing.enable YARN yarnsite.xml yarn.resourcemanager.fusingmaxapigetjobs YARN yarnsite.xml yarn.resourcemanager.ha.rmids YARN yarnsite.xml yarn.resourcemanager.hostname.rm1 YARN yarnsite.xml yarn.resourcemanager.hostname.rm2 YARN yarnsite.xml yarn.resourcemanager.maxcompletedapplications YARN yarnsite.xml yarn.resourcemanager.recovery.enabled YARN yarnsite.xml yarn.resourcemanager.scheduler.autocorrect.container.allocation YARN yarnsite.xml yarn.resourcemanager.scheduler.class YARN yarnsite.xml yarn.resourcemanager.scheduler.monitor.enable YARN yarnsite.xml yarn.resourcemanager.store.class YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm1 YARN yarnsite.xml yarn.resourcemanager.webapp.address.rm2 YARN yarnsite.xml yarn.resourcemanager.webapp.crossorigin.enabled YARN yarnsite.xml yarn.scheduler.maximumallocationmb YARN yarnsite.xml yarn.scheduler.maximumallocationvcores YARN yarnsite.xml yarn.scheduler.minimumallocationmb YARN yarnsite.xml yarn.scheduler.minimumallocationvcores YARN yarnsite.xml yarn.timelineservice.client.besteffort YARN yarnsite.xml yarn.timelineservice.client.maxretries YARN yarnsite.xml yarn.timelineservice.enabled YARN yarnsite.xml yarn.timelineservice.httpcrossorigin.enabled YARN yarnsite.xml yarn.webapp.ui2.enable
        来自:
        帮助文档
        翼MapReduce
        用户指南
        服务配置修改建议
        自定义服务配置
      • 免费体验包
        本文介绍如何申请免费体验包。 注意 免费体验开发机使用须知: 免费体验包仅供试用,7天后开发机会自动关机,所产生的数据将被清空,请勿存放重要数据,请您知悉; 停机前请务必完成数据备份与镜像保存操作,避免数据丢失; 若需持续使用开发机服务,请通过平台创建「按需付费开发机」(免费体验实例不支持直接续期)。 操作步骤 1.在科研助手主页面中,点击【免费体验7天】,即可创建免费体验的开发机。 2.点击【开发机】可看到新创建的开发机,等待启动完成后,点击【打开】即可开始使用。 免费体验内容 免费体验规格:CPU:10核 内存:20GB GPU:gn3.m1.12gb1 免费体验镜像:pytorchjupyter:cuda11.1torch1.9.0multikernel 免费体验时长:7天 常见问题 1. 试用期限是多久? 您可以享受7天的免费体验。 2. 试用期结束后如何收费? 试用期结束后,开发机将自动关机并释放。 3. 使用的是什么镜像? 默认提供的是多内核Jupyter WebIDE,免费7天的开发机支持更换镜像。
        来自:
        帮助文档
        科研助手
        快速入门
        免费体验包
      • 智算场景NVIDIA GPU镜像组件的安装指南
        5.5 回滚到先前版本 方法一:回滚到旧版本内核的步骤如下: (1)启动时选择旧内核: 在系统启动时,通常会显示一个引导菜单,选择要启动的内核版本。这通常是在 GRUB 引导菜单中完成的。在这个菜单中,选择先前的稳定内核版本,而不是新内核。 (2)进入系统: 选择旧内核后,让系统继续启动。 (3)卸载新内核: 一旦进入系统并确保旧内核能够正常工作,可以卸载新内核。使用以下命令卸载新内核: 查看已安装的内核版本 dpkg list grep linuximage 删除新内核 sudo apt remove linuximage 其中 是要删除的内核版本号。 例如 sudo apt remove linuximage5.4.0159generic (4)更新引导程序: 删除新内核后,更新引导程序以反映这些更改。运行以下命令来更新 GRUB 配置: sudo updatagrub (5)重新启动系统: 完成以上步骤后,重新启动系统以确保引导程序已更新并且系统可以正常引导到旧内核。 reboot (6)验证内核版本: 运行"umane r"命令验证系统是否已回滚到先前的稳定内核版本: 方法二:参考4.2小节内容
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        智算场景NVIDIA GPU镜像组件的安装指南
      • 异常快照
        本节介绍了异常快照的相关内容。 操作场景 智能判断实例异常,记录会话快照、锁/事务等快照信息,方便后续问题定位。 约束限制 记录异常快照信息,实例性能损耗5%以内。 每个异常快照最长保留7天,每个节点的异常快照同一时间最多保存10条。 异常快照会记录长事务信息。 此功能为白名单能力,请您提交工单申请。 打开异常快照采集 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域和项目。 步骤 3 单击页面左上角的 ,选择“数据库 > 数据管理服务 DAS”,进入数据管理服务页面。 步骤 4 在左侧的导航栏中单击“DBA智能运维 > 实例列表”页签,进入DBA智能运维实例列表页面。 步骤 5 在实例列表页面右上角,按照引擎、实例名称或者实例IP筛选实例。 步骤 6 选择目标实例,单击“详情”,进入“实例概览”页面。 步骤 7 选择“异常快照”页签。 步骤 8 您可以在“异常快照”页面,单击“异常采集”开关对当前实例进行打开异常采集功能操作。 结束
        来自:
        帮助文档
        数据管理服务
        用户指南
        DBA智能运维
        MySQL
        异常快照
      • 查看扫描结果
        查看镜像软件信息 在“软件”页面,可查看当前镜像中软件的相关信息,可查看软件命中的策略,可将软件加入白名单。 单击软件列表右侧的“加入白名单”,可屏蔽该软件的安全问题。添加完成后,此软件将不会命中安全策略。 查看镜像中文件信息 在“文件”页面,可以查看镜像中所有的文件信息,可查看文件命中的策略,可将文件加入白名单和下载到本地。 单击文件列表操作列的“加入白名单”,可屏蔽该文件的安全问题。 单击文件列表操作列的“下载”,可将文件下载到本地。 单击文件列表操作列的“文件预览”,方便用户不用下载也可查看文件内容。 查看镜像环境变量 在“环境变量”页面,可以查看该镜像中所有的环境变量,可查看环境变量命中的安全策略。
        来自:
        帮助文档
        容器安全卫士
        用户指南
        镜像安全
        查看扫描结果
      • 版本回滚
        本节介绍了DRDS版本回滚的操作场景、注意事项、操作步骤等内容。 操作场景 DRDS实例升级到新版本后,支持将内核版本回滚至最近一次升级前版本。 注意事项 回滚数据库内核版本会重启DRDS实例,服务可能会出现闪断,请您尽量在业务低峰期执行该操作,或确保您的应用有自动重连机制。 版本回滚只支持回滚至最近一次升级前版本。 实例版本升级后如果进行过节点扩容,需将新扩节点做缩节点处理,再进行版本回滚。 操作步骤 步骤 1 登录分布式关系型数据库控制台。 步骤 2 在“实例管理”页面,选择指定的目标实例,单击实例名称。 步骤 3 在实例基本信息页面,单击“实例信息”模块的“版本回滚”。 步骤 4 在版本回滚弹窗中选单击“立即回滚”。 步骤 5 确认无误后单击“是”进行版本回滚。 步骤 6 版本回滚时,实例状态将变为“回滚中”。 步骤 7 版本回滚完成后,实例状态由“回滚中”变为“运行中”,版本将显示回滚后的版本号。 结束
        来自:
        帮助文档
        分布式关系型数据库
        用户指南
        实例管理
        版本回滚
      • 灾备升主
        本节描述了灾备实例升为主实例的操作场景、注意事项和操作步骤等内容。 操作场景 当主实例所在区域发生突发性自然灾害等状况,主节点无法连接,可将异地灾备实例升为主实例,在应用端修改数据库连接地址后,即可快速恢复应用的业务访问。 注意事项 灾备升主后的新主实例和原主实例将会解除灾备关系。 操作步骤 步骤 1 登录管理控制台。 步骤 2 单击管理控制台左上角的 ,选择区域。 步骤 3 选择“数据库 > 关系型数据库”。进入关系型数据库信息页面。 步骤 4 单击灾备实例名称,进入实例的基本信息页面。 步骤 5 在左侧导航栏,选择“容灾管理”。 步骤 6 在容灾关系列表单击“操作”列的“灾备升主”。 步骤 7 在弹框中,单击“确认”,开始下发灾备升主任务。 步骤 8 可在“任务中心”中查看任务的执行结果,当任务状态为完成时,表示灾备升主任务成功。 步骤 9 需用户手动将业务切换到新主实例。 结束
        来自:
        帮助文档
        关系数据库PostgreSQL版
        用户指南
        容灾管理
        灾备升主
      • 高频常见问题
        本文主要介绍高频类常见问题。 远程登录 Windows远程登录报错类 Linux远程登录报错类 云主机卡顿 Windows云主机卡顿怎么办? Linux云主机卡顿怎么办? 密码与密钥对 重置Windows云主机密码(未安装重置密码插件) 重置Linux云主机密码(未安装重置密码插件) Ping不通 弹性IP Ping不通? 为什么弹性云主机可以远程连接,但是无法Ping通?
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        高频常见问题
      • PostgreSQL9.6测试结果
        本章节介绍通过测试工具测得PostgreSQL9.6的测试结果。 以下结果为测试环境的测试数据,仅供参考,不作为SLA承诺。 表 CPU:内存1:2 : CPU(core) 内存(GB) 最大连接数(压力测试值) TPS QPS IOPS 1 2 300 150 3086 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 2 4 500 263 5257 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 4 8 1200 578 11554 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 60 128 12000 1398 27965 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 表 CPU:内存1:4 : CPU(core) 内存(GB) 最大连接数(压力测试值) TPS QPS IOPS 1 4 500 166 3312 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 2 8 1200 517 10340 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 4 16 2500 705 14093 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 8 32 5000 821 16421 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 16 64 10000 880 17590 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 32 128 12000 1392 27832 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 60 256 20000 2017 40336 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 表 CPU:内存1:8 : CPU(core) 内存(GB) 最大连接数(压力测试值) TPS QPS IOPS 2 16 2500 554 11099 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 4 32 5000 781 15614 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。 8 64 5000 931 18613 RDS for PostgreSQL支持的IOPS取决于云硬盘的IO性能。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        性能白皮书
        PostgreSQL9.6测试结果
      • 入门指引
        本文档帮助您了解如何申请企业交换机并建立大二层链接通道。 企业交换机基于VPN或者云专线网络,在云下IDC和云上VPC之间建立二层网络。企业交换机配置流程如下图所示。 图企业交换机配置流程图 表构建同区域VPC互通组网流程说明 序号 步骤 说明 1 步骤一:使用云专线或VPN连通三层网络 企业交换机建立二层通信网络时,依赖云下IDC和云上VPC之间的三层网络。本章节指导用户使用云专线或者VPN,建立本端隧道子网和远端隧道子网之间的三层网络通信。 2 步骤二:购买企业交换机 本章节指导用户购买企业交换机,企业交换机可以基于VPN或者云专线网络,在云下IDC和云上VPC之间建立二层网络通信。 3 步骤三:创建二层连接 企业交换机购买完成后,您还需要创建二层连接,建立本端二层连接子网和远端VXLAN交换机之间的二层网络通信。本章节指导用户创建二层连接。 4 步骤四:配置远端隧道网关 本指导用户在云下IDC侧的VXLAN隧道交换机上配置隧道网关,建立远端二层连接子网在IDC侧的VXLAN隧道。
        来自:
        帮助文档
        企业交换机
        快速入门
        入门指引
      • 计费模式
        本小节介绍云堡垒机计费模式,根据型号及订购时长进行收费,不同型号授权参数和并发性能以及对云主机最低配置有不同要求。 计费项 云堡垒机实例按选购的产品规格和购买时长计费。 计费项目 计费说明 云堡垒机实例 按购买实例的版本、实例规格、资产规格和购买时长计费。 计费模式 说明 此处价格仅为云堡垒机(原生版)的价格,实际结算页面会根据您所选择的云主机规格有所变动,云主机规格价格可参考:云主机价格。 云堡垒机实例的计费模式为包月和包年计费。购买1年,在包月总价基础上享受85折优惠,购买2年享受7折优惠,购买3、4、5年享受5折优惠。 并发数 是指云堡垒机上同一时刻连接的运维协议连接数。各资产规格的并发数可参考计费说明章节。 云堡垒机系统对登录用户数没有限制,可无限创建用户。但是同时刻不同用户连接协议总数,不能超过当前版本规格的并发数。 例如,10个运维人员同时通过云堡垒机运维设备,假设平均每个人产生5条协议连接(例如通过SSH客户端、MySQL客户端进行远程连接),则并发数等于50。 版本 资产规格 并发数 标准资费(元/个/月) 推荐云主机规格 高级版 10资产 10并发上线 860 CPU:2核 内存:8GB 系统盘:40GB 数据盘:200GB 高级版 20资产 20并发上限 999 CPU:2核 内存:8GB 系统盘:50GB 数据盘:300GB 高级版 50资产 50并发上限 1888 CPU:4核 内存:16GB 系统盘:50GB 数据盘:500GB 高级版 100资产 100并发上限 2999 CPU:8核 内存:32GB 系统盘:50GB 数据盘:800GB 高级版 200资产 200并发上限 4350 CPU:8核 内存:32GB 系统盘:50GB 数据盘:800GB 高级版 500资产 500并发上限 6230 CPU:12核 内存:48GB 系统盘:50GB 数据盘:2048GB 高级版 1000资产 1000并发上限 11100 CPU:16核 内存:64GB 系统盘:50GB 系统盘:2048GB 高级版 2000资产 2000并发上限 14000 CPU:16核 内存:128GB 系统盘:50GB 数据盘:2048GB 高级版 5000资产 2000并发上限 20000 CPU:24核 内存:192GB 系统盘:50GB 数据盘:4096GB 高级版 10000资产 2000并发上限 29550 CPU:32核 内存:192GB 系统盘:50GB 数据盘:4096GB
        来自:
        帮助文档
        云堡垒机(原生版)
        计费说明
        计费模式
      • 查看操作记录
        本页介绍天翼云TeleDB数据库查看操作记录。 操作步骤 1. 切换至TeleDB控制台,单击任务管理 ,进入任务管理页面。 2. 在当前实例下拉框选择您需要查找的实例,输入筛选条件 ,单击查询。 3. 单击任务所在行的详情,进入任务详情页面。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        控制台操作指南
        任务管理
        查看操作记录
      • 镜像删除类
        本文主要介绍镜像服务产品镜像删除类的常见问题。 云主机 退订或删除后,使用该云主机创建的私有镜像是否自动删除? 使用云主机创建的私有镜像存储在OBS中,退订或删除云主机不会对私有镜像造成影响,您仍可以继续使用。 我的镜像配额不够了,想删除其中一个镜像,但是这个镜像曾共享给了其他人,能删除吗? 可以删除,并且无需镜像的接受方进行相关操作,您执行删除后,镜像接受方的共享镜像也同步删除。因此,为避免影响对方正常业务,请在删除前通知对方做好备份。 如何删除共享镜像,删除后对已创建好的云主机或云硬盘有无影响? 可以通过“拒绝”操作删除共享镜像。删除后对已创建好的云主机或云硬盘没有影响。
        来自:
        帮助文档
        镜像服务 IMS
        常见问题
        镜像删除类
      • 1
      • ...
      • 266
      • 267
      • 268
      • 269
      • 270
      • ...
      • 567
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务

      AI Store

      应用托管

      科研助手

      智算一体机

      知识库问答

      人脸检测

      人脸活体检测

      推荐文档

      管理

      产品定义

      玩转天翼云④:ntp时间同步服务

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号