爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      智能商业平台_相关内容
      • 应用场景
        本节介绍了镜像服务的应用场景。 服务器上云或云上迁移 利用镜像导入功能,将已有的业务服务器制作成镜像后导入到云平台(当前支持vhd、vmdk、qcow2、raw等多种格式),方便企业业务上云。 使用镜像共享功能,实现云主机在不同账号之间迁移。 部署特定软件环境 使用共享镜像均可帮助企业快速搭建特定的软件环境,免去了自行配置环境、安装软件等耗时费力的工作,特别适合互联网初创型公司使用。 批量部署软件环境 将已经部署好的云主机的操作系统、分区和软件等信息打包,用以制作私有镜像,然后使用该镜像批量创建云主机实例,新实例将拥有一样的环境信息,从而达到批量部署的目的。 主机运行环境备份 对一台云主机实例制作镜像以备份环境。当该实例的软件环境出现故障而无法正常运行时,可以使用镜像进行恢复。
        来自:
        帮助文档
        镜像服务 IMS
        产品简介
        应用场景
      • 切换操作系统类
        本节介绍了弹性云主机切换操作系统的相关问题。 切换操作系统是否需要收费? 公有云平台免费为您提供弹性云主机的切换操作系统功能。切换后,系统将根据您选择的产品重新计费。 我能否自己安装或者升级操作系统? 弹性云主机需要使用我们提供的操作系统或者基于我们操作系统制作的操作系统,不能自行添加或升级,操作系统可以打补丁。 说明 如果需要升级操作系统的大版本,例如从CentOS 7.2升级到Cent OS 7.3,请使用提供的切换操作系统功能。 切换操作系统需要多长时间? 单击“操作”列下的“切换操作系统”执行切换操作,对于安装了密码注入插件的镜像,切换操作系统耗时大约为1~2min。对于未安装密码注入插件的镜像,需要创建临时虚拟机,耗时大约为10~20min。 切换操作系统过程中,云主机会显示任务状态为“切换操作系统”。
        来自:
        帮助文档
        弹性云主机 ECS
        常见问题
        操作系统管理类
        切换操作系统类
      • 监控弹性云主机
        本节介绍了监控云主机的相关内容。 监控是保持弹性云主机可靠性、可用性和性能的重要部分,通过监控,用户可以观察弹性云主机资源。为使用户更好地掌握自己的弹性云主机运行状态,公有云平台提供了云监控。您可以使用该服务监控您的弹性云主机,执行自动实时监控、告警和通知操作,帮助您更好地了解弹性云主机的各项性能指标。 主机监控分为基础监控和操作系统监控。 基础监控为ECS自动上报的监控指标。 操作系统监控通过在弹性云主机中安装Agent插件,为用户提供服务器的系统级、主动式、细颗粒度监控服务。 通过后续章节,您可以了解以下内容: 弹性云主机当前支持的基础监控指标 弹性云主机操作系统监控的监控指标(安装Agent) 如何自定义弹性云主机告警规则 如何查看弹性云主机运行状态进行日常监控
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        监控
        监控弹性云主机
      • 操作日志
        本文为您介绍操作日志的具体操作。 概述 操作日志模块记录了多活容灾服务平台中除「资源同步」模块外其他所有模块的增删改类操作,仅展示最近7天的日志记录。 操作步骤 1. 登录天翼云,进入控制中心。 2. 单击管理控制台左上角的,选择区域。 3. 在服务列表选择“计算”“多活容灾服务”,进入多活容灾服务控制台。 4. 点击左侧菜单栏“操作审计”“操作日志”,进入资源同步管理页面。 5. 操作日志列表展示功能模块、操作对象、操作、对象实例名等内容,可根据功能模块、操作对象、结果和时间进行筛选。 6. 可点击操作列查看详情按钮,查看日志详情,其中包括请求参数和相应参数。
        来自:
        帮助文档
        多活容灾服务
        用户指南
        操作审计
        操作日志
      • 支持的镜像
        镜像类型 说明 提供版本 WordPress WordPress 是一个广泛使用的开源内容管理系统 ,适用于创建和管理各种类型的网站和博客。它由 PHP 和 MySQL 构建,提供可扩展性、灵活性和易用性。 注:该镜像基于CentOS 7.3 64位操作系统。 6.0.0 Docker Docker是较为流行的开源容器引擎,可实现将应用程序及其依赖关系和运行环境打包在一个容器内,从而实现跨平台、可重复部署、自动化管理的目标。 注:该镜像基于CentOS 7.9 64位操作系统。 19.03.9 幻兽帕鲁(Palworld) 一键部署幻兽帕鲁多人联机服务器,可选择基于Windows Server和Linux (Ubuntu)的两种操作系统。 注:Windows Server版本基于Windows 2019 Datacenter 64位操作系统;Ubuntu版本基于Ubuntu 20.04 64位操作系统。
        来自:
        帮助文档
        轻量型云主机
        产品简介
        支持的镜像
      • 如何为数据安全中心服务续费?
        该任务指导用户如何在购买的数据安全中心服务即将过期时进行续费。续费后,用户可以继续使用数据安全中心服务。 服务到期前,系统会以短信或邮件的形式提醒您服务即将到期,并提醒您续费。 服务到期后,如果没有按时续费,公有云平台会提供一定的保留期。 保留期的时长由客户等级而定,详细信息请参见“保留期”。 为了防止造成不必要的损失,请您及时续费。如果未续费,您将不能使用DSC服务。 操作步骤 1. 登录管理控制台。 2. 单击左上角的,选择区域或项目。 3. 在左侧导航树中,单击,找到并选择“数据安全中心”。 4. 在界面右上角,单击“续费”。 5. 在“续费管理”界面,根据页面提示完成续费。
        来自:
        帮助文档
        数据安全中心
        常见问题
        计费类
        如何为数据安全中心服务续费?
      • 产品定义
        实时同步 实时同步是指在不同的系统之间,将数据通过同步技术从一个数据源拷贝到其他数据库,并保持一致,实现关键业务的数据实时流动。 实时同步不同于迁移,迁移是以整体数据库搬迁为目的,而实时同步是维持不同业务之间的数据持续性流动。 常用场景:实时分析,报表系统,数仓环境。 特点:实时同步功能聚焦于表和数据,并满足多种灵活性的需求,例如多对一、一对多,动态增减同步表,不同表名之间同步数据等。 实时灾备 为了解决地区故障导致的业务不可用,数据复制服务推出灾备场景,为用户业务连续性提供数据库的同步保障。您可以轻松地实现云下数据库到云上的灾备、跨云平台的数据库灾备,无需预先投入巨额基础设施。
        来自:
        帮助文档
        数据库复制
        产品简介
        产品定义
      • 数据架构示例
        本章节主要介绍数据架构示例。 DataArts Studio数据架构以关系建模、维度建模理论支撑,实现规范化、可视化、标准化数据模型开发,定位于数据治理流程设计落地阶段,输出成果用于指导开发人员实践落地数据治理方法论。 本章节操作场景如下: 对MRS Hive数据湖中的出租车出行数据进行数据模型设计。 数据库demosdidb中已具备出租车出行原始数据表sditaxitripdata。 原始数据表sditaxitripdata的数据字段介绍如下: 数据说明如下: 下表为出租车行程数据 序号 字段名称 字段描述 1 VendorID 供应商编号 取值如下: 1A Company 2B Company 2 tpeppickupdatetime 上车时间 3 tpepdropoffdatetime 下车时间 4 passengercount 乘客人数 5 tripdistance 行驶距离 6 ratecodeid 费率代码 取值如下: 1Standard rate 2JFK 3Newark 4Nassau or Westchester 5Negotiated fare 6Group ride 7 storefwdflag 存储转发标识 8 PULocationID 上车地点 9 DOLocationID 下车地点 10 paymenttype 付款方式代码 取值如下: 1Credit card 2Cash 3No charge 4Dispute 5Unknown 6Voided trip 11 fareamount 车费 12 extra 加收 13 mtatax MTA税 14 tipamount 手续费 15 tollsamount 通行费 16 improvementsurcharge 改善附加费 17 totalamount 总车费 数据架构的流程如下: 1. 准备工作 : 添加审核人 :在数据架构中,业务流程中的步骤都需要经过审批,因此,需要先添加审核人。只有工作空间管理员角色的用户才具有添加审核人的权限。 管理配置中心 :数据架构中提供了丰富的自定义选项,统一通过配置中心提供,您需要根据自己的业务需要进行自定义配置。 2. 数据调研 :基于现有业务数据、行业现状进行数据调查、需求梳理、业务调研,输出企业业务流程以及数据主题划分。 主题设计 :通过分层架构表达对数据的分类和定义,帮助厘清数据资产,明确业务领域和业务对象的关联关系。 流程设计 :本例暂不涉及。流程设计是针对流程的一个结构化的整体框架,描述了企业流程的分类、层级以及边界、范围、输入/输出关系等,反映了企业的商业模式及业务特点。 3. 标准设计 :新建码表&数据标准。 新建码表并发布 :通常只包括一系列允许的值和附加文本描述,与数据标准关联用于生成值域校验质量监控。 新建数据标准并发布 :用于描述公司层面需共同遵守的属性层数据含义和业务规则。其描述了公司层面对某个数据的共同理解,这些理解一旦确定下来,就应作为企业层面的标准在企业内被共同遵守。 4. 模型设计: 应用关系建模和维度建模的方法,进行分层建模。 关系建模:新建SDI 层和DWI层两个模型 。 SDI :Source Data Integration,又称贴源数据层。SDI是源系统数据的简单落地。 DWI :Data Warehouse Integration,又称数据整合层。DWI整合多个源系统数据,对源系统进来的数据进行整合、清洗,并基于三范式进行关系建模。 维度建模:在DWR层新建并发布维度 & 维度建模:在DWR层新建并发布事实表。 DWR :Data Warehouse Report,又称数据报告层。DWR基于多维模型,和DWI层数据粒度保持一致。 维度 :维度是用于观察和分析业务数据的视角,支撑对数据进行汇聚、钻取、切片分析,用于SQL中的GROUP BY条件。 事实表 :归属于某个业务过程的事实逻辑表,可以丰富具体业务过程所对应事务的详细信息。 5. 指标设计:新建并发布技术指标 :新建业务指标(本例不涉及)和技术指标,技术指标又分为原子指标、衍生指标和复合指标。 指标 :指标一般由指标名称和指标数值两部分组成,指标名称及其涵义体现了指标质的规定性和量的规定性两个方面的特点,指标数值反映了指标在具体时间、地点、条件下的数量表现。 业务指标用于指导技术指标,而技术指标是对业务指标的具体实现。 原子指标 :原子指标中的度量和属性来源于多维模型中的维度表和事实表,与多维模型所属的业务对象保持一致,与多维模型中的最细数据粒度保持一致。 原子指标中仅含有唯一度量,所含其它所有与该度量、该业务对象相关的属性,旨在用于支撑指标的敏捷自助消费。 衍生指标 :是原子指标通过添加限定、维度卷积而成,限定、维度均来源于原子指标关联表的属性。 复合指标 :由一个或多个衍生指标叠加计算而成,其中的维度、限定均继承于衍生指标。 注意,不能脱离衍生指标、维度和限定的范围,去产生新的维度和限定。 6. 维度建模:在DM 层新建并发布汇总表 。 DM (Data Mart) :又称数据集市。DM面向展现层,数据有多级汇总。 汇总表 :汇总表是由一个特定的分析对象(如会员)及其相关的统计指标组成的。组成一个汇总逻辑表的统计指标都具有相同的统计粒度(如会员),汇总逻辑表面向用户提供了以统计粒度(如会员)为主题的所有统计数据(如会员主题集市)。
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据架构
        使用教程
        数据架构示例
      • 创建无状态应用
        本文介绍如何创建无状态应用。 无状态应用中各实例之间相互独立,互不依赖,任意一个Web请求完全与其他请求隔离。无状态容器应用更易实现可靠性和伸缩性。 注: 创建多个容器应用时,请确保容器应用使用的端口不冲突 ,否则部署会失败。 操作前提 已创建集群并添加节点[]( 操作步骤 1.在左侧控制台导航栏中选择【工作负载】>【无状态应用】,进入无状态应用列表; 2.单击【创建应用】,进入应用创建页面; 3.按照页面提示填写,包含基本信息、容器设置、添加服务、高级配置几步。 1)基本信息填写:按照下表设置基本信息,其中带“”标志的参数为必填参数: 参数 说明 应用名称 新建容器应用的名称,命名必须唯一 集群 应用所在集群。若没有可选集群,单击“创建集群”进行创建,操作步骤请参见集群创建 命名空间 应用所在命名空间。若没有可选命名空间,单击“创建命名空间”进行创建,操作步骤请参见创建命名空间 实例数量 应用可以有一个或多个实例,用户可以设置具体实例个数。每个应用实例都由相同的容器部署而成。设置多个实例主要用于实现高可靠性,当某个实例故障时,应用还能正常运行 2)单击【下一步】,进入容器设置页面,完成镜像选择及容器配置(可选项:一个应用实例包含1个或多个相关容器。若您的应用包含多个容器,请单击【添加】,进行容器的添加);请按照下表设置基本信息,其中带“”标志的参数为必填参数: 参数 说明 选择镜像 天翼云官方镜像:展示了天翼云官方平台的公开镜像 我的镜像:展示了用户创建的所有镜像仓库 镜像版本 根据导入的镜像,决定其可选择的版本 容器名称 容器的名称,可修改 容器规格 可选择设定的配额,或选择自定义配额 高级配置 生命周期:生命周期脚本定义,针对容器类应用的生命周期事件采取的动作。步骤参见设置应用生命周期 . 启动命令:输入容器启动命令,容器启动后会立即执行 . 启动后处理:应用启动后触发 . 停止前处理::应用停止前触发 高级配置 环境变量:容器运行环境中设定的一个变量。可以在应用部署后修改,为应用提供极大的灵活性。 在“环境变量”页签,单击“添加环境变量”。变量类型分三种:手动添加、私密凭据导入、配置项导入。手动添加时,输入变量名称、变量/变量引用;私密凭据导入时,填写变量名称,并选择已经导入的变量/变量引用;配置项导入时,填写变量名称,并选择已经导入的变量/变量引用 高级配置 数据存储:支持挂载本地磁盘到容器中,以实现数据文件的持久化存储。详细步骤请参见为应用挂载数据卷 高级配置 健康检查:用于监测容器是否正常运行。设置了存活与业务两种探针 高级配置 安全设置:请输入用户ID,对容器权限进行设置,保护系统和其他容器不受其影响。 高级配置 容器日志:设置日志采集策略、配置日志目录。用于收集容器日志以及日志防爆 3)(可选)单击【下一步】,进入添加服务页面>【添加服务】,该步骤非必要步骤,也可后期进行配置,具体配置参数说明请参考设置应用访问策略; 4)(可选)单击【下一步】,进入高级配置页面,为应用设置更多高级设置,你可以为集群添加升级策略、迁移策略、缩容策略、调度则略,具体相关说明如下: 配置升级策略 参数 说明 替换升级 先删除旧实例,再创建新实例。升级过程中业务会中断 滚动升级 滚动升级将逐步用新版本的实例替换旧版本的实例,升级的过程中,业务流量会同时负载均衡分布到新老的实例上,因此业务不会中断 配置迁移策略 选择是,输入时间,可设置范围(09999秒),默认30秒,输入为有效整数。当应用实例所在的节点不可用时,系统将实例重新调度到其它可用节点的时间窗; 选择否,应用实例所在的节点不可用时,应用实例将不会调度到其它可用节点。 配置缩容策略 输入时间,可设置范围(09999秒),默认30秒;为应用删除提供一个时间窗,预留给生命周期中PreStop阶段执行命令。若超过此时间窗,进程仍未停止,该应用将被强制删除。 配置调度策略 你可以根据需要自由组合静态的全局调度策略或动态的运行时调度策略来实现自己的需求。详情请参见设置应用调度策略。 5)配置完成后请单击【提交】,等待应用创建完成,创建完成后返回应用列表; 4.在应用列表中,待应用状态为“运行中”,应用创建成功。应用状态不会实时更新,请按F5查看。
        来自:
        帮助文档
        云容器引擎(旧版)
        用户指南
        应用资源
        应用创建配置
        创建无状态应用
      • 安装Agent
        请在安装Agent前,确认待安装的服务器是否在可支持范围内。本小节介绍服务器安全卫士安装Agent步骤。 前提条件 Agent支持主流64位操作系统,支持的操作系统见产品规格 。 安装方法 登录云平台后, 进入控制中心“服务器安全卫士”,点击订单中的“控制台”,进入服务器安全卫士控制台,选择“通用功能 > 系统设置 > Agent安装”,进入Agent安装界面,选择对应的操作系统,设置主机信息,按安装引导进行安装即可。 注意事项 注意 Linux仅支持命令安装。 Windows支持命令安装、安装包安装、命令+ 安装包安装。 命令安装:可适用于批量安装(直连主机需使用PowerShell组件)。 安装包安装:适用于单台安装,用户可使用操作界面安装。 安装包+命令:适用于批量安装,安装包分发到各主机,批量执行命令。
        来自:
        帮助文档
        服务器安全卫士(文档停止维护)
        快速入门
        安装Agent
      • 产品功能
        本文介绍云分布式容器云平台的产品功能。 功能列表 分类 功能点 功能说明 总览 资源概览 可视化资源概览,全局资源统计和审计日志 注册集群 天翼云集群 一键关联天翼云容器集群,支持跨区域、跨地域集群 注册集群 三方云集群 纳管三方公有云上的 Kubernetes 集群,如阿里云(ACK)、腾讯云(TKE)、GCP (GKE)、AWS(EKS)等 注册集群 本地集群 纳管本地满足CNCF标准的IDC自建或私有云上的 Kubernetes 集群 集群管理 接入配置 通过应用 YAML 文件到目标集群,快速实现云上纳管 集群管理 操作日志 注册集群的业务日志、施工日志等关键日志信息 集群管理 集群控制台 统一管理控制台,云上云下一致性操作体验 容器舰队 集群编排 根据业务自定义舰队,一键编排,实现多集群批量管理 集群联邦 负载分发 标准 Kubernetes 及CDR的多集群动态分发 集群联邦 联邦伸缩 集群联邦可根据业务负载进行弹性伸缩
        来自:
        帮助文档
        分布式容器云平台 CCE One
        产品简介
        产品功能
      • 私有镜像概述
        本章节主要描述私有镜像。 私有镜像为用户自己创建的镜像,包含操作系统或业务数据、预装的公共应用以及用户的私有应用,仅用户个人可见。您可以通过以下方式创建私有镜像: 通过物理机服务器创建私有镜像 说明 当前仅支持快速发放型物理机服务器(操作系统安装在云硬盘中)来创建私有镜像。 通过外部镜像文件创建私有镜像 用户可以上传外部镜像文件并将镜像注册到云平台上,成为自己的私有镜像。目前支持的外部镜像文件格式包括:VMDK、VHD、QCOW2、RAW、VHDX、QED、VDI、QCOW、ZVHD2和ZVHD。 说明 其他格式的镜像文件需要预先使用工具转换镜像格式后,才能运行在物理机服务器。当您成功创建私有镜像后,镜像的状态为“正常”。此时,您可以使用该镜像新建物理机服务器实例,也可以将其共享给其他用户,还可以复制到您帐号下的其他区域。
        来自:
        帮助文档
        物理机 DPS
        用户指南
        制作物理机镜像
        私有镜像概述
      • 订购态势感知
        本小节介绍态势感知订购态势感知操作方法。 通过天翼云控制中心下的安全选项下的态势感知进入订购态势感知授权页面,订购页面如下,填写对应的信息。 串联部署网络配置的场景: 场景 A:态势网关作为网络出口,直挂业务主机(网关主备监控同公网IP下资产) 场景 B:态势网关下挂负载均衡(网关主备监控1资产) 场景 C:态势网关下挂云防火墙(网关主备监控1资产) 场景 D:态势网关上挂云防火墙(多资产监控) 旁路部署网络配置的场景: 使用天翼云平台的流量镜像功能引流,不涉及网络割接,只需开通态势感知控制端(多资产监控) 在订购完成后会有态势感知技术人员联系对接网络配置,请确保联系方式顺畅。
        来自:
        帮助文档
        态势感知
        快速入门
        订购态势感知
      • 算力市场介绍
        本文介绍算力市场。 概述 算力市场是基于容器化技术的GPU算力服务平台,专注于为需要大规模、高性能算力的企业与研究机构提供垂直优化的AI算力资源池与开放兼容的接入生态。作为底层智算生态算力的核心构建者,算力市场将强大的AI算力转化为如同“水电煤”一样的可按需取用的基础设施,支撑大模型训练推理、前沿AI研发等核心场景,驱动AI技术创新与产业落地。 功能特性 按需计费 提供秒级计费、稳定可靠的GPU算力服务,支持按需创建释放,无需预先准备底层资源。 开箱即用 支持通过模版快捷创建智算容器实例,从而实现服务的一键部署。 多框架AI开发支持 全面兼容Deepseek等主流AI框架,提供开箱即用的AI开发环境。 多层次GPU资源配置 支持多种类型的智算容器实例,适于不同应用场景下的不同业务规模。
        来自:
        帮助文档
        弹性容器实例
        用户指南
        算力市场
        算力市场介绍
      • Spark模板管理
        本章节主要介绍数据湖探索如何对Spark模板管理。 操作场景 在创建Spark作业时,您可以在已有的Spark样例模板中进行修改,来实现实际的作业逻辑需求,节约编辑SQL语句的时间。 当前云平台尚未提供预置的Spark模板,但支持用户自定义Spark作业模板,本节操作介绍在Spark管理页面创建Spark模板的操作方法。 新建Spark作业模板 Spark作业模板的创建方法是在创建Spark作业时,可直接将配置完成的作业信息设置为模板。 1. 在DLI管理控制台的左侧导航栏中,单击“作业模板”>“Spark模板”,页面跳转至Spark作业页面。 2. 参考创建Spark作业配置作业参数。 3. 作业编辑完成后,单击“设为模板”。 4. 输入模板名称和描述信息。 5. 设置模板的分组信息。便于模板的统一管理。 6. 单击“确定”,完成Spark模板的创建。
        来自:
        帮助文档
        数据湖探索
        用户指南
        作业模板
        Spark模板管理
      • API调用指南
        本节介绍印刷文字识别产品的API调用方法。 1.选择产品聚合页 点击【产品人工智能】,选择【印刷文字识别】,打开对应的产品聚合页。 2.打开帮助中心 点击【产品文档】,跳转到对应的文档中心,文档中心内“API参考”章节介绍了API调用的相关说明。 3.查看API的请求地址 API的请求地址格式为:{终端节点地址}+{对应接口URI}。 3.1终端节点地址 3.2对应接口URI 对应印刷文字识别下的具体产品。 以通用型OCR为例,选择【API参考API通用型OCR】,右侧即可查看URI。 4.查看接口文档 以通用型OCR为例:点击【API参考API】,选择【通用型OCR】,右侧即可查看、请求方法、接口要求、请求URI、请求参数、返回值说明、状态码等信息。 5.构造请求 点击【API参考如何调用API】,选择【构造请求】。 6.认证鉴权 在帮助中心菜单中点击【认证鉴权】,可根据右侧步骤完成认证鉴权。 具体步骤:信息的获取——基本签名流程——创建待签名字符串——构造动态密钥——签名应用及示例。 7.调试接口并查看状态码 调试后,如果API返回状态码为200,表示请求成功,API调试结束。
        来自:
        帮助文档
        印刷文字识别
        用户指南
        API调用指南
      • 查看集群状态
        本章节主要介绍如何查看集群状态。 集群列表显示MRS所有的集群,集群数量较多时,可采用翻页显示,您可以查看任何状态下的集群。 MRS作为一个海量数据管理和分析平台,数据处理能力在PB级以上。MRS支持创建多个集群,集群创建数量受弹性云主机数量限制。 集群列表默认按时间顺序排列,时间最近的集群显示在最前端。集群列表参数说明如下表所示。 现有集群:包括除了“失败”和“已删除”状态以外的所有集群。 历史集群:仅包含“已删除”的集群,目前界面只显示6个月内创建且已删除的集群,若需要查看6个月以前删除的集群,请联系支持人员。 失败任务管理:仅包含“失败”状态的任务。 −集群创建失败的任务 −集群删除失败的任务 −集群扩容失败的任务 −集群缩容失败的任务 −集群安装补丁失败的任务(仅MRS 3.x之前版本支持) −集群卸载补丁失败的任务(仅MRS 3.x之前版本支持) −集群升级规格失败的任务 集群列表参数 参数 参数说明 名称/ID 集群的名称,创建集群时设置。集群的ID是集群的唯一标识,创建集群时系统自动赋值,不需要用户设置。 :修改集群名称。 :复制集群ID。 集群版本 集群的版本号。 节点数 集群部署的节点个数,创建集群时设置。 状态 集群状态、进度信息。 创建集群进度包括: Verifying cluster parameters:校验集群参数中 Applying for cluster resources:申请集群资源中 Creating VMs:创建虚拟机中 Initializing VMs:初始化虚拟机中 Installing MRS Manager:安装MRS Manager中 Deploying the cluster:部署集群中 Cluster installation failed:集群安装失败 扩容集群进度包括: Preparing for cluster expansion:准备扩容中 Creating VM:创建虚拟机中 Initializing VM:初始化虚拟机中 Adding node to the cluster:节点加入集群中 Cluster expansion failed:集群扩容失败 缩容集群进度包括: Preparing for cluster shrink:正在准备缩容 Decommissioning instance:实例退服中 Deleting VM:删除虚拟机中 Deleting node from the cluster:从集群删除节点中 Cluster shrink failed:集群缩容失败 集群安装、扩容、缩容失败,会显示失败的原因,详情请参见创建自定义集群章节“集群创建失败” 中的“错误码表”。 创建时间 集群节点创建成功。 删除时间 集群节点停止时间,也是集群节点开始删除时间。仅“历史集群”会显示此参数。 可用区 集群工作区域下的可用区,创建集群时设置。 企业项目 集群所属的企业项目。 操作 删除:如果作业执行结束后不需要集群,可以单击“删除”,集群状态由“运行中”更新为“删除中”,待集群删除成功后,集群状态更新为“已删除”,并且显示在“历史集群”中。当MRS集群部署失败时,集群会被自动删除。 仅“现有集群”会显示此参数。 说明 一般在数据完成分析和存储后或集群异常无法提供服务时才执行删除操作。如果数据没有完成处理分析,删除集群会导致数据丢失,请谨慎操作。 按钮说明 按钮 说明 在下拉框中选择企业项目,筛选对应集群。 在下拉框中选择集群状态,筛选现有集群。 现有集群 − 所有状态:表示筛选所有的现有集群 − 启动中:表示筛选“启动中”状态的现有集群 − 运行中:表示筛选“运行中”状态的现有集群 − 扩容中:表示筛选“扩容中”状态的现有集群。 − 缩容中:表示筛选“缩容中”状态的现有集群。 − 异常:表示筛选“异常”状态的现有集群 − 删除中:表示筛选“删除中”状态的现有集群 选择“集群列表>现有集群”,单击进入“失败任务管理”页面。 Num:表示“失败”状态的任务数。 在搜索框中输入集群名称或ID,单击,搜索集群。 标签搜索 单击“标签搜索”输入待查询集群的标签,然后单击“搜索”搜索对应集群。 标签键或标签值可以通过下拉列表中选择,当标签键或标签值全匹配时,系统可以自动查询到目标集群。当有多个标签条件时,会取各个标签的交集,进行集群查询。 单击,手动刷新现有集群列表。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        管理集群
        集群概览
        查看集群状态
      • 将MySQL迁移至TeleDB
        开启binlog并设置格式 binlogformatrow binlogrowimagefull expirelogsdays7 binlog日志保留时间 gtidmode on 开启gtid enforcegtidconsistency 1 defaulttimezone '+8:00' 设置时区,解决CST夏令时的问题 maxconnections 1000 设置最大连接数 4. 重启MySQL。 5. 确认待迁移对象中是否包含触发器。 > 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 > 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 6. 数据及业务信息统计 > 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例:4C8G + 500G + SSD 目标库磁盘信息:例:4C8G + 500G + SSD 网络情况:例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量:例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例:一天的binlog日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。 注意 如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类 规划迁移批次,例:规划分3次进行迁移,迁移时间每天晚上20:0006:00,日期为20230918至20230920。 注意 实际迁移操作请与数据库全量备份操作错开,以免交叉影响,否则可能会导致备份失败,同时影响迁移效率。 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 进入迁移页面单击TeleDBDCP数据库管理平台左上角,可跳转到DTS管理服务页面。 2. 数据页面列表实例开通后,存在待配置 状态实例,单击操作 列的 实例配置 ,进入配置页面。 3. 配置源库及目标库信息 1. 进入实例配置第一个步骤的配置源库及目标库信息 页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。TeleDB的连接信息可以从TeleDB管理控制台看到,选择协调节点的主节点信息进行连接。在测试环境下,源库所在主机可通过连接网线到测试样品内网,并指定IP地址后,填写相应信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的检测联通性并进行下一步按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置 源库和目标库连通性测试成功后,进入实例配置第二个步骤的配置迁移对象及高级配置页面,在“源库对象”中展开库后,选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查并启动。 完成迁移对象和高级配置后,单击 下一步预检查 ,进入实例配置第三个步骤的预检查并启动页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 > 检查项 检查内容 > > 待迁移表主键检查 检查待迁移表是否都存在主键。 > 存储引擎检查 检查源库中待迁移表的存储引擎是否满足要求。 > 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 > 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 > 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 > 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 > 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求 > 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 > 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 > 源库连通性检查 检查数据传输服务能否连通源数据库。 > 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 > 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 > 约束完整性检查 检查待迁移对象中所有表的约束外键所属对象是否被选中。 > 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。也可以直接单击 “数据迁移”页签,返回数据迁移列表。注意,如果预检查中有错误项,数据迁移将无法开始;如果有警告项,数据迁移任务可以运行,但可能会出现一些问题。 直接返回迁移列表,迁移任务将处于未启动状态。 勾选实例,然后单击 开始任务 ,直到数据迁移实例完成(没有增量迁移),或者处于增量迁移状态。运行到增量迁移后,如果显示未运行,稍等一会会进入增量运行中。
        来自:
      • 将MySQL迁移至TeleDB
        开启binlog并设置格式 binlogformatrow binlogrowimagefull expirelogsdays7 binlog日志保留时间 gtidmode on 开启gtid enforcegtidconsistency 1 defaulttimezone '+8:00' 设置时区,解决CST夏令时的问题 maxconnections 1000 设置最大连接数 4. 重启MySQL。 5. 确认待迁移对象中是否包含触发器。 > 如果将触发器作为结构的一部分,在DTS的调度逻辑上,触发器会先于全量迁移被迁移到TeleDB。这样可能会影响到全量迁移,导致数据不一致。 > 建议将触发器放到全量迁移之后,再新建一个迁移任务进行迁移。 6. 数据及业务信息统计 > 如果为非测试任务,需要在迁移之前统计业务以及迁移信息,方便进行迁移任务规划。 资源信息: 源库规格信息,例:4C8G + 500G + SSD 目标库磁盘信息:例:4C8G + 500G + SSD 网络情况:例:为测试环境纯内网传输,无复杂的网络拓补结构 数据信息: 总数据量,例如30GB 总库表数量:例:40个库,8000张表,2000个视图,5个触发器 每日新增数据量级,例:一天的binlog日志新增大概100GB 是否所有表都有主键,建议迁移前完善主键,提高性能,方便运维。 注意 如果存在无主键的表,则增量阶段源端对应表的增、删、改操作不会同步至目标端,可能导致数据不一致,请谨慎评估。 业务类 规划迁移批次,例:规划分3次进行迁移,迁移时间每天晚上20:0006:00,日期为20230918至20230920。 注意 实际迁移操作请与数据库全量备份操作错开,以免交叉影响,否则可能会导致备份失败,同时影响迁移效率。 数据迁移是否可停业务,例:能/不能 增量迁移情况,例:开启增量迁移,持续时间5天 可停业务时间长度,例:服务停机时间预计48小时 业务中是否存在百万级别的大事务,例:存在,涉及对表CLOUD.LOGS进行大事务操作,存在一个存储过程用不带where条件的delete语句定期清理该表。 操作步骤 1. 进入迁移页面单击TeleDBDCP数据库管理平台左上角,可跳转到DTS管理服务页面。 2. 数据页面列表实例开通后,存在待配置 状态实例,单击操作 列的 实例配置 ,进入配置页面。 3. 配置源库及目标库信息 1. 进入实例配置第一个步骤的配置源库及目标库信息 页面,填入源库与目标库的相关配置信息,包括数据库类型、IP地址端口、数据库账号、数据库密码等信息。TeleDB的连接信息可以从TeleDB管理控制台看到,选择协调节点的主节点信息进行连接。在测试环境下,源库所在主机可通过连接网线到测试样品内网,并指定IP地址后,填写相应信息。 2. 完成上述信息的填写后,单击源数据库和目标数据库的检测联通性并进行下一步按钮进行数据库连接测试,检查数据库能否正常连接。 4. 配置迁移对象及高级配置 源库和目标库连通性测试成功后,进入实例配置第二个步骤的配置迁移对象及高级配置页面,在“源库对象”中展开库后,选择要迁移的源库对象,选中后单击“>”按钮,将待迁移对象移动到“已选择对象”中。 5. 预检查并启动。 完成迁移对象和高级配置后,单击 下一步预检查 ,进入实例配置第三个步骤的预检查并启动页面。预检查会检查如下列表信息,并给出检查结果,用户可以依据检查结果进行下一步操作。 > 检查项 检查内容 > > 待迁移表主键检查 检查待迁移表是否都存在主键。 > 存储引擎检查 检查源库中待迁移表的存储引擎是否满足要求。 > 源库binlog存在性检查 查看源库的binlog文件是否被误删除。 > 源库binlog影像类型检查 查看源库的binlogrowimage参数是不是FULL。 > 源库binlog是否开启检查 查看源库的logbin参数是不是ON。 > 源库binlog模式检查 查看源库的binlogformat参数是不是ROW。 > 源库binlog保留时间检查 检查源库的binlog保留时间是否满足要求 > 源库和目标库字符集一致性检查 检查源库和目标库的字符集是否一致。 > 源库用户权限检查 检查源库用于DTS任务的用户是否具有相应的权限。 > 源库连通性检查 检查数据传输服务能否连通源数据库。 > 目标库用户权限检查 检查目标库用于DTS任务的用户是否具有相应的权限。 > 目标库连通性检查 检查数据传输服务器能否连通目标数据库。 > 约束完整性检查 检查待迁移对象中所有表的约束外键所属对象是否被选中。 > 如果预检查通过,可单击【预检查】页面底部的“启动迁移”按钮,开始迁移任务。也可以直接单击 “数据迁移”页签,返回数据迁移列表。注意,如果预检查中有错误项,数据迁移将无法开始;如果有警告项,数据迁移任务可以运行,但可能会出现一些问题。 直接返回迁移列表,迁移任务将处于未启动状态。 勾选实例,然后单击 开始任务 ,直到数据迁移实例完成(没有增量迁移),或者处于增量迁移状态。运行到增量迁移后,如果显示未运行,稍等一会会进入增量运行中。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        管理平台使用手册
        数据传输服务操作指南
        迁移指南
        迁移配置
        将MySQL迁移至TeleDB
      • 功能概述
        特性 说明 相关操作 使用云主机创建系统盘镜像 创建云主机实例后,您可以根据业务需求自定义实例(例如:安装软件、部署应用环境), 并使用更新后的云主机创建系统盘镜像。 通过该镜像创建的新实例,会包含您已配置的自定义项,节省您重复配置的时间。 使用外部镜像文件创建系统盘镜像(也称导入镜像) 可以将您本地或者其他云平台的云主机系统盘镜像文件导入至天翼云镜像服务中。 导入后,可使用该镜像创建新的弹性云主机,或对已有实例的系统进行重装或更换。 使用ISO文件创建系统盘镜像 相比其他格式的外部镜像文件,ISO文件无法直接使用, 需要利用一些工具进行解压后才能使用。 创建流程较为复杂,详见“相关操作”。 使用外部镜像文件创建数据盘镜像 可以将您本地或者其他云平台的服务器数据盘镜像文件导入至天翼云镜像服务中。 导入后,可使用该镜像创建新的云硬盘。 使用云主机、云主机备份,或者云服务备份创建整机镜像 将云主机及其上挂载的数据盘一起创建整机镜像,此镜像包含操作系统、应用软件, 以及用户的业务数据,可用于快速发放相同配置的云主机,实现数据搬迁。 支持使用云主机、云主机备份、云服务备份三种整机镜像创建方式。 通过私有镜像创建云主机 系统盘镜像或者整机镜像创建成功后,在该镜像所在行单击“申请主机”即可创建新的云主机。
        来自:
        帮助文档
        镜像服务 IMS
        产品简介
        功能概述
      • 功能特性
        弱口令检测 通过弱口令字典,检测用户SSH、RDP等服务是否使用了弱密码,及时更改弱口令有效防备暴力破解入侵。 配置脆弱性检测 配置脆弱性检测也就是基线检查,指针对IT设备的安全特性,选择合适的安全控制措施,定义不同IT设备的最低安全配置要求,则该最低安全配置要求就称为安全基线,天翼云漏洞扫描服务平台整合操作系统、数据库等系统环境基线规范,通过基线规范逐项比对主机安全配置项的配置情况,发现配置薄弱点,反馈检查参数,针对加固,避免因配置薄弱导致的入侵风险。 专业的漏洞分析 漏洞扫描结束后扫描器将自动输出扫描结果,描述漏洞风险、漏洞数量以及整改建议,电信云安全专家对扫描器结果结合应用环境、最新业界安全形势、大数据分析、威胁情报分析等整理输出一份有深度、有广度的专业漏洞扫描评估报告,并提出切实可行的安全整改建议,帮助客户全面掌握漏洞风险态势,合理高效安排加固工作。
        来自:
        帮助文档
        漏洞扫描
        产品介绍
        功能特性
      • 整机备份与恢复
        整机恢复 块级整机恢复 前置条件 1. 整机备份规则已生成备份记录和备份集。 2. 准备恢复目标主机。 使用引导镜像创建恢复目标客户端 1. 镜像制作 1. 进入++镜像服务++页面,按照流程引导开通对象存储并创建桶、上传镜像文件(上传镜像文件该步骤可忽略,MDR侧已提供镜像文件)、导入镜像后,完成镜像制作。其中: 2. 导入镜像:通过镜像文件创建私有镜像。 创建私有镜像时,镜像文件地址如下: 操作系统 华东1 华南2 西南1 西南2 centos、linux 普通压缩。压缩效果:普通压缩>极速压缩。综合考虑时间和效果,推荐使用极速压缩。 传输加密 选择是否启用传输加密。启用传输加密后,工作机在准备发送数据过程时使用加密算法和密钥加密数据,当灾备机收到数据后将执行解密操作再写入灾备机的本地存储。此选项默认不加密。 7. 确认配置后,点击“确认”后完成创建。 上述内容详情可参见多活容灾服务用户帮助手册数据定时灾备。
        来自:
      • 计费项
        vCPU数量统计 vCPU统计方法如下,可以运行如下命令查看: plaintext kubectl get nodes o jsonpath'{range .items[]}{.metadata.name}{"t"} {.status.conditions[?(@.type"Ready")].status}{"t"} {.status.capacity.cpu}{"n"}' grep True vCPU计费规则 集群状态 是否计费 待接入 否 接入超时 否 运行中 是 注意 1. 只有注册集群接入CCE One且处于“运行中”状态时,CCE One才会进行计费。 2. CCE One会获取用户集群vCPU的使用量并记录,按小时生成账单。 已断连 是 注意 集群“已断连”状态,CCE One无法获取集群vCPU使用量信息,按数量为 0 进行计费。 已退订 否 计费周期 天翼云分布式容器云平台CCE One按小时计费,每1个小时整点结算一次费用(以UTC+8时间为准),结算完毕后将进入新的计费周期。 计费起点以创建集群成功接入CCE One注册集群时间为准,终点以退订注册集群时间为准。一个计费周期内,不足一小时将按一小时计费。
        来自:
        帮助文档
        分布式容器云平台 CCE One
        计费说明
        计费项
      • 安全使用IAM
        授予最小权限 最小权限原则是标准的安全建议,您可以使用IAM提供的系统权限,或者自己创建自定义策略,给帐号中的用户仅授予刚好能完成工作所需的权限,通过最小权限原则,可以帮助您安全地控制用户对天翼云云资源的访问。 同时,建议为使用API、CLI、SDK等开发工具访问云服务的IAM用户,授予自定义策略,通过精细的权限控制,减小因访问密钥泄露对您的帐号造成的影响。 开启虚拟MFA功能 MultiFactor Authentication (简称MFA) 是一种非常简单的安全实践方法,建议您给天翼云帐号以及您帐号中具备较高权限的用户开启MFA功能,它能够在用户名和密码之外再额外增加一层保护。启用MFA后,用户登录控制台时,系统将要求用户输入用户名和密码(第一安全要素),以及来自其MFA设备的验证码(第二安全要素)。这些多重要素结合起来将为您的账户和资源提供更高的安全保护。 MFA设备可以基于硬件也可以基于软件,系统目前仅支持基于软件的虚拟MFA,虚拟MFA是能产生6位数字认证码的应用程序,此类应用程序可在移动硬件设备(包括智能手机)上运行,非常方便。 设置敏感操作 设置敏感操作后,如果您或者您帐号中的用户进行敏感操作时,例如删除资源,需要进行验证码验证,避免误操作带来的风险和损失。 定期修改身份凭证 如果您不知道自己的密码或访问密钥已泄露,定期进行修改可以将不小心泄露的风险降至最低。 定期更改账号密码可以通过账号中心密码修改进行。 轮换访问密钥可以通过创建两个访问密钥进行,将两个访问密钥作为一主一备,一开始先使用主访问密钥一,一段时间后,使用备访问密钥二,然后在控制台删除主访问密钥一,并重新生成一个访问密钥,在您的应用程序中定期轮换使用。
        来自:
        帮助文档
        统一身份认证(一类节点)
        最佳实践
        安全使用IAM
      • Volcano调度器
        本文主要介绍Volcano调度器。 插件简介 Volcano调度器是一个基于Kubernetes的批处理平台,提供了机器学习、深度学习、生物信息学、基因组学及其他大数据应用所需要而Kubernetes当前缺失的一系列特性。 Volcano提供了高性能任务调度引擎、高性能异构芯片管理、高性能任务运行管理等通用计算能力,通过接入AI、大数据、基因、渲染等诸多行业计算框架服务终端用户。(目前Volcano项目已经在Github开源) Volcano针对计算型应用提供了作业调度、作业管理、队列管理等多项功能,主要特性包括: 丰富的计算框架支持:通过CRD提供了批量计算任务的通用API,通过提供丰富的插件及作业生命周期高级管理,支持TensorFlow,MPI,Spark等计算框架容器化运行在Kubernetes上。 高级调度:面向批量计算、高性能计算场景提供丰富的高级调度能力,包括成组调度,优先级抢占、装箱、资源预留、任务拓扑关系等。 队列管理:支持分队列调度,提供队列优先级、多级队列等复杂任务调度能力。 项目开源地址: 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 Volcano ,单击“安装”。 步骤 2 该插件可配置“单实例”、“高可用”或自定义规格。 选择自定义时,volcanocontroller和volcanoscheduler的建议值如下: 小于100个节点,可使用默认配置,即CPU的申请值为500m,限制值为2000m;内存的申请值为500Mi,限制值为2000Mi。 高于100个节点,每增加100个节点(10000个Pod),建议CPU的申请值增加500m,内存的申请值增加1000Mi;CPU的限制值建议比申请值多1500m,内存的限制值建议比申请值多1000Mi。 volcanocontroller和volcanoscheduler的建议值 节点/Pods规模 CPU Request(m) CPU Limit(m) Memory Request(Mi) Memory Limit(Mi) 50/5k 500 2000 500 2000 100/1w 1000 2500 1500 2500 200/2w 1500 3000 2500 3500 300/3w 2000 3500 3500 4500 400/4w 2500 4000 4500 5500 步骤 3 配置volcano默认调度器配置参数。 cacert: '' defaultschedulerconf: actions: 'allocate, backfill' tiers: plugins: name: 'priority' name: 'gang' name: 'conformance' plugins: name: 'drf' name: 'predicates' name: 'nodeorder' plugins: name: 'ccegputopologypredicate' name: 'ccegputopologypriority' name: 'ccegpu' plugins: name: 'nodelocalvolume' name: 'nodeemptydirvolume' name: 'nodeCSIscheduling' name: 'networkresource' servercert: '' serverkey: '' 插件 功能 参数说明 用法演示 binpack 将pod调度到资源使用较高的节点以减少资源碎片 binpack.weight:binpack插件本身在所有插件打分中的权重 binpack.cpu:cpu资源在资源比重的比例,默认是1 binpack.memory:memory资源在所有资源中的比例,默认是1l binpack.resources: plugins: name: binpack arguments: binpack.weight: 10 binpack.cpu: 1 binpack.memory: 1 binpack.resources: nvidia.com/gpu, example.com/foo binpack.resources.nvidia.com/gpu: 2 binpack.resources.example.com/foo: 3 conformance 跳过关键Pod,比如在kubesystem命名空间的Pod,防止这些Pod被驱逐 gang 将一组pod看做一个整体去分配资源 priority 使用用户自定义负载的优先级进行调度 overcommit 将集群的资源放到一定倍数后调度,提高负载入队效率。负载都是deployment的时候,建议去掉此插件或者设置扩大因子为2.0。 overcommitfactor: 扩大因子,默认是1.2 plugins: name: overcommit arguments: overcommitfactor: 2.0 drf 根据作业使用的主导资源份额进行调度,用的越少的优先 predicates 预选节点的常用算法,包括节点亲和,pod亲和,污点容忍,node ports重复,volume limits,volume zone匹配等一系列基础算法 nodeorder 优选节点的常用算法 nodeaffinity.weight:节点亲和性优先调度,默认值是1 podaffinity.weight:pod亲和性优先调度,默认值是1 leastrequested.weight:资源分配最少的的节点优先,默认值是1 balancedresource.weight:node上面的不同资源分配平衡的优先,默认值是1 mostrequested.weight:资源分配最多的的节点优先,默认值是0 tainttoleration.weight:污点容忍高的优先调度,默认值是1 imagelocality.weight:node上面有pod需要镜像的优先调度,默认值是1 selectorspread.weight: 把pod均匀调度到不同的节点上,默认值是0 volumebinding.weight: local pv延迟绑定调度,默认值是1 podtopologyspread.weight: pod拓扑调度,默认值是2 plugins: name: nodeorder arguments: leastrequested.weight: 1 mostrequested.weight: 0 nodeaffinity.weight: 1 podaffinity.weight: 1 balancedresource.weight: 1 tainttoleration.weight: 1 imagelocality.weight: 1 volumebinding.weight: 1 podtopologyspread.weight: 2 ccegputopologypredicate GPU拓扑调度预选算法 ccegputopologypriority GPU拓扑调度优选算法 ccegpu 结合CCE的GPU插件支持GPU资源分配,支持小数GPU配置 numaaware numa拓扑调度 weight: 插件的权重 networkresource 支持预选过滤ENI需求节点,参数由CCE传递,不需要手动配置 NetworkType: 网络类型(eni或者vpcrouter类型) nodelocalvolume 支持预选过滤不符合local volume需求节点 nodeemptydirvolume 支持预选过滤不符合emptydir需求节点 nodeCSIscheduling 支持预选过滤everest组件异常节点 步骤 4 单击“安装”。
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        Volcano调度器
      • CCE节点故障检测
        本文主要介绍CCE节点故障检测插件。 插件简介 CCE节点故障检测(nodeproblemdetector,简称npd)是一款监控集群节点异常事件的插件,以及对接第三方监控平台功能的组件。它是一个在每个节点上运行的守护程序,可从不同的守护进程中搜集节点问题并将其报告给apiserver。nodeproblemdetector可以作为DaemonSet运行, 也可以独立运行。 有关社区开源项目nodeproblemdetector的详细信息,请参见nodeproblemdetector。 约束与限制 使用NPD插件时,不可对节点磁盘进行格式化或分区。 节点上每个NPD进程标准占用30mCPU,100MB内存。 权限说明 NPD插件为监控内核日志,需要读取宿主机/dev/kmsg设备,为此需要开启容器特权,详见privileged。 同时CCE根据最小化权限原则进行了风险消减,NPD运行限制只拥有以下特权: capdacreadsearch,为访问/run/log/journal capsysadmin,为访问/dev/kmsg 安装插件 步骤 1 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件管理”,在右侧找到 npd ,单击“安装”。 步骤 2 根据下表配置参数,然后单击“安装”。 仅v1.16.0及以上版本支持配置。 npc.enable:是否启用npc,默认值为 false ,true表示启用。 NPD检查项 说明 当前检查项仅1.16.0及以上版本支持。 NPD的检查项主要分为事件类检查项和状态类检查项。 事件类检查项 对于事件类检查项,当问题发生时,NPD会向APIServer上报一条事件,事件类型分为Normal(正常事件)和Warning(异常事件) 故障检查项 功能 说明 KubeletStart 检查kubelet启动并上报 Normal类事件 DockerStart 检查Docker启动并上报 Normal类事件 ContainerdStart 检查Containerd启动并上报 Normal类事件 OOMKilling 检查oom事件发生并上报 Warning类事件 TaskHung 检查taskHung事件发生并上报 Warning类事件 KernelOops 检查内核0指针panic错误 Warning类事件 ConntrackFull 检查连接跟踪表是否满 Warning类事件周期:30秒阈值:80% 状态类检查项 对于状态类检查项,当问题发生时,NPD会向APIServer上报一条事件,并同步修改节点状态,可配合Nodeproblemcontroller故障隔离对节点进行隔离。 下列检查项中若未明确指出检查周期,则默认周期为30秒。 故障检查项 功能 说明 FrequentKubeletRestart 通过监听journald日志检测kubelet是否频繁重启 周期:5分钟 回溯时间:10分钟 阈值:10次即在回溯时间段内重启10次表示频繁重启,将会产生故障告警。 监听对象:/run/log/journal目录下的日志说明Ubuntu操作系统由于日志格式不兼容,暂不支持上述检查项。 FrequentDockerRestart 通过监听journald日志检测docker是否频繁重启 FrequentContainerdRestart 通过监听journald日志检测containerd是否频繁重启 CRIProblem 检查容器CRI组件状态 检查对象:Docker或Containerd KUBELETProblem 检查Kubelet状态 无 NTPProblem 检查ntp、chrony服务状态检查节点时钟是否偏移 时钟偏移阈值:8000ms PIDProblem 检查Pid是否充足 阈值:90% 使用量:/proc/loadavg中nrthreads 最大值:/proc/sys/kernel/pidmax和/proc/sys/kernel/threadsmax两者的较小值。 FDProblem 检查文件句柄数是否充足 阈值:90% 使用量:/proc/sys/fs/filenr中第1个值 最大值:/proc/sys/fs/filenr中第3个值 MemoryProblem 检查节点整体内存是否充足 阈值:90% 使用量:/proc/meminfo中MemTotalMemAvailable 最大值:/proc/meminfo中MemTotal ResolvConfFileProblem 检查ResolvConf配置文件是否丢失检查ResolvConf配置文件是否异常异常定义:不包含任何上游域名解析服务器(nameserver)。 检查对象:/etc/resolv.conf ProcessD 检查节点是否存在D进程 数据来源: /proc/{PID}/stat 等效命令:ps aux例外场景:ProcessD忽略BMS节点下的SDI卡驱动依赖的常驻D进程heartbeat、update ProcessZ 检查节点是否存在Z进程 ScheduledEvent 检查节点是否存在主机计划事件典型场景:底层宿主机异常,例如风扇损坏、磁盘坏道等,导致其上虚机触发冷热迁移。 数据来源: 网络连通类检查项 故障检查项 功能 说明 CNIProblem 检查容器CNI组件是否正常运行 无 KUBEPROXYProblem 检查Kubeproxy是否正常运行 无 另外kubelet组件内置如下检查项,但是存在不足,您可通过集群升级或安装NPD进行补足。 Kubelet内置检查项 故障检查项 功能 说明 PIDPressure 检查Pid是否充足 周期:10秒 阈值:90% 缺点:社区1.23.1及以前版本,该检查项在pid使用量大于65535时失效,详见issue 107107。社区1.24及以前版本,该检查项未考虑threadmax。 MemoryPressure 检查容器可分配空间(allocable)内存是否充足 周期:10秒 阈值:最大值100M 最大值(Allocable):节点总内存节点预留内存 缺点:该检测项没有从节点整体内存维度检查内存耗尽情况,只关注了容器部分(Allocable),在低。 DiskPressure 检查kubelet盘和docker盘的磁盘使用量及inodes使用量 周期:10秒阈值:90%
        来自:
        帮助文档
        云容器引擎
        用户指南
        插件管理
        CCE节点故障检测
      • 项目管理类
        本节主要介绍项目管理类问题 IAM与企业项目管理的区别 统一身份认证(Identity and Access Management,简称IAM)服务是提供用户身份认证、权限分配、访问控制等功能的身份管理服务。 企业项目管理是提供给企业客户的与多层级组织和项目结构相匹配的云资源管理服务。主要包括企业项目资源管理和权限管理。 与IAM相同的是,企业项目管理可以进行人员管理及权限分配;企业项目管理对资源的授权粒度比IAM的更为精细,建议中大型企业使用企业项目管理服务。 IAM和企业管理的区别 开通方式 IAM是云平台的身份管理服务,注册系统后,无需付费即可使用。 企业管理是云平台的资源管理服务,注册系统后,需提交客服工单申请开通,开通后无需付费免费使用。 资源隔离 IAM通过在每一个区域中创建项目,隔离不同区域中的资源。以项目为单位进行授权,用户可以访问指定项目中的所有资源。 企业项目管理通过创建企业项目,隔离企业不同项目之间的资源,企业项目中可以包含多个区域的资源。企业项目还可以实现对特定云资源的授权,例如:将一台特定的ECS添加至企业项目,对企业项目进行授权后,可以控制用户仅能管理这台特定的ECS。 IAM与企业管理的关系 IAM和企业管理的创建用户以及用户组功能,两边是相互同步关系。 申请开通企业项目管理服务后,使用企业项目管理的用户组授权功能时,该功能依赖IAM的策略授权。如果企业项目管理中系统预置的策略不能满足您的使用要求,需要在IAM中创建自定义策略,自定义策略会同步到企业管理中,可以在IAM或者企业项目管理中给用户组授权自定义策略。 如果在IAM和企业管理中同时给用户组授权,用户同时拥有基于IAM项目的策略和基于企业项目的策略,在发起访问请求时,系统根据用户被授权的访问策略中的Action进行鉴权判断。 如果策略中包含相同的Action,以在IAM中设置的生效,例如:用户请求创建弹性云主机,鉴权结果为IAM中定义的Deny,不能创建弹性云主机。 IAM项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Deny" } 企业项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Allow" } 如果策略中包含不同的Action,则IAM和企业管理中设置的都生效。以下示例表示用户可以创建弹性云主机以及删除弹性云主机。 IAM项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Allow" } 企业项目策略中包含以下action: { "Action": [ "ecs:cloudServers:delete" ], "Effect": "Allow" }
        来自:
        帮助文档
        统一身份认证(二类节点)
        常见问题
        项目管理类
      • 项目管理类
        本节主要介绍项目管理类问题 IAM与企业项目管理的区别 统一身份认证(Identity and Access Management,简称IAM)服务是提供用户身份认证、权限分配、访问控制等功能的身份管理服务。 企业项目管理是提供给企业客户的与多层级组织和项目结构相匹配的云资源管理服务。主要包括企业项目资源管理和权限管理。 与IAM相同的是,企业项目管理可以进行人员管理及权限分配;企业项目管理对资源的授权粒度比IAM的更为精细,建议中大型企业使用企业项目管理服务。 IAM和企业管理的区别 开通方式 IAM是云平台的身份管理服务,注册系统后,无需付费即可使用。 企业管理是云平台的资源管理服务,注册系统后,需提交客服工单申请开通,开通后无需付费免费使用。 资源隔离 IAM通过在每一个区域中创建项目,隔离不同区域中的资源。以项目为单位进行授权,用户可以访问指定项目中的所有资源。 企业项目管理通过创建企业项目,隔离企业不同项目之间的资源,企业项目中可以包含多个区域的资源。企业项目还可以实现对特定云资源的授权,例如:将一台特定的ECS添加至企业项目,对企业项目进行授权后,可以控制用户仅能管理这台特定的ECS。 IAM与企业管理的关系 IAM和企业管理的创建用户以及用户组功能,两边是相互同步关系。 申请开通企业项目管理服务后,使用企业项目管理的用户组授权功能时,该功能依赖IAM的策略授权。如果企业项目管理中系统预置的策略不能满足您的使用要求,需要在IAM中创建自定义策略,自定义策略会同步到企业管理中,可以在IAM或者企业项目管理中给用户组授权自定义策略。 如果在IAM和企业管理中同时给用户组授权,用户同时拥有基于IAM项目的策略和基于企业项目的策略,在发起访问请求时,系统根据用户被授权的访问策略中的Action进行鉴权判断。 如果策略中包含相同的Action,以在IAM中设置的生效,例如:用户请求创建弹性云主机,鉴权结果为IAM中定义的Deny,不能创建弹性云主机。 IAM项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Deny" } 企业项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Allow" } 如果策略中包含不同的Action,则IAM和企业管理中设置的都生效。以下示例表示用户可以创建弹性云主机以及删除弹性云主机。 IAM项目策略中包含以下action: { "Action": [ "ecs:cloudServers:create" ], "Effect": "Allow" } 企业项目策略中包含以下action: { "Action": [ "ecs:cloudServers:delete" ], "Effect": "Allow" }
        来自:
        帮助文档
        企业项目管理(二类节点)
        常见问题
        项目管理类
      • 修改私有IP地址
        本节介绍了修改私有IP地址的操作场景、约束与限制、操作步骤。 操作场景 云平台支持修改主网卡的私有IP地址,具体操作请参见本节内容。如需修改扩展网卡的私有IP地址,请删除网卡,并挂载新网卡。 约束与限制 弹性云主机已关机。 如果网卡绑定了虚拟IP或者DNAT规则,需要先解绑。 如果网卡上有IPv6地址,无法修改(包括IPv4和IPv6的)私有IP地址。 如需修改弹性负载均衡后端服务器的私有IP地址,请先移出后端服务器组后再修改私有IP。 操作步骤 1. 登录管理控制台。 2. 选择“计算 > 弹性云主机”。 3. 单击待修改私有IP地址的弹性云主机名称。 4. 系统跳转至该弹性云主机详情页面。 5. 选择“网卡”页签,并单击主网卡所在行的“修改私有IP地址”。系统打开“修改私有IP地址”窗口。 6. 请根据需要修改主网卡的“子网”、“私有IP地址”。 说明 只能在同一VPC下更换子网。 7. 如果未填写修改后的“私有IP地址”,系统会自动分配一个新的私有IP地址给主网卡使用。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        网卡
        修改私有IP地址
      • 版本说明书
        本页简要介绍分布式数据库V5.0.0版本更新说明。 V5.0.0版本说明 组件名称 版本号 发布时间 TeleDBXCore 5.0 2022年 12 月 新增和优化功能: 1. 支持重置实例密码,包括查看实例详情和重置实例root用户密码。 2. 支持备份数据加密。 3. 支持表空间管理,包括创建表空间、查看实例所有用户、检测挂载目录可用性、查看表空间列表、删除表空间和修改表空间。 4. 支持创建同规格实例,包括查看实例信息、创建同规格实例、软件包增加blocksize特性解析、升级时增加blocksize筛选、实例开通时提供多个不同的blocksize编译包、。创建实例时增加数据损坏检测和链接实例提供SSL加密功能。 5. 优化Oracle兼容性,包括支持NULLIF函数、支持TRIM函数、支持 physicalattributesclause函数、支持dual虚表、支持查询ORDER BY、允许插入字符串类型的数据(text/varchar.)转换为数字类型的列(int/nuemric)和支持运算符“”等。 6. 支持跨数据库数据访问、跨平台与Oracle数据库数据交换和多模式访问。 修改功能 无。 修复缺陷 无。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品历史版本
        V5.0.0版本产品文档
        版本说明书
      • 产品定义
        本文为您介绍密钥管理服务的定义及产品架构。 密钥管理服务(Key Management Service,KMS)是一站式密钥管理和数据加密服务平台,提供安全合规、可靠易用的资源托管及密码运算服务。同时与天翼云云硬盘、对象存储、弹性文件、关系型数据库MYSQL等云产品无缝集成,实现云上原生数据的加密保护。 产品架构 业务组件 业务组件 说明 参考文档 密钥管理 密钥管理组件提供密钥安全托管存储、生命周期管理以及密码运算能力。您可以在自建应用程序中,通过KMS提供的云原生接口实现数据加解密、签名验签等运算,同时KMS已对接天翼云云硬盘、对象存储、弹性文件、关系数据库MySQL版,为云服务提供服务端加密能力。 密钥管理概述 证书管理 证书管理组件提供高可用、高安全的密钥和证书托管能力,您可以通过KMS提供的云原生接口实现签名验签运算。 证书管理概述
        来自:
        帮助文档
        密钥管理
        产品介绍
        产品定义
      • 内置依赖包
        本章节主要介绍内置依赖包。 DLI内置依赖包是平台默认提供的依赖包,用户打包Spark或Flink jar作业jar包时,不需要额外上传这些依赖包,以免与平台内置依赖包冲突。 Spark 2.3.2依赖包 accessorssmart1.2.jar activation1.1.1.jar aircompressor0.8.jar alluxio2.3.1luxorSNAPSHOTclient.jar antlr2.7.7.jar antlr4runtime4.81.jar antlrruntime3.4.jar aopalliance1.0.jar aopalliancerepackaged2.4.0b34.jar apachelog4jextras1.2.17.jar arpackcombinedall0.1.jar arrowformat0.8.0.jar arrowmemory0.8.0.jar arrowvector0.8.0.jar asm5.0.4.jar audienceannotations0.5.0.jar automaton1.118.jar avro1.7.7.jar avroipc1.7.7.jar avroipc1.7.7tests.jar avromapred1.7.7hadoop2.jar awsjavasdkbundle1.11.271.jar base642.3.8.jar bcpkixjdk15on1.66.jar bcprovjdk15on1.66.jar bonecp0.8.0.RELEASE.jar breeze2.110.13.2.jar breezemacros2.110.13.2.jar calciteavatica1.2.0incubating.jar calcitecore1.2.0incubating.jar calcitelinq4j1.2.0incubating.jar carbondatabloom1.6.1.10322.0.0.dli20201012.1109256.jar carbondatacli1.6.1.10322.0.0.dli20201012.1109476.jar carbondatacommon1.6.1.10322.0.0.dli20201012.1108406.jar carbondatacommonplugin1.6.1.10322.0.0.dli20201012.1109456.jar carbondatacore1.6.1.10322.0.0.dli20201012.1108436.jar carbondataformat1.6.1.10322.0.0.dli20201012.11095312.jar carbondatahadoop1.6.1.10322.0.0.dli20201012.1108496.jar carbondatahive1.6.1.10322.0.0.dli20201012.1109116.jar carbondatamvcore1.6.1.10322.0.0.dli20201012.1109366.jar carbondatamvplan1.6.1.10322.0.0.dli20201012.1109336.jar carbondataprocessing1.6.1.10322.0.0.dli20201012.1108466.jar carbondatasecondaryindex1.6.1.10322.0.0.dli20201012.1109426.jar carbondataspark21.6.1.10322.0.0.dli20201012.1108576.jar carbondatasparkcommon1.6.1.10322.0.0.dli20201012.1109036.jar carbondatasparkdatasource1.6.1.10322.0.0.dli20201012.1109006.jar carbondatastoresdk1.6.1.10322.0.0.dli20201012.1108526.jar carbondatastreaming1.6.1.10322.0.0.dli20201012.1109226.jar carbondatavector1.6.1.10322.0.0.dli20201012.1109566.jar checkerqual2.11.1.jar chill2.110.8.4.jar chilljava0.8.4.jar commonsbeanutils1.9.4.jar commonscli1.2.jar commonscodec2.020130428.20212259.jar commonscollections3.2.2.jar commonscollections44.2.jar commonscompiler3.0.8.jar commonscompress1.4.1.jar commonsconfiguration22.1.1.jar commonscrypto1.0.020191105.jar commonsdaemon1.0.13.jar commonsdbcp1.4.jar commonsdbcp22.7.0.jar commonshttpclient3.1.jar commonsio2.5.jar commonslang2.6.jar commonslang33.5.jar commonslogging1.2.jar commonsmath33.4.1.jar commonsnet2.2.jar commonspool1.5.4.jar commonspool22.8.0.ja commonstext1.3.jar compresslzf1.0.3.jar core1.1.2.jar curatorclient4.2.0.jar curatorframework4.2.0.jar curatorrecipes2.7.1.jar datanucleusapijdo3.2.6.jar datanucleuscore3.2.10.jar datanucleusrdbms3.2.9.jar derby10.12.1.1.jar dnsjava2.1.7.jar ehcache3.3.1.jar eigenbaseproperties1.1.5.jar errorproneannotations2.3.4.jar failureaccess1.0.1.jar fastutil8.2.3.jar ffmpeg4.3.11.5.4.jar ffmpeg4.3.11.5.4linuxx8664.jar flatbuffers1.2.03f79e055.jar generex1.0.2.jar geronimojcache1.0spec1.0alpha1.jar gson2.2.4.jar guava29.0jre.jar guice4.0.jar guiceservlet4.0.jar hadoopannotations3.1.1ei302002.jar hadoopauth3.1.1ei302002.jar hadoopaws3.1.1ei302002.jar hadoopclient3.1.1ei302002.jar hadoopcommon3.1.1ei302002.jar hadoophdfs3.1.1ei302002.jar hadoophdfsclient3.1.1ei302002.jar hadoopmapreduceclientcommon3.1.1ei302002.jar hadoopmapreduceclientcore3.1.1ei302002.jar hadoopmapreduceclientjobclient3.1.1ei302002.jar hadoopminikdc3.1.1hwei302002.jar hadoopyarnapi3.1.1ei302002.jar hadoopyarnclient3.1.1ei302002.jar hadoopyarncommon3.1.1ei302002.jar hadoopyarnregistry3.1.1ei302002.jar hadoopyarnservercommon3.1.1ei302002.jar hadoopyarnserverwebproxy3.1.1ei302002.jar hamcrestcore1.3.jar HikariCPjava72.4.12.jar hivecommon1.2.12.1.0.dli20201111.06411591.jar hiveexec1.2.12.1.0.dli20201111.06444491.jar hivemetastore1.2.12.1.0.dli20201111.06423091.jar hk2api2.4.0b34.jar hk2locator2.4.0b34.jar hk2utils2.4.0b34.jar hppc0.7.2.jar htracecore44.2.0incubatinghw1.0.0.jar httpclient4.5.4.jar httpcore4.4.7.jar ivy2.4.0.jar j2objcannotations1.3.jar jacksonannotations2.10.0.jar jacksoncore2.10.0.jar jacksoncoreasl1.9.13atlassian4.jar jacksondatabind2.10.0.jar jacksondataformatyaml2.10.0.jar jacksondatatypejsr3102.10.3.jar jacksonjaxrsbase2.10.3.jar jacksonjaxrsjsonprovider2.10.3.jar jacksonmapperasl1.9.13atlassian4.jar jacksonmodulejaxbannotations2.10.3.jar jacksonmoduleparanamer2.10.0.jar jacksonmodulescala2.112.10.0.jar jakarta.activationapi1.2.1.jar jakarta.xml.bindapi2.3.2.jar janino3.0.8.jar javacpp1.5.4.jar javacpp1.5.4linuxx8664.jar javacv1.5.4.jar JavaEWAH1.1.7.jar javassist3.18.1GA.jar javax.annotationapi1.2.jar javax.inject1.jar javax.inject2.4.0b34.jar javax.servletapi3.1.0.jar javax.ws.rsapi2.0.1.jar javaxmlbuilder1.1.jar javolution5.3.1.jar jaxbapi2.2.11.jar jcipannotations1.01.jar、 jcloverslf4j1.7.26.jar jdoapi3.0.1.ja rjerseyclient2.23.1.jar jerseycommon2.23.1.jar jerseycontainerservlet2.23.1.jar jerseycontainerservletcore2.23.1.jar jerseyguava2.23.1.jar jerseymediajaxb2.23.1.jar jerseyserver2.23.1.jar jets3t0.9.4.jar jettyhttp9.4.31.v20200723.jar jettyio9.4.31.v20200723.jar jettysecurity9.4.31.v20200723.jar jettyserver9.4.31.v20200723.jar jettyservlet9.4.31.v20200723.jar jettyutil9.4.31.v20200723.jar jettyutilajax9.4.31.v20200723.jar jettywebapp9.4.31.v20200723.jar jettyxml9.4.31.v20200723.jar jodatime2.9.3.jar joddcore4.2.0.jar json20200518.jar json4sast2.113.2.11.jar json4score2.113.2.11.jar json4sjackson2.113.2.11.jar jsonsanitizer1.2.1.jar jsonsmart2.3.jar jspapi2.1.jar jsr3053.0.2.jarl jta1.1.jar jtransforms2.4.0.jar jultoslf4j1.7.26.jar junit4.11.jar kerbadmin1.0.1.jar kerbclient1.0.1.jar kerbcommon1.0.1.jar kerbcore1.0.1.jar kerbcrypto1.0.1.jar kerbidentity1.0.1.jar kerbserver1.0.1.jar kerbsimplekdc1.0.1.jar kerbutil1.0.1.jar kerbyasn11.0.1.jar kerbyconfig1.0.1.jar kerbypkix1.0.1.jar kerbyutil1.0.1.jar kerbyxdr1.0.1.jar kryoshaded3.0.3.jar kubernetesclient4.9.220200804.jar kubernetesmodel4.9.220200804.jar kubernetesmodelcommon4.9.220200804.jar leveldbjniall1.820191105.jar libfb3030.9.3.jar libthrift0.12.0.jar listenablefuture9999.0emptytoavoidconflictwithguava.jar log4j1.2.17cloudera1.jar log4jrollingappender201310242017.jar logginginterceptor3.14.4.jar luxorencrypt2.1.020201106.06543753.jar luxorfs32.1.020201106.06561253.jar luxorobsfs32.1.020201106.06561653.jar luxorrpc2.112.1.020201106.06554153.jar luxorrpcprotobuf22.1.020201106.06555153.jar lz4java1.7.1.jar machinist2.110.6.1.jar macrocompat2.111.1.1.jar metricscore3.1.5.jar metricsgraphite3.1.5.jar metricsjmx4.1.12.1.jar metricsjson3.1.5.jar metricsjvm3.1.5.jar minlog1.3.0.jar mssqljdbc6.2.1.jre7.jar netty3.10.6.Final.jar nettyall4.1.51.Final.jar nimbusjosejwt8.19.jar objenesis2.1.jar okhttp3.14.4.jar okio1.17.2.jar opencsv2.3.jar opencsv4.6.jar opencv4.3.02.jar orccore1.4.4nohive.jar orcmapreduce1.4.4nohive.jar oro2.0.8.jar osgiresourcelocator1.0.1.jar paranamer2.8.jar parquetcolumn1.8.3.jar parquetcommon1.8.3.jar parquetencoding1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar parquetformat2.3.1.jar parquethadoop1.8.3.jar parquethadoopbundle1.6.0.jar parquetjackson1.8.3.jar postgresql42.2.14.jar protobufjava2.5.0.jar py4j0.10.7.jar pyrolite4.13.jar re2j1.1.jar RoaringBitmap0.5.11.jar scalacompiler2.11.12.jar scalalibrary2.11.12.jar scalap2.11.0.jar scalaparsercombinators2.111.1.0.jar scalareflect2.11.12.jar scalaxml2.111.0.5.jar secComponentApi1.0.5c.jar shapeless2.112.3.2.jar slf4japi1.7.30.jar slf4jlog4j121.7.30.jar snakeyaml1.24.jar snappyjava1.1.7.5.jar sparkcatalyst2.112.3.2.01012.1.0.dli20201111.073826143.jar sparkcore2.112.3.2.01012.1.0.dli20201111.073836134.jar sparkgraphx2.112.3.2.01012.1.0.dli20201111.073847129.jar sparkhive2.112.3.2.01012.1.0.dli20201111.073854132.jar sparkkubernetes2.112.3.2.01012.1.0.dli20201111.07391685.jar sparkkvstore2.112.3.2.01012.1.0.dli20201111.073933127.jar sparklauncher2.112.3.2.01012.1.0.dli20201111.073940127.jar sparkmllib2.112.3.2.01012.1.0.dli20201111.073946127.jar sparkmlliblocal2.112.3.2.01012.1.0.dli20201111.073953127.jar sparknetworkcommon2.112.3.2.01012.1.0.dli20201111.073959127.jar sparknetworkshuffle2.112.3.2.01012.1.0.dli20201111.074007127.jar sparkom2.112.3.2.01012.1.0.dli20201111.074019125.jar sparkrepl2.112.3.2.01012.1.0.dli20201111.074028125.jar sparksketch2.112.3.2.01012.1.0.dli20201111.074035125.jar sparksql2.112.3.2.01012.1.0.dli20201111.074041126.jar sparkstreaming2.112.3.2.01012.1.0.dli20201111.074100123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074136123.jar sparktags2.112.3.2.01012.1.0.dli20201111.074141124tests.jar sparkunsafe2.112.3.2.01012.1.0.dli20201111.074144123.jar sparkuquery2.112.3.2.01012.1.0.dli20201111.074906210.jar sparkyarn2.112.3.2.01012.1.0.dli20201111.074151123.jar spire2.110.13.0.jar spiremacros2.110.13.0.jar ST44.3.1.jar stax2api3.1.4.jar staxapi1.02.jar stream2.7.0.jar stringtemplate3.2.1.jar tokenprovider1.0.1.jar univocityparsers2.5.9.jar validationapi1.1.0.Final.jar woodstoxcore5.0.3.jar xbeanasm5shaded4.4.jar xercesImpl2.12.0.jar xmlapis1.4.01.jar xz1.0.jar zjsonpatch0.3.0.jar zookeeper3.5.6ei302002.jar zookeeperjute3.5.6ei302002.jar zstdjni1.4.411.jar
        来自:
        帮助文档
        数据湖探索
        用户指南
        数据管理
        程序包管理
        内置依赖包
      • 1
      • ...
      • 99
      • 100
      • 101
      • 102
      • 103
      • ...
      • 135
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      弹性云主机 ECS

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      AI Store

      公共算力服务

      应用托管

      推荐文档

      PostgreSQL

      帮助中心

      组长权限

      MySQL

      配置目的端

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号