云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      学习先锋_相关内容
      • 购买
        参数 描述 区域 资源所在的区域。 说明: 不同区域内的产品内网不互通,且创建后不能更换,请谨慎选择。 数据库引擎 MySQL 数据库版本 不同区域所支持的数据库版本不同,请以实际界面为准。 选用RDS for MySQL数据库时,请根据实际业务需求选择合适的数据库引擎版本。建议您选择当前可用的最高版本数据库,因其性能更稳定,安全性更高,使用更可靠。 实例类型+可用区 主备:一主一备的经典高可用架构。适用于大中型企业的生产数据库,覆盖互联网、物联网、零售电商、物流、游戏等行业应用。备机提高了实例的可靠性,创建主机的过程中,同步创建备机,备机创建成功后,用户不可见。 可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 RDS支持在同一个可用区内或者跨可用区部署数据库主备实例,以提供故障切换能力和高可用性。 单机:采用单个数据库节点部署架构,与主流的主备实例相比,它只包含一个节点,但具有高性价比。适用于个人学习、微型网站以及中小企业的开发测试环境。 存储类型 实例的存储类型决定实例的读写速度。最大吞吐量越高,读写速度越快。 普通I/O:磁盘类型SATA,最大吞吐量90MB/s。 高I/O:磁盘类型SAS,最大吞吐量150MB/s。 极速型SSD:结合25GE网络和RDMA技术,为您提供单盘最大吞吐量达1000 MB/s并具有亚毫秒级低时延性能。 超高I/O:磁盘类型SSD,最大吞吐量350MB/s。
        来自:
        帮助文档
        关系数据库MySQL版
        计费说明
        购买
      • 应用场景
        本文主要介绍云日志服务的应用场景。 运维管理 在集群的运维工作中,企业应用的运维日志分散在不同的节点上,通过云日志服务提供的采集器将分散在集群各个节点的重要日志数据采集到日志服务平台进行集中化统一管理,享受全托管式服务。 全托管式:日志集中统一管理,提供日志采集、存储、检索与分析能力。 海量日志管理:支持每天百TB级日志的接入,十亿级日志秒级搜索。 提升运维效率:通过关键词检索可快速搜索出异常事件的日志,定位问题节点,结合上下文查询能力将异常事件的调用链完整还原,全面提升运维效率。 日志数据统计分析 云日志服务支持对日志内容进行结构化处理,按照指定的分词规则将日志原文格式化解析为键值对,即可更方便地日志数据进行统计分析,包括网站或应用程序的访问分析、业务数据分析、安全事件分析等,帮助企业更全面、更便捷地了解系统、业务和用户等方面的情况,优化运营和决策,从而提高企业的业务价值和竞争力。 多种结构化解析:针对日志记录格式不规范、不统一的问题,云日志服务提供JSON、分隔符、正则等格式结构化解析能力,使日志具备可读性与可分析性。 灵活构造分析条件:支持SQL语句或可视化方式构造不同的分析条件,提供丰富的查询分析语句,学习成本低,可灵活构造各类数据分析场景。 可视化分析结果展示:提供柱状图、饼图、时序图、流图等多种图表对日志数据进行直观化分析展示,有助于迅速发现趋势、异常和潜在问题,更好地了解业务运行状况,及时做出相应的决策。
        来自:
        帮助文档
        云日志服务
        产品介绍
        应用场景
      • 实例使用规范
        本章节会介绍关系型数据库Mysql实例的使用规范 数据库实例 数据库实例是关系型数据库的最小管理单元。一个实例代表了一个独立运行的关系型数据库。您可以在一个实例中创建和管理多个数据库,并且可以使用与独立访问数据库实例相同的工具和应用进行访问。使用管理控制台或API可以方便地创建或者修改数据库实例。关系型数据库服务对运行实例数量没有限制,但每个数据库实例都有唯一的标识符。 数据库实例类型选择 主备 一主一备的经典高可用架构。适用于大中型企业的生产数据库,覆盖互联网、物联网、零售电商、物流、游戏等行业应用。 备机提高了实例的可靠性,创建主机的过程中,同步创建备机,备机创建成功后,用户不可见。 当主节点故障后,会发生主备切换,数据库客户端会发生短暂中断,数据库客户端需要支持重新连接。 单机 采用单个数据库节点部署架构,与主流的主备实例相比,它只包含一个节点,但具有高性价比。 适用于个人学习、微型网站以及中小企业的开发测试环境。 单机版出现故障后,无法保障及时恢复。 数据库连接 根据业务的复杂度,合理配置RDS for MySQL参数。 建议保持合理的活跃连接数。 避免长连接,长连接的缓存可能较大,导致内存不足,建议定期释放长连接。 可靠性和可用性 生产数据库的实例类型请选择主备类型。 选择主备实例时,建议主备可用区选择不同的可用区。 读写业务并发较高时,建议创建只读实例,并开启读写分离。 建议在业务低峰期执行规格变更。 业务上线前,对数据库进行评估,选择合适的规格和磁盘大小。 主实例扩容后请及时扩容只读实例,避免只读实例存储空间不足导致业务异常。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        使用规范
        实例使用规范
      • 在科研助手使用DeepSeek进行科研服务
        本文介绍了如何在科研助手中使用预置好的DeepSeekR1 7B模型服务。 概述 DeepSeekR1 是幻方量化旗下 AI 公司深度求索(DeepSeek)研发的一款高性能推理模型。该模型使用强化学习技术进行后训练,专注于提升在数学、代码和自然语言推理等复杂任务上的表现。 DeepSeekR1 在需要逻辑推理、思维链推理和实时决策的任务中表现出色,如解决高级数学问题、生成复杂代码、解析复杂科学问题等。在类似Codeforces的挑战场景中获得了2029 Elo评分;在复杂推理基准测试中,表现与OpenAI的o1模型相当。尽管总共有6710亿的庞大参数,但每次前向传递时仅激活370亿个参数,比大多数大模型更加高效的利用资源。 当前在科研助手的社区镜像中,我们已经为您提前部署好了完整的服务,方便您即刻体验,开箱即用。 准备环境 1. 进入科研助手控制台,点击左上角,切换“科研版”。 2. 进入“科研版”总览页,点击快捷入口【找应用】,进入应用商城。 3. 在“应用商城”中,找到名为“DeepSeekR1:7B模型”的镜像,点击【使用此镜像】,进入开发机创建界面。 4. 在购买页面中,【基础信息】【主机规格】一栏,用户可以按照如下配置选择。 配置 算力型号 可用区 ::: 最低配置 GPU.gn3.m1 厦门4、扬州7 推荐配置 GPU.gn4.2xl1 贵阳2 高端配置 NVIDIA A100 40G 中卫4 这里以NVIDIAA10040G为例,框架版本已默认选好【社区镜像】的“openwebuideepseekr1cuda11.3”。 5. 点击【确认订单】,完成开发机创建并启动。
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用DeepSeek进行科研服务
      • Qwen2.5-72B-Instruct
        本文为您详细介绍Qwen2.572BInstruct模型。 模型简介 Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 使用场景 Qwen2.5 系列模型在自然语言理解、文本生成、编程能力、数学能力等方面都有显著提升。可以应用于聊天机器人和虚拟助手、内容创作和编辑、教育和学习辅助、编程辅助、数学问题解决等多种场景。 评测效果 Qwen2.572BInstruct 型号提供卓越的性能,甚至在几项关键任务中超过了更大的 Llama3.1405B。Qwen2.572BInstruct 在数学 (MATH: 83.1)、编码 (LiveCodeBench: 55.5) 和聊天 (ArenaHard: 81.2) 方面表现出色。与其基本型号 Qwen2.572B 及其前身 Qwen272BInstruct 相比,Qwen2.572BInstruct 展示了所有任务的全面改进。 Datasets MistralLarge2 Instruct Llama3.170BInstruct Llama3.1405BInstruct Qwen272BInstruct Qwen2.572BInstruct MMLUPro 69.4 66.4 73.3 64.4 71.1 MMLUredux 83.0 83.0 86.2 81.6 86.8 GPQA 52.0 46.7 51.1 42.4 49.0 MATH 69.9 68.0 73.8 69.0 83.1 GSM8K 92.7 95.1 96.8 93.2 95.8 HumanEval 92.1 80.5 89.0 86.0 86.6 MBPP 80.0 84.2 84.5 80.2 88.2 MultiPLE 76.9 68.2 73.5 69.2 75.1 LiveCodeBench 23052409 42.2 32.1 41.6 32.2 55.5 LiveBench 0831 48.5 46.6 53.2 41.5 52.3 IFeval strictprompt 64.1 83.6 86.0 77.6 84.1 ArenaHard 73.1 55.7 69.3 48.1 81.2 AlignBench v1.1 7.69 5.94 5.95 8.15 8.16 MTbench 8.61 8.79 9.08 9.12 9.35
        来自:
        帮助文档
        训推服务
        模型简介
        Qwen2.5-72B-Instruct
      • Instruct
        本文为您详细介绍Qwen2.572BInstruct模型。 模型简介 Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 使用场景 Qwen2.5 系列模型在自然语言理解、文本生成、编程能力、数学能力等方面都有显著提升。可以应用于聊天机器人和虚拟助手、内容创作和编辑、教育和学习辅助、编程辅助、数学问题解决等多种场景。 评测效果 Qwen2.572BInstruct 型号提供卓越的性能,甚至在几项关键任务中超过了更大的 Llama3.1405B。Qwen2.572BInstruct 在数学 (MATH: 83.1)、编码 (LiveCodeBench: 55.5) 和聊天 (ArenaHard: 81.2) 方面表现出色。与其基本型号 Qwen2.572B 及其前身 Qwen272BInstruct 相比,Qwen2.572BInstruct 展示了所有任务的全面改进。 Datasets MistralLarge2 Instruct Llama3.170BInstruct Llama3.1405BInstruct Qwen272BInstruct Qwen2.572BInstruct MMLUPro 69.4 66.4 73.3 64.4 71.1 MMLUredux 83.0 83.0 86.2 81.6 86.8 GPQA 52.0 46.7 51.1 42.4 49.0 MATH 69.9 68.0 73.8 69.0 83.1 GSM8K 92.7 95.1 96.8 93.2 95.8 HumanEval 92.1 80.5 89.0 86.0 86.6 MBPP 80.0 84.2 84.5 80.2 88.2 MultiPLE 76.9 68.2 73.5 69.2 75.1 LiveCodeBench 23052409 42.2 32.1 41.6 32.2 55.5 LiveBench 0831 48.5 46.6 53.2 41.5 52.3 IFeval strictprompt 64.1 83.6 86.0 77.6 84.1 ArenaHard 73.1 55.7 69.3 48.1 81.2 AlignBench v1.1 7.69 5.94 5.95 8.15 8.16 MTbench 8.61 8.79 9.08 9.12 9.35
        来自:
      • 入门概述
        本页介绍了三种规格文档数据库服务特性,以及新建并连接实例的操作流程。 三种规格特性及适用场景 文档数据库服务提供了集群版、副本集和单机版三种规格的实例,分别采用不同的部署架构,能够满足不同的业务场景。 集群版 分片集群提供Mongos、Shard、ConfigServer三类节点,每个Shard和ConfigServer基于副本集(每个副本集使用三节点主从模式)组成。 适用于高并发读写的场景,可以自由地选择Mongos和Shard节点的个数和配置,扩展性能及存储空间,构建不同性能的分片集群实例,满足不同的业务需求。 副本集 副本集提供不同角色的节点,一个可供读写的Primary节点,一个、三个或五个提供高可用的Secondary节点,一个隐藏的Hidden节点,0~5个只读的ReadOnly节点。 适用于需要保证高可用,读多写少的中小型业务系统,可按需增加Secondary节点和ReadOnly节点,扩展读性能。 单机版(单节点) 单机版仅部署一个节点在虚拟机上,没有高可用等高级特性,优点是性价比高。 适用于研发测试、学习培训、以及非企业核心数据存储的场景。 新建并连接数据库 1. 新建实例 根据业务需要定制相应计算能力和存储空间的实例。 2. 设置安全组 将需要连接实例的设备添加至实例的安全组访问规则中,以允许外部设备能够访问该实例。 使用内网连接实例,当实例和弹性云主机处于不同安全组时,或者使用公网连接实例时,需要配置安全组访问规则。 3. 绑定弹性IP(可选) 如果要使用公网地址连接实例,需要先申请并绑定弹性公网IP。 4. 连接实例 提供内网、公网、程序代码连接单机版(单节点)、副本集、分片集群实例的操作。
        来自:
        帮助文档
        文档数据库服务
        快速入门
        入门概述
      • 开发一个DLI Spark作业
        本章节主要介绍DataArts Studio的开发一个DLI Spark作业流程。 在本章节您可以学习到数据开发模块资源管理、作业编辑等功能。 场景说明 用户在使用DLI服务时,大部分时间会使用SQL对数据进行分析处理,有时候处理的逻辑特别复杂,无法通过SQL处理,那么可以通过Spark作业进行分析处理。本章节通过一个例子演示如何在数据开发模块中提交一个Spark作业。 操作流程如下: 1. 创建DLI集群,通过DLI集群的物理资源来运行Spark作业。 2. 获取Spark作业的演示JAR包,并在数据开发模块中关联到此JAR包。 3. 创建数据开发模块作业,通过DLI Spark节点提交Spark作业。 环境准备 已开通对象存储服务OBS,并创建桶,例如“obs://dlfexample”,用于存放Spark作业的JAR包。 已开通数据湖探索服务DLI,并创建Spark集群“sparkcluster”,为Spark作业提供运行所需的物理资源。 获取Spark作业代码 本示例使用的Spark作业代码来自maven库,此Spark作业是计算π的近似值。 1. 获取Spark作业代码JAR包后,将JAR包上传到OBS桶中,存储路径为“obs://dlfexample/sparkexamples2.101.1.1.jar”。 2. 登录DataArts Studio控制台。选择实例,点击“进入控制台”,选择对应工作空间的“数据开发”模块,进入数据开发页面。 选择数据开发 3. 在数据开发主界面的左侧导航栏,选择“配置管理 > 资源管理”。单击“新建资源”,在数据开发模块中创建一个资源关联到步骤1的JAR包,资源名称为“sparkexample”。 创建资源
        来自:
        帮助文档
        数据治理中心 DataArts Studio
        用户指南
        数据开发
        使用教程
        开发一个DLI Spark作业
      • DMS助手
        本文介绍DMS助手功能,包括智能问答和对话管理。 功能介绍 DMS助手是一款专为数据库领域定制的智能问答机器人,旨在提供即时、精准的技术支持。它不仅内置了MySQL、PostgreSQL等主流数据库的知识库,还集成了DMS文档资源,能够高效响应您在使用数据库及DMS时可能遇到的各类问题: 数据库知识解答:对于数据库中的基础知识或专业术语,DMS助手能够提供全面而详尽的解释。例如,您可以提问:“数据库事务是什么?” 数据库参数说明:当您想要了解数据库中某项参数的具体详情时,DMS助手可以为您提供相关信息。例如,您可以提问:“MySQL中optimizersearchdepth默认值是什么?” 数据库操作指导:在您进行数据库操作遇到问题或需要指导时,DMS助手可以为您提供相关帮助和建议。例如,您可以提问:“我想创建一张student表,sql怎么写?” DMS使用帮助:当您想要了解DMS的特定功能或概念,或在使用DMS过程中遇到困难时,DMS助手可以为您提供解释和指导。例如,您可以提问:“DMS中的团队是什么意思?” 为了便于您核实答案的准确性,DMS助手在提供解答的同时,会附带官方文档的参考链接。这不仅方便您进行信息核实,也有助于您对相关主题进行更深入的学习和探索。 前提条件 用户已登录数据管理服务。 注意事项 请避免过于频繁发送消息,系统对消息的发送频率有限制。 每个对话允许的消息数量最多为100条。一旦达到上限,您将无法在当前对话中继续发送消息。如需继续提问,请新建一个对话。 您可以保留的历史对话数量上限为500条。如果达到这个限制,您将无法创建新的对话。在这种情况下,请考虑删除一些不再需要的旧对话,以释放空间供新的对话使用。
        来自:
        帮助文档
        数据管理服务
        用户指南
        AI智能
        DMS助手
      • 首页概览
        本文介绍数据管理服务DMS管理控制台首页。 前提条件 开通数据管理服务。 功能介绍 您在进入数据管理服务DMS管理控制台时,首先进入服务首页。 首页主体区域布局主要由六个部分组成:左侧边栏为功能菜单,右侧边栏有功能按钮 ,右上顶层展示已打开标签页管理,右侧二层显示当前用户概要信息,右侧三层为主要功能简介 、快速入口和产品动态 ,右侧底层区域展示 最近访问的库/模式 、 最近打开的脚本 。如下图所示。 表1 首页界面介绍 序号 区域 说明 ::: ① 功能菜单 查看数据管理服务的一级功能菜单,单击任意展开二级功能菜单。 ② 标签页 展示已打开的标签页,可以单击标签右侧关闭icon关闭指定标签。 ③ 用户概要信息 展示当前用户概要信息,包括用户名、用户角色、用户创建时长等。 ④ 功能简介、产品动态 展示实例管理、查询窗口、团队管理、运维与审计、智能服务等重点功能的简介和快速访问入口,可以单击对应按钮跳转至功能的页面操作。单击使用引导按钮可查看基础版、企业版的操作指引,产品动态可查看产品最新动态。 ⑤ 最近访问的库/模式、最近打开的脚本 默认展示最近访问的数据库或模式,可以单击切换Tab卡片查看最近打开的脚本。 ⑥ 功能按钮 使用实例列表、智能助手等快捷功能 本文详细介绍了数据管理服务控制台首页概览,数据管理服务控制台首页布局科学合理,友好易用,各模块功能明确,用户可以快速找到所需功能,降低学习成本;还可以一站式完成数据管理,提升效率。 相信通过了解数据管理服务页面布局设计,您可以更加高效地使用这款数据管理利器。 未来,我们将继续优化产品功能和界面设计,为您提供更加便捷、专业的数据管理体验。
        来自:
        帮助文档
        数据管理服务
        用户指南
        控制台首页
        首页概览
      • 实例存储类型
        本文介绍了RDSPostgreSQL的实例存储类型详细说明。 数据库是应用系统最为重要基础组件,需频繁进行磁盘读写操作,对存储IO性能要求较高,天翼云提供多种类型的存储IO以满足不同性能要求,您可根据需要选择所需的存储类型。RDSPostgreSQL暂时不支持创建实例后变更存储类型。 存储类型说明 RDSPostgreSQL普通IO、高IO、通用型SSD、超高IO、极速型SSD、XSSD系列(XSSD0、XSSD1、XSSD2)六种存储类型,均为云盘存储,支持弹性扩容,可以满足不同的业务场景,具体如下: 普通IO:适用于数据量不大、查询和更新频率不高的个人测试、学习等场景。 高IO:适用于主流的高性能、高可靠应用场景,例如大型开发测试、Web服务器日志以及企业应用。典型的企业应用有SAP、Microsoft Exchange和Microsoft SharePoint等。 通用型SSD:适用于高吞吐量,低时延的企业级办公场景。 超高IO:适用于超高IOPS、超大带宽需求的读写密集型应用场景,例如要求高性能计算的关系型数据库。 极速型SSD:适用于需要极低的延迟和高的I/O性能的应用场景,大型OLTP(Online Transaction Processing)数据库等。 XSSD系列(XSSD0、XSSD1、XSSD2):天翼云X系列云硬盘基于NVMe和RDMA技术,为您提供超高IOPS、超高吞吐量和超低时延的极致云硬盘。关于XSSD系列的性能介绍可参考X系列云硬盘。 注意 XSSD系列仅8代机支持选择该磁盘类型,同时仅部分资源池支持XSSD系列磁盘,后续会逐步加载其他资源池,请以实际订购界面展示为准。 云硬盘规格详情,请您参考云硬盘产品介绍产品规格磁盘类型及性能介绍。
        来自:
        帮助文档
        关系数据库PostgreSQL版
        产品介绍
        实例说明
        实例存储类型
      • 创建并通过MySQL客户端连接TaurusDB实例
        参数 描述 计费模式 选择“按需计费”。 区域 实例所在区域。 须知 不同区域的资源之间内网互不相通。请选择靠近您业务的区域,可以降低网络时延,提高访问速度。 实例创建成功后不能更换区域,请谨慎选择。 实例名称 实例名称长度最小为4个字符,最大为64个字符且不超过64个字节(一个中文字符占用3个字节),必须以字母或中文开头,区分大小写,可以包含字母、数字、中划线、下划线或中文,不能包含其他特殊字符。 创建多个数据库实例时,名称自动按序增加4位数字后缀。例如输入instance,从instance0001开始命名;若已有instance0010,从instance0011开始命名。 批量创建的实例名称长度在4个到59个字节之间,可以包含字母、数字、中划线、下划线或中文(一个中文字符占用3个字节),不能包含其他特殊字符。 数据库引擎版本 TaurusDB V2.0。 实例类型 支持集群版和单机版。 集群:集群版包含1个主节点和最少1个最多15个只读节点。主节点处理读写请求,只读节点仅处理读请求。主节点如果发生故障,只读节点会自动切换为主节点,保证数据库的高可用。适用于中大型企业的生产数据库,覆盖互联网、政企税务、银行保险等行业。 单机:单机版只有1个主节点,没有只读节点。单机版无需处理多个节点之间的同步协作,易满足ACID事务需求。适用于个人学习、微型网站以及中小企业的开发测试环境。 可用区类型 可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 单可用区:主节点和只读节点部署在同一个可用区。 多可用区:您选择主可用区,创建的只读节点会均匀分布在各可用区之间,保证高可靠性。 时区 由于世界各国家与地区经度不同,地方时也有所不同,因此会划分为不同的时区。时区可在创建实例时选择,后期不可修改。
        来自:
        帮助文档
        云数据库TaurusDB
        快速入门
        连接实例
        创建并通过MySQL客户端连接TaurusDB实例
      • 创建并通过MySQL-Front连接TaurusDB实例
        参数 描述 计费模式 选择“按需计费”。 区域 实例所在区域。 须知 不同区域的资源之间内网互不相通。请选择靠近您业务的区域,可以降低网络时延,提高访问速度。 实例创建成功后不能更换区域,请谨慎选择。 实例名称 实例名称长度最小为4个字符,最大为64个字符且不超过64个字节(一个中文字符占用3个字节),必须以字母或中文开头,区分大小写,可以包含字母、数字、中划线、下划线或中文,不能包含其他特殊字符。 创建多个数据库实例时,名称自动按序增加4位数字后缀。例如输入instance,从instance0001开始命名;若已有instance0010,从instance0011开始命名。 批量创建的实例名称长度在4个到59个字节之间,可以包含字母、数字、中划线、下划线或中文(一个中文字符占用3个字节),不能包含其他特殊字符。 数据库引擎版本 TaurusDB V2.0。 实例类型 支持集群版和单机版。 集群:集群版包含1个主节点和最少1个最多15个只读节点。主节点处理读写请求,只读节点仅处理读请求。主节点如果发生故障,只读节点会自动切换为主节点,保证数据库的高可用。适用于中大型企业的生产数据库,覆盖互联网、政企税务、银行保险等行业。 单机:单机版只有1个主节点,没有只读节点。单机版无需处理多个节点之间的同步协作,易满足ACID事务需求。适用于个人学习、微型网站以及中小企业的开发测试环境。 可用区类型 可用区指在同一区域下,电力、网络隔离的物理区域,可用区之间内网互通,不同可用区之间物理隔离。 单可用区:主节点和只读节点部署在同一个可用区。 多可用区:您选择主可用区,创建的只读节点会均匀分布在各可用区之间,保证高可靠性。 时区 由于世界各国家与地区经度不同,地方时也有所不同,因此会划分为不同的时区。时区可在创建实例时选择,后期不可修改。
        来自:
        帮助文档
        云数据库TaurusDB
        快速入门
        连接实例
        创建并通过MySQL-Front连接TaurusDB实例
      • SQL纠错
        SQL纠错是一个专注于对错误SQL进行纠错的工具,它具有提高开发效率,降低学习成本等优势。它不仅支持MySQL、PostgreSQL等主流数据库,还能处理复杂查询,极大地提升数据查询的效率和准确性。 在查询窗口处执行SQL失败后会显示错误信息,SQL纠错可以根据错误SQL及错误信息返回修复后的SQL。 例如,您可以在天翼云DMS查询窗口处运行一条错误SQL语句“SELECT FROM history WHEREid1;”;执行后会在执行结果处显示报错信息,例如“no viable alternative at input 'SELECT FROM history WHEREid'”。 前提条件 当前实例为强管控模式。 当前实例未被禁用,且属于已登录状态。 支持数据库:MySQL,PostgreSQL,Sql Server,DRDS。 注意事项 请避免过于频繁发送消息,系统对消息的发送频率有限制。 要求查询窗口对应的实例属于未被禁用且已录入托管账密的强管控实例,只有满足如上条件的实例才能使用SQL纠错功能。 同一个问题的多次请求有一定概率返回不同的SQL,此为正常现象。 操作步骤 1. 登录DMS控制台。 2. 选择实例列表 双击对应实例的库/模式进入查询窗口。 3. 查询窗口处执行非权限问题的错误SQL语句后,点击尝试AI修复按钮进行纠错。 4. 点击接受按钮使用此条SQL语句。 SQL纠错功能按钮 尝试AI修复:在查询窗口处执行错误SQL时会报错并在执行结果处显示错误信息,在此可以点击尝试AI修复按钮,在AI修复框处会展示纠错前后SQL对比。 SQL接受/放弃:如果您对SQL修复提供的回答感到满意,可以点击接受按钮,新SQL会覆盖查询窗口中的原始SQL;如果您对SQL修改提供的回答感到不满意,可以点击放弃按钮,当前SQL修复框会消失。 SQL纠错重试:如果您对SQL助手生成的SQL感到不满意,可以点击重试按钮,系统将重新发起请求。 关闭SQL修复框:你可以通过点击SQL修复框右上角按钮来关闭对话框。
        来自:
        帮助文档
        数据管理服务
        用户指南
        AI智能
        SQL纠错
      • 在科研助手使用AnythingLLM搭建DeepSeek知识库
        本文介绍了如何在科研助手中使用 AnythingLLM 搭建 DeepSeek 知识库。 概述 DeepSeekR1 DeepSeekR1 是幻方量化旗下 AI 公司深度求索(DeepSeek)研发的一款高性能推理模型。该模型使用强化学习技术进行后训练,专注于提升在数学、代码和自然语言推理等复杂任务上的表现。 DeepSeekR1 在需要逻辑推理、思维链推理和实时决策的任务中表现出色,如解决高级数学问题、生成复杂代码、解析复杂科学问题等。在类似 Codeforces 的挑战场景中获得了2029 Elo 评分;在复杂推理基准测试中,表现与 OpenAI 的 o1 模型相当。尽管总共有6710亿的庞大参数,但每次前向传递时仅激活370亿个参数,比大多数大模型更加高效的利用资源。 AnythingLLM AnythingLLM 是一款开源平台,以简单易用为显著特点,它为没有深厚技术背景的用户敞开了大语言模型应用开发的大门,凭借直观界面让开发变得轻松。其具备高度可定制性,用户能按需灵活调整模型参数、功能逻辑等,还拥有强大的集成能力,可与多种数据源及工具无缝对接。在功能上,它涵盖模型管理、数据处理和应用部署等方面,支持多模型选择与更新,可有效处理数据以提升模型效果,并能以多种方式将应用快速推向生产环境。广泛适用于智能客服提升服务效率、内容创作辅助产出优质文案以及数据分析提供决策洞察等多元场景。 当前在科研助手的社区镜像中,我们已经为您提前部署好了基于 AnythingLLM 搭建的DeepSeek 知识库平台,方便您即刻体验,开箱即用。 前置说明 1. 该文档为在科研助手上使用 AnythingLLM 搭建 DeepSeek 知识库的说明; 2. 本产品中的模型由第三方主体提供,尽管云公司已尽最大努力进行识别和维护,但仍无法保证模型的可用性。请客户按照该产品的服务协议使用该产品,做好甄别并对自行选择的服务负责 准备环境
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用AnythingLLM搭建DeepSeek知识库
      • 如意宝典产品使用手册
        如意宝典产品使用手册 一、产品概述 1. 产品介绍 如意宝典是一款基于检索增强生成(RAG)架构的新一代 AI 知识引擎软件,旨在帮助金融机构(银行 / 保险)、高端制造企业、法律机构、医药企业、教育平台等企业及开发者解决企业知识碎片化查询效率低、知识传承断层与培训成本高、一线岗位客户问题响应慢、非结构化文档解析能力弱且知识时效性差、敏感知识安全管控难等问题。 2. 产品核心能力 产品部署于天翼云弹性云主机集群,利用云平台的计算资源弹性扩展能力,保障高并发场景下的服务稳定性。用户可通过标准化接口实现知识库的一键式云端部署,免除传统系统复杂的部署流程和硬件维护成本。云端服务具备自动容灾和负载均衡能力,在保障高并发场景服务稳定性的同时,显著降低系统运维复杂度。 产品可满足多领域知识服务需求:在智能客服场景中,系统可快速定位历史工单关联信息生成解决方案;面向研发领域,能够精准关联技术文档与代码库提供开发建议;对于企业培训场景,可整合分散的培训资料生成结构化学习路径;在专业咨询领域,支持法律条文与判例库的交叉引用分析,或医疗知识库与诊疗指南的智能匹配,为专业决策提供知识支撑。 同应用分基础型、进阶型、企业版三个规格,不同规格在 CPU 算力、GPU 算力数量及配置上存在差异: 基础型:含 1 台通用型云主机(4 核 CPU、8G 内存、200G 磁盘)+1 台算力服务(32 核 CPU、128G 内存、48G 显存(2A10)、200G 磁盘),部署后端服务 + MySQL 数据库 + 向量数据库 + Redis 进阶型:含 1 台通用型云主机(4 核 CPU、8G 内存、200G 磁盘)+2 台算力服务(单台 32 核 CPU、128G 内存、48G显存(2A10)、200G 磁盘),部署后端服务 + MySQL 数据库 + 向量数据库 + Redis 企业型:含 1 台通用型云主机(8 核 CPU、16G 内存、500G 磁盘)+3 台算力服务(单台 32 核 CPU、128G 内存、48G 显存(2A10)、200G 磁盘),部署后端服务 + MySQL 数据库 + 向量数据库 + Redis
        来自:
        帮助文档
        轻量型云主机
        产品简介
        应用使用手册
        如意宝典产品使用手册
      • 计费概述
        本文介绍边缘安全加速平台计费项。 服务 计费构成 计费说明 安全与加速 计费概述 安全与加速的计费总体说明,详见安全与加速计费概述。 安全与加速 基础套餐 您可以根据您的企业规模和需求,按需购买不同规格套餐获得相应标准的安全与加速服务,具体请见安全与加速套餐资费。 安全与加速 套餐外超出 如有流量、带宽、请求数需求,可购买相应扩展服务,具体计费请参考安全与加速套餐超出资费。 安全与加速 扩展服务 如有域名扩展、DDoS需求,可购买相应扩展服务,具体计费请参考安全与加速扩展服务资费。 零信任服务 基础套餐 按需购买不同规格套餐获得相应标准的安全与加速服务,具体请见零信任服务计费模式。 零信任服务 扩展服务 如有终端、流量扩展需求,可购买相应扩展服务,具体计费请参考零信任服务计费模式。 终端管理 基础套餐 终端管理按照设备端点数进行收费,可购买多个端点数,具体请见终端管理计费模式 学术加速 基础套餐 学术加速提供对应学习资料包进行购买,具体请见学术加速计费模式 边缘接入 计费概述 边缘接入的计费总体说明,详见:边缘接入计费概述。 边缘接入 基础套餐 您可以根据企业规模和需求,按需购买不同规格套餐获得相应标准的边缘接入服务,具体请见:边缘接入套餐资费。 边缘接入 套餐外超出 如有流量需求,可按需计费;如有域名、端口数等需求,可购买相应扩展服务,具体计费请参考:边缘接入套餐超出资费。 开发者平台 基础套餐 您可以根据企业规模和需求,按需购买不同规格套餐获得相应标准的开发者平台服务,具体详见:[开发者平台套餐资费](
        来自:
        帮助文档
        边缘安全加速平台
        计费说明
        计费概述
      • 学术加速版本差异对比
        本文介绍边缘安全加速平台学术加速版本的情况。 产品介绍 边缘安全加速平台学术加速是天翼云旗下一款提供海外教育资源加速服务的应用软件,基于天翼云优质的边缘网络资源与加速技术,有效解决高校访问海外教育资源时的访问体验差、合规性无保障等问题,满足高校师生访问跨境学术资源、海外线上学术会议、跨境教育SaaS应用等场景的加速需求,帮助学生拓展学习视野,获得最佳的学术体验。 套餐和版本概述 天翼云边缘安全加速平台学术加速支持包年包月套餐和固定资源包计费模式。目前学术加速版本主要是分为:个人版、企业版。 版本功能列表 下表描述了主要功能模块在不同版本中的支持情况。 √:表示在当前版本中支持。 ×:表示在当前版本中不支持。 分类 功能 描述 个人版 企业版 国外学术资源加速 一键加速 提供国外学术加速开关,可以进行海外saas应用加速。 √ √ 国外学术资源加速 桌面终端 提供PC端的客户端程序,支持Windows,MacOs系统。 √ √ 国外学术资源加速 移动终端 提供移动端的APP程序,支持IOS、安卓系统手机。 √ √ 国外学术资源加速 身份权限管控 支持按身份,角色,用户组,组织架构等进行授权和管控。 × √ 国外学术资源加速 认证管理 支持添加自定义认证源,添加企微等第三方认证源,统一企业接入零信任服务的登录认证管理。 × √ 终端管理 终端列表 终端资产进行盘点、展示,用于分析。 × √ 产品服务 日志审计 提供日志审计功能,进行访问行为审计。 × √ 客户端功能 一键加速 学术加速开关,可以进行海外saas应用加速。 √ √ 客户端功能 我的收藏 用于管理用户收藏学术网站。 √ √ 客户端功能 教育加速资源 提供学术加速资源列表,可直接点击访问。 √ √ 客户端功能 最近访问 提供最近访问记录。 √ √ 客户端功能 常用服务 支持快捷诊断和应用诊断。 √ √ 客户端功能 用量统计 提供加速流量统计。 √ √ 客户端功能 修改个人信息 密码、手机号等。 √ √ 客户端功能 我的订购 展示用户购买资源包和使用情况查看。 √ × 客户端功能 问题反馈 可点击上报问题反馈。 √ √ 客户端功能 公告 提供系统公告展示。 √ √ 客户端功能 版本更新 提供版本更新检测和客户端下载。 √ √
        来自:
        帮助文档
        边缘安全加速平台
        产品介绍
        产品简介
        学术加速版本差异对比
      • 一键部署与登录LLaMA 3/LLaMA 2大模型学习机
        本文基于天翼云云主机,为您介绍一键部署大模型学习机的具体操作。 按需购买学习机 1. 通过大模型学习机专属活动优惠页一键购买开通大模型学习机。 2. 点击“新老同享优惠”,选择您要购买的学习机规格,点击“立即订购”。 3. 您可以根据您的实际需求,调整学习机的系统盘大小、带宽大小以及购买时长。 4. 再次点击“立即订购”,支付成功后返回云主机控制台,选择订购云主机所在的资源池。云主机状态变更为“运行中”后即为开通成功,可以进行后续操作。 登录大模型 1. 登录前准备:在开通云主机列表的ipv4地址处,复制列表中的公共弹性IP。 2. 登录文本对话大模型(LLaMA2/LLaMA3) 将刚刚复制到的弹性IP替换到 中,并在浏览器中输入该地址跳转至登录页面。 您可以任选以下两个账号其一进行登录: 注意 建议您登录后尽快修改密码,修改密码方法在文档“修改大模型学习机登录密码”可查看。 账号一: username:user password:$I$CFLvkJ69I 账户二: username:user2 password:C7O0hgW5fxkN 3. 登录AI图片生成大模型(StableDiffusion) 将刚刚复制到的弹性IP替换到 中并在浏览器中输入跳转至登录页面。 您可以任选以下两个账号其一进行登录: 注意 建议您登录后尽快修改密码,修改密码方法在文档“修改大模型学习机登录密码”可查看。 账户一: username:user password:$I$CFLvkJ69I 账户二: username:user2 password:C7O0hgW5fxkN
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        大模型学习机最佳实践
        一键部署与登录LLaMA 3/LLaMA 2大模型学习机
      • 多活容灾方案相关问题
        多活架构对业务有要求吗? 多活架构对业务是有一定要求的,主要包括业务规模和容灾级别、成本投入、技术实现、数据一致性、业务连续性和具体部署方案等方面。企业需要根据自身实际情况和业务需求,综合考虑这些因素,评估是否采用多活架构。 同时,多活架构对业务架构也存在配置要求,例如,在多活场景下业务架构需要有ELB负载均衡等资源的配置要求,MDR平台也会对业务应用配置有相关配置指导。 多云多活的客户群体有哪些?具有什么样的客户特征? 多云多活的客户群体和客户特性: 1. 金融服务行业:例如银行、证券、支付服务提供商等,此客户群体需要处理大量的金融交易、对数据一致性和高可用性要求极高,以确保交易的安全和及时性。 2. 电子商务:例如线上零售商、电子支付平台等,此客户群体需要面对高并发的用户访问和交易请求,需要保证平台的高可用性和弹性扩展能力。 3. 媒体和娱乐:例如在线游戏平台、流媒体平台等,此客户群体需要支持大规模的内容分发和实时流媒体服务,以及全国甚至全球用户的高并发访问。 4. 社交媒体和通信:例如社交网络平台、即时通讯应用程序,此客户群体需要提供实时的社交互动和消息传递服务,要求系统具备低延迟和高可用性。 5. 医疗保健:例如医院信息系统、远程医疗服务平台,此客户群体需要处理大量的医疗数据和敏感信息,同时要求系统在灾难发生时能够快速恢复。 6. 制造和工业:例如大型制造企业、物流和供应链管理,此客户群体利用工业物联网(IIoT)技术进行设备监控和数据分析,要求系统高可用性和跨地域部署能力。 7. 政府和公共部门:政府信息系统、电子政务平台,为客户群体提供关键的公共服务,需要系统具备高可用性和强大的灾难恢复能力。 8. 教育:例如在线教育平台、大学和学术机构,此客户群体提供大规模在线学习和教育服务,需要支持全球用户的高并发访问和数据安全。 9. 科技和软件开发:例如软件开发公司、SaaS提供商、技术初创企业,需要高可用的开发和测试环境,以及能够支持持续集成和交付的云服务架构。
        来自:
        帮助文档
        多活容灾服务
        常见问题
        多活容灾方案相关问题
      • ECI加载DeepSeek R1
        本文为您介绍如何使用ECI加载DeepSeek R1。 DeepSeek R1介绍 DeepSeekR1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeekR1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAIo1 表现相当,并且通过精心设计的训练方法,提升了整体效果。 使用限制 模型 推荐规格(云主机) 支持资源池 DeepSeekR1:1.5b 内存:4GB起 所有ECI已上线资源池 DeepSeekR1:7b 内存:16GB起 所有ECI已上线资源池 DeepSeekR1:8b 内存:16GB起 所有ECI已上线资源池 DeepSeekR1:14b 内存:32GB起 所有ECI已上线资源池 DeepSeekR1:32b 内存:64GB起 起临时存储空间:100GB起 所有ECI已上线资源池 DeepSeekR1:70b 内存:128GB起 临时存储空间:150GB起 所有ECI已上线资源池 ECI弹性容器实例接入DeepSeek R1最佳实践 1. 订购弹性容器实例,以最小模型1.5b为例。 2. 选择开源容器镜像(opensource/openwebuideepseekr1) 。 3. 打开容器高级设置,自定义环境变量。 其中PORT代表Open WebUI服务暴露的端口,ENABLEOPENAIAPI代表是否启用OpenAI的API,RAGEMBEDDINGENGINE代表RAG(Retrieval Augmented Generation:检索增强生成)使用的嵌入式引擎。 说明 国内环境建议按照示例配置。 4. 点击下一步,绑定弹性IP。支持自动创建或绑定已有EIP。 5. 确认订单,等待容器实例Running。 6. 检查端口连通性。 7. 安全组放开指定端口(PORT环境变量)。 8. 通过浏览器访问Open WebUI,如 EIP:PORT,点击Get started。 9. 创建管理员帐号/密码登入。 10. 进入主界面。 11. 模型验证。
        来自:
      • 产品应用场景
        场景痛点 渲染时间长:单个特效镜头渲染时长超过十小时; 渲染效率低:设备有限,大量渲染任务需排队执行; 渲染成本高:物理机升级和维护消耗大量运营成本。 应用推荐 异构GPU具有优异的GPU计算加速能力,可实现图片秒级实时渲染,广泛应用于图形渲染、云端图形工作站、视频转码等场景。 产品优势 采用业界先进的GPU硬件,同步业界前沿技术,无缝切换新款硬件; 功能强大,全面支持多种GPU应用程序、深度学习框架,如OpenGL、DirectX; 方便快捷,提供和标准云主机一致的使用方式和管理功能; 规格丰富,提供多种显存,满足不同的图形图像场景; 通过云监控服务进行GPU资源的监控与告警。 推荐搭配 弹性伸缩服务、云监控。 场景架构图 应用场景:深度学习 场景说明 深度学习的训练或预测平台,需要消耗大量计算资源,追求卓越的性能表现。 场景痛点 深度学习过程产生大量临时数据,对存储的要求较高; 深度学习神经网络计算对网络时延有极高的要求。
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品应用场景
      • 产品功能
        日志和监控 提供调用函数的监控指标和运行日志的采集和展示,实时的图形化监控指标展示,在线查询日志,方便用户查看函数运行状态和定位问题。 初始化功能 引入initializer接口: 分离初始化逻辑和请求处理逻辑,程序逻辑更清晰,让用户更易写出结构良好,性能更优的代码。 用户函数代码更新时,系统能够保证用户函数的平滑升级,规避应用层初始化冷启动带来的性能损耗。新的函数实例启动后能够自动执行用户的初始化逻辑,在初始化完成后再处理请求。 在应用负载上升,需要增加更多函数实例时,系统能够识别函数应用层初始化的开销,更精准的计算资源伸缩的时机和所需的资源量,让请求延时更加平稳。 函数流 函数流是用来编排FunctionGraph函数的工具,可以将多个函数编排成一个协调多个分布式函数任务执行的工作流。 用户通过在可视化的编排页面,将事件触发器、函数和流程控制器通过连线关联在一个流程图中,每个节点的输出作为连线下一个节点的输入。编排好的流程会按照流程图中设定好的顺序依次执行,执行成功后支持查看工作流的运行记录,方便您轻松地诊断和调试。 函数流功能特性和优势: 功能特性 函数可视化编排 函数流执行引擎 错误处理 可视化监控 优势 使用更少代码快速构建应用程序函数流允许用户将函数组合编排成一个完整的应用程序,而无需进行代码编写。可以实现快速构建,快速上线。当业务调整时,可以快速调整流程,完成快速上线,无需编写任何代码。 完善的错误处理机制。支持对流程中发生的错误进行捕获和重试,用户可以进行灵活的异常处理。 可视化的编排和监控体验。通过拖拽进行流程编排,学习成本低,可以快速上手。监控页面使用流程可视化的查看方式,可以做到快速识别问题位置。 HTTP函数 HTTP函数专注于优化 Web 服务场景,用户可以直接发送 HTTP 请求到 URL 触发函数执行。在函数创建编辑界面增加类型。HTTP函数只允许创建APIG/APIC的触发器类型,其他触发器不支持。 自定义镜像 支持用户直接打包上传容器镜像,由平台加载并启动运行,调用方式与HTTP函数类似。与原本上传代码方式相比,用户可以使用自定义的代码包,不仅灵活也简化了用户的迁移成本。
        来自:
        帮助文档
        函数工作流
        产品简介
        产品功能
      • GPU加速实例总览
        类别 实例 GPU显卡 单卡Cuda Core数量 单卡GPU性能 使用场景 网络 备注 图形加速增强型 G6 NVIDIA T4(GPU直通) 2560 8.1TFLOPS 单精度浮点计算 130INT8 TOPS 260INT4 TOPS 云桌面、图像渲染、3D可视化、重载图形设计。 无法通过云主机控制台“远程登录”,请使用VNC或第三方VDI协议 支持开启/关闭超线程功能,详细内容请参见 图形加速增强型 G5 NVIDIA V100 GPU虚拟化(g5.xlarge.2、g5.2xlarge.2、g5.2xlarge.4、g5.4xlarge.4) GPU直通型(g5.8xlarge.4、g5.16xlarge.4) 5120 14TFLOPS 单精度浮点计算 7TFLOPS 双精度浮点计算 112TFLOPS Tensor Core 深度学习加速 云桌面、图像渲染、3D可视化、重载图形设计。 无法通过云主机控制台“远程登录”,请使用VNC或第三方VDI协议 支持开启/关闭超线程功能,详细内容请参见 图形加速增强型 G3 NVIDIA M60(GPU直通) 2048 4.8TFLOPS单精度浮点计算 云桌面、图像渲染、3D可视化、重载图形设计。 无法通过云主机控制台“远程登录”,请使用VNC或第三方VDI协议 图形加速型 G2 NVIDIA M60(GPU直通) 2048 4.8TFLOPS单精度浮点计算 媒体编辑、3D渲染、转码等。 无法通过云主机控制台“远程登录”,请使用VNC或第三方VDI协议 图形加速型 G1 NVIDIA M60(GPU虚拟化) 2048 4.8TFLOPS单精度浮点计算 云桌面、图像渲染、3D可视化、重载图形设计。 计算加速型 P2s NVIDIA V100(GPU直通) 5120 14TFLOPS 单精度浮点计算 7TFLOPS 双精度浮点计算 112TFLOPS Tensor Core 深度学习加速 AI深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。 支持开启/关闭超线程功能,详细内容请参见 计算加速型 P2v NVIDIA V100 NVLink(GPU直通) 5120 15.7TFLOPS 单精度浮点计算 7.8TFLOPS 双精度浮点计算 125TFLOPS Tensor Core 深度学习加速 300GiB/s NVLINK 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 支持开启/关闭超线程功能,详细内容请参见 计算加速型 P3v NVIDIA A800 NVLink(GPU直通) / 单精度能力19.5 TFLOPS 双精度能力9.7 TFLOPS 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到156 TFLOPS 单卡 80GB HBM2显存,显存带宽2039Gb/s,支持多卡NVLINK互联技术 深度学习训练、推理、科学计算、分子建模、地震分析等场景。 支持ipv6 支持开启/关闭超线程功能,详细内容请参见 计算加速型 P1 NVIDIA P100(GPU直通) 2584 9.3 TFLOPS 单精度浮点计算 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 配备本地NVMe SSD磁盘,按需购买关机收费 支持开启/关闭超线程功能,详细内容请参见 推理加速型 Pi2 NVIDIA T4(GPU直通) 2560 8.1TFLOPS 单精度浮点计算 130INT8 TOPS 260INT4 TOPS 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 支持开启/关闭超线程功能,详细内容请参见 推理加速型 Pi3 NVIDIA A30(GPU直通) / 10.3 TFLOPS单精度浮点计算 330 INT8 TOPS 82TFLOPS 165TFLOPS(开启稀疏性)Tensor核心性能 单GPU提供24GiB GDDR6显存,带宽933GiB/s。 内置1个OFA和1个NVJPEG和4个NVDEC GPU推理计算场景,例如图片识别、语音识别、自然语言处理等场景 支持ipv6 支持开启/关闭超线程功能,详细内容请参见
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        GPU加速实例总览
      • API列表
        平台提供了以下大模型API能力。 模型名称 模型简介 模型ID DeepSeekR1昇腾版 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,由杭州深度求索人工智能基础技术研究有限公司开发。该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,能够理解和生成自然语言。它经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 4bd107bff85941239e27b1509eccfe98 DeepSeekR1昇腾版2 DeepSeekR1是一款具有671B参数大小的创新性大语言模型,该模型基于 transformer 架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 7ba7726dad4c4ea4ab7f39c7741aea68 DeepSeekV3昇腾版 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 9dc913a037774fc0b248376905c85da5 DeepSeekR1DistillLlama70B DeepSeekR1DistillLlama70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeekR1的先进知识蒸馏技术与Llama70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 515fdba33cc84aa799bbd44b6e00660d DeepSeekR1DistillQwen32B DeepSeekR1DistillQwen32B是通过知识蒸馏技术从DeepSeekR1模型中提炼出来的小型语言模型。它继承了DeepSeekR1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 b383c1eecf2c4b30b4bcca7f019cf90d Baichuan2Turbo BaichuanTurbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 43ac83747cb34730a00b7cfe590c89ac Llama213BChat Llama2是预先训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。这是13B微调模型的存储库,针对对话用例进行了优化。 96dc8f33609d4ce6af3ff55ea377831a Qwen7BChat 通义千问7B(Qwen7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen7BChat。 fc23987da1344a8f8bdf1274e832f193 Llama27BChat Llama27BChat是Meta AI开发的大型语言模型Llama2家族中最小的聊天模型。该模型有70亿个参数,并在来自公开来源的2万亿token数据上进行了预训练。它已经在超过一百万个人工注释的指令数据集上进行了微调。 e30f90ca899a4b1a9c25c0949edd64fc Llama270BChat Llama 2 是预训练和微调的生成文本模型的集合,规模从 70 亿到 700 亿个参数不等。这是 70B 微调模型的存储库,针对对话用例进行了优化。 bafbc7785d50466c89819da43964332b Qwen1.57BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.57BChat版本。 bfc0bdbf8b394c139a734235b1e6f887 Qwen272BInstruct Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B以及Qwen272B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 2f05789705a64606a552fc2b30326bba ChatGLM36B ChatGLM36B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM36B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 7450fa195778420393542c7fa13c6640 TeleChat12B 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat12Bbot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat7Bbot均有大幅提升。 fdc31b36028043c48b15131885b148ce Qwen1.514BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.514BChat版本。 acfe01f00b0c4ff49c29c6c77b771b60 Llama38BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama38BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 bda59c34e4424598bbd5930eba713fbf Llama370BInstruct Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama370BInstruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 6192ed0cb6334302a2c32735dbbb6ce3 Qwen1.572BChat 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.572BChat版本。 9d140d415f11414aa05c8888e267a896 Qwen1.532BChat Qwen1.532B 是 Qwen1.5 语言模型系列的最新成员,除了模型大小外,其在模型架构上除了GQA几乎无其他差异。GQA能让该模型在模型服务时具有更高的推理效率潜力。这是Qwen1.532BChat版本。 12d5a37bf1ed4bf9b1cb8e446cfa60b3 InternLM2Chat7B InternLM2Chat7B 是书生·浦语大模型系列中开源的 70 亿参数库模型和针对实际场景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 50beebff68b34803bd71d380e49078f5 Qwen27BInstruct Qwen27BInstruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 0e97efbf3aa042ebbaf0b2d358403b94 QwenVLChat QwenVLChat模型是在阿里云研发的大规模视觉语言模型 QwenVL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 e8c39004ff804ca699d47b9254039db8 StableDiffusionV2.1 StableDiffusionV2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 40f9ae16e840417289ad2951f5b2c88f DeepseekV2LiteChat DeepseekV2LiteChat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 0855b510473e4ec3a029569853f64974 Qwen2.572BInstruct Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.572BInstruct模型是Qwen2.5系列大型语言模型指令调整版本。 d9df728b30a346afb74d2099b6c209aa Gemma29BIT Gemma29BIT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开源模型。 4dae2b9727db46b7b86e84e8ae6530a9 Llama3.23BInstruct Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.23BInstruct版本。 f7d0baa95fd2480280214bfe505b0e2e ChatGLM36B32K ChatGLM36B32K模型在ChatGLM36B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 98b6d84f6b15421886d64350f2832782 CodeGemma7BIT CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma7BIT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 fa8b78d2db034b6798c894e30fba1173 Qwen2.5Math7BInstruct Qwen2.5Math系列是数学专项大语言模型Qwen2Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5MathRM72B,Qwen2.5Math7BInstruct的性能与Qwen2Math72BInstruct相当。 ea056b1eedfc479198b49e2ef156e2aa DeepSeekCoderV2LiteInstruct DeepSeekCoderV2LiteInstruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeekV2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4Turbo相当的性能。 f23651e4a8904ea589a6372e0e860b10
        来自:
        帮助文档
        训推服务
        API参考
        推理服务API
        API列表
      • 计算加速型P2v
        P2v型弹性云主机功能如下: 处理器与内存配比为1:8。 处理器:英特尔® 至强® 可扩展处理器 6151, 主频3.0GHz,睿频3.4GHz。 支持NVIDIA Tesla V100 GPU卡,每台云主机支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力15.7 TFLOPS,双精度能力7.8 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到125 TFLOPS。 单实例最大网络带宽30Gb/s。 使用16GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力 网络自定义,自由划分子网、设置网络访问策略;海量存储,弹性扩容,支持备份与恢复,让数据更加安全;弹性伸缩,快速增加或减少云主机数量。 灵活选择 与普通云主机一样,P2v型云主机可以做到分钟级快速发放。 优秀的超算生态 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2v实例上。 常规软件支持列表 P2v型云主机主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2v型云主机。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、VRay for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        计算加速型P2v
      • 计算加速型P2s
        P2s型弹性云主机功能如下: 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6GHz,睿频3.5GHz,或英特尔® 至强® 可扩展处理器 6151, 主频3.0GHz,睿频3.4GHz。 支持NVIDIA Tesla V100 GPU卡,每台云主机支持最大8张Tesla V100显卡。 支持NVIDIA CUDA并行计算,支持常见的深度学习框架Tensorflow、Caffe、PyTorch、MXNet等。 单精度能力14 TFLOPS,双精度能力7 TFLOPS。 支持NVIDIA Tensor Core能力,深度学习混合精度运算能力达到112 TFLOPS。 单实例最大网络带宽30Gb/s。 使用32GiB HBM2显存,显存带宽900Gb/s。 完整的基础能力 网络自定义,自由划分子网、设置网络访问策略;海量存储,弹性扩容,支持备份与恢复,让数据更加安全;弹性伸缩,快速增加或减少云主机数量。 灵活选择 与普通云主机一样,P2s型云主机可以做到分钟级快速发放。 优秀的超算生态 拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的HPC应用程序和深度学习框架已经可以运行在P2s实例上。 常规软件支持列表 P2s型云主机主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2s型云主机。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架 RedShift for Autodesk 3dsMax、VRay for 3ds Max等支持CUDA的GPU渲染 Agisoft PhotoScan MapD
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        计算加速型P2s
      • NVIDIA GPU云主机
        常规软件支持列表 P2V型云主机主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2V型云主机。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架。 RedShift for Autodesk 3dsMax、VRay for 3ds Max等支持CUDA的GPU渲染。 使用须知 P2V型云主机当前支持如下类型的操作系统: Windows Server CentOS Ubuntu Ctyunos 备注:各资源池支持的具体版本可能略有出入,请以控制台实际支持的版本为准。 P2Vs型云主机 P2Vs型云主机采用NVIDIA Tesla V100s PCIE GPU,采用GPU直通技术,在提供云主机灵活性的同时,提供高性能计算能力和优秀的性价比。P2Vs型云主机能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格名称 vCPU 内存(GB) GPU 显存(GB) 虚拟化类型 p2vs.4xlarge.8 16 128 1V100s 132GB KVM p2vs.8xlarge.8 32 256 2V100s 232GB KVM p2vs.2xlarge.4 8 32 1V100s 132GB KVM p2vs.4xlarge.4 16 64 2V100s 232GB KVM p2vs.8xlarge.4 32 128 4V100s 432GB KVM
        来自:
        帮助文档
        GPU云主机
        产品简介
        产品规格
        NVIDIA GPU云主机
      • 在科研助手使用并行计算训练模型
        引言 科研助手【科研版】提供并行计算功能模块,您可以基于该能力模块运行分布式作业。我们提供多种运行引擎的支持,您可以根据自己的需要使用不同的训练引擎。同时,我们也提供多个区域不同种类的算力,您可以根据需要按需选购。 场景描述 本文将通过使用 PyTorch框架训练手写数字识别 MNIST 模型来讲述如何在科研助手并行计算模块中训练模型。 手写数字MNIST 数据集是一个经典的手写数字图像数据集,广泛用于机器学习和深度学习领域的模型训练与评估。它包含60,000 张训练图像和 10,000 张测试图像,每张图像为 28×28 的灰度图,涵盖手写数字 0 到 9。MNIST数据集因其简单性和代表性,成为算法验证和教学的经典工具,支持多种机器学习方法和深度学习模型的开发与测试。 本场景的整体流程如下: 准备工作 准备工作包括如下几步: 准备数据:准备训练代码、训练数据、训练环境 创建科研文件:科研文件是科研助手提供的文件管理服务,并行计算需要依赖科研文件将数据挂载到训练任务中 上传数据:将准备好的数据上传到科研文件实例
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用并行计算训练模型
      • 数据库使用规范
        本页介绍了天翼云关系数据库MySQL版的使用规范。 为保障数据库的稳定及安全,将对天翼云关系数据库MySQL版数据库级别的部分使用规范进行介绍。请用户在使用前进行参考学习。 数据库命名规范 使用有意义的、描述性的名称,库名、表名、列名建议以小写字母命名,这样可以避免大小写敏感的问题,每个单词之间用下划线分割。 为避免引起冲突,所有的数据库对象名称禁止使用MySQL保留关键字,详情请参考MySQL官网保留字与关键字。 数据库对象的命名要能做到见名知意,并且不超过32个字符。 数据库中用到的临时表以“tmp”为前缀并以日期为后缀。 数据库中用到的备份表以“bak”为前缀并以日期为后缀。 使用前缀或后缀:使用前缀或后缀来区分不同类型的数据库对象,可以增加对象的可读性和管理性。 数据库字段设计规范 使用能准确描述字段用途的名称,避免使用无意义的或过于简化的字段名,字段上限50左右。 优先为表中的每一列选择符合存储需要的最小的数据类型。优先考虑数字类型,其次为日期或二进制类型,最后是字符类型。列的字段类型越大,建立索引占据的空间就越大,导致一个页中的索引越少,造成IO次数增加,从而影响性能。 整数型选择能符合需求的最短列类型,如果为非负数,声明需是无符号(UNSIGNED)类型。 每个字段尽可能具有NOT NULL属性,int等数字类型默认值推荐给0,VARCHAR等字符类型默认值给空字符串。 避免使用ENUM类型,可以用TINYINT类型替换。修改ENUM值需要使用ALTER语句,ENUM类型的ORDER BY操作效率低,需要额外操作。如果定义了禁止ENUM的枚举值是数值,可使用其他数据类型(如CHAR类型)。 实数类型使用DECIMAL,禁止使用FLOAT和DOUBLE类型。FLOAT和DOUBLE在存储的时候,存在精度损失的问题,很可能在值的比较时,得到错误的结果。 使用DATETIME、TIMESTAMP类型来存储时间,禁止使用字符串替代。 使用数字类型INT UNSIGNED存储IP地址,用INETATON、INETNTOA可以在IP地址和数字类型之间转换。 VARCHAR类型的长度应该尽可能短。VARCHAR类型虽然在硬盘上是动态长度的,但是在内存中占用的空间是固定的最大长度。 使用VARBINARY存储大小写敏感的变长字符串,VARBINARY默认区分⼤小写,没有字符集概念,速度快。
        来自:
        帮助文档
        关系数据库MySQL版
        用户指南
        使用规范总览
        数据库使用规范
      • GPU加速/AI加速云主机
        常规软件支持列表 P2V型云主机主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用P2V型云主机。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等常用深度学习框架。 RedShift for Autodesk 3dsMax、VRay for 3ds Max等支持CUDA的GPU渲染。 使用须知 P2V型云主机当前支持如下类型的操作系统: Windows Server CentOS Ubuntu Ctyunos 备注:各资源池支持的具体版本可能略有出入,请以控制台实际支持的版本为准 P2Vs型云主机 P2Vs型云主机采用NVIDIA Tesla V100s PCIE GPU,采用GPU直通技术,在提供云主机灵活性的同时,提供高性能计算能力和优秀的性价比。P2Vs型云主机能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格名称 vCPU 内存(GB) GPU 显存(GB) 虚拟化类型 p2vs.4xlarge.8 16 128 1V100s 132GB KVM p2vs.8xlarge.8 32 256 2V100s 232GB KVM p2vs.2xlarge.4 8 32 1V100s 132GB KVM p2vs.4xlarge.4 16 64 2V100s 232GB KVM p2vs.8xlarge.4 32 128 4V100s 432GB KVM
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        GPU加速/AI加速云主机
      • 使用ECI快速部署Tensorflow
        本文为您介绍如何使用ECI快速部署Tensorflow。 背景信息 TensorFlow是一个开源的机器学习框架,由Google开发和维护。它提供了一个灵活的编程环境,可以用于构建和训练各种机器学习模型,包括神经网络。TensorFlow使用图形计算的方式来表示计算任务,并通过优化技术来实现高效的计算。它支持多种编程语言,包括Python和C++,并且可以在各种硬件平台上运行,包括CPU、GPU和TPU。TensorFlow已经成为机器学习和深度学习领域最受欢迎的框架之一,被广泛应用于各种领域,如图像识别、自然语言处理、推荐系统等。 前期准备 已开通天翼云弹性容器实例服务。 已开通天翼云弹性文件或对象存储服务,用于存储tensorflow训练结果。 准备工作 准备训练数据和容器镜像。 训练数据:本文以Github的一个TensorFlow训练任务为例。 容器镜像:在最佳实践中,ECI已准备好适用的示例镜像,示例镜像已上传到天翼云容器镜像仓库中。 创建镜像缓存。 在ECI控制台的镜像缓存页面手动创建镜像缓存,如下图所示: 创建镜像缓存时需拉取镜像,受镜像大小和网络的影响,需要一定时间。可通过镜像缓存列表页或者镜像缓存详情页查看进度。镜像缓存状态显示ready时,表示镜像缓存已经创建成功。
        来自:
        帮助文档
        弹性容器实例
        最佳实践
        使用ECI快速部署Tensorflow
      • 1
      • ...
      • 4
      • 5
      • 6
      • 7
      • 8
      • ...
      • 10
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      训推服务

      AI Store

      公共算力服务

      推荐文档

      购买License

      系统必备组件安装

      查询日志

      天翼云进阶之路⑦:怎么设置sql2008数据库最大服务器内存

      安全防护告警

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号