云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      自然语言处理_相关内容
      • MindIE NPU多机推理
        环境变量MindIE配置文件参数名默认值环境变量添加位置说明MINDIE_MODEL_NAMEmodelName推理 Inference 名称(例:inference-ia89ho)Master推理服务接口模型名称MINDIE_MODEL_WEIGHT_PATHmodelWeightPath/data/modelsMaster模型权重路径MINDIE_DPdpmaster + worker 副本数Master MINDIE_TPtpmaster NPU 卡数量(Decode 默认 1)Master
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        MindIE NPU多机推理
      • 推理日志
        本节介绍如何查看推理日志。 操作步骤一、在AI应用列表,选择在线推理,点击要查看的推理服务 二、进入推理服务详情页,点击日志,查看推理服务日志 三、日志以Pod为单位展示,若推理服务有多个Pod,可以在Pod下拉列表选择切换。
        来自:
        帮助文档
        智算套件
        用户指南
        可观测
        推理日志
      • 创建推理应用
        本节介绍创建推理应用。 创建训练应用在智算套件控制台,点击“创建AI应用”,进入应用配置页面。推理应用配置填写应用基本信息,设置推理框架、推理模型、推理资源等信息,点击“确认”,创建推理应用。训练应用管理推理应用列表,查看应用状态,管理应用生命周期。训练应用详情查看训练应用基本信息、日志、事件和监控等信息。
        来自:
        帮助文档
        智算套件
        快速入门
        创建推理应用
      • vLLM NPU多机推理
        操作步骤创建应用进入智算套件,AI应用列表,在线推理菜单,创建AI应用。基本信息应用类型:vLLM应用数:1配置信息推理类型选择多机,推理框架、框架版本、推理模型、模型版本、根据实际情况选择。简单的示例:推理框架: ascend-vllm框架版本:v0.14.0rc1推理模型:deepseek-r1-distill-qwen-7b 模型版本:v1队列:选择存在且资源足够的的队列MasterCPU,内存,共享内存可以不填,NPU填:1。
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM NPU多机推理
      • vLLM GPU多机推理
        进入智算套件 - AI应用列表 - 在线推理菜单,创建AI应用。基本信息应用类型:vLLM应用数:1配置信息推理类型选择多机,推理框架、框架版本、推理模型、模型版本根据实际情况选择即可。
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        创建推理任务
        vLLM GPU多机推理
      • 通过应用市场部署Qwen3推理api服务
        前置说明该文档为应用托管平台控制台通过应用市场以推理api形态体验 Qwen3的说明,通过应用托管平台控制台,打开应用市场,创建对应的Qwen3推理api应用,使用 web 界面和 Qwen3 推理对话,Qwen3推理api应用支持8b、14b、32b不同参数量的模型体验。本产品中的模型由第三方主体提供,尽管云公司已尽最大努力进行识别和维护,但仍无法保证模型的可用性。请客户按照该产品的服务协议使用该产品,做好甄别并对自行选择的服务负责。
        来自:
        帮助文档
        应用托管
        最佳实践
        通过应用市场部署Qwen3推理api服务
      • DeepSeek模型调用-专业版
        获取模型调用APP key访问模型推理服务地址:https://ctxirang.ctyun.cn/maas/home,在左侧菜单栏进入“概览”,点击“API接入”。在API快捷接入页面:选择服务组:从下拉菜单中选择第一步创建的服务组。如果尚未创建,可点击“确认创建并选择”快速创建默认服务组。选择模型:从模型下拉菜单中选择需要接入的模型。选择完成后,页面下方将自动展示该模型支持的所有编程语言的示例代码。可进入左侧菜单栏的“服务接入”页,查看所创建的服务组及对应APP Key。
        来自:
        帮助文档
        模型推理服务
        最佳实践
        DeepSeek模型调用-专业版
      • 推理任务概述
        本节介绍推理概述。 推理框架智算套件支持的推理框架有vLLM、SGLang、MindIE。
        来自:
        帮助文档
        智算套件
        用户指南
        推理
        推理任务概述
      • 模型压缩
        获取压缩结果:压缩任务运行完成后,压缩后的模型会自动保存到用户指定的模型管理中的位置。可以通过开发机挂载模型、或者下载模型来查看模型文件本身。压缩后的模型可以直接通过我的服务进行服务部署,部署为推理效果更优的大模型服务。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型工具
        模型压缩
      • 模型压缩
        获取压缩结果:压缩任务运行完成后,压缩后的模型会自动保存到用户指定的模型管理中的位置。可以通过开发机挂载模型、或者下载模型来查看模型文件本身。压缩后的模型可以直接通过我的服务进行服务部署,部署为推理效果更优的大模型服务。
        来自:
        帮助文档
        训推服务
        用户指南
        模型工具
        模型压缩
      • 基于昇腾通用推理镜像的自定义部署
        编写推理服务代码推理服务代码要满足openai api接口规范,当前平台支持的接口能力请参考【训推服务平台】帮助手册-【推理服务API】https://www.ctyun.cn/document/11060230/11060326实例demo代码见附录IDE内启动推理服务准备验证调用/验证推理服务接口2. 保存代码包在VSCode列表页面保存开发机中的代码到代码包。 3.保存模型在VSCode列表页面保存模型到模型管理。三、服务部署点击“部署我的模型”,填写表单创建服务。
        来自:
        帮助文档
        训推服务
        最佳实践
        基于昇腾通用推理镜像的自定义部署
      • 昇腾 910B 物理机部署Qwen3指南(单机版)
        通过遵循本文档步骤,可高效完成模型推理服务的部署与上线,充分利用天翼云升腾910B物理机的高性能计算能力。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        昇腾 910B 物理机部署Qwen3指南(单机版)
      • 模型服务操作
        本文主要介绍模型服务操作的内容。 系统提示我请求RPM/TPM超限,是什么意思,我改如何解除这个限制?当前一站式智算服务平台对模型设置了 RPM(Requests Per Minute,每分钟请求数)及 TPM(Tokens Per Minute,每分钟 token 数量)的调用限制,具体限制可在一站式智算服务平台的模型广场模型详情页中查看。暂不支持自助调整RPM或TPM。AccessKey为什么被封禁,如何解除?如果您在一站式智算服务平台违反用户使用协议,将被限制使用。
        来自:
        帮助文档
        知识库问答
        常见问题
        模型服务操作
      • OpenSora推理生成视频
        本节介绍智算集群部署OpenSora推理生成视频任务。 前提条件已开通包含GPU/NPU的Kubernetes集群。已安装智算套件。集群节点需要访问公网(需通过公网下载模型)。背景信息本文演示如何使用Open-Sora【GPU】和Open-Sora-Plan【NPU】推理任务生成视频。操作步骤进入云容器引擎控制台。点击左侧【集群】进入集群列表。点击使用的集群名称,进入集群。创建configmap 文本中填入视频prompt描述(描述内容来自OpenSora官网)。
        来自:
        帮助文档
        云容器引擎 智算版
        最佳实践
        OpenSora推理生成视频
      • 模型适配与性能加速
        平台通过多种算子迁移适配、算子调优能力和工具链,实现国产化硬件下模型在预训练、微调、推理下的性能对齐NV80%及以上。 平台针对国产化硬件910B进行主流模型的迁移适配和性能优化,多数训练性能达到A800的90%及以上,推理性能达到A10或A100的80%及以上。目前模型广场所有模型均达到国产化适配的性能标准。
        来自:
        帮助文档
        训推服务
        用户指南
        训推加速
        模型适配与性能加速
      • 昇腾 910B 物理机通过benchmark测试推理性能的操作指南
        一、引言 随着大语言模型(LLM)在自然语言处理(NLP)领域的广泛应用,如何准确评估这些模型在不同配置参数下的推理性能和精度成为了一个重要的研究课题。为了满足这一需求,我们使用了服务化的MindIE Benchmark工具。该工具通过部署升腾服务化配套包后,以调用终端命令的方式进行测试,能够全面评估大语言模型在各种配置下的推理表现,并将结果以直观的表格形式展示。 1.1 工具概述 服务化的MindIE Benchmark工具不仅支持多种推理模式,还提供了详细的统计分析功能。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        昇腾 910B 物理机通过benchmark测试推理性能的操作指南
      • 在线服务
        模型服务支持在推理场景将平台预置模型和模型仓库模型部署为模型在线服务。 前置条件如果预置镜像不满足开发要求,需要基于自有镜像,需要完成镜像文件准备,详见我的镜像。如果需要使用代码包,需要完成代码包准备,详见我的代码包。创建在线服务登录智算服务平台。创建在线服务入口:入口一:在左侧菜单选择“模型服务”-“在线服务”,点击“部署我的模型”,进入在线服务创建页面。入口二:在左侧菜单选择“模型广场”,点击模型卡片的“部署”,进入在线服务创建页面。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型服务
        在线服务
      • 模型广场
        目前支持对Llama2-13B-Chat、Qwen2-7B-Instruct等模型发起评估。 一键部署 支持对平台预置的模型进行一键部署,可点击模型卡片上的【部署】按钮直接发起部署。选择默认资源池,目前支持对Llama2-13B-Chat、Qwen2-7B-Instruct等模型发起部署。 API调用 支持通过API调用模型广场预置模型的推理服务,详情操作请参考模型服务相关内容。 任务记录 点击【任务记录】,可查看该模型的任务历史,包括模型精调、模型评估、模型部署等任务。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型广场
      • 模型体验
        文本生成类模型支持调整模温度、多样性等参数设置。文本生图类模型支持设置绘画描述、图片风格、图片比列和迭代步数等参数。文本生成类模型 文本生图类模型 4.在对话中输入问题即可查看返回结果,体验模型的性能和效果。 免费额度说明每个模型被赋予不等的免费额度和免费试用期限,具体免费额度可在【在线推理】中,点击模型名称查看。免费期限从第一次使用该模型开始计算,免费额度用完或到期后,可以付费开通服务。
        来自:
        帮助文档
        AI Store
        用户指南
        模型市场用户指南
        模型体验
      • 天翼云CPU实例部署DeepSeek-R1模型最佳实践
        类型可用资源可用资源池华东-华东1-az2、华东-华东1-az3可用规格c8e系列(最低内存需求32G)可用镜像DeepSeek-vLLM-...推理加速(CPU) 完成云主机开通后,推理服务会在5分钟内自动启动,您无需进行任何其他操作。注意如需在云主机外访问服务,您需要绑定弹性IP,并在安全组内放行22/3000/8000端口。
        来自:
        帮助文档
        弹性云主机 ECS
        DeepSeek专题
        实践指南:DeepSeek驱动高效能云生态
        GPU云主机/弹性云主机:零基础搭建DeepSeek云端环境指南
        天翼云CPU实例部署DeepSeek-R1模型最佳实践
      • 天翼云CPU实例部署DeepSeek-R1模型最佳实践
        类型可用资源可用资源池华东-华东1-az2、华东-华东1-az3可用规格c8e系列(最低内存需求32G)可用镜像DeepSeek-vLLM-...推理加速(CPU)完成云主机开通后,推理服务会在5分钟内自动启动,您无需进行任何其他操作。注意如需在云主机外访问服务,您需要绑定弹性IP,并在安全组内放行22/3000/8000端口。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        天翼云CPU实例部署DeepSeek-R1模型最佳实践
      • 模型的国产化适配与性能加速
        平台通过多种算子迁移适配、算子调优能力和工具链,实现国产化硬件下模型在预训练、微调、推理下的性能对齐NV80%及以上。 平台针对国产化硬件910B进行主流模型的迁移适配和性能优化,多数训练性能达到A800的90%及以上,推理性能达到A10或A100的80%及以上。 目前模型广场所有模型均达到国产化适配的性能标准。
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        训推加速
        模型的国产化适配与性能加速
      • 基于CPU的AI推理加速技术在天翼云EMR云主机上的应用
        本文介绍了英特尔® 至强®处理器在AI推理领域的优势,以及如何使用一键部署的镜像进行推理性能测试。 1. 背景1.1 大模型算力需求大模型因其参数规模巨大、结构复杂,通常需要强大的计算资源来支持其推理过程,这使得算力成为大模型应用的关键要素。信通院的数据资料显示云端推理的市场潜力很大,AI大模型落地应用数量正在不断增加,市场对大模型推理算力的需求也呈现爆发式增长态势。近年来,CPU制程和架构的提升以及英特尔AMX指令集的面世带来了算力的快速提升。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        基于CPU的AI推理加速技术在天翼云EMR云主机上的应用
      • 推理加速型Pi3
        本节包含了推理加速型Pi3云主机的概述、规格。 概述 Pi3型弹性云主机采用专为AI推理打造的NVIDIA A30 GPU,能够提供超强的实时推理能力。单卡24GB显存,933GB/s带宽使得Pi3也同时可以支持一定的训练场景。其理论AI训练吞吐量三倍于NVIDA V100显卡,六倍于前代Pi2型服务器的T4显卡。Pi3型弹性云主机借助NVIDIA A30的运算器,能够提供最大330TOPS的INT8算力(开启稀疏性)。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        推理加速型Pi3
      • 模型服务最佳实践
        本文介绍模型服务的最佳实践。 关于开发者通过对话工具(比如Chatbox、CherryStudio等)以OpenAI-API-compatible的方式快速添加使用模型的实践,请参考DeepSeek模型调用-快捷版。关于开发者以OpenAI-API-compatible接口方式集成调用模型的实践,请参考DeepSeek模型调用-专业版。
        来自:
        帮助文档
        AI Store
        最佳实践
        模型服务最佳实践
      • 服务部署
        服务部署支持在推理场景将平台预置模型和模型仓库模型部署为模型在线服务。 前置条件如果预置镜像不满足开发要求,需要基于自有镜像,需要完成镜像文件准备,详见我的镜像。如果需要使用代码包,需要完成代码包准备,详见我的代码包。创建在线服务登录训推智算服务平台。创建在线服务入口:入口一:在左侧菜单选择“模型服务”-“服务部署”,点击“部署模型”,进入在线服务创建页面。入口二:在左侧菜单选择“模型管理”,点击模型卡片的“部署”,进入在线服务创建页面。
        来自:
        帮助文档
        训推服务
        用户指南
        模型服务
        服务部署
      • 模型精调功能介绍
        依据推理时延:一般来说,当推理batch为1时,小模型的推理时延<300ms,中模型的推理时延为500-800ms,大模型的推理时延>1.5s,若客户针对项目的模型有低时延要求,建议使用小模型。依据资源数:一般来说,小模型在短文本长度的微调上需要的资源数较少,即使是全量微调,也只需要单机,大模型所需的资源则较多,72b至少也需要4台A800机器才能微调,这也是需要考虑的情况。2.
        来自:
        帮助文档
        一站式智算服务平台
        用户指南
        模型定制
        模型精调
        模型精调功能介绍
      • 模型精调功能介绍
        依据推理时延:一般来说,当推理batch为1时,小模型的推理时延<300ms,中模型的推理时延为500-800ms,大模型的推理时延>1.5s,若客户针对项目的模型有低时延要求,建议使用小模型。依据资源数:一般来说,小模型在短文本长度的微调上需要的资源数较少,即使是全量微调,也只需要单机,大模型所需的资源则较多,72b至少也需要4台A800机器才能微调,这也是需要考虑的情况。
        来自:
        帮助文档
        训推服务
        用户指南
        模型定制
        模型精调
        模型精调功能介绍
      • 昇腾 910B 物理机部署MinerU2.1指南
        访问成功后,将展示MinerU2.1服务的所有API接口列表,包括接口名称、请求参数、响应格式等信息,可根据文档指引发起API调用(如模型推理、服务状态查询等)。
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        昇腾 910B 物理机部署MinerU2.1指南
      • 推理加速型Pi2
        本节包含了推理加速型Pi2云主机的概述、规格。 概述 Pi2型弹性云主机采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云主机借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。
        来自:
        帮助文档
        弹性云主机 ECS
        产品介绍
        实例规格(X86)
        GPU加速型
        推理加速型Pi2
      • 混合云一体机推理基础版服务协议
        混合云一体机推理基础版用户协议
        来自:
        帮助文档
        混合云一体机推理基础版
        相关协议
        混合云一体机推理基础版服务协议
      • 钢筋计数模型训练教学与实践
        本实践基于科研助手进行钢筋计数模型训练、推理。 场景描述 概述 息壤·科研助手是一款适用于高校科研使用场景的一站式科研实训平台,可调度各种类型的计算资源,支持一键部署、随时随地、无需配置开箱即用。科研助手支持用户实现AI教学场景的模型训练、推理、调优等。 实践内容 钢筋是建筑业的重要材料,庞大的数量、工地现场环境复杂以及人工点验错漏等现实因素为钢筋点验工作制造了难度,那么如何才能快速且准确地完成对于整个建筑施工过程极为重要的钢筋点验工作环节呢?
        来自:
        帮助文档
        科研助手
        最佳实践
        钢筋计数模型训练教学与实践
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • ...
      • 313
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      应用托管

      人脸属性识别

      推荐文档

      天翼云进阶之路⑤:修改Linux远程登录用户并授权,禁止roo

      产品功能

      云课堂 第六课:如何让云主机不放在同一个篮子里

      云服务器 ECS 购买须知

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号