爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      AI创作间_相关内容
      • 基本概念
        名称 概念说明 自然语言处理 自然语言处理(Natural Language Processing,简称 NLP)是人工智能(AI)的核心分支,旨在让计算机理解、分析、生成人类日常使用的自然语言(如中文、英文),打破人机间的语言沟通壁垒,提升办公效能。 智能看数 智能看数通常是指为数据分析和决策支持设计的专业服务平台或应用程序,通过实时推送最新数据提示,帮助用户快速掌握关键信息。系统基于存量用户研究,结合用户消费行为和偏好,从市场数据感知、渠道落地、营销效果评估分析以及实时数据支撑等方面提供全面数据支持,助力制定策略,实现用户留存和业务增长优化目标,提升整体运营价值。 多模态识别 多模态识别是人工智能(AI)领域的关键技术,核心是让机器同时处理、分析并理解 多种不同类型的信息(即 “模态”) ,而非单一依赖文本、图像或语音等单类数据,最终实现更精准、全面的认知与判断,模拟人类 “多感官协同感知世界” 的能力。
        来自:
        帮助文档
        花卷慧办
        产品介绍
        基本概念
      • 在科研助手使用AnythingLLM搭建DeepSeek知识库
        本文介绍了如何在科研助手中使用 AnythingLLM 搭建 DeepSeek 知识库。 概述 DeepSeekR1 DeepSeekR1 是幻方量化旗下 AI 公司深度求索(DeepSeek)研发的一款高性能推理模型。该模型使用强化学习技术进行后训练,专注于提升在数学、代码和自然语言推理等复杂任务上的表现。 DeepSeekR1 在需要逻辑推理、思维链推理和实时决策的任务中表现出色,如解决高级数学问题、生成复杂代码、解析复杂科学问题等。在类似 Codeforces 的挑战场景中获得了2029 Elo 评分;在复杂推理基准测试中,表现与 OpenAI 的 o1 模型相当。尽管总共有6710亿的庞大参数,但每次前向传递时仅激活370亿个参数,比大多数大模型更加高效的利用资源。 AnythingLLM AnythingLLM 是一款开源平台,以简单易用为显著特点,它为没有深厚技术背景的用户敞开了大语言模型应用开发的大门,凭借直观界面让开发变得轻松。其具备高度可定制性,用户能按需灵活调整模型参数、功能逻辑等,还拥有强大的集成能力,可与多种数据源及工具无缝对接。在功能上,它涵盖模型管理、数据处理和应用部署等方面,支持多模型选择与更新,可有效处理数据以提升模型效果,并能以多种方式将应用快速推向生产环境。广泛适用于智能客服提升服务效率、内容创作辅助产出优质文案以及数据分析提供决策洞察等多元场景。 当前在科研助手的社区镜像中,我们已经为您提前部署好了基于 AnythingLLM 搭建的DeepSeek 知识库平台,方便您即刻体验,开箱即用。 前置说明 1. 该文档为在科研助手上使用 AnythingLLM 搭建 DeepSeek 知识库的说明; 2. 本产品中的模型由第三方主体提供,尽管云公司已尽最大努力进行识别和维护,但仍无法保证模型的可用性。请客户按照该产品的服务协议使用该产品,做好甄别并对自行选择的服务负责 准备环境
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用AnythingLLM搭建DeepSeek知识库
      • 应用场景
        本节主要介绍智能视图服务产品的应用场景。 智慧城市 适用于对城市安全、应急管理、交通调度有迫切需求的城市。一方面可以进行实时的智能监管,从而及时发现问题;另一方面,可以快速协同调度资源,进行视频数据、结构化数据等多维度大数据的统一管理和应用,实现高效的城市治理。智能视图服务具备以下优势: 大规模部署推流接入点,就近接入,保证各场合稳定推流。 提供AI内容审核增值服务,如人脸识别,人员聚集检测、车辆牌号检索等。 支持多种播流格式,支持全网加速分发。 整合多渠道数据信息,智能统计与分析,丰富数据资产,助力城市管理数字化转型。 智慧教育 适用于校园内及多校园间多摄像头统一纳管的场景,通过实时预览、录像回溯方便管理校园内视频点位,提供安全隐患识别、人员管理分析等一站式智能管理服务,实现平安智慧校园。智能视图服务具备以下优势: 建设周期短,成本低廉,适合需要快速上云的学校或者教育机构。 支持设备接入、存储和分发一体化解决方案,按需扩容,提升资源利用率。 支持AI算法仓库统一管理,GPU算力智能调度,AI算法统一编排。 教育监管机构、学生家长等多方可便捷的通过 APP和PC客户端实时观看视频。
        来自:
        帮助文档
        智能视图服务
        产品介绍
        应用场景
      • DMS助手
        本章介绍端云协同客户端的DMS助手。 功能介绍 端云协同客户端内置了DMS助手,为数据库开发和管理提供智能化的辅助能力。 知识问答:对于数据库中的基础知识或专业术语,提供全面而详尽的解答。 SQL生成:支持用自然语言描述需求生成SQL,并可在DMS助手中一键执行,降低SQL编写门槛,提升开发效率。 SQL纠错 :快速定位SQL错误并给出修复方案,并可在DMS助手中一键对比修改前后的SQL。 SQL补全:在SQL编辑框中输入时自动提供智能代码补全建议。 自定义模型:支持添加和管理第三方AI模型。 前提条件 安装并已启动端云协同客户端。 注意事项 添加自定义模型时请确认第三方模型支持OpenAI兼容协议。 添加自定义模型时请确保DMS客户端能够访问您配置的API地址。 操作步骤 1. 启动端云协同客户端。 2. 点击右上角的DMS助手图标。 添加自定义模型 自定义模型功能允许您在DMS助手中添加和管理第三方AI模型,扩展DMS的智能问答能力。通过配置自定义模型,您可以使用自己部署的或第三方服务商提供的大语言模型来辅助数据库管理工作。 模型自定义添加 :支持添加符合OpenAI兼容协议的第三方AI模型,配置API地址、API密钥、模型名称后即可使用。 连接测试 :保存前可进行连接测试,验证配置是否正确。 模型管理 :支持启用/禁用、编辑、删除已添加的模型。 多模型切换 :可在已配置的多个模型间自由切换使用。
        来自:
        帮助文档
        数据管理服务
        用户指南
        端云协同客户端
        DMS助手
      • DMS助手(1)
        本章介绍端云协同客户端的DMS助手。 功能介绍 端云协同客户端内置了DMS助手,为数据库开发和管理提供智能化的辅助能力。 知识问答:对于数据库中的基础知识或专业术语,提供全面而详尽的解答。 SQL生成:支持用自然语言描述需求生成SQL,并可在DMS助手中一键执行,降低SQL编写门槛,提升开发效率。 SQL纠错 :快速定位SQL错误并给出修复方案,并可在DMS助手中一键对比修改前后的SQL。 SQL补全:在SQL编辑框中输入时自动提供智能代码补全建议。 自定义模型:支持添加和管理第三方AI模型。 前提条件 安装并已启动端云协同客户端。 注意事项 添加自定义模型时请确认第三方模型支持OpenAI兼容协议。 添加自定义模型时请确保DMS客户端能够访问您配置的API地址。 操作步骤 1. 启动端云协同客户端。 2. 点击右上角的DMS助手图标。 添加自定义模型 自定义模型功能允许您在DMS助手中添加和管理第三方AI模型,扩展DMS的智能问答能力。通过配置自定义模型,您可以使用自己部署的或第三方服务商提供的大语言模型来辅助数据库管理工作。 模型自定义添加 :支持添加符合OpenAI兼容协议的第三方AI模型,配置API地址、API密钥、模型名称后即可使用。 连接测试 :保存前可进行连接测试,验证配置是否正确。 模型管理 :支持启用/禁用、编辑、删除已添加的模型。 多模型切换 :可在已配置的多个模型间自由切换使用。
        来自:
      • 应用场景
        本节介绍翼共享的应用场景。 企业文件共享 目标用户:企业内各部门员工、管理层。 核心诉求:保障企业数据安全,实现部门间高效协作与信息精准传递,满足不同部门对各类文档的管理与共享需求,同时便于权限管控与资料归档。 使用流程:企业管理员根据部门和组织架构在翼共享平台设置用户读写权限及文档共享范围;员工使用各自账号登录天翼AI云电脑,通过挂载的翼共享盘进行文件上传、下载、编辑等操作,如上传部门报表、产品文档等,下载所需资料;新员工入职时可获取相应权限访问入职培训资料和员工手册等。 共享盘推荐:翼共享具有严格权限分层管理和大容量存储功能的共享盘类型,以适应企业多部门、多文档类型的存储与权限管理需求。如有外部客户访问场景可以选择网络共享盘,本地数据大容量并发场景推荐使用NAS共享盘。 电子教室 目标用户:学校师生。 核心诉求:确保教学资料便捷存储与快速访问,满足课堂教学互动需求,保障学生作业安全存储与有效管理,同时简化教学设备管理流程。 使用流程:学校 IT 人员配置翼共享盘与池化AI云电脑的挂载连接;教师将课件及教学视频上传至翼共享盘;课堂上,学生通过池化AI云电脑登录访问翼共享盘,打开教学资料学习,并在课后将作业保存至共享盘指定位置。 共享盘推荐:翼共享学生空间版本,具备高并发读写能力和稳定数据传输性能的共享盘,可以支持按照学生账号进行作业空间配置,满足课堂作业提交场景,以保障多学生同时访问和操作教学资料时的流畅性。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼共享
        应用场景
      • Qwen-7B-Chat
        本文为您详细介绍Qwen7BChat模型。 模型简介 通义千问7B(Qwen7B) 是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen7BChat。 使用场景 Qwen系列模型的开发和开源为自然语言处理领域带来了新的可能性,尤其是在需要处理大量数据和复杂语言任务的场景中。主要使用场景包括对话系统、文本生成以及内容创作等。 评测效果 对于Qwen7BChat模型,常规的中文理解(CEval)、英文理解(MMLU)、代码(HumanEval)和数学(GSM8K)以及长序列任务等权威任务的评测结果如下。 注意 由于硬件和框架造成的舍入误差,复现结果如有波动属于正常现象。 中文评测(Chinese Evaluation) 在CEval验证集上,Qwen7BChat模型的0shot & 5shot准确率结果如下: Model Avg. Acc. LLaMA27BChat 31.9 LLaMA213BChat 36.2 LLaMA270BChat 44.3 ChatGLM26BChat 52.6 InternLM7BChat 53.6 Baichuan27BChat 55.6 Baichuan213BChat 56.7 Qwen7BChat (original) (0shot) 54.2 Qwen7BChat (0shot) 59.7 Qwen7BChat (5shot) 59.3 Qwen14BChat (0shot) 69.8 Qwen14BChat (5shot) 71.7 CEval测试集上,Qwen7BChat模型的zeroshot准确率结果如下: Model Avg. STEM Social Sciences Humanities Others ChineseAlpacaPlus13B 41.5 36.6 49.7 43.1 41.2 ChineseAlpaca27B 40.3 ChatGLM26BChat 50.1 46.4 60.4 50.6 46.9 Baichuan13BChat 51.5 43.7 64.6 56.2 49.2 Qwen7BChat (original) 54.6 47.8 67.6 59.3 50.6 Qwen7BChat 58.6 53.3 72.1 62.8 52.0 Qwen14BChat 69.1 65.1 80.9 71.2 63.4 在7B规模模型上,经过人类指令对齐的Qwen7BChat模型,准确率在同类相近规模模型中仍然处于前列。
        来自:
        帮助文档
        训推服务
        模型简介
        Qwen-7B-Chat
      • NVIDIA GPU云主机
        常规软件支持列表 PN8R型云主机主要用于AI深度学习、图形处理场景,例如LLM大模型推理微调、通用AI识别、AIGC图形生成等众多场景。应用软件如果使用到GPU的CUDA并行计算能力,可以使用PN8I型云主机。常用的软件支持列表如下: Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。 RedShift for Autodesk 3dsMax、VRay for 3ds Max等支持CUDA的GPU渲染。 使用须知 PN8R型云主机当前支持如下类型的操作系统: Windows Server CentOS Ubuntu Ctyunos 备注:各资源池支持的具体版本可能略有出入,请以控制台实际支持的版本为准。 P8A型云主机 P8A型云主机采用NVIDIA A100 40GB PCIE GPU,采用GPU直通技术,使用第三代英特尔 ® 至强® 可扩展处理器(主频2.6GHz),独享宿主机的CPU资源,实例间无CPU争抢,没有进行资源超配,在提供云主机灵活性的同时,提供高性能计算能力和优秀的性价比,单卡能够提供最大312 TFLOPS的半精度浮点运算能力和9.746 TFLOPS的双精度浮点运算能力。P8A型云主机能够提供超高的计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。 规格名称 vCPU 内存(GB) GPU 显存(GB) 虚拟化类型 最大带宽(Gbps)/基准带宽(Gbps) 网卡多队列数 最大收发包能力(万PPS) p8a.6xlarge.4 24 96 1×A100 1×40GB KVM 30/11 8 300 p8a.12xlarge.4 48 192 2×A100 2×40GB KVM 36/23 16 600 p8a.24xlarge.4 96 384 4×A100 4×40GB KVM 47/45 32 1000
        来自:
        帮助文档
        GPU云主机
        产品简介
        产品规格
        NVIDIA GPU云主机
      • 审计日志
        网页版管理台访问 盘管理员拥有当前盘读写权限,可以进入网页版管理台对该盘进行权限管理等操作。 1、通过网页版 2、左上角切换租户,切换到对应管理具备管理权限的租户下。 3、左下角会出现管理员入口,点击进入对应管理台。 4、进行管理员权限的盘管理操作 注意:盘管理员无法进行盘开通订购操作 跨租户分享盘 订购的网络盘支持分享到其他租户,实现租户和租户间的资源共享。 租户管理员可联系对应客服经理进行开通,提交申请工单进行操作。 3、分配盘管理员:在弹出的分配盘管理员界面中,会显示可选的用户列表,列表中包含用户名称、所属部门等信息。从列表中选择要设置为盘管理员的用户,可通过搜索框输入用户名等信息快速定位目标用户。选择好后,点击“确定” 按钮。 1、进入翼共享管理页面:登录天翼 AI 云电脑(政企版)控制台,找到 “翼共享” 选项,点击 “翼共享管理”。 订购的网络盘支持分享到其他租户,实现租户和租户间的资源共享。 租户管理员可联系对应客服经理进行开通,提交申请工单进行操作。2、选择目标共享盘:在翼共享管理页面中,找到需要设置盘管理员的共享盘所在行。可根据共享盘名称、状态等信息进行查找,确认目标共享盘后,点击该行操作列中的“设置盘管理员” 选项。
        来自:
      • VPC网络
        本文主要介绍VPC网络。 VPC网络模型 VPC网络采用VPC路由方式与底层网络深度整合,适用于高性能场景,节点数量受限于虚拟私有云VPC的路由配额。每个节点将会被分配固定大小的IP地址段。VPC网络由于没有隧道封装的消耗,容器网络性能相对于容器隧道网络有一定优势。VPC网络集群由于VPC路由中配置有容器网段与节点IP的路由,可以支持集群外直接访问容器实例等特殊场景。 图 VPC网络 说明 节点内Pod间通信:ipvlan子接口分配给节点上的Pod,同节点的Pod间通信直接通过ipvlan直接转发。 跨节点Pod间通信:所有跨节点Pod间的通信通过默认路由到默认网关,借助VPC的路由转发能力,转发到对端节点上。 优缺点 优点 由于没有隧道封装,网络问题易排查、性能较高 支持VPC内的外部网络与容器IP直通 缺点 节点数量受限于虚拟私有云VPC的路由配额 每个节点将会被分配固定大小的IP地址段,存在一定的容器网段IP地址浪费 Pod无法直接利用EIP、安全组等能力 应用场景 性能要求高:由于没有额外的隧道封装,相比于容器隧道网络模式,性能接近于VPC网络的性能,所以适用于对性能要求较高的业务场景,比如:AI计算、大数据计算等。 中小规模组网:由于VPC路由网络受限于VPC路由表条目配额的限制,当前默认最大只支持200个节点,如果有更大规模的需求,可提升VPC路由表条目配额。
        来自:
        帮助文档
        云容器引擎
        用户指南
        网络管理
        容器网络模型
        VPC网络
      • 公有云产品计费说明
        规格/特性名称 规格/特性说明 体验版 基础版 专业版 企业版 知识库文件存储容量 知识库文件以及工作项(需求管理、测试用例)的附件的总容量。 10GB 50GB 100GB 500GB Scrum需求模型 Scrum是增量迭代式的软件开发方法,通过最重要的迭代计划会议、每日站会、迭代回顾、验收会议来进行简单高效的管理。 √ √ √ √ 看板需求模型 看板协作是一种业界流行的轻量、灵活和简单的团队协作方法,它将项目的需求、缺陷和任务可视。 √ √ √ √ 自定义工作流 基于全自研工作流引擎,通过画布可视化编排需求状态流转和多种规则卡点配置,高效支撑企业定制化流程。 √ √ √ √ 自动化 基于元数据驱动和低码可视化规则编排流程支撑父子状态卷积、更新责任人、与代码联动等多种场景,极大提升需求作业效率。 × √ √ √ Wiki 提供在线文档多人协同编辑能力,方便企业/团队内部进行知识创作、沉淀和交流。 × √ √ √ 文件库(文档) 提供在线文件托管能力,支持多种文件格式的上传和预览。 × √ √ √
        来自:
        帮助文档
        软件开发生产线CodeArts
        计费说明
        公有云产品计费说明
      • VPC网络中部署多机多龙虾(1)
        本文帮助您快速了解如何在可用区资源池VPC中部署多个龙虾云主机。 背景信息 OpenClaw(“龙虾”,曾用名:Clawdbot、Moltbot)是一款开源、本地优先、可自主执行任务的AI智能体(Agent)框架,用户可通过微信、QQ、飞书等即时通讯工具作为交互界面与系统对接,便捷自然的实现与智能体的人机协作。如果将龙虾用作AI个人助理等简单场景,一般单机部署龙虾即可,在遇到大量任务并行,任务间数据隔离、权限隔离,多模型多能力分工,大型任务拆解执行,多租户服务,任务高可用保障等实际业务场景时,需要在多个云主机上分别部署龙虾,同时做合理的网络配置。 注意事项 本文适用于可用区资源池配置,本文所有操作均在华东1资源池进行,实际情况以控制台展现为准。资源池类型请详见++资源池区别++。 说明 OpenClaw 作为开源项目,建议在使用前全面评估其安全性与稳定性,仔细阅读《OpenClaw 安全风险提示》并且严格按照对应的开源许可协议规范使用,确保系统和数据安全。 前提条件 注册天翼云账号并完成实名认证。 场景说明 本场景在VPC中部署三台用于运行龙虾服务的云主机,云主机创建在同一个子网中。由于龙虾云主机需要通过18789端口对公网提供服务,同时,云主机本身访问模型或获取数据需要访问公网,在VPC中创建一个NAT网关做为公网统一出入口。架构示意图:
        来自:
      • 如何使用天翼云GPU云主机构建Blender云端渲染服务
        本文介绍如何使用天翼云GPU云主机构建Blender云端渲染服务,完成简单的云渲染任务。 背景信息 Blender 是一款永久开源免费的 3D 创作软件,支持整个 3D 创作流程:建模、雕刻、骨骼装配、动画、模拟、实时渲染、合成和运动跟踪,甚至可用作视频编辑及游戏创建。 实例环境如下表所示。 实例类型 g7.2xlarge.4 所在地域 华北2 系统盘 50GB 数据盘 50GB 操作系统 Windows2019DataCentervGPU 公网弹性IP带宽 5Mbps 操作步骤 1. 在天翼云申请GPU云主机实例。本文创建了一台规格为g7.2xlarge.4的图形加速基础型GPU云主机,选择Windows2019DataCentervGPU,配置超高IO系统盘及数据盘各50GB,添加网卡,选择VPC及Subnet,添加默认安全组,购买EIP,创建用户名、密码,购买成功后开机使用。 注意 如果使用自己的镜像没有GRID图形驱动,将无法使用渲染OpenGL功能,请安装驱动,详情请参见 2. 安装Blender,在官网下载并安装,下载地址:< 3.1.2版本,并解压缩到指定目录下 3. 配置环境变量,右击此电脑,单击属性,在弹出的弹窗中选择高级,点击环境变量进行配置。 4. 重启云主机,开机后运行Windows+R键,输入cmd。 5. 在命令行输入blender,如果能够启动blender页面,证明已经成功。 6. 渲染参数设定,建议直接在blender里面设定好所有的参数,命令行只是确定渲染的帧数。 7. 建议将工程文件(blend)保存在容易记的位置,这里以C:test.blend为例,输入 blender b "C:test.blend" o frame
        来自:
        帮助文档
        GPU云主机
        最佳实践
        如何使用天翼云GPU云主机构建Blender云端渲染服务
      • 规格族
        您可通过弹性云主机规格可售地域总览查看各规格可售的资源池。 根据系统架构以及使用场景,弹性云主机规格族可以分为以下几类: CPU架构 类型 子类型 描述 X86计算 通用型 通用型s2云主机 通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 X86计算 通用型 通用型m2云主机 通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 X86计算 通用型 通用型s3云主机 通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 X86计算 通用型 通用型s6云主机 通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 X86计算 通用型 通用型s7云主机 通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 X86计算 通用型 通用型s8云主机 通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 X86计算 通用型 通用型s8r云主机 通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 X86计算 通用型 通用型s8e云主机 通用型云主机共享宿主机的CPU资源,主要提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较高性价比,支持通用的业务运行。适用于不会经常或始终用尽vCPU性能的场景,如小型网站、轻量级研发测试环境、小型数据库等。 X86计算 计算型 计算型c3云主机 计算型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。提供更大规格的CPU和内存组合,适用于计算密集型业务等场景,如大型网站、电商营销等。 X86计算 计算型 计算型c6云主机 计算型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。提供更大规格的CPU和内存组合,适用于计算密集型业务等场景,如大型网站、电商营销等。 X86计算 计算型 计算型c7云主机 计算型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。提供更大规格的CPU和内存组合,适用于计算密集型业务等场景,如大型网站、电商营销等。 X86计算 计算型 计算型c8云主机 计算型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。提供更大规格的CPU和内存组合,适用于计算密集型业务等场景,如大型网站、电商营销等。 X86计算 计算型 计算型c8e云主机 计算型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。提供更大规格的CPU和内存组合,适用于计算密集型业务等场景,如大型网站、电商营销等。 X86计算 计算型 计算型c8a云主机 计算型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。提供更大规格的CPU和内存组合,适用于计算密集型业务等场景,如大型网站、电商营销等。 X86计算 内存型 内存型m3云主机 内存型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。CPU和内存配比可达1:8,适用于高内存计算应用,如大数据分析、核心数据库等。 X86计算 内存型 内存型m6云主机 内存型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。CPU和内存配比可达1:8,适用于高内存计算应用,如大数据分析、核心数据库等。 X86计算 内存型 内存型m7云主机 内存型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。CPU和内存配比可达1:8,适用于高内存计算应用,如大数据分析、核心数据库等。 X86计算 内存型 内存型m8云主机 内存型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。CPU和内存配比可达1:8,适用于高内存计算应用,如大数据分析、核心数据库等。 X86计算 内存型 内存型m8e云主机 内存型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。CPU和内存配比可达1:8,适用于高内存计算应用,如大数据分析、核心数据库等。 X86计算 内存型 内存型m8a云主机 内存型云主机独享宿主机的CPU资源,实例间无CPU争抢,并且没有进行资源超配,同时搭载全新网络加速引擎,实现接近物理服务器的强劲稳定性能。CPU和内存配比可达1:8,适用于高内存计算应用,如大数据分析、核心数据库等。 X86计算 增强型 网络增强型c7ne云主机 配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用;大数据分析和机器学习。 X86计算 增强型 网络增强型c8ne云主机 配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用;大数据分析和机器学习。 X86计算 增强型 网络增强型m8ne云主机 配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用;大数据分析和机器学习。 X86计算 本地盘云主机 超高IO型云主机ip3 搭载NVMe SSD本地盘,为CPU独享型的x86架构云主机,提供透传整块倍数的本地盘规格。 X86计算 本地盘云主机 超高IO型云主机ir3 搭载NVMe SSD本地盘,为CPU独享型的x86架构云主机,提供切分本地盘大小规格。 X86计算 本地盘云主机 磁盘增强型云主机d3 搭载SATA HDD本地盘,为CPU独享型的x86架构云主机。 X86计算 GPU加速/AI加速云主机 图形加速基础型G5 基于NVIDIA虚拟化GPU技术,能够提供全面的专业级的图形加速能力,同时适用于小规模推理。 X86计算 GPU加速/AI加速云主机 图形加速基础型G5s 基于NVIDIA虚拟化GPU技术,能够提供全面的专业级的图形加速能力,同时适用于小规模推理。 X86计算 GPU加速/AI加速云主机 图形加速基础型G6 基于NVIDIA虚拟化GPU技术,能够提供全面的专业级的图形加速能力,同时适用于小规模推理。 X86计算 GPU加速/AI加速云主机 图形加速基础型G7 基于NVIDIA虚拟化GPU技术,能够提供全面的专业级的图形加速能力,同时适用于小规模推理。 X86计算 GPU加速/AI加速云主机 计算加速型P2V 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 GPU加速/AI加速云主机 计算加速型P2Vs 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 GPU加速/AI加速云主机 计算加速型PI2 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 GPU加速/AI加速云主机 计算加速型PI7 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 GPU加速/AI加速云主机 计算加速型P8A 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 GPU加速/AI加速云主机 计算加速型PN8I 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 GPU加速/AI加速云主机 计算加速型PN8S 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 GPU加速/AI加速云主机 计算加速型PAK1 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 GPU加速/AI加速云主机 计算加速型PCH1 采用GPU直通技术,满足深度学习、科学计算、图像渲染等场景下用户的性能需求。 X86计算 海光系列 hc1型云主机 搭载海光Hygon C86 7285或Hygon C86 7380处理器。 X86计算 海光系列 hm1型云主机 搭载海光Hygon C86 7285或Hygon C86 7380处理器。 X86计算 海光系列 hs1型云主机 搭载海光Hygon C86 7285或Hygon C86 7380处理器。 X86计算 海光系列 hc3x型云主机 搭载海光Hygon C86 7493处理器。 X86计算 海光系列 hm3x型云主机 搭载海光Hygon C86 7493处理器。 X86计算 海光系列 hs3x型云主机 搭载海光Hygon C86 7493处理器。 X86计算 海光系列 hc3型云主机(停售) 搭载海光Hygon C86 7493处理器。 X86计算 海光系列 hm3型云主机(停售) 搭载海光Hygon C86 7493处理器。 X86计算 海光系列 hs3型云主机(停售) 搭载海光Hygon C86 7493处理器。 X86计算 海光系列 hc3xne型云主机 搭载海光Hygon C86 7493处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 X86计算 海光系列 hm3xne型云主机 搭载海光Hygon C86 7493处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 X86计算 海光系列 hs3xne型云主机 搭载海光Hygon C86 7493处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 X86计算 海光系列 hc4t型云主机(邀测) 搭载海光Hygon C86 7493处理器,支持海光最新一代安全加密虚拟化技术CSV3.0,提供国产化计算能力的同时,确保敏感数据在计算全流程中可用不可见,满足企业国产化转型的安全需求。 X86计算 海光系列 hm4t型云主机(邀测) 搭载海光Hygon C86 7493处理器,支持海光最新一代安全加密虚拟化技术CSV3.0,提供国产化计算能力的同时,确保敏感数据在计算全流程中可用不可见,满足企业国产化转型的安全需求。 X86计算 经济型 经济型e云主机 经济型云主机共享宿主机的CPU资源,提供基本水平的vCPU性能、平衡的计算、内存和网络资源,具有较低的价格,有可用性保障,无性能保障。支持小型的业务运行。适用于对价格敏感,性能要求低的场景,如小型网站、开发测试环境、个人云上学习环境等。 ARM计算 鲲鹏系列 kc1型云主机 搭载华为鲲鹏920处理器。 ARM计算 鲲鹏系列 km1型云主机 搭载华为鲲鹏920处理器。 ARM计算 鲲鹏系列 ks1型云主机 搭载华为鲲鹏920处理器。 ARM计算 鲲鹏系列 kc2x型云主机 搭载华为鲲鹏920 7260T处理器。 ARM计算 鲲鹏系列 km2x型云主机 搭载华为鲲鹏920 7260T处理器。 ARM计算 鲲鹏系列 ks2x型云主机 搭载华为鲲鹏920 7260T处理器。 ARM计算 鲲鹏系列 kc2型云主机(停售) 搭载华为鲲鹏920 7260T处理器。 ARM计算 鲲鹏系列 km2型云主机(停售) 搭载华为鲲鹏920 7260T处理器。 ARM计算 鲲鹏系列 ks2型云主机(停售) 搭载华为鲲鹏920 7260T处理器。 ARM计算 鲲鹏系列 kc2xne型云主机 搭载华为鲲鹏920 7260T处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 ARM计算 鲲鹏系列 km2xne型云主机 搭载华为鲲鹏920 7260T处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 ARM计算 鲲鹏系列 ks2xne型云主机 搭载华为鲲鹏920 7260T处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 ARM计算 鲲鹏系列 kc2ne型云主机(停售) 搭载华为鲲鹏920 7260T处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 ARM计算 鲲鹏系列 km2ne型云主机(停售) 搭载华为鲲鹏920 7260T处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 ARM计算 鲲鹏系列 ks2ne型云主机(停售) 搭载华为鲲鹏920 7260T处理器,配套25GE智能网卡,通过软硬结合的方式提高虚拟化性能,大幅提升实例的网络带宽能力和网络收发包能力。适用各种于网络密集型应用场景,如NFV/SDWAN、移动互联网、视频弹幕、电信业务转发等;中小型数据库系统、缓存、搜索集群;各种类型和规模的企业级应用。 ARM计算 飞腾系列 fc1型云主机 搭载腾云S2500处理器。 ARM计算 飞腾系列 fm1型云主机 搭载腾云S2500处理器。 ARM计算 飞腾系列 fs1型云主机 搭载腾云S2500处理器。
        来自:
        帮助文档
        弹性云主机 ECS
        产品概述
        产品规格
        规格族
      • 产品简介
        本章节介绍云原生API网关的定义。 概述 云原生API网关分为API网关和AI网关两个产品。API网关是一款面向现代应用架构设计的高性能网关解决方案,集成流量治理、安全防护、服务集成与可观测能力于一体。通过动态路由、插件热插拔、配置热更新等关键特性,实现对海量API请求的高效处理与灵活控制,全面适配微服务、Kubernetes、AI推理等多样化场景,助力企业构建稳定安全、可演进的API基础设施,全面提升系统的敏捷性与运维效率。AI网关是一款面向AI场景的高性能网关解决方案,统一代理大模型API、MCP Server和Agent API,可以作为AI应用与大模型服务、工具和其他Agent之间的桥梁,助力企业提升AI服务的集成效率和治理能力。 API网关 API网关在使用上,分为HTTP API、REST API、WebSocket API。 HTTP API 以路由为核心,适用于接口规范不统一的场景。推荐用于流量转发、Kubernetes Ingress、微服务间通信等应用。若您关注请求路由控制和流量管理,建议选择此类型。 REST API 遵循统一的OpenAPI 规范,适用于前后端协作、系统集成以及API的精细化管理。适合需要对外提供标准接口文档、SDK 等协作支持的场景。若您希望构建标准化、可治理的API接口体系,建议选择此类型。 WebSocket API 基于WebSocket协议,支持双向实时通信,适用于AI、IoT、即时通讯等对实时性要求高的场景。相较于传统HTTP接口,具备长连接和低延迟优势,已内置相关默认配置。若您的应用需实现高效的实时数据交互,建议选择此类型。 AI网关
        来自:
        帮助文档
        云原生API网关
        产品介绍
        产品简介
      • 昇腾 910B 物理机部署Qwen3指南(单机版)
        2.5 测试验证 使用服务器1025端口(可在config.json文件中修改)对服务可用性进行验证: plaintext curl i location ' header 'ContentType: application/json' data '{ "model": "qwen3", "stream": false, "messages": [ {"role": "user", "content": "你是谁"} ] }' 验证结果: plaintext HTTP/1.1 200 OK KeepAlive: timeout180, max2147483647 ContentLength: 2326 ContentType: application/json Connection: close RequestUUID: b43cdc0180c348a087c25dbbea04a068 {"id":"endpointcommon0","object":"chat.completion","created":1753675122,"model":"qwen3","choices":[{"index":0,"message":{"role":"assistant","toolcalls":null,"content":" n好的,用户问“你是谁”,我需要给出一个简洁明了的回答。首先,我应该介绍自己的名字Qwen,然后说明我是通义实验室研发的超大规模语言模型。接下来,要列出我的主要功能,比如回答问题、创作文字、逻辑推理、编程等,这样用户能了解我的能力范围。还要提到我支持多语言,这样用户知道可以用不同语言交流。最后,保持友好,邀请用户提问,促进进一步的互动。要确保回答结构清晰,信息全面,但不过于冗长。检查有没有遗漏的重要信息,比如我的中文名通义千问,以及多语言支持的具体例子。确认语气友好专业,没有使用复杂术语,让用户容易理解。现在可以组织语言,确保流畅自然。n nn你好!我是Qwen,是通义实验室研发的超大规模语言模型。你可以叫我通义千问或Qwen。我能够回答问题、创作文字(比如写故事、公文、邮件、剧本等)、进行逻辑推理、编程,甚至表达观点和玩游戏。我支持多种语言,包括但不限于中文、英文、德语、法语、西班牙语等。nn有什么问题或需要帮助的,尽管告诉我!"},"logprobs":null,"finishreason":"stop"}],"usage":{"prompttokens":10,"completiontokens":253,"totaltokens":263},"prefilltime":80,"decodetimearr":[65,36,36,36,36,36,37,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,35,36,36,36,36,36,36,36,36,35,36,36,36,36,36,36,36,36,36,36,36,36,36,37,36,36,36,36,36,36,37,36,36,36,51,36,36,36,37,37,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,36,37,36,36,36,37,37,36,36,36,36,36,37,36,36,36,36,36,36,36,36,36,36,36,36,37,36,36,36,37,36,36,37,36,37,36,36,36,36,37,36,36,36,36,37,36,37,37,36,36,37,37,37,36,37,36,38,37,36,36,36,37,36,36,37,37,36,36,37,36,36,36,36,38,36,36,37,37,36,36,37,36,36,36,36,37,36,36,36,37,36,36,36,37,38,37,37,36,36,36,43,37,36,36,37,37,36,40,37,37,36,36,37,37,36,36,36,42,38,36,36,36,36,37,36,36,45,37,36,36,37,37,38,36,37,37,36,36,36,36,37,36,37,37,36,36,36,36,37,36,36,37,37,36,36,36,37,37,37,37,36,39,36,37,37,37]}
        来自:
        帮助文档
        物理机 DPS
        最佳实践
        昇腾 910B 物理机部署Qwen3指南(单机版)
      • 公有云产品计费说明
        规格/特性名称 规格/特性说明 体验版 基础版 专业版 企业版 知识库文件存储容量 知识库文件以及工作项(需求管理、测试用例)的附件的总容量。 10GB 50GB 100GB 500GB Scrum需求模型 Scrum是增量迭代式的软件开发方法,通过最重要的迭代计划会议、每日站会、迭代回顾、验收会议来进行简单高效的管理。 √ √ √ √ 看板需求模型 看板协作是一种业界流行的轻量、灵活和简单的团队协作方法,它将项目的需求、缺陷和任务可视。 √ √ √ √ 自定义工作流 基于全自研工作流引擎,通过画布可视化编排需求状态流转和多种规则卡点配置,高效支撑企业定制化流程。 √ √ √ √ 自动化 基于元数据驱动和低码可视化规则编排流程支撑父子状态卷积、更新责任人、与代码联动等多种场景,极大提升需求作业效率。 × √ √ √ Wiki 提供在线文档多人协同编辑能力,方便企业/团队内部进行知识创作、沉淀和交流。 × √ √ √ 文件库(文档) 提供在线文件托管能力,支持多种文件格式的上传和预览。 × √ √ √
        来自:
      • 查看VPC间访问流量
        VPC间访问展示当前防火墙实例防护的VPC间流量数据。 前提条件 配置并开启VPC边界流量防护,且已有流量经过VPC,开启VPC防护的操作步骤请参见“开启VPC边界流量防护”。 查看VPC间访问流量 1. 登录管理控制台。 2. 在左侧导航栏中,单击左上方的,选择“安全> 云防火墙”,进入云防火墙的总览页面。 3. (可选)当前账号下仅存在单个防火墙实例时,自动进入防火墙详情页面,存在多个防火墙实例时,单击防火墙列表“操作”列的“查看”,进入防火墙详情页面。 4. 在左侧导航栏中,选择“流量分析> VPC间访问”,进入“VPC间访问”页面。 5. 查看经过云防火墙的流量统计信息,支持5分钟~7天的数据。 流量看板:VPC间最大流量的相关信息。 VPC间访问:VPC间请求流量和响应流量数据。 取值说明: 时间段 取值说明 近1小时 取1分钟内的平均值 近24小时 取5分钟内的平均值 近7天 取1小时内的平均值 自定义 5分钟~6小时:取1分钟内的平均值 6小时(含)~3天:取5分钟内的平均值 3天(含)~7天(含):取30分钟内的平均值 可视化统计:查看指定时间段内VPC间流量中指定参数的 TOP 5 排行,参数说明请参见表354。单击单条数据查看流量详情,每个详情支持查看50条数据。 VPC间流量可视化统计参数说明: 参数名称 参数说明 TOP访问源IP VPC间流量的源IP地址。 TOP访问目的IP VPC间流量的目的IP地址。 TOP开放端口 VPC间流量的目的端口。 应用分布 VPC间流量的应用信息。 私网IP活动明细:查看指定时间段内私网IP流量 TOP 50 信息。
        来自:
        帮助文档
        云防火墙
        用户指南
        查看流量数据
        查看VPC间访问流量
      • 产品咨询类
        类别 云防火墙 Web应用防火墙 定义 云防火墙(Cloud Firewall,CFW)是新一代的云防火墙,提供云上互联网边界和VPC边界的防护,包括实时入侵检测与防御、全局统一访问控制、全流量分析可视化、日志审计与溯源分析等,同时支持按需弹性扩容、AI提升智能防御能力、灵活扩展满足云上业务的变化和扩张需求,极简应用让用户快速灵活应对威胁。云防火墙服务是为用户业务上云提供网络安全防护的基础服务。 Web应用防火墙(Web Application Firewall,WAF),通过对HTTP(S)请求进行检测,识别并阻断SQL注入、跨站脚本攻击、网页木马上传、命令/代码注入、文件包含、敏感文件访问、第三方应用漏洞攻击、CC攻击、恶意爬虫扫描、跨站请求伪造等攻击,保护Web服务安全稳定。 防护对象 弹性公网IP和VPC边界。 支持对Web攻击的基础防护。 支持外部入侵和主动外联的流量防护。 针对域名或IP,云上或云下的Web业务。 支持对Web攻击的全面防护。 功能特性 资产管理与入侵防御:对已开放公网访问的服务资产进行安全盘点,进行实时入侵检测与防御。 访问控制:支持互联网边界访问流量的访问控制。 流量分析与日志审计:VPC间流量全局统一访问控制,全流量分析可视化,日志审计与溯源分析。 SQL注入、跨站脚本攻击、网页木马上传、命令/代码注入、文件包含、敏感文件访问、第三方应用漏洞攻击、CC攻击、恶意爬虫扫描、跨站请求伪造等攻击防护。
        来自:
        帮助文档
        云防火墙
        常见问题
        产品咨询类
      • Llama2-Chinese-13B-Chat
        本文为您详细介绍Llama 2Chinese13BChat模型。 模型简介 Llama2Chinese13BChat模型是针对Llama 2进行中文对话优化的微调参数模型,它基于Meta发布的Llama 2 Chat开源模型进行进一步训练。由于Llama2模型在原始状态下对中文的支持相对较弱,开发者特别采用了一套中文指令集来进行微调,以增强其处理中文对话的能力。目前,这个中文微调参数模型提供了7B和13B两种不同规模的参数大小版本。 使用场景 基于中文指令数据集对Llama2Chat模型进行了微调,使得Llama2Chinese13BChat具备更强的中文对话能力。 评测效果 从通用知识、语言理解、创作能力、逻辑推理等不同方面提问大模型,均取得不错的效果。 技术亮点 模型的开源内容包含可商用的中文版Llama 2模型以及中英文SFT(Supervised FineTuning,监督微调)数据集。这些输入数据的格式严格遵循Llama2Chat的既定规范,确保了与所有针对原版Llama2Chat模型进行的优化措施的高度兼容性和适配性。 免责声明 Llama2Chinese13BChat模型来源于第三方,本平台不保证其合规性,请您在使用前慎重考虑,确保合法合规使用并遵守第三方的要求。
        来自:
        帮助文档
        训推服务
        模型简介
        Llama2-Chinese-13B-Chat
      • 与其它云服务的关系
        类别 云防火墙 Web应用防火墙 定义 云防火墙(Cloud Firewall,CFW)是新一代的云防火墙,提供云上互联网边界和VPC边界的防护,包括实时入侵检测与防御、全局统一访问控制、全流量分析可视化、日志审计与溯源分析等,同时支持按需弹性扩容、AI提升智能防御能力、灵活扩展满足云上业务的变化和扩张需求,极简应用让用户快速灵活应对威胁。云防火墙服务是为用户业务上云提供网络安全防护的基础服务。 Web应用防火墙(Web Application Firewall,WAF),通过对HTTP(S)请求进行检测,识别并阻断SQL注入、跨站脚本攻击、网页木马上传、命令/代码注入、文件包含、敏感文件访问、第三方应用漏洞攻击、CC攻击、恶意爬虫扫描、跨站请求伪造等攻击,保护Web服务安全稳定。 防护对象 弹性公网IP和VPC边界。 支持对Web攻击的基础防护。 支持外部入侵和主动外联的流量防护。 针对域名或IP,云上或云下的Web业务。 支持对Web攻击的全面防护。 功能特性 资产管理与入侵防御:对已开放公网访问的服务资产进行安全盘点,进行实时入侵检测与防御。 访问控制:支持互联网边界访问流量的访问控制。 流量分析与日志审计:VPC间流量全局统一访问控制,全流量分析可视化,日志审计与溯源分析。 SQL注入、跨站脚本攻击、网页木马上传、命令/代码注入、文件包含、敏感文件访问、第三方应用漏洞攻击、CC攻击、恶意爬虫扫描、跨站请求伪造等攻击防护。
        来自:
        帮助文档
        云防火墙
        产品介绍
        与其它云服务的关系
      • 大模型学习机图像生成最佳实践
        文本生成图像模式 在txt2img标签页分别输入提示词(prompt)和负向提示词(prompt), 随后点击Generate按钮。 StableDiffusion的提示词写法要求较高, 这里无法做详细介绍. 您可搜索相关资料进行学习。 2. 图像生成图像模式 在img2img标签页分别输入提示词(prompt)和负向提示词(prompt), 同时在左下方选择上传一张图片, 最后点击Generate按钮。 StableDiffusion将给予给定图片和提示词, 创作一张新的图片。 3. 生成质量控制 StableDiffusion模型生成图片质量可以在页面下方Generation标签页进行调整, 但需要您具有一定的diffusion模型(扩散模型)背景知识。 这里仅对其中部分基础参数进行介绍: Sampling Steps: 采样步数. 数值越大图像越精细。 Width & Height: 图像的宽度与高度。 Batch count: 生成图像总批次。 Batch size: 每一批次生成图像的个数。 CFG Scale: 控制生成图像与提示词的关联度, 数值越大关联度越高, 但图片质量可能越差。 Seed: 随机数种子. 控制模型生成结果的随机性,如果输入1则代表不固定随机数种子, 相同的提示词每次生成图片不同; 如果输入其他数字则代表固定随机数种子, 相同提示词每次生成图片相同。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        大模型学习机最佳实践
        大模型学习机图像生成最佳实践
      • 未开启Kerberos认证集群中的默认用户清单
        默认用户组 描述 supergroup admin用户的主组,在关闭Kerberos认证的集群中没有额外的权限。 checksecldap 用于内部测试主LDAP是否工作正常。用户组随机存在,每次测试时创建,测试完成后自动删除。系统内部组,仅限组件间内部使用。 Managertenant 租户系统用户组。系统内部组,仅限组件间内部使用,且仅在已启用Kerberos认证的集群中使用。 Systemadministrator MRS集群系统管理员组。系统内部组,仅限组件间内部使用,且仅在已启用Kerberos认证的集群中使用。 Managerviewer MRS Manager系统查看员组。系统内部组,仅限组件间内部使用,且仅在已启用Kerberos认证的集群中使用。 Manageroperator MRS Manager系统操作员组。系统内部组,仅限组件间内部使用,且仅在已启用Kerberos认证的集群中使用。 Managerauditor MRS Manager系统审计员组。系统内部组,仅限组件间内部使用,且仅在已启用Kerberos认证的集群中使用。 Manageradministrator MRS Manager系统管理员组。系统内部组,仅限组件间内部使用,且仅在已启用Kerberos认证的集群中使用。 compcommon MRS集群系统内部组,用于访问集群公共资源。所有系统用户和系统运行用户默认加入此用户组。 default1000 为租户创建的用户组。系统内部组,仅限组件间内部使用。 launcherjob MRS系统内部组,用于使用V2接口提交作业。
        来自:
        帮助文档
        翼MapReduce
        用户指南
        MRS Manager操作指导(适用于2.x及之前)
        安全管理
        未开启Kerberos认证集群中的默认用户清单
      • 通过VPC子网共享实现账号间网络互通
        本文介绍通过VPC子网共享实现账号间网络互通 通过资源共享实现账号间的VPC子网共享,实现账号间网络互通 步骤1:登录“统一身份认证”在概览页获取资源使用者账号ID 步骤2:在“资源共享”“共享者”栏目,完成共享实例的配置 1. 选择需要共享的子网 2. 选择需要共享的账号 3. 选择给予共享者对应的操作权限 4. 确认配置 步骤3:资源使用者登录控制台,在“资源共享”平台接受共享邀请 步骤4:资源使用者登录控制台,可将业务绑定到所接受的共享子网,完成账号间的网络互通。
        来自:
        帮助文档
        资源共享
        最佳实践
        通过VPC子网共享实现账号间网络互通
      • 通过VPC子网共享实现账号间网络互通(1)
        本文介绍通过VPC子网共享实现账号间网络互通 通过资源共享实现账号间的VPC子网共享,实现账号间网络互通 步骤1:登录“统一身份认证”在概览页获取资源使用者账号ID 步骤2:在“资源共享”“共享者”栏目,完成共享实例的配置 1. 选择需要共享的子网 2. 选择需要共享的账号 3. 选择给予共享者对应的操作权限 4. 确认配置 步骤3:资源使用者登录控制台,在“资源共享”平台接受共享邀请 步骤4:资源使用者登录控制台,可将业务绑定到所接受的共享子网,完成账号间的网络互通。
        来自:
      • 在Dify中集成MCP Server
        本文介绍在应用托管中搭建Dify和部署MCP Server,以及在Dify中集成基于部署的MCP Server。 概述 Dify介绍 Dify 是一站式大模型应用开发平台。它能便捷接入各类数据并管理,支持模型微调与多模型调用。通过可视化界面和低代码工具,用户无需深厚技术背景,就能快速搭建如聊天机器人、智能客服等应用。可用于客户服务、内容创作等场景,具有降低开发门槛、提升效率、灵活可扩展等优势,助力企业高效落地大模型应用。 前置说明 1. 本文档旨在指导用户如何通过应用托管控制台,体验将MCP Server集成至Dify。 2. 本产品中的模型由第三方主体提供,尽管云公司已尽最大努力进行识别和维护,但仍无法保证模型的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 使用前准备 1. 天翼云账号注册:使用应用托管平台须具备天翼云官网账号。已有天翼云账号的直接登录即可,如无天翼云账号需先注册,注册流程可参考:注册账号。 2. 使用前提:如需使用服务请先完成实名认证,请参考账号中心实名认证。如需使用按需服务,请确认账号余额≥100 元。
        来自:
        帮助文档
        应用托管
        最佳实践
        在Dify中集成MCP Server
      • 基于Dify和DeepSeek构建本地知识库的最佳实践
        Dify介绍 Dify 是一站式大模型应用开发平台。它能便捷接入各类数据并管理,支持模型微调与多模型调用。通过可视化界面和低代码工具,用户无需深厚技术背景,就能快速搭建如聊天机器人、智能客服等应用。可用于客户服务、内容创作等场景,具有降低开发门槛、提升效率、灵活可扩展等优势,助力企业高效落地大模型应用。 前置说明 1. 该文档为应用托管控制台通过应用市场体验Dify+DeepSeekR1模型搭建私有知识库的说明,通过应用托管控制台,打开应用市场,创建对应的Dify应用,使用 Dify构建本地知识库。 2. 本产品中的模型由第三方主体提供,尽管云公司已尽最大努力进行识别和维护,但仍无法保证模型的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。 使用前准备 1. 天翼云账号注册:使用应用托管平台须具备天翼云官网账号。已有天翼云账号的直接登录即可,如无天翼云账号需先注册,注册流程可参考:注册账号。 2. 使用前提:如需使用服务请先完成实名认证,请参考账号中心实名认证。如需使用按需服务,请确认账号余额≥100 元。
        来自:
        帮助文档
        应用托管
        最佳实践
        基于Dify和DeepSeek构建本地知识库的最佳实践
      • AI告警
        本节主要介绍如何在智能视图服务控制台查看全量AI告警。 在AI告警模块,用户可以切换查看AI告警列表和AI告警统计。 AI告警列表 在AI告警列表页面,左侧为用户的设备树,右侧为AI告警列表,支持用户切换查看设备侧告警和云端告警。设备树默认选中根目录,即查看全量的AI告警,用户也可在设备树选中单个设备,即查看对应设备的AI告警。 设备侧告警 设备侧告警是为设备绑定设备AI订阅后产生的告警,包含设备名称、告警类型及告警时间等信息。 云端告警 云端告警是为设备绑定云端AI应用并启用后产生的告警,包含应用名称、算法类型、设备名称、告警时间、置信度及告警截图等信息。 AI告警统计 在AI告警统计页面,会展示用户的今日AI告警和AI告警统计详情,统计对象为云端AI告警。 今日AI告警 展示今日生成的云端AI告警次数,以算法类型进行区分统计。 AI告警统计详情 展示用户近7天或近30天的云端AI告警统计趋势,可下拉选择需要展示在趋势图内的AI算法类型。
        来自:
        帮助文档
        智能视图服务
        用户指南
        运营中心
        AI告警
      • AI 应用发现
        背景说明 随着生成式AI工具的普及,员工为提升效率普遍绕过IT监管私自使用AI工具,导致企业面临数据泄露与知识产权流失、漏洞与攻击面扩大等安全风险。AI应用发现及管控能力通过周期性扫描终端设备,有效发现部署的AI应用,帮助企业快速理清全域AI应用分布,为后续的AI应用风险监测及管控奠定基础。 功能说明 1.通过周期性采集上报 AI 应用资产,统计最新的终端设备 AI 应用安装数量。 2.针对 Windows AI 软件进行管控,管控动作包括禁止运行、禁止联网。 ⚠️注意:1、已订购终端管理企业版套餐用户。 操作步骤 1. 登录边缘安全加速控制台,选择【终端管理】。 2. 在左侧导航栏点击【AI 安全检测】【AI应用发现及管控】,查看 AI 应用发现及管控功能。 3. 可根据业务需求进行相关配置。 AI 应用发现数据 1. 当前AI 应用发现,采用周期性扫描的(默认每 24小时采集一次)方式定期采集终端设备上部署的 AI 应用。 2. 点击“AI 应用发现” 开关按钮,开启/关闭功能AI 应用周期性扫描。 3. 点击“设置”,可以配置无需扫描的非 AI 应用服务端口,减少无效扫描。 4.顶部概览视图支持查看当前检测的所有AI 应用数量以及安装了 AI 应用的终端设备数量,实时掌握当前 AI 应用资产总量。 5.支持查看当前所有设备中部署的 TOP10 AI 应用,快速了解高频使用的 AI 应用。
        来自:
        帮助文档
        边缘安全加速平台
        终端管理
        终端安全
        AI 安全检测
        AI 应用发现
      • AI告警
        本节主要介绍如何在智能视图服务控制台查看全量AI告警。 在AI告警模块,用户可以切换查看AI告警列表和AI告警统计。 AI告警列表 在AI告警列表页面,左侧为用户的设备树,右侧为AI告警列表。每条AI告警记录包含应用名称、算法类型、设备名称、告警时间、置信度及告警截图等信息。 查看全量AI告警 设备树默认选中根目录,即查看全量的AI告警。用户可以对算法类型、应用名称、告警时间及置信度进行筛选展示。 查看单设备AI告警 在设备树选中单个设备,即可在右侧查看对应设备的AI告警列表。用户可以对应用名称、告警时间及置信度进行筛选展示。 列表/大图模式 用户可点击右上角的按钮进行列表/大图模式的切换。 AI告警统计 在AI告警统计页面,会展示用户的今日AI告警和AI告警统计详情。 今日AI告警 展示今日生成的AI告警次数,以算法类型进行区分统计。 AI告警统计详情 展示用户近7天或近30天的AI告警统计趋势,可下拉选择需要展示在趋势图内的AI算法类型。
        来自:
        帮助文档
        智能视图服务
        用户指南(旧版)
        运营中心
        AI告警
      • 使用AI云电脑
        退出/锁屏/重启/关机 工具栏点击“退出”模块,可以找到“退出”、“锁屏”、“重启”、“关机”。 退出:断开AI云电脑连接,退出到AI云电脑列表页。 锁屏:点击“锁屏”,锁定AI云电脑屏幕,输入AI云电脑账号的密码验证通过后,重新进入AI云电脑;若点击右下角“退出”图标,则退出到客户端登录页。 重启:点击“重启”,将对AI云电脑、终端单独或者联动进行重启。 关机:点击“关机”,将对AI云电脑、终端单独或者联动进行关机。 32. 文件拷贝 说明:仅windows客户端、Mac客户端支持。 AI云电脑支持通过拖拽的方式,将文件从本地复制到AI云电脑,或从AI云电脑复制到本地。 从本地拖拽到AI云电脑: AI云电脑客户端在最小化情况下,将本地文件拖拽到本地系统任务栏的AI云电脑客户端图标上,即可将文件复制到AI云电脑的AI云电脑中。 AI云电脑客户端在窗口化情况下,将本地文件拖拽到客户端界面中,即可将文件复制AI云电脑中。 从AI云电脑拖拽到本地: AI云电脑客户端在窗口化情况下,将AI云电脑文件拖拽到客户端界面外,即可将文件复制到本地系统的AI云电脑中。(管理控制台基础策略:开启文件拷贝策略) 文件传输过程中会有进度展示: 注意:当文件大小超过200MB时,请使用Ctrl+C/V快捷方式进行文件传输。 33.
        来自:
        帮助文档
        天翼云电脑(公众版)
        电脑终端指南(新)
        使用AI云电脑
      • 大模型学习机文本生成最佳实践
        2.2 文本生成模式 在Default标签页我们可以利用大模型进行文本生成创作。 注意 原版Llama27bchat模型对中文支持较弱,可以补充下载其他基于Llama27bchat的中文LoRA小模型,或换用其他中文的基础大模型,例如电信星辰(telechat)大模型。 2.3 生成方向控制 大语言模型生成方向可以在Parameters标签页的Generation标签下进行调整,但需要您具有一定的大语言模型背景知识。这里仅对其中部分基础参数进行介绍。 注意 大模型中token的概念:文本中最小的语义单元。例如在英文中一个简单单词(love)可能是一个token,一个复杂单词(transformer)可能是多个token的组合(trans + former); 在中文中一个字(爱)可能是一个token,多个字(爱情)也可能组成一个token。 maxnewtokens:生成token的最大数量。 temperature:在生成下一个token时,控制各个候选token被选择的概率的平滑程度。 temperature取值越大,每个候选token的概率越相似。 topp: 在生成下一个token时,按候选token的概率从大到小计算累计概率, 达到p后丢弃后续的候选token,控制候选token的数量。 topk:在生成下一个token时, 按候选token的概率从大到小,只取前k个候选token,控制候选token的数量。 repetitionpenalty:重复惩罚,控制生成结果中文字的重复次数。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        大模型学习机最佳实践
        大模型学习机文本生成最佳实践
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • ...
      • 64
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      GPU云主机

      轻量型云主机

      弹性伸缩服务 AS

      公共算力服务

      应用托管

      知识库问答

      人脸检测

      动作活体识别

      通用型OCR

      推荐文档

      文档下载

      查看队列的详情

      Android客户端需求

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号