云主机开年特惠28.8元/年,0元秒杀等你来抢!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 天翼云新春焕新季 NEW 云主机开年特惠28.8元/年,0元秒杀等你来抢!
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
  • MCP市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V3.1
  • DeepSeek-R1-0528
  • DeepSeek-V3-0324
  • Qwen3-235B-A22B
  • Qwen3-32B
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      CDN加速_相关内容
      • 扩容集群
        枚举参数 无 请求示例 请求url 请求头header 无 请求体body { "clusterid": "22cbc1c6c69e5abe863e43a091cd02b7", "nodegroupname": "core1", "count": 1, "scalewithoutstart": true } 响应示例 请求成功示例: { "statusCode": 200, "message": "success", "returnObj": { "orderNo": "20221018153152727265" } } 请求失败示例1: { "statusCode": 500, "error": "EMR400000", "message": "请求失败", "returnObj": {} } 请求失败示例2: { "statusCode": 500, "error": "EMR400000", "message": "请求失败", "returnObj": "当前资源存在在途单 不允许重复提交,产品规格实例ID:0cfc7bb1e6ae48649a1749d0b5b3ad11,在途单的订单号:20241206151843080993" } 验签失败示例: { "statusCode": 500, "error": "EMR401000", "message": "OpenAPI认证失败", "returnObj": {} } 实名认证失败示例: { "statusCode": 500, "error": "EMR401009", "message": "账号未进行实名认证", "returnObj": {} } 非法操作示例: { "statusCode": 500, "error": "EMR401004", "message": "非法操作", "returnObj": {} } 请求参数类型错误示例: { "statusCode": 500, "error": "EMR401001", "message": "请求参数类型错误", "returnObj": "{"count": "应为int范围内整数"}" } 请求参数值无效示例: { "statusCode": 500, "error": "EMR401002", "message": "请求参数值无效", "returnObj": "{"count": "不能为空"}" } 运维约束示例: { "statusCode": 500, "error": "EMR401010", "message": "存在与之约束的运维操作", "returnObj": {} } 服务异常示例: { "statusCode": 500, "error": "EMR401011", "message": "存在服务异常,正在为您加速处理中", "returnObj": {} } 规格不足示例: { "statusCode": 500, "error": "EMR401012", "message": "规格已售罄", "returnObj": {} } IP不足示例: { "statusCode": 500, "error": "EMR401013", "message": "子网下IP余量不足", "returnObj": {} }
        来自:
        帮助文档
        翼MapReduce
        API参考
        API
        2023-11-02
        扩容集群
      • 镜像缓存计费
        本文介绍弹性容器实例ECI的镜像缓存计费规则。 计费说明 镜像缓存可以加速拉取镜像,减少ECI实例启动的耗时。创建镜像缓存的方式分为手动创建和自动创建两种,两者的计费规则不同。 使用阶段 手动创建的镜像缓存 自动创建的镜像缓存 创建镜像缓存 临时资源(ECI实例)费用 快照费用 云硬盘费用 不收费 使用镜像缓存 云硬盘费用 如果镜像缓存大于40GiB,需要增加临时存储空间并为其付费 手动创建的镜像缓存 创建镜像缓存 计费项 计费说明 相关文档 临时资源(ECI实例)费用 系统将创建一个ECI实例(2 vCPU、4 GiB内存),并挂载一块普通IO云盘用于中转镜像缓存。镜像缓存创建完成后,ECI实例将被自动释放。其中ECI实例运行时长:受镜像大小影响,大的镜像相对耗时长 ECI实例计费 快照费用 一个镜像缓存对应一个普通快照。该快照的生命周期与镜像缓存的生命周期一致,保留镜像缓存需支付快照存储费用 云硬盘快照计费说明 云硬盘费用 云硬盘挂载至ECI实例用于中转镜像缓存,该云硬盘的生命周期与快照的生命周期一致,其中云硬盘容量:等于镜像缓存大小 云硬盘计费说明
        来自:
        帮助文档
        弹性容器实例
        计费说明
        计费项
        镜像缓存计费
      • 查询状态码请求数,请求状态码占比数据
        参数 类型 是否必传 名称 描述 starttime int 是 开始时间戳 起始时间,时间戳(秒)。 endtime int 是 结束时间戳 结束时间,时间戳(秒)。 interval string 否 时间粒度 时间粒度,目前支持1m,5m,1h和24h,默认5m。 producttype List<string> 否 产品类型 “007”(安全加速) domain list<string> 否 域名列表 域名,不传默认名下所有域名,可多个域名,作为统计筛选项。 province list<int> 否 省编码列表 省编码,不传默认所有省份,可多个省编码,作为统计筛选项, isp list<string> 否 运营商编码列表 运营商编码,不传默认所有运营商,可多个运营商编码,作为统计筛选项, networklayerprotocol string 否 网络层协议 网络层协议,不传默认所有网络层协议,支持作为统计筛选项,可以为ipv4、ipv6,other。 applicationlayerprotocol string 否 应用层协议 应用层协议,不传默认所有络层协议,支持作为统计筛选项,可以为http,https,rtmp,quic,other。 groupby list<string> 否 结果聚合维度 指标在计算结果的聚合维度,不传或为空默认按照时间粒度聚合,可多个统计维度,可以为producttype,domain,province,isp,networklayerprotocol,applicationlayerprotocol。
        来自:
        帮助文档
        安全加速(文档停止维护)
        API参考
        API
        统计分析
        查询状态码请求数,请求状态码占比数据
      • TeleChat-12B
        模型开源 支持DeepSpeed微调:我们支持使用DeepSpeed进行模型微调,并已经开源了基于DeepSpeed的训练代码。这段代码不仅便于用户进行高效的模型训练,还具备一系列优化特性。 Zero并行显存优化:开源的训练代码中集成了Zero并行显存优化技术,这一技术能够显著提升训练过程中的显存利用率,使得在有限资源下训练更大规模的模型成为可能。 集成FlashAttention2:我们的训练代码还集成了FlashAttention2,这是一种高效的注意力机制实现,能够进一步加速模型的训练过程,提高训练效率。 多轮对话能力支持:为了提升模型在复杂对话场景中的表现,我们开源了多轮数据构建方式,并针对多轮模型训练集成了特定的mask loss训练方式。这种训练方式有助于模型更好地聚焦多轮对话中的关键信息,从而提升问答效果和用户体验。 外推能力提升:我们开源了8K训练版本的模型,并采用了NTKaware外推和attention scaling外推方式。这些技术使得模型能够成功外推到96K的更大规模,显著增强了模型的外推能力和泛化性能。 长文生成能力:该模型还展现出了较强的长文生成能力,在多个长文写作任务上表现优异,包括但不限于工作总结、工作计划、PPT大纲、申论、招标书、邮件、方案、周报以及JD(职位描述)写作等。这些实际应用场景的验证,充分证明了模型在复杂文本生成任务中的强大实力和广泛应用潜力。
        来自:
        帮助文档
        训推服务
        模型简介
        TeleChat-12B
      • 12B
        模型开源 支持DeepSpeed微调:我们支持使用DeepSpeed进行模型微调,并已经开源了基于DeepSpeed的训练代码。这段代码不仅便于用户进行高效的模型训练,还具备一系列优化特性。 Zero并行显存优化:开源的训练代码中集成了Zero并行显存优化技术,这一技术能够显著提升训练过程中的显存利用率,使得在有限资源下训练更大规模的模型成为可能。 集成FlashAttention2:我们的训练代码还集成了FlashAttention2,这是一种高效的注意力机制实现,能够进一步加速模型的训练过程,提高训练效率。 多轮对话能力支持:为了提升模型在复杂对话场景中的表现,我们开源了多轮数据构建方式,并针对多轮模型训练集成了特定的mask loss训练方式。这种训练方式有助于模型更好地聚焦多轮对话中的关键信息,从而提升问答效果和用户体验。 外推能力提升:我们开源了8K训练版本的模型,并采用了NTKaware外推和attention scaling外推方式。这些技术使得模型能够成功外推到96K的更大规模,显著增强了模型的外推能力和泛化性能。 长文生成能力:该模型还展现出了较强的长文生成能力,在多个长文写作任务上表现优异,包括但不限于工作总结、工作计划、PPT大纲、申论、招标书、邮件、方案、周报以及JD(职位描述)写作等。这些实际应用场景的验证,充分证明了模型在复杂文本生成任务中的强大实力和广泛应用潜力。
        来自:
      • 应用场景
        训推一体场景 使用场景 主要面向对数据保密及安全有着较高要求的企业单位与科研机构,可有力支撑其在私有化环境中,凭借自有数据开展专属行业大模型的训练或者微调工作,尤其适用于政务、医疗、金融等诸多行业领域,充分满足不同行业对于数据安全及大模型定制化应用的需求。 产品优势 拥有丰富多样的训推一体机规格,可依据不同用户的具体业务规模、算力需求等情况,灵活提供适配性强的产品选择。 配备简单易用的训练平台,极大降低了用户的操作门槛,让即使没有深厚技术背景的人员也能便捷地进行大模型的相关训练操作,有效提升工作效率。 模型推理场景 使用场景 精准契合那些无大模型训练诉求,但又需要在私有化环境下部署自有大模型或引入行业大模型,以此为自身应用赋予智能能力的应用场景,广泛覆盖教育平台、数字政务以及医疗应用等关键领域,通过快速调用内置DeepSeek等系列大模型,获取高效的推理服务,为行业应用提供强大的AI支持,提升业务智能化水平。 产品优势 具备推理加速功能以及量化压缩技术,能够大幅提升模型推理的速度与效率,同时优化资源利用,降低对硬件资源的依赖。 支持在本地进行快速部署,可迅速将大模型的推理能力融入到现有业务体系中,减少部署时间成本,快速实现应用赋能与价值创造。
        来自:
        帮助文档
        智算一体机
        产品介绍
        应用场景
      • 基于OceanFS轻松部署DeepSeek的最佳实践
        快速体验DeepSeek 本节以DeepSeekr17b模型为例,讲解如何基于OceanFS天翼云使用Ollama运行 DeepSeek模型,读者可以根据自己实际需求选用模型和云主机配置。 步骤一:创建GPU云主机 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 单击“弹性云主机”,进入主机列表页。 3. 右上角单击“创建云主机”,进入弹性云主机创建页。 4. 进行基础配置。 1. 根据业务需求配置“计费模式”、“地域”、“企业项目”、“虚拟私有云”、“实例名称”、“主机名称”等。 2. 选择规格。此处选择"CPU架构"为"X86"、"分类"为"GPU型"、"规格族"为"GPU计算加速型pi7"、"规格"为"pi7.4xlarge.4"。 3. 选择镜像。“镜像类型”选择“镜像市场”,在云镜像市场中选择预置了DeepSeek R1模型的DeepSeekR17BUbuntu22.04镜像。 注意 本镜像推荐配置:内存≥8G、显存≥16G。 目前也提供了预装DeepSeekR170B模型的镜像,如您有需求,也可在云镜像市场中进行选择。 4. 设置云盘类型和大小。选择基础配置即可。 5. 网络高级配置。设置网络,包括"网卡"、"安全组",同时配备 "弹性IP" 用于下载和访问模型;设置高级配置,包括"登录方式"、"云主机组"、"用户数据"。 6. 确认并支付。返回云主机控制台等待云主机创建,一般需要1~3分钟。
        来自:
        帮助文档
        海量文件服务 OceanFS
        最佳实践
        基于OceanFS轻松部署DeepSeek的最佳实践
      • 应用授权
        本文介绍在远程零信任办公场景下,如何给用户配置应用访问授权。 零信任远程办公服务帮助您管理企业员工,合作伙伴,项目合作方等不同角色人员对内部系统的访问权限,支持精细化的应用授权管理,可以按照用户组,角色,组织架构,用户粒度进行应用系统授权。您的员工用户可以在登录远程零信任办公服务客户端后,点击左侧我的应用查看具备访问权限的系统列表。 前提条件 完成身份管理用户与组织配置,具体步骤,请参见用户与组织。 完成应用管理应用配置,具体步骤,请参见应用配置。 若需按照用户组进行授权,需完成身份管理用户组管理配置,具体步骤,请参见用户组管理。 操作步骤 1. 登录边缘安全加速平台控制台。 2. 在首页产品能力栏目,选择零信任进入工作台。 3. 在左侧导航栏,应用应用授权,查看应用访问策略。 应用授权 可通过应用授权列表进行查看和管理应用授权策略。 字段 字段说明 策略名称 策略的名称,便于进行区分和记忆。 备注 策略的说明。 到期时间 授权策略的有效期,超过有效期时间,授权策略将自动禁用。 策略状态 禁用,则策略不生效,启用则策略生效。 应用权限 目前只支持授权访问动作,即允许访问,生效范围内的应用进行流量牵引回连接器(内网)进行访问。 生效用户 可根据用户组、用户、组织进行同时选择生效。 生效应用 可选择对应的应用进行生效。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        应用管理
        应用授权
      • 访问控制
        本节介绍了如何配置访问控制、频率控制防护策略。 使用场景 如果您需要针对性地管理具有固定特征的访问请求,您可以配置访问控制规则对命中条件的请求设置拦截、告警、加白、丢弃动作,保证客户网站不受未知访问。 访问控制匹配条件可针对IP,IP段,URI,METHOD,请求地区,请求参数,请求头部,请求协议等字段进行组合。 前提条件 已开通DDoS高防(边缘云版)。 域名状态为“已启用”。 使用说明 1.登录DDoS高防(边缘云版)控制台。 2.进入【业务接入】【域名接入】页面。 3.选择需要配置的域名,在操作栏点击【防护配置】按钮,进入【访问控制】页面。 新增规则 在访问控制列表右侧,单击【新增】按钮,在弹框中完成规则配置后,点击新增。 针对满足匹配条件的请求报文,执行对应的处理动作。 配置项 说明 处理动作 支持拦截、告警、加白、丢弃。 告警:对命中该规则的请求仅告警不阻断,记录攻击日志。 加白:对命中该规则的请求放行,不记录攻击日志。 拦截:对命中该规则的请求进行拦截,并返回响应页面。 丢弃:对命中该规则的请求拦截但不会响应页面,减少带宽。 规则名称 自定义规则名称。 匹配条件 支持配置多条,同一规则下多条匹配条件同时满足进行处理。 匹配字段: IPPORT:客户端IP端口 PATH:目录路径,比如:/qr/;/app/verifyCode/ IP:客户端IP,比如:192.168.1.1;192.168.1.2 IPS:客户端ip段,比如:192.168.1.0/24;192.168.2.0/24 IPR:客户端ip范围,比如:192.168.1.1192.168.1.10;192.168.1.12192.168.1.20 URI:URI不包括问号后参数,比如:/login.php REQUESTURI:URI包括问号后参数,比如:login.php?id1 METHOD:请求方式,比如:GET;POST ARGS:问号后参数名 GEO:地理位置 HEADER:请求头部 PROTOCOL:请求协议,比如:HTTP/1.0;HTTP/2.0 调整优先级 在规则列表中的优先级一列,可通过箭头符号对规则优先级顺序进行调整。 说明 1. 越往前的优先级越高,优先匹配规则处理。最新增加的规则放在最末,优先级最低。 2. 访问控制中加白策略的优先级默认高于其他策略。 查看规则 在规则列表操作栏,点击【查看】按钮,可查看规则的详细配置。 编辑规则 在规则列表操作栏,点击【编辑】按钮,可修改规则配置。 删除规则 在规则列表操作栏,点击【删除】按钮,可删除规则。 注意 新增规则、调整规则优先级、编辑规则、删除规则后需要点击【提交部署】,否则变更将无法下发。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        用户指南
        业务接入
        域名接入
        防护配置
        访问控制
      • 设置Cookie防护
        Cookie签名 针对Cookie进行签名,会新增一个Cookie签名字段,原始Cookie内容正常发送给用户,当客户端Cookie内容进行了修改,请求在WAF端签名校验不通过,该请求将被拦截。 前提条件 已开通Web应用防火墙(边缘云版) 已新增域名并成功接入WAF,具体操作请见WAF接入 开通专业版及以上版本支持使用Cookie防护功能 操作步骤 1. 登录Web应用防火墙(边缘云版)控制台 2. 登录Web应用防火墙(边缘云版)控制台,在左侧导航栏中选择【域名管理】—【域名列表】,单击域名列表操作【安全防护】进入高级防护页面; 3. 进入“Cookie防护”页面,可以配置Cookie防护策略; 配置说明 配置项 说明 开关 控制策略的处理动作,可以选择开启或关闭 防护模式 触发Cookie防护后的执行动作,可以选择告警或拦截 Cookie key 值 设置需要防护的Cookie名称,Cookie必须有参数值,例如:setcookie: SFcookie11ENCRYPTCOOKIE1988262423afZ5ZEIzbEL%3D; Secure; SameSiteStrict, 只有SFcookie11、SameSite可配置为key 防护方式 支持选择加密与签名两种防护方式,需要配置防护动作与防护过渡期 (1)加密:对Cookie值进行加密,客户端查看到的值为加密后的内容 (2)签名:给Cookie值加签名字段,签名方式可选 UA:使用该方式签名,客户UA变换后,Cookie签名验证将不通过 IP+HOST+UA:泛域名模式下,加签HOST字段 IP+UA:使用该方式签名,客户IP或使用浏览器改变后,使用之前Cookie防护验证不通过 IP:使用该方式签名,客户ip变换后,Cookie签名验证将不通过 防护动作 拦截/清除 拦截:Cookie值检测不通过将拦截请求,并清除Cookie; 清除:Cookie检测不通过清除该Cookie回源,总开关为拦截,防护动作为清除,最终效果仍为清除 防护过渡期 在过渡期内(即在配置的时间之前),检测失败不会进行拦截,只会清除Cookie值,重新登录后将下发新的Cookie值 Cookie属性 支持选择HTTPonly和secure 设置后Cookie不允许js读取,有效防止xss盗取客户Cookie,配置后,Cookie响应头部增加值HttpOnly,若源站响应已存在HttpOnly,会同时存在 secure:Cookie设置为secure的时候,客户端只能通过https协议发送Cookie,无法通过http发送 白名单 如果有特殊的业务无法通过Cookie防护策略,可以不同粒度的请求进行加白,则符合加白条件的请求不会进行Cookie防护策略
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        操作指导
        安全防护配置
        设置Cookie防护
      • 卸载Tesla驱动
        本文为您介绍卸载Tesla驱动的操作方法。 背景信息 警告:GPU云主机必须配备了相关驱动才可以正常使用。如果您因某种原因需要卸载当前驱动,请务必再安装与您实例规格及操作系统相匹配的正确驱动,否则会因GPU云主机与安装的驱动不匹配而造成业务无法正常进行的风险。 在Windows操作系统中卸载Tesla驱动 以下操作以操作系统为Windows Server 2019的GPU计算加速型云主机PI7为例。 1. 登录控制中心。 2. 单击“左侧导航栏>服务列表”,选择“计算 > 弹性云主机”。 3. 获取GPU云主机密码。VNC方式登录GPU云主机时,需已知其密码,然后再采用VNC方式登录。 4. 在云主机列表中,选择目标GPU云主机,其对应的“操作”列下,点击“远程登录”。 5. (可选)如果界面提示“Press CTRL+ALT+DELETE to log on”,请单击远程登录操作面板右上方的“Send CtrlAltDel”按钮进行登录。 6. 根据界面提示,输入GPU云主机的密码登录。 7. 单击Windows桌面左下角图标,单击“控制面板”。 8. 在控制面板中,选择“程序 > 卸载程序”。 9. 右键单击待卸载的GPU驱动,然后单击“卸载/更改(U)”。 10. 在弹出的卸载程序对话框中,单击“卸载(U)”。 11. 卸载完成后,单击“马上重新启动(R)”。重启完成后,则GPU驱动已卸载成功。
        来自:
        帮助文档
        弹性云主机 ECS
        用户指南
        云主机实例
        安装驱动和工具包(可选)
        卸载Tesla驱动
      • 应用场景
        本节描述了GeminiDB Redis的电商行业、游戏行业、视频直播、在线教育的应用场景。 GeminiDB Redis作为兼容Redis接口的keyvalue数据库,扩展了社区版原生Redis的应用场景,使其不再仅仅运用于缓存,而是可以更好的满足持久化,混合存储等多样化的业务需求。 电商行业 电商应用的商品数据具有较为明显的冷热特征,使用GeminiDB Redis后,热门商品信息作为热数据驻留在内存中,冷门商品信息会置换到共享存储池中,这样既满足了热门商品的快速访问需求,又解决了海量商品数据纯内存存储成本高的问题。 电商应用的海量历史订单数据,可使用GeminiDB Redis进行持久化存储。通过Redis接口完成数据存取,可支持TB级海量数据存储。 电商大促活动会导致短时间出现大量并发访问,可选择GeminiDB Redis作为前端缓存(需要配置大内存),帮助后端数据库抗过业务高峰。GeminiDB Redis可针对计算节点一键式秒级无损扩容的特点,也可以帮助客户更加从容的应对此类计划性的流量突发行为。 游戏行业 游戏业务数据Schema较为简单,可选择GeminiDB Redis作为持久化数据库,通过使用简洁的Redis接口快速完成业务开发上线。例如,可使用Redis的有序集合结构完成游戏排行榜的实时展现。 对于时延非常敏感的游戏场景,也可以使用GeminiDB Redis作为前端缓存(需要配置大内存),加速应用访问。
        来自:
        帮助文档
        云数据库GeminiDB
        GeminiDB Redis接口
        产品介绍
        应用场景
      • DeepSeek-V3
        本文为您详细介绍DeepSeekV3模型。 模型简介 DeepSeekV3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeekV2模型的优势,并在性能、效率和功能上进行了显著提升。 使用场景 DeepSeekV3模型适用于多种自然语言处理任务,如文本生成、问答系统、文本摘要等,能够生成高质量的语言内容并支持多语言对话。此外,它在数学推理、代码生成等复杂任务中表现出色,可广泛应用于教育、商业决策和编程辅助等领域。 评测效果 基础模型评估 聊天模型评估 注意:所有模型均在将输出长度限制为8K的配置中进行评估。包含少于1000个样品的基准使用不同的温度设置进行多次测试,以获得可靠的最终结果。DeepSeekV3是性能最佳的开源模型,并且与前沿的闭源模型相比也表现出有竞争力的性能。 技术亮点 创新的负载均衡策略和训练目标 除了DeepSeekV2的高效架构之外,DeepSeekV3开创了一种用于负载均衡的辅助无损策略,该策略可以最大限度地减少因鼓励负载均衡而引起的性能下降。 多标记预测(MTP)目标,并证明它对模型性能有益,可用于推理加速的推测解码。
        来自:
        帮助文档
        训推服务
        模型简介
        DeepSeek-V3
      • 高额账单风险预警
        客户域名可能会因为恶意攻击、网站恶意盗刷等各种恶意访问行为产生突发流量或带宽,进而在DDoS 高防(边缘云版)产生超出日常正常加速的服务费用。本文侧重介绍如何避免因恶意攻击带来的高额账单风险。 方法一:设置可用额度预警 通过对客户在天翼云官网账户的可用额度预警进行设置,当用户的余额低于阈值,系统会发送短信提醒。 操作步骤: 1. 登录天翼云账户。 2. 单击右上角。 3. 单击【费用中心】。 4. 打开【可用额度预警】开关,修改预警阈值,当用户的余额低于阈值,系统会发送短信提醒。 方法二:开通安全防护功能 DDoS 高防(边缘云版)是针对游戏、互联网及金融等业务遭受大流量 DDoS 攻击导致用户服务不可用的情况而推出的付费防护服务,如果客户的业务存在潜在的被恶意访问风险,需要抗DDoS和抗CC攻击的安全防护功能,建议开通DDoS高防(边缘云版),详情请见:DDoS高防(边缘云版);如果客户的网站既需要进行流量型DDoS攻击的防护,同时也需要对精巧的Web应用层攻击时进行防御,建议叠加Web应用防火墙(边缘云版)进行联合防御。详情请见:叠加Web应用防火墙(边缘云版)。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        计费说明
        高额账单风险预警
      • GDS加速HPFS存储访问
        GDS简介 GPUDirect Storage(GDS)是NVIDIA推出的一项关键技术,用于实现GPU显存与兼容存储系统之间的直接数据通路,从而绕过CPU和系统内存拷贝。该技术旨在解决高性能计算与AI训练场景中,存储I/O可能成为整体性能瓶颈的问题。其主要优势包括: 1. 降低数据访问延迟:缩短GPU等待数据的时间。 2. 提高有效带宽:最大化GPU从存储读取和写入数据的吞吐量。 3. 释放CPU资源:减少CPU在I/O路径上的介入,使其更专注于计算任务。 天翼云高性能并行文件服务HPFS已支持GPUDirect Storage技术。用户可在基于NVIDIA GPU的主机上,部署支持GDS的应用程序,并通过cuFile API直接访问HPFS文件系统。实测表明,相较于传统的POSIX API标准访问方式,此项优化可带来约30% 的吞吐性能提升,显著加速GPU数据处理流水线。 GDS原理 通过传统的POSIX API读取流程如下: plaintext int fd open(...) void sysmembuf, gpumembuf; sysmembuf malloc(bufsize); cudaMalloc(gpumembuf, bufsize); pread(fd, sysmembuf, bufsize); cudaMemcpy(sysmembuf, gpumembuf, bufsize, H2D); cuStreamSynchronize(0); 使用GDS API可以绕过CPU直接从HPFS读取,使得数据不经过内存直接从HPFS复制GPU显存,大幅提升性能: plaintext int fd open(filename, ODIRECT,...) CUFileHandlet fh; CUFileDescrt desc; desc.typeCUFILEHANDLETYPEOPAQUEFD; desc.handle.fd fd; cuFileHandleRegister(&fh, &desc); void gpumembuf; cudaMalloc(gpumembuf, bufsize); cuFileRead(&fh, gpumembuf, bufsize, ...);
        来自:
        帮助文档
        并行文件服务 HPFS
        最佳实践
        GDS加速HPFS存储访问
      • GDS加速HPFS存储访问(1)
        GDS简介 GPUDirect Storage(GDS)是NVIDIA推出的一项关键技术,用于实现GPU显存与兼容存储系统之间的直接数据通路,从而绕过CPU和系统内存拷贝。该技术旨在解决高性能计算与AI训练场景中,存储I/O可能成为整体性能瓶颈的问题。其主要优势包括: 1. 降低数据访问延迟:缩短GPU等待数据的时间。 2. 提高有效带宽:最大化GPU从存储读取和写入数据的吞吐量。 3. 释放CPU资源:减少CPU在I/O路径上的介入,使其更专注于计算任务。 天翼云高性能并行文件服务HPFS已支持GPUDirect Storage技术。用户可在基于NVIDIA GPU的主机上,部署支持GDS的应用程序,并通过cuFile API直接访问HPFS文件系统。实测表明,相较于传统的POSIX API标准访问方式,此项优化可带来约30% 的吞吐性能提升,显著加速GPU数据处理流水线。 GDS原理 通过传统的POSIX API读取流程如下: plaintext int fd open(...) void sysmembuf, gpumembuf; sysmembuf malloc(bufsize); cudaMalloc(gpumembuf, bufsize); pread(fd, sysmembuf, bufsize); cudaMemcpy(sysmembuf, gpumembuf, bufsize, H2D); cuStreamSynchronize(0); 使用GDS API可以绕过CPU直接从HPFS读取,使得数据不经过内存直接从HPFS复制GPU显存,大幅提升性能: plaintext int fd open(filename, ODIRECT,...) CUFileHandlet fh; CUFileDescrt desc; desc.typeCUFILEHANDLETYPEOPAQUEFD; desc.handle.fd fd; cuFileHandleRegister(&fh, &desc); void gpumembuf; cudaMalloc(gpumembuf, bufsize); cuFileRead(&fh, gpumembuf, bufsize, ...);
        来自:
      • 全网带宽控制
        本文简述天翼云全网带宽控制功能、适用场景、注意事项及配置方式。 功能介绍 天翼云全网带宽控制功能可通过设置单个域名或多个域名的总带宽值来控制带宽总用量,避免因带宽突发带来更多的带宽费用。 带宽控制功能支持全网边缘总带宽限制,支持分时段控制,您可以根据自身带宽需求选择对应的限制策略。带宽超出设置值后,可选择对请求进行限速、拒绝或者重定向操作。 适用场景 存在带宽突发场景,希望突发情况下全站加速带宽费用可以进行有效控制。 对带宽成本有严格把控,同时又不希望影响客户感知情况下可选择适用带宽控制功能,超过设置带宽后,对用户设置合理限速。 注意事项 可以针对多个域名合并进行总带宽控制,但是一个域名同时只能配置在一个控制任务中。 不支持对泛域名配置带宽控制功能。 由于域名带宽的监控数据存在一定延迟(大约10分钟),实际带宽达到阈值大约10分钟后生效。 配置说明 如需开启带宽控制功能,您需要提供以下信息: 参数 说明 限制带宽值 提供需要限制的总带宽大小。 限速时段 可选择全天生效或者固定时段生效。 限制策略 带宽超过限速值后处理方式,可选择限速/拒绝/重定向。 限制策略配置 限制策略选择限速,则提供对应的限制值。 限制策略配置 限制策略选择拒绝,默认拒绝响应403状态码,也可您自定义。 限制策略配置 限制策略选择重定向,则需提供重定向状态码及重定向地址。 如您需要配置全网带宽控制功能,请通过提交工单给天翼云客服,由其帮您配置。
        来自:
        帮助文档
        全站加速
        用户指南
        域名管理
        访问控制
        全网带宽控制
      • 术语解释
        本文带您了解训推服务相关术语及其基本概念。 预置模型 是指训推服务提供的原始模型,您可以通过选择预置模型进行训练从而得到行业或细分场景模型,不同的基础模型的参数和能力不同,我们将持续推出不同能力方向的模型。 模型微调 是指利用预先训练好的神经网络模型,并针对特定任务在相对较少量的监督数据上进行重新训练的技术。这种方法能够充分利用预训练模型在大型数据集上学到的通用特征和知识,从而加速在新任务上的训练过程,并通常能够取得较好的性能表现。 迭代轮次 是指模型训练过程中模型学习数据集的次数,可理解为学习几遍数据,可依据需求进行调整。 批处理大小 是指在模型训练过程中,每次处理的数据样本的数量,可理解为模型每看多少数据即更新一次模型参数,在选择批处理大小时需要综合考虑各种因素。 学习率 是指更新模型参数的系数,它决定了在每次迭代中,模型参数应该沿着梯度下降的方向更新多少,需要根据具体情况来仔细选择和调整学习率。 训练数据集 是机器学习或深度学习模型训练过程中的重要组成部分。训练数据集是一组已知输入和对应输出的数据,用于训练模型以学习从输入到输出的映射关系。构建合适训练集,通过模型调优可增强模型能力,提升预测效果。
        来自:
        帮助文档
        训推服务
        产品介绍
        术语解释
      • 术语解释
        本文带您了解一站式智算服务平台相关术语及其基本概念。 预置模型 是指平台提供的原始模型,您可以通过选择预置模型进行训练从而得到行业或细分场景模型,不同的基础模型的参数和能力不同,我们将持续推出不同能力方向的模型。 模型微调 是指利用预先训练好的神经网络模型,并针对特定任务在相对较少量的监督数据上进行重新训练的技术。这种方法能够充分利用预训练模型在大型数据集上学到的通用特征和知识,从而加速在新任务上的训练过程,并通常能够取得较好的性能表现。 迭代轮次 是指模型训练过程中模型学习数据集的次数,可理解为学习几遍数据,可依据需求进行调整。 批处理大小 是指在模型训练过程中,每次处理的数据样本的数量,可理解为模型每看多少数据即更新一次模型参数,在选择批处理大小时需要综合考虑各种因素。 学习率 是指更新模型参数的系数,它决定了在每次迭代中,模型参数应该沿着梯度下降的方向更新多少,需要根据具体情况来仔细选择和调整学习率。 训练数据集 是机器学习或深度学习模型训练过程中的重要组成部分。训练数据集是一组已知输入和对应输出的数据,用于训练模型以学习从输入到输出的映射关系。构建合适训练集,通过模型调优可增强模型能力,提升预测效果。
        来自:
        帮助文档
        一站式智算服务平台
        产品介绍
        术语解释
      • 查询状态码请求数,请求状态码占比数据
        参数 类型 是否必传 名称 描述 starttime int 是 开始时间戳 起始时间,时间戳(秒)。 endtime int 是 结束时间戳 结束时间,时间戳(秒)。 interval string 否 时间粒度 时间粒度,目前支持1m,5m,1h和24h,默认5m。 producttype list< string > 否 产品类型 传“006”代表全站加速,不传代表全部产品。 busitype list< int > 否 业务类型 0(base),1(upload),2(websocket),不传默认所有业务类型 domain list< string > 否 域名列表 域名,不传默认名下所有域名,可多个域名,作为统计筛选项。 province list< int > 否 省编码列表 省编码,不传默认所有省份,可多个省编码,作为统计筛选项,点击查看 isp list< string > 否 运营商编码列表 运营商编码,不传默认所有运营商,可多个运营商编码,作为统计筛选项,点击查看 networklayerprotocol string 否 网络层协议 网络层协议,不传默认所有网络层协议,支持作为统计筛选项,可以为ipv4、ipv6、other。 applicationlayerprotocol string 否 应用层协议 应用层协议,不传默认所有应用层协议,支持作为统计筛选项,可以为http,https,rtmp,quic,other。 abroad int 否 区域 0(国内),1(国外),不传或为空默认返回全部区域 groupby list< string > 否 结果聚合维度 指标在计算结果的聚合维度,不传或为空默认按照时间粒度聚合,可多个统计维度,可以为producttype,busitype,domain,province,isp,networklayerprotocol,applicationlayerprotocol,abroad 。
        来自:
        帮助文档
        全站加速
        API参考
        API
        统计分析
        查询状态码请求数,请求状态码占比数据
      • 术语解释
        本文带您了解模型推理服务相关术语及其基本概念。 预置模型 是指平台提供的原始模型,您可以通过选择预置模型进行训练从而得到行业或细分场景模型,不同的基础模型的参数和能力不同,我们将持续推出不同能力方向的模型。 模型微调 是指利用预先训练好的神经网络模型,并针对特定任务在相对较少量的监督数据上进行重新训练的技术。这种方法能够充分利用预训练模型在大型数据集上学到的通用特征和知识,从而加速在新任务上的训练过程,并通常能够取得较好的性能表现。 函数调用Function Calling Function Calling 是一种将大模型与外部工具和 API 相连的关键功能,作为自然语言与信息接口之间的“翻译官”,它能够将用户的自然语言请求智能地转化为对特定工具或 API 的调用,从而高效满足用户的特定需求。 Token 在自然语言处理中,token 通常指的是将文本分割成的最小单位,比如词语、子词或字符。在调用模型推理服务时,会将输入内容进行分词(tokenize),转化为模型可以理解的 token ,经过模型处理后,同样输出 token,并转化为您需要的文本或者其他内容载体。而模型处理(包括输入、输出)的 token 数量会被作为模型推理服务用量的一个重要计量单位。由于不同模型采用的分词策略不同,同一段文本可能会被转化为不同数量的 token。 迭代轮次 是指模型训练过程中模型学习数据集的次数,可理解为学习几遍数据,可依据需求进行调整。
        来自:
        帮助文档
        模型推理服务
        产品介绍
        术语解释
      • 大模型推理性能测试实践
        测试环境配置 测试脚本下载 LLMPerf由 Ray 项目团队开发,在github上开源,可直接下载。 plaintext git clone 工具核心功能: 性能评估 负载测试:LLMPerf可以对大语言模型(如Llama 2、GPT3等)的吞吐量和延迟性能进行测量。它通过负载测试来评估模型在不同负载下的响应延迟和生成吞吐量,帮助用户了解模型在实际应用中的性能表现。 准确性测试:该工具还可以进行正确性测试,衡量模型输出的准确性,确保模型在生成内容时能够保持较高的质量。 参数化测试 LLMPerf允许用户更改输入和输出大小等参数,以匹配不同的应用场景。这意味着用户可以根据自己的具体需求和工作负载,灵活地调整测试参数,从而获得更具针对性的性能评估结果。 结果分析 LLMPerf能够提供详细的性能指标分析,包括响应时间、吞吐量、准确性等,帮助用户深入了解模型的性能特点。 兼容性 LLMPerf支持主流的大语言模型,如OpenAI、Anthropic、TogetherAI等。这使得用户可以在一个统一的框架下对不同来源的模型进行性能比较和评估。 安装测试工具 plaintext git clone cd llmperf pip install e . 如下载速度较慢可以使用国内源进行加速 pip install e . i 配置环境变量 根据不同的API服务,需要设置不同的密钥信息和服务地址。例如对于OpenAi(vLLM类推理框架): plaintext export OPENAIAPIKEY"your apikey" export OPENAIAPIBASE" 3.
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        大模型推理性能测试实践
      • (停止维护)Kubernetes 1.23版本说明
        本节介绍了:云容器引擎发布 Kubernetes 1.23版本说明。 社区 Kubernetes 版本主要变更 Kubernetes 1.23 Changelog 1. FlexVolume弃用,推荐使用 CSI。 2. IPv4/IPv6 双栈网络 GA,使用双栈网路非强制要求。 3. HorizontalPodAutoscaler v2版本 GA,HorizontalPodAutoscaler autoscaling/v2beta2 API已弃用,建议使用 autoscaling/v2。 4. 通用临时卷功能 GA,此功能允许存储驱动程序动态供应临时卷,其生命周期与 Pod一致。 5. 跳过卷所有权变更功能 GA,此功能允许用户在 Pod 挂载存储卷时跳过递归地权限变更,从而加速 Pod 启动 6. PodSecurity 升级到Beta,取代已经弃用的 PodSecurityPolicy。Kubernetes 1.23中 PodSecurity 默认启用 更多信息请参考:Kubernetes 1.23 Changelog Kubernetes 1.22 Changelog 1. Ingress将移除 extensions/v1beta1 和 networking.k8s.io/v1beta1,Ingress影响7层路由转发能力,推荐使用 networking.k8s.io/v1 2. 资源 ValidatingWebhookConfiguration和 MutatingWebhookConfiguration admissionregistration.k8s.io/v1beta1 API将不再支持,继续使用老版本API将影响 Webhook的正常运行,建议使用 admissionregistration.k8s.io/v1 3. 资源 CustomResourceDefinition apiextensions.k8s.io/v1beta1 API将不再支持,继续使用老板本 API创建 CRD,将影响 Controller 的调协,建议使用 apiextensions.k8s.io/v1 4. APIService apiregistration.k8s.io/v1beta1已弃用,APIService影响 APIServer aggregator的路由,推荐更新为 apiregistration.k8s.io/v1 5. Kubernetes 发版节奏从一年4次改为一年3次 更多信息请参考:Kubernetes 1.22 Changelog
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        集群概述
        Kubernetes版本发布记录
        (停止维护)Kubernetes 1.23版本说明
      • 使用索引提高查询效率
        本页介绍天翼云TeleDB数据库使用索引提高查询效率的最佳实践。 通过explain查看执行计划,查看SQL语句是否使用到了索引,Seq Scan表示对表进行了全表扫描,而如Index Scan,Index Only Scan则表示使用了索引扫描。 通常情况下,使用索引可以加速查询速度,但索引也会增加数据更新的开销,在数据量较小时,优化器也可能会使用全表扫描代替索引扫描。 例如,下面的SQL语句,使用了Parallel Seq Scan并行全表扫描。 teledb explain select from teledb2 where f3'1'; QUERY PLAN Remote Fast Query Execution (cost0.00..0.00 rows0 width0) Node/s: dn001, dn002 > Gather (cost1000.00..7827.20 rows1 width14) Workers Planned: 2 > Parallel Seq Scan on teledb2 (cost0.00..6827.10 rows1 width14) Filter: (f3 '1'::text) (6 rows) 在f2字段上创建索引后,下面的SQL语句,使用了Index Scan索引扫描。 teledb create index teledb2f2idx on teledb2(f2); CREATE INDEX postgres explain select from teledb2 where f21; QUERY PLAN Remote Fast Query Execution (cost0.00..0.00 rows0 width0) Node/s: dn001, dn002 > Index Scan using teledb2f2idx on teledb2 (cost0.42..4.44 rows1 width14) Index Cond: (f2 1) (4 rows) 当然,按SQL优化原则,上述SQL语句where条件都没有带分布键,导致SQL下发到了所有DN节点,建议尝试优化为带分布键查询。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        SQL开发最佳实践
        性能优化最佳实践
        SQL优化最佳实践
        使用索引提高查询效率
      • 创建并行计算
        本文介绍了如何在科研助手中创建并行计算任务。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【并行计算】。 3. 在【并行计算】页面中,单击【作业管理】下方的【创建计算任务】。 4. 在【创建计算任务】页面中,配置参数,具体如下表所示。 参数 说明 企业项目 可将计算任务挂载在不同企业项目下。 作业名称 输入作业名称。要求如下:长度范围为4~25个字符。名称由小写字母、数字、中划线()组成。以小写字母开头。 以小写字母或数字结尾。 并行框架 选择所需要使用的并行框架。支持MPI、Pytorch、Tensorflow、Paddle。 镜像地址 输入作业所需要使用的镜像URL地址,可以手动填写第三方镜像,也可以选择存储在天翼云的镜像。 启动命令 作业第一个实例启动时执行的命令内容,指令执行完成视为作业运行结束。例如"mpirun np 8 myapp.run"。 环境变量 为所有实例预置环境变量,输入形式为key+value。 可用区 选择所需的可用区。 实例规格 实例规格可选择通用计算型和GPU加速型,为作业的实例选择合适的实例规格。 数量 作业将创建的实例数量。输入范围1~99。 存储挂载 可将科研文件挂载到所有实例中,可设置实例中挂载的路径。 5. 所有参数填写完毕后,点击【确认订单】,作业将会创建和下发计算任务。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        并行计算
        创建并行计算
      • CodeLlama-34B-Instruct
        本文为您详细介绍Code Llama模型。 模型简介 CodeLlama是一款建立在 Llama 2 基础之上的大型语言模型,它专门针对代码生成和代码讨论任务进行了微调。该模型的规模从70亿到340亿个参数不等,这一特性使其有可能极大地加速开发人员的工作流程,提高开发效率,并显著降低学习编码的入门门槛。Code Llama 有望成为一款强大的生产力和教育工具,帮助程序员编写出功能更强大、文档更完善的软件。 使用场景 CodeLlama旨在广泛支持各个领域的软件工程师,包括但不限于研究机构、工业界、开源项目、非政府组织以及企业环境。该模型免费提供给研究社区使用,同时也支持在商业环境中的应用,为开发者们提供了一个强大的工具,以提升他们的编码效率和质量。 评测效果 为了对比现有解决方案测试 CodeLlama 的性能表现,选择了两项流行的编码基准:HumanEval 与Mostly Basic Python Programming(MBPP)。其中 HumanEval 主要测试模型根据文档字符串补全代码的能力,而 MBPP 则测试模型根据描述编写代码的能力。 从基准测试结果来看,CodeLlama 的表现优于编码专用的开源 Llama,甚至超越了 Llama 2。例如,CodeLlama34BInstruct在 HumanEval 上的得分为 53.7%,优于 GPT3.5 的 48.1%,更接近 OpenAI 论文报告的 GPT4 的 67%。在 MBPP 上,CodeLlama 34B 得分为 56.2%,超越了其他最先进的开源解决方案,已经与 ChatGPT 基本持平。
        来自:
        帮助文档
        训推服务
        模型简介
        CodeLlama-34B-Instruct
      • 安装CUDA
        本文介绍如何在边缘虚拟机上安装CUDA。 CUDA为NVIDIA提供的运算平台,包含了CUDA指令集架构以及GPU内部的并行计算引擎。若想要在NVIDIA系列GPU上运行GPU加速计算任务,需要安装CUDA环境。 CUDA安装 安装前准备 步骤1、确认GPU驱动已安装。 shell nvidiasmi 步骤2、确认适配的CUDA版本。 安装步骤 步骤1、确定适配的CUDA版本,在CUDA Toolkit Archive查找适配CUDA软件包。 步骤2、点击进入,找到适配的runfile。 步骤3、执行下载命令,注意检查CUDA版本和GPU驱动版本是否一致。 shell wget 步骤4、执行安装命令。 shell wget 若已安装GPU驱动需要取消勾选Driver,若未安装GPU驱动请勾选安装。 步骤5、执行命令配置CUDA环境变量。 shell echo 'export PATH/usr/local/cuda/bin:$PATH' sudo tee /etc/profile.d/cuda.sh source /etc/profile 步骤6、检查安装是否成功。 shell nvcc V
        来自:
        帮助文档
        智能边缘云
        最佳实践
        边缘虚拟机安装和升级GPU驱动
        安装CUDA
      • 常见问题
        是否支持配置迁移文件(Object)的大小? 支持,可以通过配置文件migrate.conf中参数objectSize进行配置迁移文件(Object)的范围。格式是NM,表示迁移N至M大小的文件。取值:N和M是大于等于0的整数,且N≤M,单位是字节。默认不配置此项,表示迁移所有大小的文件。 迁移过程中任务被终止了如何继续? 可以按照下列步骤继续终止的任务: 1. 保留上次迁移执行过程中产生的backup文件。 说明 如果不在原服务器上继续执行迁移任务,而是换一台服务器上重新开始迁移任务,则需要将backup文件拷贝到新服务器的迁移工具所在目录下。 2. 查看nextMarker.txt文件中记录的上次数据迁移位置。修改迁移任务配置文件(migrate.conf),设置srcMarker为上次迁移位置,然后运行迁移工具。 如何提升迁移速度? 在客户端网络环境不变的情况下,可以通过调整如下参数来提升迁移速度: 将系统配置文件(system.conf)中的threadNum参数调大,执行多线程并发迁移,譬如调整到50。 将迁移任务配置文件(migrate.conf)中的isSkipExistFile参数设置为true,当目标资源池中已有同名文件则跳过不再迁移。 说明 这个参数根据实际情况而定。 如果srcType为OOS时,且迁移源端和目的端的资源池为同类型,可以将迁移任务配置文件(migrate.conf)中的isAcceleratedMigration参数设置为true,使用加速迁移。 将迁移任务配置文件(migrate.conf)中的importSince参数设置为增量迁移的时间戳,可以只迁移该时间戳之后的对象。
        来自:
        帮助文档
        对象存储(经典版)I型
        常用工具
        OOS数据迁移工具
        常见问题
      • 系统防护
        选择系统防护页签,可对终端设置防护。 参数 说明 病毒防护 针对网络中流行的病毒、木马进行全面查杀。 系统登录防护 配置登录权限。 配置病毒防护 病毒查杀用于对网络中流行的病毒、木马进行全面查杀。适用于需要自定义修改配置策略模板病毒防护场景。 1. 选择病毒查杀页签。 2. 配置检测引擎、实时防护等参数。 详细配置请参见下表: 参数 说明 通用设置 检测引擎 检测引擎选项: 默认引擎(高性能跨平台通用引擎,建议开启)。 深度扫描引擎(开启后将占用200MB磁盘空间,深度扫描引擎占用内存更多,但扫描速度更快(进行压缩包扫描时需要选择“深度扫描引擎”)。 网马引擎(网马专用引擎,根据网马特征扫描)。 通用设置 检测提升 扫描缓存加速(建议开启)。 病毒扫描 扫描模式 极速扫描。 低资源扫描,CPU使用率低于限额(默认50%,建议不低于20%)。 实时防护 扫描时机 默认全部勾选,用户可根据实际场景进行勾选。 当文件被执行时,将会触发实时防护功能。 当文件被修改时,将会触发实时防护功能。 当存储介质被连接时,将会触发实时防护功能。 实时防护 处理方式 发现病毒(文件执行、文件修改、存储介质连接时)后的处理方式: 自动处理(优先进行文件修复,修复失败后再隔离)。 仅记录。由用户自行选择。 删除(删除病毒文件)。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        策略管理
        主机策略
        主机策略配置说明
        系统防护
      • 天翼云GPU云主机模型推理性能总览
        本节先简要介绍了天翼云GPU云主机模型推理性能总览 GPU云主机能够提供优秀的浮点计算能力,可以实现端到端推理加速,减少推理延迟,从而提高模型的实时性和响应速度。本文基于DeepSeek模型实测数据,对比分析天翼云多款主流GPU云主机的推理性能表现。 下面的表格展示了以C8E类型的32c128g规格的云主机作为基线,模型使用DeepSeekR1DistillQwen7B,以及C8E类型的128c512g规格的云主机作为基线,模型使用DeepSeekR1DistillQwen32B,天翼云多款主流GPU云主机的推理时延降低率和吞吐量提升率(值越大表示性能越好)。 模型 云主机类型 显卡类型 时延降低率 吞吐量提升率 DeepSeekR1DistillQwen7B pn8i.4xlarge.8 1L20 88% 800% DeepSeekR1DistillQwen7B p8a.6xlarge.4 1A100 85% 857% DeepSeekR1DistillQwen7B pi7.4xlarge.4 1A10 72% 467% DeepSeekR1DistillQwen7B p2vs.2xlarge.4 1V100s 82% 597% DeepSeekR1DistillQwen7B p2v.2xlarge.4 1V100 81% 617% DeepSeekR1DistillQwen7B pi2.4xlarge.4 2T4 73% 399% DeepSeekR1DistillQwen32B pn8i.8xlarge.8 4L20 92% 1550% DeepSeekR1DistillQwen32B p8a.24xlarge.4 4A100 87% 1497% DeepSeekR1DistillQwen32B pi7.16xlarge.4 4A10 81% 821% DeepSeekR1DistillQwen32B p2vs.8xlarge.4 4V100s 83% 834% DeepSeekR1DistillQwen32B p2v.8xlarge.4 4V100 82% 859% 注意 pn8i相关规格的产品将于2025年4月30日上线。
        来自:
        帮助文档
        GPU云主机
        最佳实践
        天翼云GPU云主机模型推理性能总览
      • 产品规格
        天翼AI云电脑(政企版)GPUAI云电脑产品规格如下: 产品名称 规格类型 功能适用 系统支持 GPUAI云电脑 4核8G 1B Nvidia T4 显存 120GB SSD 系统盘 满足学校教学, 普通图像办公,高清视频播放等需求 Windows GPUAI云电脑 8核16G 2B Nvidia T4 显存 120GB SSD 系统盘 满足学校教学, 普通图像办公,高清视频播放等需求 Windows GPUAI云电脑 4核8G 2Q Nvidia T4 显存 120GB SSD 系统盘 搭配高性能显卡及固态硬盘,满足企业图形设计、图形渲染、3D制作等需求 Windows GPUAI云电脑 8核16G 4Q Nvidia T4 显存 120GB SSD 系统盘 搭配高性能显卡及固态硬盘,满足企业图形设计、图形渲染、3D制作等需求 Windows GPUAI云电脑 16核32G 8Q Nvidia T4 显存 120GB SSD 系统盘 搭配高性能显卡及固态硬盘,满足企业图形设计、图形渲染、3D制作等需求 Windows GPUAI云电脑 32核64G 16Q Nvidia T4 显存 120GB SSD 系统盘 搭配高性能显卡及固态硬盘,满足企业图形设计、图形渲染、3D制作等需求 Windows GPUAI云电脑(渲染版) 4核8G 渲染版显卡 1G 显存 120GB SSD 系统盘 满足学校电子教室3D One、工业设计CAD(小模型推荐)、VR看房等轻3D应用场景 Windows GPUAI云电脑(渲染版) 8核16G 渲染版显卡 2G 显存 120GB SSD 系统盘 满足学校电子教室3D One、工业设计CAD(小模型推荐)、VR看房等轻3D应用场景 Windows GPUAI云电脑(渲染版) 16核32G 渲染版显卡 4G 显存 120GB SSD 系统盘 支持较大型的工业设计(如CAD模型零件较多)、视频编辑等场景 Windows GPUAI云电脑(渲染版) 16核32G 渲染版显卡 8G 显存 120GB SSD 系统盘 支持较大型的工业设计(如CAD模型零件较多)、视频编辑等场景 Windows 说明 1.GPUAI云电脑中的B和Q均是虚拟显存。 B显存系列最高可虚拟2G的显存,不支持cuda、opencl硬件加速,适合一些对图形处理要求不高的基础应用场景,如日常办公、网页浏览等。 Q显存系列支持更多规格,具备更全面的图像加速能力。更适合于需要高性能图形处理能力的场景,如3D图形设计、视频编辑、视频直播等。 2.GPUAI云电脑(渲染版)目前可在以下资源池订购开通:广东佛山3、内蒙6、湖南长沙11、新疆乌鲁木齐3、宁夏中卫6。
        来自:
        帮助文档
        天翼云电脑(政企版)
        产品介绍
        产品规格
      • 告警自助
        本文介绍如何使用告警自助功能。 功能背景 AOne告警自助功能让企业自主地、灵活地配置对核心系统指标的实时监控,直观掌握连接器与应用的健康状况,自定义敏感的告警阈值,精准通知到相关负责人,实现秒级感知异常,最终驱动团队快速响应与处置,有效保障业务的高可用性和稳定性。 操作步骤 1.登录边缘安全加速平台控制台。 2.在左侧导航栏AOne零信任设置告警设置,查看相应的配置和管理。 3.可根据业务需求进行相关配置。 功能说明 说明 配置完告警后,除已配置的联系方式会接收到告警外,您可从控制台待办事项查看对应的通知。 连接器异常 字段 说明 备注 事件类型 支持多种事件类型:连接器隧道状态异常、连接器中心连通异常、连接器CPU使用率异常、连接器内存使用率异常。 告警阈值 可根据不同事件类型,设置对应的告警阈值。 接收告警时间 仅在接收时间内进行告警,若告警发生时,不在接收时间,告警可能会遗漏通知。 告警开关 默认关闭,请对有需要关注的告警事件类型进行开启。开启后,请配置告警通知人等信息。关闭时则不会进行告警通知和监控。 告警方式 可选短信或者邮箱进行告警,通过短信告警的方式,当前暂不占用您企业零信任短信额度数量,若后续涉及短信额度抵扣,将进行通知。 一个事件类型,最多支持设置5个手机号和5个邮箱地址作为告警通知联系方式。 可选择系统内通知人以及自定义系统外通知人。若选择系统内通知人后,只保存当下该通知人的联系方式,若该系统内通知人联系方式变更,请重新编辑修改。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        设置
        告警自助
      • 1
      • ...
      • 47
      • 48
      • 49
      • 50
      • 51
      • ...
      • 62
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      天翼云新春焕新季

      云主机开年特惠28.8元/年,0元秒杀等你来抢!

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      弹性云主机 ECS

      物理机 DPS

      多活容灾服务

      GPU云主机

      镜像服务 IMS

      轻量型云主机

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      推荐文档

      云课堂 第十二课:再论ORACLE上云通用技术方案

      如何变更账户信息

      如何填写备案信息

      盘符客户端

      重置操作系统

      天翼云最佳实践⑦:Win Server php-asp 环境使用

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号