活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 出海产品促销专区 NEW 爆款云主机低至2折,高性价比,不限新老速来抢购!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
模型推理服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
  • Qwen3.5-397B-A17B(正式版)
智算一体机
  • 智算一体机
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      全站加速_相关内容
      • 基于OceanFS轻松部署DeepSeek的最佳实践
        快速体验DeepSeek 本节以DeepSeekr17b模型为例,讲解如何基于OceanFS天翼云使用Ollama运行 DeepSeek模型,读者可以根据自己实际需求选用模型和云主机配置。 步骤一:创建GPU云主机 1. 点击天翼云门户首页的“控制中心”,输入登录的用户名和密码,进入控制中心页面。 2. 单击“弹性云主机”,进入主机列表页。 3. 右上角单击“创建云主机”,进入弹性云主机创建页。 4. 进行基础配置。 1. 根据业务需求配置“计费模式”、“地域”、“企业项目”、“虚拟私有云”、“实例名称”、“主机名称”等。 2. 选择规格。此处选择"CPU架构"为"X86"、"分类"为"GPU型"、"规格族"为"GPU计算加速型pi7"、"规格"为"pi7.4xlarge.4"。 3. 选择镜像。“镜像类型”选择“镜像市场”,在云镜像市场中选择预置了DeepSeek R1模型的DeepSeekR17BUbuntu22.04镜像。 注意 本镜像推荐配置:内存≥8G、显存≥16G。 目前也提供了预装DeepSeekR170B模型的镜像,如您有需求,也可在云镜像市场中进行选择。 4. 设置云盘类型和大小。选择基础配置即可。 5. 网络高级配置。设置网络,包括"网卡"、"安全组",同时配备 "弹性IP" 用于下载和访问模型;设置高级配置,包括"登录方式"、"云主机组"、"用户数据"。 6. 确认并支付。返回云主机控制台等待云主机创建,一般需要1~3分钟。
        来自:
        帮助文档
        海量文件服务 OceanFS
        最佳实践
        基于OceanFS轻松部署DeepSeek的最佳实践
      • 术语解释
        本文带您了解训推服务相关术语及其基本概念。 预置模型 是指训推服务提供的原始模型,您可以通过选择预置模型进行训练从而得到行业或细分场景模型,不同的基础模型的参数和能力不同,我们将持续推出不同能力方向的模型。 模型微调 是指利用预先训练好的神经网络模型,并针对特定任务在相对较少量的监督数据上进行重新训练的技术。这种方法能够充分利用预训练模型在大型数据集上学到的通用特征和知识,从而加速在新任务上的训练过程,并通常能够取得较好的性能表现。 迭代轮次 是指模型训练过程中模型学习数据集的次数,可理解为学习几遍数据,可依据需求进行调整。 批处理大小 是指在模型训练过程中,每次处理的数据样本的数量,可理解为模型每看多少数据即更新一次模型参数,在选择批处理大小时需要综合考虑各种因素。 学习率 是指更新模型参数的系数,它决定了在每次迭代中,模型参数应该沿着梯度下降的方向更新多少,需要根据具体情况来仔细选择和调整学习率。 训练数据集 是机器学习或深度学习模型训练过程中的重要组成部分。训练数据集是一组已知输入和对应输出的数据,用于训练模型以学习从输入到输出的映射关系。构建合适训练集,通过模型调优可增强模型能力,提升预测效果。
        来自:
        帮助文档
        训推服务
        产品介绍
        术语解释
      • 术语解释
        本文带您了解一站式智算服务平台相关术语及其基本概念。 预置模型 是指平台提供的原始模型,您可以通过选择预置模型进行训练从而得到行业或细分场景模型,不同的基础模型的参数和能力不同,我们将持续推出不同能力方向的模型。 模型微调 是指利用预先训练好的神经网络模型,并针对特定任务在相对较少量的监督数据上进行重新训练的技术。这种方法能够充分利用预训练模型在大型数据集上学到的通用特征和知识,从而加速在新任务上的训练过程,并通常能够取得较好的性能表现。 迭代轮次 是指模型训练过程中模型学习数据集的次数,可理解为学习几遍数据,可依据需求进行调整。 批处理大小 是指在模型训练过程中,每次处理的数据样本的数量,可理解为模型每看多少数据即更新一次模型参数,在选择批处理大小时需要综合考虑各种因素。 学习率 是指更新模型参数的系数,它决定了在每次迭代中,模型参数应该沿着梯度下降的方向更新多少,需要根据具体情况来仔细选择和调整学习率。 训练数据集 是机器学习或深度学习模型训练过程中的重要组成部分。训练数据集是一组已知输入和对应输出的数据,用于训练模型以学习从输入到输出的映射关系。构建合适训练集,通过模型调优可增强模型能力,提升预测效果。
        来自:
        帮助文档
        一站式智算服务平台
        产品介绍
        术语解释
      • 叠加Web应用防火墙(边缘云版)
        配置步骤 以先配置DDoS高防(边缘云版),再配置Web应用防火墙(边缘云版)为例。 1. 进入DDoS高防(边缘云版)控制台,在左侧导航中,点击【业务接入】【域名接入】。按照网站域名接入完成DDoS高防(边缘云版)的域名配置。 2. 进入Web应用防火墙(边缘云版)控制台,在左侧导航中,点击【域名管理】【域名列表】,点击右上角新增域名。 3. 填写需要接入的域名后,会弹窗提示"您的域名已经在DDoS高防(边缘云版)产品控制台新增,产品关联后才能同步网站通用配置,请确认是否关联"。 4. 点击确认后,系统会自动获取并完成网站配置,您可以点击【下一步】,进行网站安全配置。 5. 完成网站安全配置后,点击【提交】即可。 注意 DDoS高防(边缘云版)叠加Web应用防火墙(边缘云版)产品后,域名CNAME地址直接使用CDN加速提供的CNAME地址即可,无需调整。 您可以在DDoS高防(边缘云版)和Web应用防火墙(边缘云版)任一控制台进行网络配置的变更,配置修改将进行同步。
        来自:
        帮助文档
        DDoS高防(边缘云版)
        最佳实践
        叠加Web应用防火墙(边缘云版)
      • 橙讯IAM同步
        管理员创建橙讯同步任务 仅将橙讯的用户与组织信息进行同步到AOne,AOne进行认证管理(即密码由AOne管理)。 1. 登录边缘安全加速。 2. 支持在AOne零信任工作台进行操作。 3. 在左侧导航栏身份第三方组织,选择同步身份源菜单。 4. 点击“添加同步任务”,按需选择同步任务,完成任务配置。 1、添加同步任务 进入同步身份源列表,点击“添加同步任务”,进行橙讯同步源添加。 2、选择同步任务 选择“橙讯IAM 同步机构任务”。 3、配置任务 输入配置参数,完成橙讯IAM身份源同步任务配置。 配置参数说明: 参数 说明 AppID 必填。在橙讯管理后台,进入已创建应用的详情页,在"授权信息"界面获取 AppKey 相关信息。 CorpSecret 必填。在橙讯管理后台,进入已创建应用的详情页,在"授权信息"界面获取 CorpSecret 相关信息。 组织ID 必填。在橙讯管理后台,进入已创建应用的详情页,在"授权信息"界面获取 CorpID 相关信息。 同步任务名称 必填。为当前同步任务定义一个名称,便于识别和管理,例如“橙讯IAM正式环境同步”。 同步至AOneID机构 必填。选择平台中已存在的机构节点,同步过来的橙讯IAM组织和用户将放置于此节点下。 同步方式 必填。可选择“手动同步”或“定时同步”。 手动同步 :任务创建并启用后,需手动点击“执行任务”触发同步。 定时同步 :需设置具体的“同步时间”与“同步周期”(如每天、每周),任务启用后,系统将自动按照设定的周期执行同步。
        来自:
        帮助文档
        边缘安全加速平台
        公共服务
        身份管理
        第三方组织
        同步身份源
        橙讯IAM同步
      • 橙讯IAM同步(1)
        管理员创建橙讯同步任务 仅将橙讯的用户与组织信息进行同步到AOne,AOne进行认证管理(即密码由AOne管理)。 1. 登录边缘安全加速。 2. 支持在AOne零信任工作台进行操作。 3. 在左侧导航栏身份第三方组织,选择同步身份源菜单。 4. 点击“添加同步任务”,按需选择同步任务,完成任务配置。 1、添加同步任务 进入同步身份源列表,点击“添加同步任务”,进行橙讯同步源添加。 2、选择同步任务 选择“橙讯IAM 同步机构任务”。 3、配置任务 输入配置参数,完成橙讯IAM身份源同步任务配置。 配置参数说明: 参数 说明 AppID 必填。在橙讯管理后台,进入已创建应用的详情页,在"授权信息"界面获取 AppKey 相关信息。 CorpSecret 必填。在橙讯管理后台,进入已创建应用的详情页,在"授权信息"界面获取 CorpSecret 相关信息。 组织ID 必填。在橙讯管理后台,进入已创建应用的详情页,在"授权信息"界面获取 CorpID 相关信息。 同步任务名称 必填。为当前同步任务定义一个名称,便于识别和管理,例如“橙讯IAM正式环境同步”。 同步至AOneID机构 必填。选择平台中已存在的机构节点,同步过来的橙讯IAM组织和用户将放置于此节点下。 同步方式 必填。可选择“手动同步”或“定时同步”。 手动同步 :任务创建并启用后,需手动点击“执行任务”触发同步。 定时同步 :需设置具体的“同步时间”与“同步周期”(如每天、每周),任务启用后,系统将自动按照设定的周期执行同步。
        来自:
      • 正版管理
        软件正版管理功能用于管控企业购买的正版化商业软件,帮助您辅助分析终端盗版软件的状况。 背景说明 企业经常因为员工使用盗版软件而陷入法律纠纷,管理员需要查看哪些软件授权超额使用了,以保障企业内部安全合规使用商业付费软件。 注意 客户端版本:支持Windows客户端,需为2.23.10及以上客户端。支持macOS客户端,需为2.24.10及以上客户端。 套餐版本:已订购终端管理基础版套餐或零信任企业版套餐。 操作步骤 1. 登录边缘安全加速控制台,选择【终端管理】。 2. 在左侧导航栏展开软件管控并点击【正版管理】,查看正版管理相关内容。 3. 可根据业务需求进行相关配置。 正版采集 在页面右上角打开正版软件采集开关,即可把企业员工的正版软件安装情况采集到控制台展示。 正版分析 开启“正版软件采集”并配置“正版软件管控策略”后,即可查看企业员工的正版分析数据。 1.概览 超额软件数量:有多少软件处在超额状态。 超额授权数量:超额安装的软件授权数量求和。 已开启监控 / 软件总数:已开启软件监控的数量、软件总数。 正版分析检测周期:默认为2小时。 最新上报时间:最近一次软件采集和分析的时间。 2.统计分析 授权超额排行 TOP 10:软件超额安装数量从大到小排列。 接收卸载任务排行 TOP 10:某台设备的软件接收到卸载任务,则纳入计数。所有软件的计数求和即为这台设备的接收次数。 忽视卸载任务排行 TOP 10:某台设备的软件接收到卸载任务后,如果软件仍在使用,则纳入计数。所有软件的计数求和即为这台设备的忽视次数。
        来自:
        帮助文档
        边缘安全加速平台
        终端管理
        正版管理
      • 回源SNI
        本文介绍回源SNI功能的原理和使用说明。 功能介绍 如果一个源站IP地址绑定多个域名,且CDN加速使用HTTPS协议回源时,需通过配置回源SNI的方式,在SNI中指定具体的请求域名,此时源站服务器可以返回该域名对应的SSL证书,以达到多个域名共用源站的目的。 回源SNI原理 SNI(Server Name Indication)是为了解决一个服务器使用多个域名和证书的问题,而对SSL/TLS协议所作的一个扩展。它允许服务器在同一个IP地址和TCP端口下支持多个证书,从而允许多个HTTPS网站使用相同的源站IP和端口。开启回源SNI后,CDN节点向源站发起TLS握手时,源站会根据TLS握手中携带的回源SNI信息来确认CDN节点请求的具体域名,然后返回该域名对应的SSL证书给CDN节点。 设置回源SNI后的工作流程如下: 1. 当CDN节点以HTTPS协议回源时,需要在回源SNI中设置访问的域名。 2. 源站收到请求后,返回SNI中设置的域名对应的SSL证书。 3. CDN节点收到SSL证书后,与源站建立连接。 配置说明 1. 登录CDN控制台。 2. 单击左侧导航栏【域名管理】【域名列表】。 3. 在【域名列表】页面,找到目标域名,单击【操作】列的【编辑】。 4. 单击右侧【回源配置】。 5. 在【回源SNI】模块,开启功能。 6. 配置SNI。 7. 单击【保存】,完成配置。 参数名 说明 SNI 回源SNI域名,只能配置精确域名,不支持泛域名。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        回源配置
        回源SNI
      • 缓存过期时间设置
        本文介绍缓存过期时间设置方法。 功能介绍 缓存过期时间指源站资源在CDN节点缓存的时长,在缓存未过期前,对应资源会直接从CDN节点响应给用户;达到预设缓存过期时间后,资源将会被CDN节点标记为缓存过期。此时如果客户端向CDN节点请求该资源,CDN会携带IfModifiedSince请求头或IfNoneMatch请求头回源站校验内容是否有更新,如有更新则获取最新资源并缓存到CDN节点,如无更新则继续使用原有缓存文件。您可以根据业务需求,按指定路径或文件名后缀等方式配置静态资源的缓存过期时间。 注意事项 1. 您可基于天翼云默认推荐的缓存设置,按需进行调整后,直接使用,当前默认推荐配置如下: 2. 如您删除了上述默认推荐设置,且未添加其他任何设置情况下,全局默认优先遵循源站缓存头,包括Pragma:nocache、CacheControl、Expires响应头;其优先级从高到底分别如下:Pragma:nocache、CacheControl:nocache/private/nostore > CacheControl:maxagen (n≥0)>Expires。如源站无任何上述缓存头设置,则在CDN节点上不缓存。默认忽略参数缓存,若不同参数文件内容不同,需设置为不忽略参数。 3. 如果加速域名下的文件访问热度过低(指同个文件在一段时间内被访问的频次过低),则很可能在过期时间到来之前被其他热度更高的文件覆盖。即:即使某个文件配置的缓存时间较长,如1个月,仍有可能在1个月内重复回源。 4. 天翼云CDN节点的缓存时间,最长可以设置为3年,即1095天。
        来自:
        帮助文档
        CDN加速
        用户指南
        域名管理
        缓存配置
        缓存过期时间设置
      • 大模型推理性能测试实践
        测试环境配置 测试脚本下载 LLMPerf由 Ray 项目团队开发,在github上开源,可直接下载。 plaintext git clone 工具核心功能: 性能评估 负载测试:LLMPerf可以对大语言模型(如Llama 2、GPT3等)的吞吐量和延迟性能进行测量。它通过负载测试来评估模型在不同负载下的响应延迟和生成吞吐量,帮助用户了解模型在实际应用中的性能表现。 准确性测试:该工具还可以进行正确性测试,衡量模型输出的准确性,确保模型在生成内容时能够保持较高的质量。 参数化测试 LLMPerf允许用户更改输入和输出大小等参数,以匹配不同的应用场景。这意味着用户可以根据自己的具体需求和工作负载,灵活地调整测试参数,从而获得更具针对性的性能评估结果。 结果分析 LLMPerf能够提供详细的性能指标分析,包括响应时间、吞吐量、准确性等,帮助用户深入了解模型的性能特点。 兼容性 LLMPerf支持主流的大语言模型,如OpenAI、Anthropic、TogetherAI等。这使得用户可以在一个统一的框架下对不同来源的模型进行性能比较和评估。 安装测试工具 plaintext git clone cd llmperf pip install e . 如下载速度较慢可以使用国内源进行加速 pip install e . i 配置环境变量 根据不同的API服务,需要设置不同的密钥信息和服务地址。例如对于OpenAi(vLLM类推理框架): plaintext export OPENAIAPIKEY"your apikey" export OPENAIAPIBASE" 3.
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        大模型推理性能测试实践
      • 查看资源包明细
        当前视频直播可订购的资源包仅包括流量包,本文简述流量包的查看方法。 前置须知 已开通视频直播按需服务,详情请参见:开通视频直播服务。 已订购视频直播流量包,详情请参见:资源包订购。 流量包价格请参见:资源包介绍。 操作指引 1. 登录直播控制台。 2. 在左侧导航栏,单击【计费详情】,可以在页面下方查看资源包详情。 3. 如果想要购买资源包,可以单击【订购视频直播资源包】,进入订购链接进行购买。 4. 如果想要退订有效期内的资源包,单击对应资源包操作栏中的【退订】,进入退订页面进行退订操作。 注意事项 1. 购买流量包之前,需先开通视频直播按需流量计费。 2. 购买流量包成功后即时生效,流量包的优先级高于按需流量计费,即优先抵扣流量包的用量,有效期为一年。 3. 购买多个流量包时,当某个流量包用尽后默认自动开启下一个优先到期的流量包;当所有流量包用量用尽或者有效期到期后,自动转为同加速类型的按需流量计费。 4. 资源包用量未用尽或者有效期未到期,均可按照天翼云的退订规则完成退订操作,但仅支持在购买时长≤7天且未进行任何使用的情况下申请退款,除此之外均不符合退款条件,不予以退款。
        来自:
      • 术语解释
        本文带您了解模型推理服务相关术语及其基本概念。 预置模型 是指平台提供的原始模型,您可以通过选择预置模型进行训练从而得到行业或细分场景模型,不同的基础模型的参数和能力不同,我们将持续推出不同能力方向的模型。 模型微调 是指利用预先训练好的神经网络模型,并针对特定任务在相对较少量的监督数据上进行重新训练的技术。这种方法能够充分利用预训练模型在大型数据集上学到的通用特征和知识,从而加速在新任务上的训练过程,并通常能够取得较好的性能表现。 函数调用Function Calling Function Calling 是一种将大模型与外部工具和 API 相连的关键功能,作为自然语言与信息接口之间的“翻译官”,它能够将用户的自然语言请求智能地转化为对特定工具或 API 的调用,从而高效满足用户的特定需求。 Token 在自然语言处理中,token 通常指的是将文本分割成的最小单位,比如词语、子词或字符。在调用模型推理服务时,会将输入内容进行分词(tokenize),转化为模型可以理解的 token ,经过模型处理后,同样输出 token,并转化为您需要的文本或者其他内容载体。而模型处理(包括输入、输出)的 token 数量会被作为模型推理服务用量的一个重要计量单位。由于不同模型采用的分词策略不同,同一段文本可能会被转化为不同数量的 token。 迭代轮次 是指模型训练过程中模型学习数据集的次数,可理解为学习几遍数据,可依据需求进行调整。
        来自:
        帮助文档
        模型推理服务
        产品介绍
        术语解释
      • 使用索引提高查询效率
        本页介绍天翼云TeleDB数据库使用索引提高查询效率的最佳实践。 通过explain查看执行计划,查看SQL语句是否使用到了索引,Seq Scan表示对表进行了全表扫描,而如Index Scan,Index Only Scan则表示使用了索引扫描。 通常情况下,使用索引可以加速查询速度,但索引也会增加数据更新的开销,在数据量较小时,优化器也可能会使用全表扫描代替索引扫描。 例如,下面的SQL语句,使用了Parallel Seq Scan并行全表扫描。 teledb explain select from teledb2 where f3'1'; QUERY PLAN Remote Fast Query Execution (cost0.00..0.00 rows0 width0) Node/s: dn001, dn002 > Gather (cost1000.00..7827.20 rows1 width14) Workers Planned: 2 > Parallel Seq Scan on teledb2 (cost0.00..6827.10 rows1 width14) Filter: (f3 '1'::text) (6 rows) 在f2字段上创建索引后,下面的SQL语句,使用了Index Scan索引扫描。 teledb create index teledb2f2idx on teledb2(f2); CREATE INDEX postgres explain select from teledb2 where f21; QUERY PLAN Remote Fast Query Execution (cost0.00..0.00 rows0 width0) Node/s: dn001, dn002 > Index Scan using teledb2f2idx on teledb2 (cost0.42..4.44 rows1 width14) Index Cond: (f2 1) (4 rows) 当然,按SQL优化原则,上述SQL语句where条件都没有带分布键,导致SQL下发到了所有DN节点,建议尝试优化为带分布键查询。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        SQL开发最佳实践
        性能优化最佳实践
        SQL优化最佳实践
        使用索引提高查询效率
      • 特殊计费场景
        本章节主要介绍媒体存储特殊计费场景。 通过天翼云CDN访问媒体存储 将媒体存储作为天翼云CDN加速的源站,在使用过程中,费用将由媒体存储和天翼云CDN分别收取。 使用过程中的流量示意图如下: 各计费项说明如下表: 费用收取方 计费项 计费说明 媒体存储 CDN回源流量 数据从媒体存储传输到天翼云CDN所产生的回源流量。 温馨提示:如您使用天翼云CDN,需要在源站配置中,选择【媒体存储源站】,此配置下产生的回源流量会按照CDN回源流量进行计费。如您选择【IP或域名】,产生的回源流量将按照公网下行流量计费。 天翼云CDN CDN流量/带宽 用户访问天翼云CDN节点而产生的流出流量或带宽,具体计费可参考CDN计费概述。 存储桶复制 如用户使用存储桶复制功能,将产生存储容量、流入流量等计费用量,具体说明如下表: 产生用量类别 详细说明 公网上传流量 数据从源桶向目的桶复制数据,会产生公网上行流量。目前公网上行流量免费。 请求次数 服务进行复制的过程中,会产生上传对象的请求,在按需计费模式下,这部分请求会按照次数计算费用,具体参考计费项。 存储费用 数据复制后,会在目的桶产生存储空间,因此会产生存储空间费用。存储空间计费可参考计费项。
        来自:
        帮助文档
        媒体存储
        计费说明
        特殊计费场景
      • 开启分片回源后,有哪些特征证明已开启
        本文介绍分片回源开启后的相关特征。 背景说明 分片回源,是指CDN节点收到用户请求后,会在回源时携带Range请求头,源站在收到Range请求后,会返回对应范围的内容数据给CDN。分片回源功能开启后,CDN节点可以以分片的形式缓存文件,对于Range请求而言,可以有效提高文件分发效率,降低首包时延,同时提高缓存利用率,减少不必要的回源。 详细信息 下表为分片回源功能不同状态下的相关描述: 功能 状态 描述 分片回源 未开启 分片回源功能未开启时,若客户端发起Range请求,Range请求头部Start值的偏移量在一定范围内(默认为5MB),例如Range:10485762097152(其中1048576为Start值,2097152为End值),CDN加速会默认回源获取完整文件并缓存,同时响应给客户端Range范围内的数据内容。如Range请求的Start值范围超出5MB,且CDN节点尚未缓存完整文件,则CDN节点直接透传Range请求回源站,响应给用户的同时,不缓存对应文件。 分片回源 开启 开启分片回源后,无论客户端发起的是否Range请求,CDN节点无缓存时,均按配置的Range分片大小回源,如源站响应206状态码,则CDN缓存对应分片内容,并响应206(如客户端为Range请求)或200(如客户端为完整文件请求)给客户端。 客户端发起Range请求,CDN有Range范围的文件内容缓存时,直接响应206状态码及对应范围缓存内容给客户端。 分片回源 自适应回源 天翼云CDN加速同时支持自适应回源,即:如果客户端携带Range请求头,则按分片回源;如果客户端没有携带Range请求头,则按完整文件回源。 按分片回源时,会按照配置的分片大小回源,响应给用户的同时缓存文件。 因此,可以通过回源请求头、状态码和源站的响应报文来确认分片回源功能是否生效。分片回源功能开启后: 1. 回源请求头:CDN节点回源时会携带例如Range:bytes100200的请求头。 2. 状态码:CDN节点Range请求回源时,源站响应的状态码是206。 3. 源站响应报文:会带有ContentRange字段,表示响应片段内容的范围和总数据大小,例如:ContentRange:bytes 100200/5000”,表示返回[100200]这101个字节的数据。 分片回源功能的详细介绍和使用注意事项,详情请见:分片回源。
        来自:
        帮助文档
        CDN加速
        常见问题
        回源相关
        开启分片回源后,有哪些特征证明已开启
      • 创建并行计算
        本文介绍了如何在科研助手中创建并行计算任务。 操作步骤 1. 登录科研助手管理控制台。 2. 在控制台左侧导航栏中,选择【并行计算】。 3. 在【并行计算】页面中,单击【作业管理】下方的【创建计算任务】。 4. 在【创建计算任务】页面中,配置参数,具体如下表所示。 参数 说明 企业项目 可将计算任务挂载在不同企业项目下。 作业名称 输入作业名称。要求如下:长度范围为4~25个字符。名称由小写字母、数字、中划线()组成。以小写字母开头。 以小写字母或数字结尾。 并行框架 选择所需要使用的并行框架。支持MPI、Pytorch、Tensorflow、Paddle。 镜像地址 输入作业所需要使用的镜像URL地址,可以手动填写第三方镜像,也可以选择存储在天翼云的镜像。 启动命令 作业第一个实例启动时执行的命令内容,指令执行完成视为作业运行结束。例如"mpirun np 8 myapp.run"。 环境变量 为所有实例预置环境变量,输入形式为key+value。 可用区 选择所需的可用区。 实例规格 实例规格可选择通用计算型和GPU加速型,为作业的实例选择合适的实例规格。 数量 作业将创建的实例数量。输入范围1~99。 存储挂载 可将科研文件挂载到所有实例中,可设置实例中挂载的路径。 5. 所有参数填写完毕后,点击【确认订单】,作业将会创建和下发计算任务。
        来自:
        帮助文档
        科研助手
        用户指南
        科研版
        并行计算
        创建并行计算
      • CodeLlama-34B-Instruct
        本文为您详细介绍Code Llama模型。 模型简介 CodeLlama是一款建立在 Llama 2 基础之上的大型语言模型,它专门针对代码生成和代码讨论任务进行了微调。该模型的规模从70亿到340亿个参数不等,这一特性使其有可能极大地加速开发人员的工作流程,提高开发效率,并显著降低学习编码的入门门槛。Code Llama 有望成为一款强大的生产力和教育工具,帮助程序员编写出功能更强大、文档更完善的软件。 使用场景 CodeLlama旨在广泛支持各个领域的软件工程师,包括但不限于研究机构、工业界、开源项目、非政府组织以及企业环境。该模型免费提供给研究社区使用,同时也支持在商业环境中的应用,为开发者们提供了一个强大的工具,以提升他们的编码效率和质量。 评测效果 为了对比现有解决方案测试 CodeLlama 的性能表现,选择了两项流行的编码基准:HumanEval 与Mostly Basic Python Programming(MBPP)。其中 HumanEval 主要测试模型根据文档字符串补全代码的能力,而 MBPP 则测试模型根据描述编写代码的能力。 从基准测试结果来看,CodeLlama 的表现优于编码专用的开源 Llama,甚至超越了 Llama 2。例如,CodeLlama34BInstruct在 HumanEval 上的得分为 53.7%,优于 GPT3.5 的 48.1%,更接近 OpenAI 论文报告的 GPT4 的 67%。在 MBPP 上,CodeLlama 34B 得分为 56.2%,超越了其他最先进的开源解决方案,已经与 ChatGPT 基本持平。
        来自:
        帮助文档
        训推服务
        模型简介
        CodeLlama-34B-Instruct
      • 安装CUDA
        本文介绍如何在边缘虚拟机上安装CUDA。 CUDA为NVIDIA提供的运算平台,包含了CUDA指令集架构以及GPU内部的并行计算引擎。若想要在NVIDIA系列GPU上运行GPU加速计算任务,需要安装CUDA环境。 CUDA安装 安装前准备 步骤1、确认GPU驱动已安装。 shell nvidiasmi 步骤2、确认适配的CUDA版本。 安装步骤 步骤1、确定适配的CUDA版本,在CUDA Toolkit Archive查找适配CUDA软件包。 步骤2、点击进入,找到适配的runfile。 步骤3、执行下载命令,注意检查CUDA版本和GPU驱动版本是否一致。 shell wget 步骤4、执行安装命令。 shell wget 若已安装GPU驱动需要取消勾选Driver,若未安装GPU驱动请勾选安装。 步骤5、执行命令配置CUDA环境变量。 shell echo 'export PATH/usr/local/cuda/bin:$PATH' sudo tee /etc/profile.d/cuda.sh source /etc/profile 步骤6、检查安装是否成功。 shell nvcc V
        来自:
        帮助文档
        智能边缘云
        最佳实践
        边缘虚拟机安装和升级GPU驱动
        安装CUDA
      • 常见问题
        是否支持配置迁移文件(Object)的大小? 支持,可以通过配置文件migrate.conf中参数objectSize进行配置迁移文件(Object)的范围。格式是NM,表示迁移N至M大小的文件。取值:N和M是大于等于0的整数,且N≤M,单位是字节。默认不配置此项,表示迁移所有大小的文件。 迁移过程中任务被终止了如何继续? 可以按照下列步骤继续终止的任务: 1. 保留上次迁移执行过程中产生的backup文件。 说明 如果不在原服务器上继续执行迁移任务,而是换一台服务器上重新开始迁移任务,则需要将backup文件拷贝到新服务器的迁移工具所在目录下。 2. 查看nextMarker.txt文件中记录的上次数据迁移位置。修改迁移任务配置文件(migrate.conf),设置srcMarker为上次迁移位置,然后运行迁移工具。 如何提升迁移速度? 在客户端网络环境不变的情况下,可以通过调整如下参数来提升迁移速度: 将系统配置文件(system.conf)中的threadNum参数调大,执行多线程并发迁移,譬如调整到50。 将迁移任务配置文件(migrate.conf)中的isSkipExistFile参数设置为true,当目标资源池中已有同名文件则跳过不再迁移。 说明 这个参数根据实际情况而定。 如果srcType为OOS时,且迁移源端和目的端的资源池为同类型,可以将迁移任务配置文件(migrate.conf)中的isAcceleratedMigration参数设置为true,使用加速迁移。 将迁移任务配置文件(migrate.conf)中的importSince参数设置为增量迁移的时间戳,可以只迁移该时间戳之后的对象。
        来自:
        帮助文档
        对象存储(经典版)I型
        常用工具
        OOS数据迁移工具
        常见问题
      • 系统防护
        选择系统防护页签,可对终端设置防护。 参数 说明 病毒防护 针对网络中流行的病毒、木马进行全面查杀。 系统登录防护 配置登录权限。 配置病毒防护 病毒查杀用于对网络中流行的病毒、木马进行全面查杀。适用于需要自定义修改配置策略模板病毒防护场景。 1. 选择病毒查杀页签。 2. 配置检测引擎、实时防护等参数。 详细配置请参见下表: 参数 说明 通用设置 检测引擎 检测引擎选项: 默认引擎(高性能跨平台通用引擎,建议开启)。 深度扫描引擎(开启后将占用200MB磁盘空间,深度扫描引擎占用内存更多,但扫描速度更快(进行压缩包扫描时需要选择“深度扫描引擎”)。 网马引擎(网马专用引擎,根据网马特征扫描)。 通用设置 检测提升 扫描缓存加速(建议开启)。 病毒扫描 扫描模式 极速扫描。 低资源扫描,CPU使用率低于限额(默认50%,建议不低于20%)。 实时防护 扫描时机 默认全部勾选,用户可根据实际场景进行勾选。 当文件被执行时,将会触发实时防护功能。 当文件被修改时,将会触发实时防护功能。 当存储介质被连接时,将会触发实时防护功能。 实时防护 处理方式 发现病毒(文件执行、文件修改、存储介质连接时)后的处理方式: 自动处理(优先进行文件修复,修复失败后再隔离)。 仅记录。由用户自行选择。 删除(删除病毒文件)。
        来自:
        帮助文档
        智算安全专区
        用户指南
        大模型安全卫士
        策略管理
        主机策略
        主机策略配置说明
        系统防护
      • 天翼云GPU云主机模型推理性能总览
        本节先简要介绍了天翼云GPU云主机模型推理性能总览 GPU云主机能够提供优秀的浮点计算能力,可以实现端到端推理加速,减少推理延迟,从而提高模型的实时性和响应速度。本文基于DeepSeek模型实测数据,对比分析天翼云多款主流GPU云主机的推理性能表现。 下面的表格展示了以C8E类型的32c128g规格的云主机作为基线,模型使用DeepSeekR1DistillQwen7B,以及C8E类型的128c512g规格的云主机作为基线,模型使用DeepSeekR1DistillQwen32B,天翼云多款主流GPU云主机的推理时延降低率和吞吐量提升率(值越大表示性能越好)。 模型 云主机类型 显卡类型 时延降低率 吞吐量提升率 DeepSeekR1DistillQwen7B pn8i.4xlarge.8 1L20 88% 800% DeepSeekR1DistillQwen7B p8a.6xlarge.4 1A100 85% 857% DeepSeekR1DistillQwen7B pi7.4xlarge.4 1A10 72% 467% DeepSeekR1DistillQwen7B p2vs.2xlarge.4 1V100s 82% 597% DeepSeekR1DistillQwen7B p2v.2xlarge.4 1V100 81% 617% DeepSeekR1DistillQwen7B pi2.4xlarge.4 2T4 73% 399% DeepSeekR1DistillQwen32B pn8i.8xlarge.8 4L20 92% 1550% DeepSeekR1DistillQwen32B p8a.24xlarge.4 4A100 87% 1497% DeepSeekR1DistillQwen32B pi7.16xlarge.4 4A10 81% 821% DeepSeekR1DistillQwen32B p2vs.8xlarge.4 4V100s 83% 834% DeepSeekR1DistillQwen32B p2v.8xlarge.4 4V100 82% 859% 注意 pn8i相关规格的产品将于2025年4月30日上线。
        来自:
        帮助文档
        GPU云主机
        最佳实践
        天翼云GPU云主机模型推理性能总览
      • 视频直播加速费用
        全球(不含中国内地)价格 按流量计费的加速区域为全球(不含中国内地)时,包含了北美、欧洲、亚太1区、亚太2区、亚太3区、中东/非洲、南美共7个计费区域,按照阶梯累进模式,执行如下标准资费。 流量阶梯 北美 欧洲 亚太1区 亚太2区 亚太3区 中东/非洲 南美 计费单位 (0GB,10TB] 0.28 0.28 0.43 0.54 0.63 0.81 0.68 元/GB (10TB,50TB] 0.23 0.23 0.39 0.50 0.59 0.76 0.63 元/GB (50TB,100TB] 0.18 0.18 0.35 0.43 0.56 0.70 0.59 元/GB (100TB,1PB] 0.15 0.15 0.33 0.38 0.50 0.67 0.56 元/GB (1PB,+∞) 0.14 0.14 0.32 0.37 0.44 0.65 0.55 元/GB 计费规则 计费方式:按需流量后付费或资源包计费(预付费)。 计费周期:按小时结算,定时扣费。(当月最终账单将在次月3日生成,在次月4日10点后可查看和导出,具体出账时间以系统为准。) 计费场景:适用于流量曲线波动较大,有带宽尖峰,且全天内带宽利用率小于30%的客户。 计费方向:视频直播默认只计费下行播放费用。但当上行推流费用和下行播放费用的比例大于1:50时,则同时会收取上行推流费用,单价与下行播放费用一致。 全球(不含中国内地)划分说明: 北美:美国、加拿大等 欧洲:德国、法国、荷兰、英国等 亚太1区:除中国台湾、印尼、印度、韩国、澳大利亚、新西兰外的亚太国家/地区 亚太2区:中国台湾、印尼、印度 亚太3区:韩国、澳大利亚、新西兰 中东/非洲:阿联酋、南非、尼日利亚、埃及等国家/地区 南美:墨西哥、巴西等
        来自:
        帮助文档
        视频直播
        计费说明
        基础服务计费(必选)
        视频直播加速费用
      • 为什么从天翼云CDN访问到的文件和直接回源结果不一样
        本文解释从天翼云CDN访问到的文件和直接回源结果不一样的原因和解决方案。 背景说明 使用天翼云CDN加速后,如用户请求的文件在节点已有缓存,则直接响应给用户;如用户请求的文件为首次访问,或文件过期,则CDN节点会回源站获取文件,缓存在节点并响应给用户。 正常情况下,用户请求CDN节点和直接访问源站,访问到的内容相同。本文主要介绍CDN节点和源站文件内容如果不一致时,可能的原因及解决方案。 详细内容 从天翼云CDN访问到的文件和直接回源结果如不一样,可从以下几方面着手进行分析: 1.CDN节点回源,会在用户请求基础上增加部分请求头,源站如对相应请求头有处理策略上的差异,可能会导致响应不同内容 用户请求至CDN节点后,CDN节点会在原始请求头基础上增加类似如下的请求头: Via: http/1.1 fjningde5xxx[aff7324a97b346daaf21ba85e1876868] (ApacheTrafficServer/xxx);该请求头值为请求进入CDN节点后经过的节点信息。 RequestId:9011f7a06787a0fd560cd724dd9989fb;该请求头值为对应请求的唯一ID。 如果源站针对上述请求头有做特殊处理,例如,有Via时可能响应不同的值,则会导致CDN和源站响应不同内容。 解决方案:可尝试通过直接回源请求,并逐个新增携带上述请求头,对比是否与源站获取的内容一致,直到找到造成响应差异的对应请求头。此后,可通过调整源站设置,或在CDN节点配置去掉对应请求头来规避问题。目前,删除CDN内部请求头尚不支持自助,需要提交工单给天翼云客服人工处理。
        来自:
        帮助文档
        CDN加速
        常见问题
        缓存配置
        为什么从天翼云CDN访问到的文件和直接回源结果不一样
      • 产品规格
        天翼AI云电脑(政企版)GPUAI云电脑产品规格如下: 产品名称 规格类型 功能适用 系统支持 GPUAI云电脑 4核8G 1B Nvidia T4 显存 120GB SSD 系统盘 满足学校教学, 普通图像办公,高清视频播放等需求 Windows GPUAI云电脑 8核16G 2B Nvidia T4 显存 120GB SSD 系统盘 满足学校教学, 普通图像办公,高清视频播放等需求 Windows GPUAI云电脑 4核8G 2Q Nvidia T4 显存 120GB SSD 系统盘 搭配高性能显卡及固态硬盘,满足企业图形设计、图形渲染、3D制作等需求 Windows GPUAI云电脑 8核16G 4Q Nvidia T4 显存 120GB SSD 系统盘 搭配高性能显卡及固态硬盘,满足企业图形设计、图形渲染、3D制作等需求 Windows GPUAI云电脑 16核32G 8Q Nvidia T4 显存 120GB SSD 系统盘 搭配高性能显卡及固态硬盘,满足企业图形设计、图形渲染、3D制作等需求 Windows GPUAI云电脑 32核64G 16Q Nvidia T4 显存 120GB SSD 系统盘 搭配高性能显卡及固态硬盘,满足企业图形设计、图形渲染、3D制作等需求 Windows GPUAI云电脑(渲染版) 4核8G 渲染版显卡 1G 显存 120GB SSD 系统盘 满足学校电子教室3D One、工业设计CAD(小模型推荐)、VR看房等轻3D应用场景 Windows GPUAI云电脑(渲染版) 8核16G 渲染版显卡 2G 显存 120GB SSD 系统盘 满足学校电子教室3D One、工业设计CAD(小模型推荐)、VR看房等轻3D应用场景 Windows GPUAI云电脑(渲染版) 16核32G 渲染版显卡 4G 显存 120GB SSD 系统盘 支持较大型的工业设计(如CAD模型零件较多)、视频编辑等场景 Windows GPUAI云电脑(渲染版) 16核32G 渲染版显卡 8G 显存 120GB SSD 系统盘 支持较大型的工业设计(如CAD模型零件较多)、视频编辑等场景 Windows 说明 1.GPUAI云电脑中的B和Q均是虚拟显存。 B显存系列最高可虚拟2G的显存,不支持cuda、opencl硬件加速,适合一些对图形处理要求不高的基础应用场景,如日常办公、网页浏览等。 Q显存系列支持更多规格,具备更全面的图像加速能力。更适合于需要高性能图形处理能力的场景,如3D图形设计、视频编辑、视频直播等。 2.GPUAI云电脑(渲染版)目前可在以下资源池订购开通:广东佛山3、内蒙6、湖南长沙11、新疆乌鲁木齐3、宁夏中卫6。
        来自:
        帮助文档
        天翼云电脑(政企版)
        产品介绍
        产品规格
      • 告警自助
        本文介绍如何使用告警自助功能。 功能背景 AOne告警自助功能让企业自主地、灵活地配置对核心系统指标的实时监控,直观掌握连接器与应用的健康状况,自定义敏感的告警阈值,精准通知到相关负责人,实现秒级感知异常,最终驱动团队快速响应与处置,有效保障业务的高可用性和稳定性。 操作步骤 1.登录边缘安全加速平台控制台。 2.在左侧导航栏AOne零信任设置告警设置,查看相应的配置和管理。 3.可根据业务需求进行相关配置。 功能说明 说明 配置完告警后,除已配置的联系方式会接收到告警外,您可从控制台待办事项查看对应的通知。 连接器异常 字段 说明 备注 事件类型 支持多种事件类型:连接器隧道状态异常、连接器中心连通异常、连接器CPU使用率异常、连接器内存使用率异常。 告警阈值 可根据不同事件类型,设置对应的告警阈值。 接收告警时间 仅在接收时间内进行告警,若告警发生时,不在接收时间,告警可能会遗漏通知。 告警开关 默认关闭,请对有需要关注的告警事件类型进行开启。开启后,请配置告警通知人等信息。关闭时则不会进行告警通知和监控。 告警方式 可选短信或者邮箱进行告警,通过短信告警的方式,当前暂不占用您企业零信任短信额度数量,若后续涉及短信额度抵扣,将进行通知。 一个事件类型,最多支持设置5个手机号和5个邮箱地址作为告警通知联系方式。 可选择系统内通知人以及自定义系统外通知人。若选择系统内通知人后,只保存当下该通知人的联系方式,若该系统内通知人联系方式变更,请重新编辑修改。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        设置
        告警自助
      • (停止维护)Kubernetes 1.23版本说明
        本节介绍了:云容器引擎发布 Kubernetes 1.23版本说明。 社区 Kubernetes 版本主要变更 Kubernetes 1.23 Changelog 1. FlexVolume弃用,推荐使用 CSI。 2. IPv4/IPv6 双栈网络 GA,使用双栈网路非强制要求。 3. HorizontalPodAutoscaler v2版本 GA,HorizontalPodAutoscaler autoscaling/v2beta2 API已弃用,建议使用 autoscaling/v2。 4. 通用临时卷功能 GA,此功能允许存储驱动程序动态供应临时卷,其生命周期与 Pod一致。 5. 跳过卷所有权变更功能 GA,此功能允许用户在 Pod 挂载存储卷时跳过递归地权限变更,从而加速 Pod 启动 6. PodSecurity 升级到Beta,取代已经弃用的 PodSecurityPolicy。Kubernetes 1.23中 PodSecurity 默认启用 更多信息请参考:Kubernetes 1.23 Changelog Kubernetes 1.22 Changelog 1. Ingress将移除 extensions/v1beta1 和 networking.k8s.io/v1beta1,Ingress影响7层路由转发能力,推荐使用 networking.k8s.io/v1 2. 资源 ValidatingWebhookConfiguration和 MutatingWebhookConfiguration admissionregistration.k8s.io/v1beta1 API将不再支持,继续使用老版本API将影响 Webhook的正常运行,建议使用 admissionregistration.k8s.io/v1 3. 资源 CustomResourceDefinition apiextensions.k8s.io/v1beta1 API将不再支持,继续使用老板本 API创建 CRD,将影响 Controller 的调协,建议使用 apiextensions.k8s.io/v1 4. APIService apiregistration.k8s.io/v1beta1已弃用,APIService影响 APIServer aggregator的路由,推荐更新为 apiregistration.k8s.io/v1 5. Kubernetes 发版节奏从一年4次改为一年3次 更多信息请参考:Kubernetes 1.22 Changelog
        来自:
        帮助文档
        云容器引擎 专有版/托管版
        用户指南
        集群
        集群概述
        Kubernetes版本发布记录
        (停止维护)Kubernetes 1.23版本说明
      • 权限设置
        防盗链设置 在【实例管理】的页面选择特定的点播实例,点击设置权限可进入该点播实例的【防盗链设置界面】,默认防盗链状态为:关闭。 防盗链设置说明 类型:白名单(只允许Referer列表域名进行访问)、黑名单(不允许Referer列表域名进行访问)。当需要设置防盗链配置时,此选项需要选择其一。 是否允许空Referer:允许、拒绝。当需要设置防盗链配置时,此选项需要选择其一。 Referer列表:填写域名或IP地址,以 。 注意 1. 拒绝空Referer会导致点播部分功能无法正常使用,请谨慎使用! 2. 当设置了Referer防盗链后,访问存储桶的文件时,相应HTTP请求需要在header头部的Referer字段添加相应的防盗链信息,否则访问请求会被拒绝。 3. 以上Referer配置,仅针对云点播的三个存储桶有效。 4. 如用户在使用云点播服务时同时叠加了CDN加速服务,请务必确认CDN的回源请求符合云点播侧的防盗链要求,否则相应的回源请求可能被拒绝。 跨域访问CORS配置 云点播默认全部自带存储桶的跨域访问CORS设置为: 配置 可用值 AllowedMethod GET PUT HEAD AllowedOrigin AllowedHeader 如有其他跨域配置需求,可发送工单联系产品后台处理。 注意 1. 如您在集成播放平台时,遇到跨域问题,请先确认CDN服务商(如有)是否将HTTP头部的Origin字段携带透传回云点播存储桶。 2. 部分场景下,浏览器可能会将其他错误报为跨域问题,请开发者认真甄别。
        来自:
        帮助文档
        云点播
        用户指南
        实例管理
        权限设置
      • 叠加DDoS高防(边缘云版)联合防御
        本节介绍了为业务同时部署DDoS高防(边缘云版)和Web应用防火墙(边缘云版)的操作步骤。 使用场景 如果您的网站既需要进行流量型DDoS攻击的防护,同时也需要对精巧的Web应用层攻击时进行防御。使用单一的防护产品可能无法起到全面的防护效果,您可以在Web应用防火墙(边缘云版)的基础上,叠加DDoS高防(边缘云版)进行联合防御。 配置前提 已分别开通DDoS高防(边缘云版)及Web应用防火墙(边缘云版)。 网站域名需完成ICP备案,并需要持续维护其有效性。 说明 若您抗DDoS攻击的重要性显著高于加速需求,请先在DDoS高防(边缘云版)控制台新增域名,再到Web应用防火墙(边缘云版)新增域名,该添加顺序会优先使用天翼云高防DDoS节点进行域名防护。 业务流程 由于DDoS高防(边缘云版)及Web应用防火墙(边缘云版)采用统一的边缘云网络架构和底座,无需重复进行网站接入配置,并且也无需考虑不同产品串联时网络层转发的顺序问题,需注意防护配置的生效顺序:DDoS高防(边缘云版)优先于Web应用防火墙(边缘云版)。 (非统一架构的产品叠加,需确定不同产品之间网络层转发顺序,如先经过DDoS高防再经过Web应用防火墙,那么DDoS的高防的回源地址需与Web应用防火墙的接入地址相匹配,而不能直接配置为源站地址。非统一架构的产品叠加会增加网络配置复杂度。)
        来自:
        帮助文档
        Web应用防火墙(边缘云版)
        最佳实践
        叠加DDoS高防(边缘云版)联合防御
      • 应用场景
        本文带您了解AI Store四大类服务的应用场景。 算力服务 智能算力 聚焦人工智能、大模型训练、科研仿真等“高并发、高浮点、高宽带”的需求,提供GPU/TPU/NPU等异构加速资源,助力AI创新从“可用”走向“好用”。 主要面向客户:大模型预训练、AIGC、多模态理解等AI企业与算法公司,高校与科研院所,自动驾驶团队以及医疗影像AI厂商等客户。 通用算力 面向Web服务、ERP、数据库、开发测试、办公协同等常规业务,以“按需付费、秒级开通”模式提供高性价比的基础算力。 主要面向客户:中小企业、初创团队、政府及事业单位(如一网通办、公共数据平台、政务云开发测试环境)等客户。 模型服务 模型推理 提供高性能的模型调用服务,可以通过标准的API接口将平台提供的大模型服务集成到自己的业务系统中,提供模型推理一站式部署服务。 主要面向用户:各种软件开发商,特别是行业软件开发商,以及科研院所、大专院校和教育机构、政府、金融机构、工业企业、科技单位、医院等行业客户。 模型应用 大模型与插件工具的结合能够有效拓展其在复杂任务中的实用性,支持接入私有知识库增强领域应答,集成联网搜索获取实时信息。 主要面向用户:需要组合模型和工具提供智能办公、智能客服、智能运维能力以及业务主要为知识密集型场景和特定内容生成的企业。 AI应用服务 搭建专属的智能体应用:基于应用广场筛选快速定位所需行业应用,一键部署,简化传统应用安装与配置的复杂流程。实现应用部署、运维和治理的全生命周期管理能力。 主要面向客户:需要快速集成AI能力形成垂直SaaS服务的行业服务集成商,电商/新媒体运营团队,初创公司与个人开发者等客户。
        来自:
        帮助文档
        AI Store
        产品介绍
        应用场景
      • 并行框架适配
        ](.Port )./ 1$2222/g" /etc/ssh/sshconfig && sed i "s/ (StrictModes )./1no/g" /etc/ssh/sshdconfig && sed i "s/ (Port )./1$2222/g" /etc/ssh/sshdconfig echo "Port 2222" >> /home/batchcom/.sshdconfig 配置免密 sshkeygen t rsa N '' f /home/batchcom/.ssh/idrsa cat ~/.ssh/idrsa.pub >> ~/.ssh/authorizedkeys 用于解析多实例hostname的IP地址 sudo apt install y dnsutils MPI框架+IB网络 在使用 MPI 进行多机多卡并行计算时,建议优先采用 InfiniBand(IB)网络以提升多机协同的加速比。尤其对于涉及大量跨节点数据交换的任务,若未使用 IB 网络,其通信瓶颈可能导致多机集群的性能反而不及单机,无法充分发挥并行计算的优势。 MPI(如 OpenMPI、MPICH 等实现)支持 IB 网络的方式多样,以下以 UCX 作为通信后端为例,说明相关依赖的安装步骤: python 安装IBverbs相关依赖(提供IB硬件访问支持) sudo apt update && sudo apt install y ibverbsproviders libibumad3 libibverbs1 libnl3200 libnlroute3200 librdmacm1 安装UCX(高性能通信框架,适配IB与MPI) wget && sudo dpkg i ucx1.18.1rc3.deb 注意:以上仅为 MPI 基于 UCX+IB 的依赖安装流程,需确保 MPI 本身已编译并集成 UCX 和 OpenIB 模块(例如 OpenMPI 可通过以下命令检查): python ompiinfo grep ucx ompiinfo grep openib 若返回空内容,说明未编译相关模块,需重新编译MPI并启用对应功能 此外,也可直接使用研助手预置的 OpenMPI+UCX+IB 网络运行环境镜像,简化配置流程: python ehub.ctcdn.cn/esxbatchcom/openmpiib:v1
        来自:
        帮助文档
        科研助手
        用户指南
        并行计算
        并行框架适配
      • 在科研助手使用Open WebUI对LLM模型推理
        本文介绍了如何在科研助手中使用Open WebUI对LLM模型推理。 概述: Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。 准备环境: 1.【开发机】创建开发机 1. 填入名称“openwebui”选择队列及可用区 2. 【资源配置】 【GPU加速型】在单选框中选择“NVIDIA A100” (规格根据实际情况修改 GPU类型可选择A10 A100 3060 3080) 3. 框架版本选择【社区镜像】的“vncopenwebuicuda11.3” 2.点击【确认订单】 启动开发机并登录VNC: 1. 【开发机】刷新状态,等待openwebui开发机状态进入到【运行中】状态后点击右侧操作栏【打开】。 2. 点击【打开】跳转到vnc开发机,成功进入到远程桌面中。 3. 启动Open WebUI,准备模型: 1. 点击桌面上【OI】图标,等待弹窗浏览器(第一次启动时间较长) 2. 在窗口点击【注册】输入用户名,邮箱,和密码 (信息保存在VNC开发机中,重启后需要重新注册) 3. 在窗口点击【登录】输入用户名,密码,进入对话界面 4. 在【选择一个模型】下拉框输入模型,如【llama:8b】,选择【从 Ollama.com 拉取“llama3:8b”】
        来自:
        帮助文档
        科研助手
        最佳实践
        在科研助手使用Open WebUI对LLM模型推理
      • 安全违规信息类型说明
        危害网络安全类内容 包括但不限于以下违规内容的信息: 利用系统漏洞、捆绑软件、网页挂马、电子邮件、即时聊天工具等途径传播病毒、木马、钓鱼信息等有害程序,可能对用户的正常运行造成损害或中断; 利用网络技术手段或者分享网络技术手段对计算机系统、网络或设备进行破坏、干扰、窃取等违法犯罪行为,包含黑客攻击技术、黑客工具、违规跨境加速或传输服务/软件/教程、违规提供 DNS 解析服务、开展虚拟币“挖矿等违法违规活动。 相关法律法规参考:《中华人民共和国网络安全法》、《计算机信息网络国际互联网安全保护管理办法》、《中国公用计算机互联网国际联网管理办法》、《国际通信出入口局管理办法》、《中华人民共和国刑法》、《关于办理扰乱无线电通讯管理秩序等刑事案件适用法律若干问题的解释》、《中华人民共和国治安管理处罚法》、《关于依法办理非法生产销售使用“伪基站”设备案件的意见》。 违法活动及违禁化学品类 包括但不限于以下违规内容的信息: 发布网络雇凶、网络雇佣追债等违法事件行为。 发布拐卖妇女、儿童、买卖人体器官、提供赴港代孕中介服务、亲子鉴定服务、胎儿鉴定服务等。 发布国家禁止出售的化学品的交易信息,包括但不限于毒品、剧毒化学品、禁止出售的危险化学品、精神类等)。 发布或者存储国家禁止出售的违禁商品/器具类及其相关教程、书籍的交易信息,包括但不限于易燃易爆品、军警服装、管制刀具等)。 相关法律法规参考:《中华人民共和国刑法》、《易制毒化学品管理条例》、《中华人民共和国药品管理法》、《中华人民共和国药品管理法实施条例》、《中华人民共和国禁毒法》、《反兴奋剂条例》、《药品注册管理办法》、《放射性药品管理办法》、《中药品种保护条例》、《麻醉药品和精神药品管理条例》、《互联网药品信息服务管理办法》、《危险品管理条例》等相关法律法规的规定。
        来自:
        帮助文档
        法律声明
        安全管控规则
        安全管控规则
        云平台安全规则细则
        安全违规信息类型说明
      • 1
      • ...
      • 40
      • 41
      • 42
      • 43
      • 44
      • ...
      • 60
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      出海产品促销专区

      爆款云主机低至2折,高性价比,不限新老速来抢购!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      多活容灾服务 MDR

      GPU云主机

      弹性高性能计算 E-HPC

      天翼云CTyunOS系统

      公共算力服务

      应用托管

      智算一体机

      知识库问答

      人脸活体检测

      推荐文档

      错误日志

      修改描述

      安全防护告警

      复制备份

      常见问题

      概念

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号