爆款云主机低至25.83元/年
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 云聚517 · 好价翼起拼 NEW 爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      AI创作间_相关内容
      • 算力市场常见问题
        本文介绍算力市场操作中的常见问题。 为什么无法购买算力? 不能购买的常见原因如下: 您的账号未通过实名认证,如需购买算力产品,必须完成实名认证。如果是企业或组织,请联系您的客户经理完成认证。 您选购的实例规格占用的CPU、内存、加速卡或其他指标已超出了账号的配额,请通过 天翼云官网我的 工单管理新建工单 ,或联系您的客户经理提高配额。 购买算力时,资源已经售罄怎么办? 如果在购买算力资源时遇到资源售罄,建议您根据需要调整需求: 更换资源池 更换算力规格 平台会视情况补充资源,如没有合适的算力可联系您的客户经理,或者提交客服工单,亦或直接拨打客服热线。 为什么我能查询到的算力比较少? 算力规格和资源池未针对用户全网开放,如没有合适的算力请联系您的客户经理,或者提交客服工单,亦或直接拨打客服热线。
        来自:
        帮助文档
        AI Store
        常见问题
        算力市场常见问题
      • limit-count插件
        本文将详细介绍limitcount插件功能、配置和使用。 功能说明 limitcount 插件使用固定时间窗口算法,主要用于限制单个客户端在指定的时间范围内对服务的总请求数,并且会在 HTTP 响应头中返回剩余可以请求的个数. 注意:limitcount 插件的速率限制策略默认是针对单个实例节点,即按照实例节点上的请求数来计数,当存在节点达到数量阈值后请求会被拒绝。如果想对实例集群限速,则policy需指定为redis,并填写redis相关配置信息。 配置字段 名称 类型 填写要求 默认值 有效值 描述 count integer 必填 count> 0 每个客户端在指定时间窗口内的总请求数量阈值。 timewindow integer 必填 timewindow> 0 时间窗口的大小(以秒为单位)。超过该属性定义的时间,则会重新开始计数。 rejectedcode integer 可选 429 [200,599] 当请求超过阈值被拒绝时,返回的 HTTP 状态码。 keytype string 可选 "var" ["var", "varcombination", "constant"] key 的类型。 key string 可选 "remoteaddr" 用来做请求计数的依据。如果 keytype 为 var,则 key 将被解释为变量。变量不需要以美元符号($)为前缀。如果 keytype 为 varcombination,那么 key 会被当作变量组合,所有变量都应该以美元符号 ($) 为前缀。如 $remoteaddr $consumername,插件会同时受 $remoteaddr 和 $consumername 两个变量的约束;如果 keytype 为 constant,那么 key 会被当作常量。如果 key 的值为空,$remoteaddr 会被作为默认 key。 rejectedmsg string 可选 非空 当请求超过阈值被拒绝时,返回的响应体。 showlimitquotaheader boolean 可选 true 当设置为 true 时,在响应头中显示 XRateLimitLimit(限制的总请求数)和 XRateLimitRemaining(剩余还可以发送的请求数)字段。 group string 可选 非空 对多个API设置相同 group,则路由可以共享相同的速率限制计数器。注意同一个group下的插件配置值需相同。 policy string 可选 "local" ["local","redis"] 速率限制计数器的策略。如果是 local,则计数器存储在本地内存中,按照单个实例节点计数。如果是 redis,则计数器存储在 Redis 实例上,按照实例集群计数。 redishost string 当 policy 为 redis 时必填 Redis 节点的地址。 redisport integer 当 policy 为 redis 时必填 6379 [1,65535] Redis 节点的端口。 redisusername string 可选 如果使用 Redis ACL,则为 Redis 的用户名。如果使用旧式身份验证方法 requirepass,则仅配置 redispassword。 redispassword string 可选 Redis 节点的密码。
        来自:
        帮助文档
        云原生API网关
        用户指南
        AI网关
        插件市场
        平台插件
        流量管控
        limit-count插件
      • injection插件
        名称 类型 填写要求 默认值 有效值 描述 abort object abort与delay至少配置一个 abort 属性将直接返回给客户端指定的响应码并且终止其他插件的执行。 delay object abort与delay至少配置一个 delay 属性将延迟某个请求,并且还会执行配置的其他插件。
        来自:
      • Trae(1)
        在Trae IDE(个人版)安装Cline插件 由于在 Trae (个人版) 不支持通过自定义模型的方式接入兼容 OpenAI 协议的 API,所以无法直接在Trae IDE中配置天翼云息壤API,可以通过安装插件Cline来解决,具体安装和使用方式,可以参考Cline插件使用。
        来自:
      • Cline(1)
        安装 Cline 插件 打开插件市场 1. 打开 VS Code 2. 点击左侧插件市场图标 3. 在搜索框中输入 Cline 4. 找到 Cline 扩展 安装插件 1. 点击 Install 按钮进行安装 2. 安装完成后,选择信任开发者 配置 API 设置 选择 API Key 方式 选择 Bring my own API key 填入配置信息 请按照以下配置填入相关信息: API Provider:选择 OpenAI Compatible Base URL:输入 API Key:填入您的 API Key Model ID:输入您希望使用的模型,如 GLM5Pro 等 其他配置:取消勾选 Support Images 调整 Context Window Size 为 200000 根据您的任务需求调整 temperature 等其它参数 开始使用 配置完成后,您可以在输入框中输入需求,让模型帮助您完成各种任务。
        来自:
      • Chatbox(1)
        第一步:访问链接:++ 第二步:点击Setting,添加OpenAI API Compatible添加天翼云。 配置Api Host、API path、API key和Model,配置完成后点击check校验配置是否生效。 第三步:配置成功后,回到主页,选择new chat,即可使用刚配置的模型。
        来自:
      • OpenClaw(1)
        方式二:通过终端修改配置文件(适用于Windows 、mac 系统、Linux系统) 1. 在终端执行以下命令打开配置文件 Mac系统和Linux系统执行以下命令: plaintext nano ~/.openclaw/openclaw.json Windows系统执行以下命令(Windows系统推荐优先使用方式一): plaintext notepad %USERPROFILE%.openclawopenclaw.json 2. 复制以下内容(以GLM5Pro为例)到配置文件。将YOURAPIKEY替换为服务组的API Key。 plaintext { "models": { "mode": "merge", "providers": { "xirang": { "baseUrl": " "apiKey": "YOURAPIKEY", "api": "openaicompletions", "models": [ { "id": "GLM5Pro", "name": "GLM5Pro", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "DeepSeek‑V3.2‑Pro", "name": "DeepSeek‑V3.2‑Pro", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 16384 } ] } } }, "agents": { "defaults": { "model": { "primary": "xirang/GLM5Pro" }, "models": { "xirang/DeepSeekV3.2Pro": {}, "xirang/GLM5Pro": {} } } }, "gateway": { "mode": "local" } }
        来自:
      • Cursor
        本文为您介绍编码套餐接入Cursor的详细步骤。 第一步:创建新 Provider/Model 在 Cursor 中,打开 “Models” 部分,并点击 “Add Custom Model” 按钮。 选择 OpenAI 协议。 配置 OpenAI API Key。 在 Override OpenAI Base URL 中,将默认 URL 替换: 输入您希望使用的模型,如 GLM5, GLM4.7, GLM4.6等。 第二步:开始使用 按照上面步骤, Cursor 已经配置完成,可在对话框中进行编程测试。
        来自:
      • Trae(1)
        本文为您介绍编码套餐接入Trae的详细步骤。 在Trae IDE(个人版)安装Cline插件 由于在 Trae (个人版) 不支持通过自定义模型的方式接入兼容 OpenAI 协议的 API,所以无法直接在Trae IDE中配置天翼云息壤API,可以通过安装插件Cline来解决,具体安装和使用方式,可以参考Cline插件使用。
        来自:
      • OpenClaw(2)
        方式二:通过终端修改配置文件(适用于Windows 、mac 系统、Linux系统) 1. 在终端执行以下命令打开配置文件 Mac系统和Linux系统执行以下命令: plaintext nano ~/.openclaw/openclaw.jsonWindows 系统执行以下命令(Windows系统推荐优先使用方式一): plaintext notepad %USERPROFILE%.openclawopenclaw.json 2. 复制以下内容(以GLM MAX(旗舰版)为例)到配置文件。将YOURAPIKEY替换为你购买的编程套餐专属的API Key。 plaintext { "models": { "mode": "merge", "providers": { "xirang": { "baseUrl": " "apiKey": "YOURAPIKEY", "api": "openaicompletions", "models": [ { "id": "GLM5", "name": "GLM5", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM5Turbo", "name": "GLM5Turbo", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM5.1", "name": "GLM5.1", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM4.7", "name": "GLM4.7", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM4.6", "name": "GLM4.6", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM4.5", "name": "GLM4.5", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 65536 }, { "id": "GLM4.5Air", "name": "GLM4.5Air", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 4096 } ] } } }, "agents": { "defaults": { "model": { "primary": "xirang/GLM5" }, "models": { "xirang/GLM5": {}, "xirang/GLM5Turbo": {}, "xirang/GLM5.1": {}, "xirang/GLM4.7": {}, "xirang/GLM4.6": {}, "xirang/GLM4.5": {}, "xirang/GLM4.5Air": {} } } }, "gateway": { "mode": "local" } } 注意 配置models下的id 和 modelname 来源于当前购买套餐的可用模型,以下配置以GLM MAX(旗舰版)为例,不同编码套餐需要置换为不同的模型名称
        来自:
      • MCP工具-文件搜索
        本节介绍MCP工具文件搜索的使用方法。 在日常办公、项目协作等场景下,当用户需要快速找到特定文件(如项目方案、合同文档等),但不确定文件具体存储位置时,可通过该功能,从多个入口快速进入搜索界面,精准查找文件。 注意:工具入口仅对开通企业智库的租户成员开放此入口 【操作步骤】 1. 对话页面点击工具入口,进入MCP工具; 注意 首次使用会进行插件安装,可以在 设置工具 查看安装情况。 2. 勾选需要搜索的文件范围,支持本机云电脑、其他云电脑和翼共享搜索。 3. 在对话框输入需要搜索的文件名关键词进行搜索,在对话列表页面查看搜索结果。安设备进行搜索结果分类,可以云智助手中支持打开对应路径和打开文件。 4. 关闭工具,可以在设置工具页面,查看插件安装状态和关闭工具入口。
        来自:
        帮助文档
        天翼云电脑(政企版)
        云智助手
        使用模式用户指南
        AI工具
        MCP工具-文件搜索
      • OpenClaw x 钉钉构建你的个人助手(1)
        本文介绍如何使用ECX部署OpenClaw钉钉机器人。 注意 配置钉钉机器人之前,请先确保已经购买ECX虚拟机并配置大模型服务。具体操作步骤,可参考指引:使用ECX部署OpenClaw。 创建钉钉机器人并获取配置 1、登录++钉钉开发者平台++。 2、创建应用。 3、创建机器人应用能力。 点击应用能力添加应用能力,选择机器人。 配置相关信息,消息接受模式选择Stream模式。 点击凭证与基础信息,获取并保存钉钉的Clinet ID 和 Client Secret 用于配置云主机信息。 注意 钉钉机器人有重名校验,若因名称不合法导致提交失败,可通过钉钉客服机器人进行名称校验及名称生成。 配置OpenClaw 钉钉助手 1、登录虚拟机,执行以下命令,将钉钉配置录入OpenClaw。 plaintext openclaw config set gateway.http.endpoints.chatCompletions.enabled true plaintext openclaw config set channels.dingtalkconnector '{ "gatewayToken": " ", "clientId": " ", "clientSecret": " ", "enabled": true }' 2、执行以下命令,重启gateway。 plaintext openclaw gateway restart 3、进入版本管理与发布,发布刚刚创建的应用及机器人配置。 4、点击开发配置权限管理,添加权限Card.Streaming.Write、Card.Instance.Write。
        来自:
      • 使用ECX部署OpenClaw(1)
        购买大模型服务并获取配置 1、登录++天翼云息壤一体化智算服务平台++。 2、进入++服务接入++,创建服务组。 3、点击【+创建服务组】。 配置服务组名称等信息,建议勾选全部服务,点击提交创建服务组。 点击刚刚创建的服务组,查看详情。 获取App Key、App ID、模型调用地址、模型ID等信息。 4、配置并启用模型服务。 登录虚拟机,执行以下命令,配置大模型。 shell openclaw config set 'models.providers.ctyun' json '{ "baseUrl": " ", "apiKey": " ", "api": "openaicompletions", "models": [ { "id": " ", "name": " ", "reasoning": false, "input": ["text"], "contextWindow": 65536, "maxTokens": 65536 }, { "id": " ", "name": " ", "reasoning": false, "input": ["text"], "contextWindow": 65536, "maxTokens": 65536 } ] }' 配置启用的大模型。 shell openclaw config set agents.defaults.model.primary " " openclaw config set agents.defaults.models.[ctyun/ ] {} 执行如下命令,重启openclaw gateway,使大模型配置生效。 shell openclaw gateway restart
        来自:
      • 数据集存储(1)
        本节介绍数据集存储容量。 数据集当前支持对象存储和并行文件两种类型。 对象存储 因对象存储产品本身不支持容量管理,因此数据集也无法进行容量管理。 并行文件 纳管并行文件类型数据集,其数据集容量和并行文件实例保持一致,在购买并行文件实例时,可以选择其容量。
        来自:
      • 导入数据集(1)
        三、自定义 自定义数据集即纳管数据集,支持将已有数据(对象存储或并行文件)进行纳管。 对象存储纳管 选择对象存储Bucket,并填写需要纳管的具体文件存储路径,点击提交按钮即可 并行文件纳管 选择并行文件存储实例,并填写需要纳管的具体文件存储路径,点击提交按钮即可
        来自:
      • 管理开发机(1)
        状态 描述信息 创建中 创建开发机的配置信息 已创建 开发机任务已提交 运行中 开发机已创建完成并正常运行,需等到“访问”按钮可点击后能远程访问 停止 开发机已停止,停止实例后未保存到持久化存储中的数据将丢失
        来自:
      • 调度策略(1)
        功能 描述 在分布式计算场景需要一组Pod紧密协作,Gang scheduling策略可在并发系统中将多个相关联的进程调度到不同处理器上同时运行。最主要的原则是保证所有相关联的进程能够同时启动,防止部分进程的异常,避免整个关联进程组的阻塞。这种AllorNothing调度场景,就被称作Gang scheduling。CCSE提供Gang scheduling功能保障相关联的进程的同时启动和失败,防止因部分失败导致整个任务阻塞的情况。 Capacity Scheduling 在多用户共用集群的环境,如果仅仅依赖于Kubernetes的ResourceQuota机制来划分固定资源,由于每个用户对资源的需求和使用模式各异,这往往会导致集群资源未能被充分利用,从而降低了资源的整体使用效率。为了解决这一问题,CCSE创新性地引入了弹性配额组的概念。这种Capacity Scheduling功能在保障各用户获得其所需资源的同时,通过资源的动态共享,有效地提升了整个集群的资源使用效率。
        来自:
      • GPU共享调度(1)
        单位为MiB,此处代表申请 2000MiB 显存 步骤3:验证显存隔离能力。 远程登录到刚刚创建的pod。 shell kubectl exec it bash 执行nvidiasmi查看显存大小,预期输出如下: shell [root@gpusharetest77db5c96cdghl9b /] nvidiasmi Mon Nov 25 08:10:08 2024 + NVIDIASMI 550.54.14 Driver Version: 550.54.14 CUDA Version: 12.4 +++ GPU Name PersistenceM BusId Disp.A Volatile Uncorr. ECC Fan Temp Perf Pwr:Usage/Cap MemoryUsage GPUUtil Compute M. MIG M. ++ 0 NVIDIA A10 On 00000000:00:06.0 Off 0 0% 33C P8 21W / 150W 0MiB / 2000MiB 0% Default N/A +++ 场景二:显存隔离和算力限制 步骤1:节点配置共享GPU调度标签 shell kubectl label no ccse.node.gpu.schedulecoremem 步骤2:提交任务,任务YAML如下: shell apiVersion: apps/v1 kind: Deployment metadata: name: gpusharetest namespace: default spec: replicas: 1 selector: matchLabels: app: gpusharetest template: metadata: labels: app: gpusharetest spec: containers: name: gpusharetest image: deeplearningexamples:v3 command: sleep 1h resources: limits: ctyun.cn/gpucore.percentage: "10"
        来自:
      • Gang Scheduling调度(1)
        本节介绍Gang scheduling调度。 通过使用 Gang scheduling 能力,可有效解决原生调度器无法支持 AllorNothing 作业调度的问题。 前提条件 已安装智算套件。 背景信息 Gang scheduling 是一种保证一组相关任务同步执行的调度策略,多个任务的作业调度时,要么全部成功,要么全部失败,这种调度场景,称作为Gang scheduling。其中一个经典使用场景是分布式机器学习训练:在大规模机器学习模型的训练中,数据可能被分布到多个节点上,每个节点都需要运行一个模型的副本。这些模型副本需要同时开始训练,以保证参数更新的同步。随着大规模和复杂的工作负载在Kubernetes上的普及,需要对应的调度策略适配这种场景,避免资源浪费和延迟。由于Kubernetes的核心调度器默认不支持Gang scheduling,使得一些工作负载无法很好地迁移至Kubernetes。为了适配这种场景,目前的云容器引擎基于调度器框架实现Gang scheduling功能,可以在云容器引擎中非常方便使用该能力。 功能介绍 为了实现AllorNothing的特性,首先需要将一组同时调度的Pod通过annotations标识出来,这个标识可称为PodGroup。提交作业的时候调度器可根据工作负载的相关annotations,获取调度的配置并进行调度。只有当集群资源满足该任务最少运行个数时,才会统一调度,否则作业将一直处于Pending状态。 使用方法 下面使用kubeflow的TFJob作为例子展示Gang scheduling的能力。 plaintext apiVersion: "kubeflow.org/v1" kind: TFJob metadata: name: gangexample spec: tfReplicaSpecs: Worker: replicas: 2 restartPolicy: OnFailure template: spec: schedulerName: roc
        来自:
      • 装箱调度(Binpack)(1)
        本节介绍装箱调度(Binpack)。 装箱调度介绍 装箱调度(Binpack)是一种追求资源高效利用的调度算法,其核心目标是尽可能减少整体资源的浪费。在处理集群中的任务分配时,该算法会智能地将Pod分配到那些已经有一定资源消耗的节点上,以此来减少资源的闲置和碎片化。通过采用装箱调度策略,调度器会优先考虑那些资源使用率较高的节点,将新的Pod部署到这些节点上,而不是选择资源使用率低的节点。这样做的目的是为了避免某些节点资源过载而其他节点资源闲置的情况发生。 在实际操作中,装箱调度有助于提高集群的资源利用率,因为它能够确保资源在整个集群中得到更加均匀和合理的分配。这种方法尤其适用于那些对资源消耗有严格要求的场景,能够帮助集群管理员更有效地管理和优化集群的性能。 前提条件 安装智算套件 装箱调度原理 Binpack 调度策略的打分算法会根据Binpack插件自身权重和各资源设置的权重值综合打分。首先,对Pod请求资源中的每类资源依次打分,以CPU为例,CPU资源在待调度节点的得分信息如下: cpu.weight (request + used) / allocatable 即CPU权重值越高 或者 节点使用率高,得分越高。Memory、GPU等资源原理类似。最后节点得分等于所有资源的得分之和,根据计算出的节点得分,调度器会优选出最优节点进行调度。
        来自:
      • 管理训练任务(1)
        状态 描述信息 创建中 创建训练任务的配置信息 已创建 训练任务已提交 运行中 训练任务已创建完成并正常运行 已停止 训练已停止 成功 训练任务运行成功并退出 失败 训练任务执行出错
        来自:
      • DMS助手
        操作步骤 1. 登录数据管理服务。 2. 点击右上角的DMS助手图标。 智能问答 发送消息(问题):您可以在底下的输入框中输入您的问题。完成输入后,请点击按钮,DMS助手将立即接收并处理您的问题。 说明 单个对话具有上下文特性,如果您在同一个对话中发送了一系列消息,DMS助手会基于当前对话的历史消息提供连贯的回答。 反馈回答质量:如果您对DMS助手提供的回答感到满意或不满意,可以通过点击回答内容下方相应的或按钮来反馈回答的质量。 复制回答内容:如果需要,您可以点击按钮来复制DMS助手给出的回答内容。 重新提问:若您想重新提问或对之前的问题进行修改,点击回答内容下方的重新提问按钮,可以将上一次的提问复制回输入框,方便您进行编辑。 终止生成:如果您对正在生成的回答不满意,可以点击对话框下方的 终止生成,DMS助手将立即停止生成回答,并准备接收您的新问题。 关闭/固定对话框:默认情况下,对话框在失去焦点时会关闭,但您可以点击对话框右上角的按钮来保持其固定。这样,您可以随时返回对话框,继续之前的对话或查看信息。同时,你也可以通过点击对话框右上角按钮来关闭对话框。
        来自:
        帮助文档
        数据管理服务
        用户指南
        AI智能
        DMS助手
      • 高可用策略管理
        本节介绍高可用策略管理。 “高可用策略管理”页面可查看高可用策略信息,并对高可用策略进行“新建”、“修改”、“删除”和查看“详情”。 新建高可用策略 1.进入“云电脑(政企版)”管理控制台; 2.选择菜单“高可用管理””高可用策略管理“; 3.单击“新建”,进入新建高可用策略页面; 4.填写策略名称; 5.选择策略规则; “全系统高可用”,对云电脑全系统数据提供高可用。 “自定义高可用”,可配置高可用路径和文件排除规则。 6.确认相关的配置信息,单击“确认提交”即可。 删除高可用策略 对未绑定云电脑的高可用策略进行删除。 1.进入“云电脑(政企版)”管理控制台; 2.选择菜单“高可用管理””高可用策略管理“; 3.单击“删除”,弹出删除窗口; 4.确认信息,单击“确定”即完成删除。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        高可用AI云电脑
        管理员指南
        高可用策略管理
      • 脱密审批流程设置
        本节介绍管理员可以自定义设置脱密申请的审批流程。 云电脑内的加密文件如需外发,需要经过审批,管理员可以自定义设置脱密申请的审批流程。 部门领导审批 1.打开“组织管理”—“审批流程”; 2.点击“分管设置”,设置租户内各个部门的分管人员。部门内用户提交的脱密申请将由分管人员审批。 部门的分管人员若设置了多个,则部门内人员提交的脱密申请,按该部门分管人员列表从上到下的顺序进行审批。 若配置分管人员时发现部门人员与当前组织架构不符,可点击列表右上方的“同步组织机构”进行更新。 除此之外,脱密审批流程支持更加灵活的自定义配置。在“流程配置”中找到企业加密流程,点击“编辑”进行修改。 审批流程设置 当管理员开启了脱密审批功能,系统将自动配置一个默认审批流程规则:默认配置只有一个流程审批节点,审批人为提交人的上级主管(如存在多个主管时默认第一个主管审批,如未配置主管流程会自动通过)。 如果业务需要自定义流程审批规则,管理员可以根据实际情况自行修改审批流程设置。常用的审批节点有6种:流程开始节点、流程结束节点、审批节点、抄送节点、经办节点、汇合点。其中流程开始节点和流程结束节点为系统默认放置的两个节点,不可删除。 下面我们以最常用的审批节点为例进行配置说明。
        来自:
        帮助文档
        天翼云电脑(政企版)
        扩展功能
        翼加密
        管理员指南
        加密AI云电脑
        脱密审批流程设置
      • 模型服务最佳实践
        本文介绍模型服务的最佳实践。 关于开发者通过对话工具(比如Chatbox、CherryStudio等)以OpenAIAPIcompatible的方式快速添加使用模型的实践,请参考DeepSeek模型调用快捷版。 关于开发者以OpenAIAPIcompatible接口方式集成调用模型的实践,请参考DeepSeek模型调用专业版。
        来自:
        帮助文档
        AI Store
        最佳实践
        模型服务最佳实践
      • Trae
        本文为您介绍编码套餐接入Trae的详细步骤。 在Trae IDE(个人版)安装Cline插件 由于在 Trae (个人版) 不支持通过自定义模型的方式接入兼容 OpenAI 协议的 API,所以无法直接在Trae IDE中配置天翼云息壤API,可以通过安装插件Cline来解决,具体安装和使用方式,可以参考Cline插件使用。
        来自:
        帮助文档
        Token服务(原模型推理服务)
        用户指南
        编码套餐
        接入AI工具
        Trae
      • Cline
        本文为您介绍编码套餐接入Cline的详细步骤。 安装 Cline 插件 打开插件市场 1. 打开 VS Code 2. 点击左侧插件市场图标 3. 在搜索框中输入 Cline 4. 找到 Cline 扩展 安装插件 1. 点击 Install 按钮进行安装 2. 安装完成后,选择信任开发者 配置 API 设置 选择 API Key 方式 选择 Bring my own API key 填入配置信息 请按照以下配置填入相关信息: API Provider:选择 OpenAI Compatible Base URL:输入 API Key:填入您的 API Key Model ID:输入您希望使用的模型,如 GLM5, GLM4.7, GLM4.6等 其他配置:取消勾选 Support Images 调整 Context Window Size 为 200000 根据您的任务需求调整 temperature 等其它参数 开始使用 配置完成后,您可以在输入框中输入需求,让模型帮助您完成各种任务。
        来自:
        帮助文档
        Token服务(原模型推理服务)
        用户指南
        编码套餐
        接入AI工具
        Cline
      • Trae
        在Trae IDE(个人版)安装Cline插件 由于在 Trae (个人版) 不支持通过自定义模型的方式接入兼容 OpenAI 协议的 API,所以无法直接在Trae IDE中配置天翼云息壤API,可以通过安装插件Cline来解决,具体安装和使用方式,可以参考Cline插件使用。
        来自:
        帮助文档
        Token服务(原模型推理服务)
        用户指南
        Token Plan
        接入AI工具
        Trae
      • Cline
        安装 Cline 插件 打开插件市场 1. 打开 VS Code 2. 点击左侧插件市场图标 3. 在搜索框中输入 Cline 4. 找到 Cline 扩展 安装插件 1. 点击 Install 按钮进行安装 2. 安装完成后,选择信任开发者 配置 API 设置 选择 API Key 方式 选择 Bring my own API key 填入配置信息 请按照以下配置填入相关信息: API Provider:选择 OpenAI Compatible Base URL:输入 API Key:填入您的 API Key Model ID:输入您希望使用的模型,如 GLM5Pro 等 其他配置:取消勾选 Support Images 调整 Context Window Size 为 200000 根据您的任务需求调整 temperature 等其它参数 开始使用 配置完成后,您可以在输入框中输入需求,让模型帮助您完成各种任务。
        来自:
        帮助文档
        Token服务(原模型推理服务)
        用户指南
        Token Plan
        接入AI工具
        Cline
      • Cursor
        第一步:创建新 Provider/Model 在 Cursor 中,打开 “Models” 部分,并点击 “Add Custom Model” 按钮。 选择 OpenAI 协议。 配置 OpenAI API Key。 在 Override OpenAI Base URL 中,将默认 URL 替换: 输入您希望使用的模型,如GLM5Pro等。 第二步:开始使用 按照上面步骤, Cursor 已经配置完成,可在对话框中进行编程测试。
        来自:
        帮助文档
        Token服务(原模型推理服务)
        用户指南
        Token Plan
        接入AI工具
        Cursor
      • OpenClaw
        本文为您介绍编码套餐接入OpenClaw的详细步骤。 OpenClaw 添加模型配置 方式一:通过Web UI修改配置文件(适用于Windows或者Mac系统) 1. 在终端执行以下命令打开 Web UI。 plaintext openclaw dashboard 2. 在Web UI的左侧菜单栏中选择 “配置”> “All Settings” > “RAW”。 3. 复制以下内容(以GLM MAX(旗舰版)为例)到Raw JSONS输入框,替换已有内容,并将YOURAPIKEY替换为为你购买的编程套餐专属的API Key。 注意 配置models下的id和modelname来源于您当前购买实际套餐的可用模型,以下示例配置以GLM MAX(旗舰版)为例,不同编码套餐支持调用的模型不一样 plaintext { "models": { "mode": "merge", "providers": { "xirang": { "baseUrl": " "apiKey": "YOURAPIKEY", "api": "openaicompletions", "models": [ { "id": "GLM5", "name": "GLM5", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM5Turbo", "name": "GLM5Turbo", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM5.1", "name": "GLM5.1", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM4.7", "name": "GLM4.7", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM4.6", "name": "GLM4.6", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "GLM4.5", "name": "GLM4.5", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 65536 }, { "id": "GLM4.5Air", "name": "GLM4.5Air", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 131072, "maxTokens": 4096 } ] } } }, "agents": { "defaults": { "model": { "primary": "xirang/GLM5.1" }, "models": { "xirang/GLM5": {}, "xirang/GLM5Turbo": {}, "xirang/GLM5.1": {}, "xirang/GLM4.7": {}, "xirang/GLM4.6": {}, "xirang/GLM4.5": {}, "xirang/GLM4.5Air": {} } } }, "gateway": { "mode": "local" } } 4. 点击右上角 Save 保存,再点击 Update 使配置生效,保存成功后,apiKey将显示为“OPENCLAWREDACTED”。由于脱敏保护,仅在前端界面隐藏,不影响实际调用。
        来自:
        帮助文档
        Token服务(原模型推理服务)
        用户指南
        编码套餐
        接入AI工具
        OpenClaw
      • 访问控制
        本文介绍如何创建和管理访问控制策略。 创建访问控制策略,具体可参考创建访问控制策略。 访问控制策略管理,具体可参考访问控制策略管理。
        来自:
      • 1
      • 2
      • ...
      • 59
      • 60
      • 61
      • 62
      • 63
      • 64
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      云聚517 · 好价翼起拼

      爆款云主机低至25.83元/年,参与拼团享更多优惠,拼成得额外优惠券

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      产品推荐

      多活容灾服务 MDR

      GPU云主机

      镜像服务 IMS

      弹性伸缩服务 AS

      训推服务

      AI Store

      Token服务

      科研助手

      一站式智算服务平台

      推荐文档

      续订

      迁移准备

      天翼云进阶之路⑦:怎么设置sql2008数据库最大服务器内存

      如何充值?

      卸载磁盘

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号