活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 安全隔离版OpenClaw NEW OpenClaw云服务器专属“龙虾“套餐低至1.5折起
  • 聚力AI赋能 天翼云大模型专项 大模型特惠专区·Token Plan 轻享包低至9.9元起
  • 青云志云端助力计划 NEW 一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云
  • 企业出海解决方案 NEW 助力您的业务扬帆出海,通达全球!
  • 天翼云信创专区 NEW “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富
  • 中小企业服务商合作专区 国家云助力中小企业腾飞,高额上云补贴重磅上线
  • 云上钜惠 爆款云主机全场特惠,2核4G只要1.8折起!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

息壤智算

领先开放的智算服务平台,提供算力、平台、数据、模型、应用“五位一体”智算服务体系,构建全流程的AI基础设施能力
AI Store
  • 算力市场
  • 模型市场
  • 应用市场
公共算力服务
  • 裸金属
  • 定制裸金属
训推服务
  • 模型开发
  • 训练任务
  • 服务部署
Token服务
  • 模型广场
  • 体验中心
  • 服务接入
应用托管
  • 应用实例
科研助手
  • 科研智能体
  • 科研服务
  • 开发机
  • 并行计算
大模型
  • DeepSeek-V4-Flash
  • GLM-5.1
  • Qwen3.5-122B-A10B
  • DeepSeek-V3.2(旗舰版)
  • GLM-5(正式版)
智算一体机
  • 智算一体机
智能体引擎
  • 智能体引擎
智算安全专区
  • 大模型安全评测
  • 大模型安全护栏
模型适配专家服务
  • 模型适配专家服务
算力服务商
  • 入驻算力服务商

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场进入AI Store创新解决方案公有云生态专区智云上海应用生态专区
建站工具
  • 新域名服务
  • SSL证书
  • 翼建站
企业办公
  • 安全邮箱
  • WPS 365 天翼云版
  • 天翼企业云盘(标准服务版)
灾备迁移
  • 云管家2.0
  • 翼备份(SaaS版)

定价

协助您快速了解云产品计费模式、价格详情,轻松预估上云成本
价格计算器
  • 动态测算产品价格
定价策略
  • 快速了解计费模式

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼信创云专区
  • 信创云专区
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
培训与认证
  • 天翼云学堂
  • 天翼云认证
开源社区
  • 魔乐社区
  • OpenTeleDB

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 服务保障
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家
我要反馈
  • 建议与反馈
  • 用户体验官
信息公告
  • 客户公告

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2026智能云生态大会
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 息壤智算
  • 产品
  • 解决方案
  • 应用商城
  • 定价
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      AI创作间_相关内容
      • MindIE NPU多机推理(1)
        本节介绍如何创建MindIE NPU多机推理任务。 本示例基于 MindIE 推理框架,选用 DeepSeekV3.1w8a8c8QuaRot 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 8 张 NPU 卡,因此本任务共使用 2 台机器、16 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 应用数:1 配置信息 推理类型选择多机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架: ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:DeepSeekV3.1w8a8c8QuaRot 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • OpenCode(1)
        配置模型 请在以下路径创建并打开配置文件 opencode.json: macOS / Linux: ~/.config/opencode/opencode.json Windows: C:Users您的用户名.configopencodeopencode.json 将以下配置写入文件,关键配置项: YOURAPIKEY为你服务组的API Key。 models的配置则为 来源于您当前实际可用的模型,以下示例配置以GLM5Pro为例。 plaintext { "$schema": " "provider": { "xirang": { "npm": "@aisdk/openaicompatible", "name": "xirang", "options": { "baseURL": " "apiKey": "YOURAPIKEY" }, "models": { "GLM5Pro": { "name": "GLM5Pro" }, "DeepSeekV3.2Pro": { "name": "DeepSeekV3.2Pro" } } } }, "model": "xirang/GLM5Pro", "smallmodel": "xirang/GLM5Pro" } 运行 opencode 启动 OpenCode 在命令行中输入以下命令: plaintext $ opencode 使用 /models 命令来选择模型,例如 GLM5。 plaintext /models
        来自:
      • vLLM GPU多机推理
        本节介绍如何创建vLLM GPU多机推理任务。 本示例基于 vLLM 推理框架,选用 deepseekr1distillqwen7b 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 1 张 GPU 卡,因此本任务共使用 2 张 GPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件 > AI应用管理 > 队列管理,确保队列存在并且有足够的资源(GPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 1. 进入智算套件 > AI应用列表 > 在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 应用数:1 配置信息 推理类型选择多机,推理框架、框架版本、推理模型、模型版本根据实际情况选择即可。简单的示例: 推理框架:nvidiavllm 框架版本:v0.11.2 推理模型:deepseekr1distillqwen7b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
        帮助文档
        智算套件
        用户指南
        推理应用
        创建推理应用
        vLLM GPU多机推理
      • vLLM NPU多机推理(1)
        本节介绍如何创建vLLM NPU多机推理。 本示例基于 vLLM 推理框架,选用 deepseekr1distillqwen7b 模型进行多机部署。整体部署 1 个推理应用实例,由 1 个 master + 1 个 worker 角色组成,每个角色占用 1 张 NPU 卡,因此本任务共使用 2 张 NPU 卡,用于验证模型在多机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 应用数:1 配置信息 推理类型选择多机,推理框架、框架版本、推理模型、模型版本、根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.14.0rc1 推理模型:deepseekr1distillqwen7b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 条件策略
        分配条件策略 当条件策略配置完成后,需分配至对应的桌面。 1.进入“AI云电脑(政企版)”管理控制台; 2.点击左侧菜单“策略管理”“条件策略”,进入条件策略管理页面; 3.点击“分配”,选择需要分配策略的桌面; 4.选择需要分配的桌面,点击“完成”即可。 删除条件策略 1.进入“AI云电脑(政企版)”管理控制台; 2.点击左侧菜单“策略管理”“条件策略”,进入条件策略管理页面; 3.在需要删除的策略所在行,单击“删除”,弹出“删除策略”对话框; 4.单击“确定”,即完成条件策略的删除。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        策略管理
        条件策略
      • Redis 5.0支持的新特性说明
        项目 Stream Pub/Sub 持久化 支持 不支持 消费分组 支持 不支持 消费确认 支持 不支持 性能 与客户端数量无关,性能非常好 客户端多的时候,性能会出现明显的下降 数据隔离 DB间数据互相独立 不同DB的数据能互相看到,不独立
        来自:
        帮助文档
        分布式缓存服务Redis版
        常见问题
        实例类型/版本
        Redis 5.0支持的新特性说明
      • WAF防护概述
        防护模块防护顺序 WAF不同防护模块用于防护不同的安全场景,当所有模块都开启时,模块之间会存在防护的先后顺序,从而实现高效的安全防护。 天翼云WAF各模块间防护顺序如下:
        来自:
        帮助文档
        Web应用防火墙(原生版)
        用户指南
        防护配置
        WAF防护概述
      • OpenViking接入指引
        本节介绍OpenViking接入指引。 OpenViking 是专为 AI 智能体设计开发的开源上下文管理工具。它通过定义极简的上下文交互范式,将 Agent 的记忆、资源和技能统一组织为层级化结构,支持 L0/L1/L2 分层上下文加载,有效降低 Token 消耗并提升长期记忆能力。该工具能够解决传统上下文碎片化、检索效果不佳等问题,使 Agent 开发更加简洁、可扩展且具备自进化能力。通常作为 OpenClaw 等框架的插件或扩展使用,适用于构建企业知识库、智能问答系统等场景。 启用 OpenViking 1. 修改 OpenViking 配置; 配置文件路径: Windows:C:UsersAdministrator.openvikingov.conf Linux:/home/ctyun/.openviking/ov.conf 请配置 Embedding 模型和 VLM 模型。使用天翼云 OpenClaw 云电脑默认模型时,配置示例如下(请替换为您的实际 APIKEY): plaintext "embedding": { "dense": { "provider": "openai", "apikey": "YOURAPIKEY", "model": "openclawctyunsmartoc", "apibase": " "dimension": 1024 } }, "vlm": { "provider": "openai", "apikey": "YOURAPIKEY", "model": "openclawctyunsmartoc", "apibase": " } YOURAPIKEY 可通过云智助手或 OpenClaw 配置文件获取,配置完成后请保存文件。 说明 自定义模型配置属于进阶操作,详细说明请参考官方文档:< 2. 修改 OpenClaw 配置; 将 plugins.slots.contextEngine 字段设置为 openviking: plaintext "slots": { "contextEngine": "openviking" } 同时配置 plugins.entries.openviking 字段: Windows 配置: plaintext "openviking": { "enabled": true, "config": { "mode": "local", "configPath": "C:UsersAdministrator.openvikingov.conf", "port": 1933 } } Linux 配置: plaintext "openviking": { "enabled": true, "config": { "mode": "local", "configPath": "/home/ctyun/.openviking/ov.conf", "port": 1933 } } 3. 重启 OpenClaw。 在终端执行以下命令: plaintext openclaw gateway restart
        来自:
        帮助文档
        天翼云电脑(政企版)
        最佳实践
        OpenClaw云电脑指南
        OpenViking接入指引
      • OpenViking接入指引
        本节介绍OpenViking接入指引。 OpenViking 是专为 AI 智能体设计开发的开源上下文管理工具。它通过定义极简的上下文交互范式,将 Agent 的记忆、资源和技能统一组织为层级化结构,支持 L0/L1/L2 分层上下文加载,有效降低 Token 消耗并提升长期记忆能力。该工具能够解决传统上下文碎片化、检索效果不佳等问题,使 Agent 开发更加简洁、可扩展且具备自进化能力。通常作为 OpenClaw 等框架的插件或扩展使用,适用于构建企业知识库、智能问答系统等场景。 启用 OpenViking 1. 修改 OpenViking 配置; 配置文件路径: Windows:C:UsersAdministrator.openvikingov.conf Linux:/home/ctyun/.openviking/ov.conf 请配置 Embedding 模型和 VLM 模型。使用天翼云 OpenClaw 云电脑默认模型时,配置示例如下(请替换为您的实际 APIKEY): plaintext "embedding": { "dense": { "provider": "openai", "apikey": "YOURAPIKEY", "model": "openclawctyunsmartoc", "apibase": " "dimension": 1024 } }, "vlm": { "provider": "openai", "apikey": "YOURAPIKEY", "model": "openclawctyunsmartoc", "apibase": " } YOURAPIKEY 可通过云智助手或 OpenClaw 配置文件获取,配置完成后请保存文件。 说明 自定义模型配置属于进阶操作,详细说明请参考官方文档:< 2. 修改 OpenClaw 配置; 将 plugins.slots.contextEngine 字段设置为 openviking: plaintext "slots": { "contextEngine": "openviking" } 同时配置 plugins.entries.openviking 字段: Windows 配置: plaintext "openviking": { "enabled": true, "config": { "mode": "local", "configPath": "C:UsersAdministrator.openvikingov.conf", "port": 1933 } } Linux 配置: plaintext "openviking": { "enabled": true, "config": { "mode": "local", "configPath": "/home/ctyun/.openviking/ov.conf", "port": 1933 } } 3. 重启 OpenClaw。 在终端执行以下命令: plaintext openclaw gateway restart
        来自:
        帮助文档
        天翼云电脑(公众版)
        OpenClaw云电脑指南
        OpenViking接入指引
      • 网络ACL
        添加出方向规则 1. 进入“AI云电脑(政企版)”管理控制台; 2. 点击“网络管理”,选择“网络ACL”,进入网络ACL管理页面; 3. 选择需添加出方向规则的ACL所在行,点击“配置规则”按钮,进入网络ACL详情页面; 4. 选择“出方向规则”,进入出方向规则管理页面; 5. 点击“添加规则”按钮,进入添加出方向规则页面; 6. 配置出方向规则的“名称”、“类型”、“策略”等信息; 7. 确认配置信息后,点击“确定”,即完成出方向规则的创建。 关联子网 1. 进入“AI云电脑(政企版)”管理控制台; 2. 点击“网络管理”,选择“网络ACL”,进入网络ACL管理页面; 3. 选择需关联子网的ACL所在行,点击“配置规则”按钮,进入网络ACL详情页面; 4. 选择“关联子网”,进入关联子网管理页面; 5. 点击“关联”按钮,进入关联子网页面; 6. 选择需要关联的子网; 7. 点击“确定”,即完成子网的关联。 关闭网络ACL 1. 进入“AI云电脑(政企版)”管理控制台; 2. 点击“网络管理”,选择“网络ACL”,进入网络ACL管理页面; 3. 选择需关闭网络ACL的所在行,点击“更多”按钮; 4. 点击“关闭”按钮,进入关闭网络ACL确认页面; 5. 点击“确定”,即完成网络ACL的关闭。 删除网络ACL 1. 进入“AI云电脑(政企版)”管理控制台; 2. 点击“网络管理”,选择“网络ACL”,进入网络ACL管理页面; 3. 选择需删除网络ACL的所在行,点击“更多”按钮; 4. 点击“删除”按钮,进入删除网络ACL确认页; 5. 点击“确定”,即完成网络ACL的删除。 说明 修改(删除)入/出方向规则、向前(向后)插入入/出方向规则、关闭(开启)入/出方向规则等操作,可参考上述类似的操作。
        来自:
        帮助文档
        天翼云电脑(政企版)
        管理员指南
        网络管理
        网络ACL
      • URL采集设置
        单个url阈值 正常调用下采样率判断优先级如下: 公共采样率(命中采)<局部采样率(若没有可忽略,命中采)<慢请求响应公共阈值(命中采)<单个url慢请求阈值(命中采)<黑名单(命中不采) 参数名称 说明 样例 慢请求响应公共阈值 用于定义全局慢请求阈值。 单位ms,默认500,支持设置0~1,000,000间的任意整数。 响应时间超过该阈值的请求将被定义为慢请求,慢请求采样率为百分百。 500 慢请求响应单个url阈值 用于定义某个url的慢请求阈值。 单位ms,默认500,支持设置0~1,000,000间的任意整数。 对于当前url而言,响应时间超过该阈值的请求将被定义为慢请求,慢请求采样率为百分百。 500 Code定义 自定义错误状态码,影响错误数展示。 业务code采集长度限制 自定义code采集长度,避免影响性能。 业务code解析 用于定义状态码的正确值。 如果设置多个业务code,那么只有所有业务code的值都满足正确值时,该url的业务code解析才会被判定为正确。 错误状态码定义 用于定义错误状态码。 错误调用下采集优先级判断如下: 业务code自定义(非正确采)<错误状态码定义(命中采) 参数名称 说明 样例 业务code采集长度限制 配置解析responseBody的长度限制,大于该长度的body不解析,防止影响性能。 默认0不采集,支持设置 0~2,000间的任意整数。 50 解析业务code的key 配置业务状态码的字段名称。 如果接口返回内容为{"errorCode":500,"errorMsg":"error msg"} 则该字段配置为errorCode。 errorCode 业务code的正确值 配置业务状态码的正确值。 如果需要设置多个正确值,可用半角逗号,隔开,所有非正确的值都会将调用链设置为错误。 200,202 错误状态码定义 配置业务状态码的错误值范围。 默认“状态码500及以上定义为错误”,允许修改为“状态码400及以上定义为错误”
        来自:
        帮助文档
        应用性能监控 APM
        用户指南
        应用列表
        应用设置
        URL采集设置
      • 分布式消息服务RocketMQ
        分布式消息服务RocketMQ是一款低成本、高可靠、高性能的消息中间件产品,兼容开源RocketMQ客户端,提供高效可靠的消息传递服务,解决分布式应用系统之间的消息数据通信难题,用于系统间的解耦,用户只需专注业务,无需部署运维,适用于电商、金融、政企等多样业务场景。
        来自:
        帮助文档
        分布式消息服务RocketMQ
      • OpenCode
        配置模型 请在以下路径创建并打开配置文件 opencode.json: macOS / Linux: ~/.config/opencode/opencode.json Windows: C:Users您的用户名.configopencodeopencode.json 将以下配置写入文件,关键配置项: YOURAPIKEY为你服务组的API Key。 models的配置则为 来源于您当前实际可用的模型,以下示例配置以GLM5Pro为例。 plaintext { "$schema": " "provider": { "xirang": { "npm": "@aisdk/openaicompatible", "name": "xirang", "options": { "baseURL": " "apiKey": "YOURAPIKEY" }, "models": { "GLM5Pro": { "name": "GLM5Pro" }, "DeepSeekV3.2Pro": { "name": "DeepSeekV3.2Pro" } } } }, "model": "xirang/GLM5Pro", "smallmodel": "xirang/GLM5Pro" } 运行 opencode 启动 OpenCode 在命令行中输入以下命令: plaintext $ opencode 使用 /models 命令来选择模型,例如 GLM5。 plaintext /models
        来自:
        帮助文档
        Token服务(原模型推理服务)
        用户指南
        Token Plan
        接入AI工具
        OpenCode
      • 应用场景
        分布式系统异步通信场景 在单体或传统大型单机应用场景中,系统涉及模块众多,接口调用错综繁杂,业务流程耦合导致系统对用户请求响应慢,可以通过将拆分子系统,并用消息队列作为子系统间的异步通信通道进行系统解耦,提升整个系统的响应速度。 数据同步和交换场景 在大中型分布式系统中,各个子系统数据需最终保持一致,比如金融业务场景,需要有可靠消息传递,能保证业务的连续性。分布式消息队列可用于子系统间的高可靠数据传递,实现两者之间数据同步和交换,降低实现难度和成本,并提供数据通道帮助触发其他的业务流程。 削峰填谷场景 在电子商务系统或大型网站,比如大型电商场景,通常会涉及到订单、支付和通知等等场景的业务处理,系统上下游处理能力存在差异,当处理能力高的系统上游突发请求超过系统下游处理能力时,系统对外呈现的服务能力为0。此时可以通过队列服务堆积请求消息,对请求消息实现削峰填谷,错峰处理,避免下游因突发流量崩溃。
        来自:
        帮助文档
        分布式消息服务RocketMQ
        产品简介
        应用场景
      • 安全策略概述
        终端安全 主要涉及终端管理相关安全能力。 模块 功能说明 合规检测 合规检测提供多项终端合规基线检测能力,企业可制定合规基线,客户端实时采集指定的办公终端属性,检测企业办公终端环境是否安全合规,帮助企业提高办公安全水位。 终端防病毒 企业管理员可以在控制台的终端防病毒页面,手动或者周期性配置病毒扫描策略,远程对员工客户端所在的环境进行扫描检测,最终在控制台对病毒进行统计和管理。 外设管控 企业管理员对员工的U盘、SD卡、外接硬盘等进行禁用、只读、审计管控,有效阻止风险入侵,有效防止文件外泄。 漏洞修复 企业员工对设备进行漏洞扫描和补丁修复,有效发现和修复设备存在的紧急漏洞,加固操作系统的安全性。 AI安全检测 支持多种 AI 应用组件漏洞检测,通过多视图查看及标记能力实现漏洞高效管理。 文件外发审计 支持对多种 AI 应用审计文件外发行为,并提取文件进行取证分析。
        来自:
        帮助文档
        边缘安全加速平台
        零信任网络服务
        安全策略
        安全策略概述
      • vLLM NPU多机PD分离
        本节介绍如何创建vLLM NPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:vLLM 开启PD分离选择 静态PD分离 配置信息 推理类型选择多机,推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。简单的示例: 推理框架: ascendvllm 框架版本:v0.11.0rc2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 NPU。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 NPU。
        来自:
        帮助文档
        智算套件
        用户指南
        推理应用
        创建推理应用
        vLLM NPU多机PD分离
      • 配置模型
        本文主要介绍XClaw 配置模型功能使用指南。 概述 XClaw 设置功能提供了一系列系统管理选项,包括重启、自动修复、恢复出厂设置、打开终端和配置模型等。本文主要介绍如何使用【配置模型】功能来设置和切换 XClaw 使用的 AI 模型。 功能项 说明 重启 重新启动 XClaw 服务 自动修复 自动诊断并修复常见问题 恢复出厂设置 将 XClaw 恢复到初始状态 打开终端 访问系统命令行终端 配置模型 设置 AI 模型参数 说明 • 配置模型功能支持切换不同的 AI 模型 • 可选择推理型(深度思考)或对话型(普通回复)模式 • 模型配置更改后可能需要重启服务生效 入口 登录应用托管控制台,进入【XClaw】菜单,点击界面右上角的【设置】按钮,即可打开设置侧边栏,然后选择【配置模型】选项。 操作步骤 1. 点击右上角的【设置】按钮,打开设置侧边栏;在设置列表中找到并点击【配置模型】选项。 2. 系统将弹出配置对话框,显示模型选项:包括模型选择、推理型/对话型切换等。 3. 根据需要选择:推理型(适合深度思考、复杂分析)或 对话型(适合普通对话、快速回复)。 4. 确认配置后,点击【确认配置】按钮保存设置;确认配置后系统自动重启服务生效。
        来自:
        帮助文档
        应用托管
        用户指南
        XClaw(内测功能)
        高级功能
        配置模型
      • OpenClaw(原Clawdbot)挂载持久化存储
        本文介绍如何为OpenClaw挂载持久化存储。 概述 OpenClaw(原Clawdbot)是一款开源的本地优先AI 代理与自动化平台。您可以通过OpenClaw将多渠道通信能力与大语言模型深度集成,创建拥有持久记忆与主动执行能力的定制化 AI 助理。本文介绍为OpenClaw挂载持久化存储。 重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。 1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。 2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。 3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。 4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。 步骤一:部署OpenClaw 1. 在应用托管部署OpenClaw,详见 通过应用托管部署OpenClaw 。 步骤二:创建存储
        来自:
      • OpenViking接入指引(1)
        本节介绍OpenViking接入指引。 OpenViking 是专为 AI 智能体设计开发的开源上下文管理工具。它通过定义极简的上下文交互范式,将 Agent 的记忆、资源和技能统一组织为层级化结构,支持 L0/L1/L2 分层上下文加载,有效降低 Token 消耗并提升长期记忆能力。该工具能够解决传统上下文碎片化、检索效果不佳等问题,使 Agent 开发更加简洁、可扩展且具备自进化能力。通常作为 OpenClaw 等框架的插件或扩展使用,适用于构建企业知识库、智能问答系统等场景。 启用 OpenViking 1. 修改 OpenViking 配置; 配置文件路径: Windows:C:UsersAdministrator.openvikingov.conf Linux:/home/ctyun/.openviking/ov.conf 请配置 Embedding 模型和 VLM 模型。使用天翼云 OpenClaw 云电脑默认模型时,配置示例如下(请替换为您的实际 APIKEY): plaintext "embedding": { "dense": { "provider": "openai", "apikey": "YOURAPIKEY", "model": "openclawctyunsmartoc", "apibase": " "dimension": 1024 } }, "vlm": { "provider": "openai", "apikey": "YOURAPIKEY", "model": "openclawctyunsmartoc", "apibase": " } YOURAPIKEY 可通过云智助手或 OpenClaw 配置文件获取,配置完成后请保存文件。 说明 自定义模型配置属于进阶操作,详细说明请参考官方文档:< 2. 修改 OpenClaw 配置; 将 plugins.slots.contextEngine 字段设置为 openviking: plaintext "slots": { "contextEngine": "openviking" } 同时配置 plugins.entries.openviking 字段: Windows 配置: plaintext "openviking": { "enabled": true, "config": { "mode": "local", "configPath": "C:UsersAdministrator.openvikingov.conf", "port": 1933 } } Linux 配置: plaintext "openviking": { "enabled": true, "config": { "mode": "local", "configPath": "/home/ctyun/.openviking/ov.conf", "port": 1933 } } 3. 重启 OpenClaw。 在终端执行以下命令: plaintext openclaw gateway restart
        来自:
      • 私网NAT网关简介
        功能项 公网NAT网关 私网NAT网关 功能 私网和公网间互通 私网和私网间互通 SNAT功能 访问公网 访问私网中的IDC或其他VPC DNAT功能 为公网提供服务 为私网中的IDC或其他VPC提供服务 互通媒介 弹性IP 中转IP
        来自:
        帮助文档
        NAT网关
        用户指南
        私网NAT网关
        私网NAT网关简介
      • (停止维护)CCE发布Kubernetes 1.13版本说明
        Kubernetes版本(CCE增强版) 版本说明 v1.13.10r0 主要特性: 负载均衡支持设置名称 4层负载均衡支持健康检查,7层负载均衡支持健康检查/分配策略/会话保持l CCE集群支持创建物理机节点(容器隧道网络) 支持AI加速型节点(搭载海思Ascend 310 AI处理器),适用于图像识别、视频处理、推理计算以及机器学习等场景 支持配置docker baseSize 支持命名空间亲和调度 支持节点数据盘划分用户空间 支持集群cpu管理策略 支持集群下的节点跨子网(容器隧道网络) v1.13.7r0 主要特性: Kubernetes同步社区1.13.7版本 支持网络平面(NetworkAttachmentDefinition)
        来自:
        帮助文档
        云容器引擎
        用户指南
        集群管理
        集群概述
        集群Kubernetes版本发布说明
        (停止维护)CCE发布Kubernetes 1.13版本说明
      • 创建数据库
        参数 说明 数据库名称 1.名称长度为164个字符,由小大写字母、数字、下划线()或中划线()组成,以字母开头,字母或数字结尾 ; 2.数据库名称不能为rdsadmin、master、msdb、tempdb、model或resource字段(不区分大小写)。 支持字符集 数据库字符集,支持的字符集包括: 1.ChinesePRCCIAS; 2.ChinesePRCCSAS; 3.ChinesePRCCIAI; 4.SQLLatin1GeneralCP1CIAS; 5.ChinesePRC90CIAI; 6.CyrillicGeneralCIAS; 7.THAICIAS。
        来自:
        帮助文档
        关系数据库SQL Server版
        用户指南
        管理数据库
        创建数据库
      • 高效的SQL计算能力
        本页介绍天翼云TeleDB数据库高效的SQL计算能力。 SQL计算能力是指根据业务SQL生成最优执行计划,通过算子下推、并行执行和RDA等技术,提升分布式执行效率。 算子下推: 在Sharding的单节点执行或当增删改查等不需要DN节点间数据交互的场景下,CN节点将SQL直接下发至DN跨节点执行。 在关联查询等需要DN节点间数据交互的场景下,CN将执行计划下发给DN,DN间通过RDA网络框架完成数据重分布。 并行执行:节点间支持DDL、DML等SQL语句并行执行;节点内支持基于数据页的并行查询。 RDA( Remote Data Access ):RDA模块实现的重分布逻辑分为三个模块,分别是RDA算子模块,Backend和Forwarder模块之间通信的内存管理模块,网络通信模块Forwarder。 RDA(Remote Data Access)算子是指进行远程数据访问的数据库算子。其生命周期中包括RDAInit、RDAExec和RDAEnd。 RDAInit:在RDAInit阶段,初始化RDA算子所需的资源,包括数据缓冲区和共享内存文件,把共享内存文件名通过Socket发送给本节点forwarder进程。 RDAExec:在RDAExec阶段,RDA算子需要完成两方面的工作:1.数据在集群范围内的分发,每扫到数据,则按重分布键计算Dest节点,确定相应共享内存对象和缓冲区;先尝试把数据写共享内存,供forwarder进程读取;若写失败,则写缓冲区。2.算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDAEnd:在RDAEnd阶段,关闭RDA算子资源,包括通知本地forwarder进程结束共享内存数据监听、清理算子使用的缓冲区、关闭共享内存文件,然后结束算子运行。使用64位的全局sequence作为RDA算子的名字,sequence名字为rdaid。该sequence在系统初始化阶段创建,需要考虑多个节点创建。 Backend和Forwarder模块之间通过共享内存进行通信。 每个RDA对应一个共享内存块,包含发送通道、接收通道共享内存,每个通道包含基本的通道信息和一个通信用的循环队列。每个共享内存块对应一个mmap文件,RDA开始通信时创建文件,通信结束关闭,对应的文件在ResourceOwner中管理,在事务结束时一起删除。常发生时有可能导致对应的文件不能删除,startup日志重放结束后清空该目录。 网络通信模块Forwarder通过Socket在不同RDA之间传输数据。数据在集群范围内的分发,下层算子的扫描数据tuple,计算重分布,若是本地处理的则保留,可返回给上层算子;若不是本地处理的,则根据destnodeid写入到共享内存或缓存tuplestore,供forwarder进程读取。算子拉取远端数据进行本地计算,根据Src节点,确定相应共享内存对象和缓冲区;从共享内存读取数据并写入缓冲区,从缓冲区读取一行数据进行计算。 RDA主要用于解决重分布场景的进程数暴增问题,DN节点间数据传输走RPC,每个Datanode只会有1个会话进程。 SQL计算具体执行过程如下: 1. 业务应用下发SQL给CN节点 ,其中SQL可以包含对数据的增(insert)、删(delete/drop)、改(update)、查(select)。 2. CN节点利用数据库的优化器生成执行计划,每个DN节点会按照执行计划的要求去处理数据。 3. 为确保数据均匀分布在每个DN节点,DN节点之间需进行数据传递。 说明 因为数据是通过一致性Hash技术均匀分布在每个节点,因此DN节点在处理数据的过程中,可能需要从其他DN节点获取数据。同时,TeleDB可通过RDA网络框架降低数据重分布的资源消耗。 4. DN节点将结果集返回给CN节点进行汇总。 5. CN节点将汇总后的结果返回给业务应用。
        来自:
        帮助文档
        分布式融合数据库HTAP
        私有云产品
        技术白皮书
        产品核心功能
        分布式数据库HTAP双引擎及其高性能
        高效的SQL计算能力
      • MindIE NPU单机推理
        本节介绍如何创建MindIE NPU单机推理任务。 本示例基于 MindIE 推理框架,选用 deepseekr1distillqwen1.5b 模型进行单机部署。整体部署 2 个推理应用实例,每个实例占用 1 张 NPU 卡,因此本任务共需 2 张 NPU 卡,用于验证轻量级模型在单机环境下的推理能力。 前置条件 1. 确认智算套件已经安装并且全部运行中。 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档]。 操作步骤 创建应用 进入智算套件,AI应用列表,在线推理菜单,创建AI应用。 基本信息 应用类型:MindIE 应用数:2 配置信息 推理类型选择 单机,推理框架,框架版本,推理模型,模型版本根据实际情况选择。简单的示例: 推理框架:ascendmindie 框架版本:2.2.RC1800IA2py311openeuler24.03lts 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列 Master:CPU,内存,共享内存可以不填,NPU填:1 点击确认完成创建。
        来自:
        帮助文档
        智算套件
        用户指南
        推理应用
        创建推理应用
        MindIE NPU单机推理
      • 基于OpenWebUI+Ollama+DeepSeek实现大模型私有知识库零代码构建的最佳实践
        ” 号开头,可选择对应知识库或知识文档作为推理参考。 3. 若不想继续使用某个知识库,可按照特定操作流程将其移除,具体操作可参考相关图示。 通过以上步骤,您即可完成一个简单的私有知识库搭建,赶紧动手尝试吧! 五、推荐使用场景 1. 智能客服训练 AI 回答公司政策、产品 FAQ,减少人工客服负担。 2. 企业内部搜索让员工直接向AI提问,无需翻遍公司Wiki或文档库。 3. 智能助手帮助销售整理客户信息,协助HR处理面试反馈,助力研发自动生成技术文档。 4. 智能营销策划协助市场团队分析市场趋势和竞争对手数据,生成针对性的营销活动方案,提升营销效果。 5. 财务智能分析工具帮助财务人员自动完成财务报表分析,预测财务风险,为企业决策提供数据支持。 6. 生产流程优化系统利用AI实时监测生产设备运行状况,预测设备故障,提前安排维护,减少生产中断。 7. 培训内容生成助手,为培训部门快速生成员工培训课件、在线课程内容,满足不同岗位的培训需求。 8. 供应链管理智能助手,根据销售数据、库存水平和供应商信息,辅助优化采购计划。
        来自:
        帮助文档
        弹性云主机 ECS
        最佳实践
        AIGC实践
        基于OpenWebUI+Ollama+DeepSeek实现大模型私有知识库零代码构建的最佳实践
      • 使用数据加速
        本节介绍如何使用加速数据集。 以创建离线训练应用为例,说明如何使用加速数据集。 前提条件 已完成AI套件安装,弹性数据集组件运行正常。 确保存储插件cstorcsi运行正常。 数据集加速状态为已加速或已预热。 约束与限制 当前使用加速数据集仅限default命名空间。 如数据集加速状态为已加速或已预热,训练应用默认使用加速PVC;其他状态下,训练应用默认使用非加速PVC。 操作步骤 使用加速数据集 登录云容器引擎管理控制台 在集群列表页点击进入指定集群 进入主菜单 智算套件 > AI应用列表 > 离线训练 > 创建AI应用 进入离线训练应用创建页面,进行相关信息配置,详细参考 创建训练任务 配置训练数据 点击“选择数据集”,在弹出页面选择“私有数据集”,选择已加速的数据集名称: 点击“选择数据集版本”,在弹出页面选择“私有数据集”,选择已加速的数据集名称: 训练应用创建完成,将默认使用加速PVC。以PyTorchJob为例,可以在yaml中查看挂载信息:
        来自:
        帮助文档
        智算套件
        用户指南
        数据集管理
        数据集加速
        使用数据加速
      • 创建vLLM NPU多机PD分离任务(1)
        本节介绍如何创建vLLM NPU多机PD分离任务。 前置条件 1. 确认智算套件已经安装并且全部运行中 2. 进入智算套件,AI应用管理,队列管理,确保队列存在并且有足够的资源(NPU,CPU,内存) [参考创建队列的文档] 操作步骤 创建任务 进入智算套件,AI应用列表,在线推理菜单,创建AI应用 基本信息 应用类型:vLLM 开启PD分离选择 静态PD分离 推理类型选择 多机 配置信息 推理框架,框架版本,推理模型,模型版本,Prefill 实例数和副本数,Decode 实例数和副本数,根据实际情况选择。 注意 Prefill 实例数和副本数,Decode 实例数和副本数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker,Decode 菜单中的 DecodeMaster,DecodeWorker 启动参数用默认参数即可。 Prefill 菜单中的 PrefillMaster, PrefillWorker 中的资源都要填 NPU。 Decode 菜单中的 DecodeMaster,DecodeWorker 中的资源都要填 NPU。 简单的示例: 推理框架: ascendvllm 框架版本:v0.11.0rc2 推理模型:deepseekr1distillqwen1.5b 模型版本:v1 队列:选择存在且资源足够的的队列
        来自:
      • 查看并配置人格
        本文介绍人格的查看及配置内容。 概述 XClaw 控制台的人格配置功能,支持用户通过简单交互为 AI 助手自定义人格特征,快速塑造符合自身需求的 AI 代理角色,提升交互亲切感与任务完成效率。 操作步骤 人格配置入口 1. 打开 XClaw 控制台对话页面,点击对话框上方的【人格】按钮;人格配置弹窗内提供 6 种内置人格,可点击查看内容,也可在「人格描述」自定义编辑人格。 人格配置操作 确认人格配置 1. 完成人格描述填写 / 选择后,点击弹窗右下角【确认配置】按钮。 2. 点击弹窗内「取消」按钮,将不修改当前人格配置。 查看当前人格 1. 关闭人格配置弹窗后,可直接在对话中查看当前人格配置;也可手动触发查看:向 AI 发送指令“查看当前的人格SOUL.md配置”,将返回完整人格配置内容。 恢复默认人格 1. 点击人格配置弹窗内的【恢复默认人格】按钮,重置后为默认文本,无补充定义描述。
        来自:
        帮助文档
        应用托管
        用户指南
        XClaw(内测功能)
        快捷功能
        查看并配置人格
      • 微隔离防火墙(文档停止维护)
        微隔离防火墙(CTMIFW,Microisolation Firewall)是面向数据中心的跨平台统一安全管理软件,能够对数据中心的内部流量进行全面精细的可视化分析和高细粒度的安全策略管理,能够帮助用户快速便捷地实现环境隔离、域间隔离以及端到端隔离。与云下一代防火墙互补,实现纵深防御。
        来自:
        帮助文档
        微隔离防火墙(文档停止维护)
      • 图片水印接口
        名称 描述 是否必须 order 文字,图片水印前后顺序。 取值: 0 :图片在前。 1 :文字在前。 默认值是0。 否 align 取值: 0:表示上对齐。 1:表示中对齐。 2:表示下对齐。 默认值是0。 否 interval 文字和图片间的间距。 整数形式,取值是[0, 1000],单位是px。 否
        来自:
      • 资金管理
        如何进行账号间转款 ? 天翼云暂不支持账号间款项直接转移。可以先提现,再充值到要转款的账号。 能否给其他人的天翼云账号充值? 可以使用以下两种方式给其他人的账号进行充值: 在线充值:获取其他用户的天翼云账号和密码,登录后进行在线充值。 转账汇款:获取其他用户的专属汇款账号,把充值金额汇入对方的专属汇款账号即可。 对公汇款多久可以到账? 对公汇款到账需要一定时间,具体到账时间依赖于银行系统,一般为13个工作日,建议对公充值一般在工作日(周一至周五,每天9点17点)进行,避免等待时间过长。 通过在线支付方式进行充值后,为什么账户余额没有变化? 在线充值有一定延迟,请稍后查看。 如何申请专属汇款账号? 天翼云为每位用户开设了银行专属账号,可进入“余额充值>转账汇款”页面点击“开通”进行申请,每个天翼云账号会对应分配唯一的银行专属汇款账号。 换了手机号后如何提现? 1、进入“账号中心 > 安全设置”页面。 2、单击“绑定手机”后的“立即修改”,跳转到修改信息页面。根据页面提示信息修改绑定手机号码后,再进行提现。 提现有金额限制吗? 没有,用户可根据需要提现。 每天提现次数有限制吗? 没有,用户可根据需要分次提现。
        来自:
        帮助文档
        费用中心
        常见问题
        资金管理
      • 模型与Tokens
        获取息壤模型调用 APIKey 详情可查看:++ API配置 详情可查看如何切换第三方模型API OpenClaw 响应很慢怎么办? 1. 对比传统对话生成的AI,比如豆包、deepseek等,OpenClaw是本地执行的 AI 智能体,要做“看得见、点得动、能闭环”的真实操作,整体流程较长,反馈相对较慢。 2. OpenClaw 免费使用的人数比较多,并发高,所以会有排队的情况出现,也会导致慢。 3. 3 月 23 日会上线 Tokens 包供用户购买,用户购买后,性能和质量会有保证。
        来自:
      • 1
      • ...
      • 16
      • 17
      • 18
      • 19
      • 20
      • ...
      • 64
      跳转至
      推荐热词
      天翼云运维管理审计系统天翼云云服务平台云服务备份云日志服务应用运维管理云手机云电脑天翼云云hbase数据库电信云大数据saas服务电信云大数据paas服务轻量型云主机天翼云客户服务电话应用编排服务天翼云云安全解决方案云服务总线CSB天翼云服务器配置天翼云联邦学习产品天翼云云安全天翼云企业上云解决方案天翼云产品天翼云视频云存储

      天翼云最新活动

      安全隔离版OpenClaw

      OpenClaw云服务器专属“龙虾“套餐低至1.5折起

      聚力AI赋能 天翼云大模型专项

      大模型特惠专区·Token Plan 轻享包低至9.9元起

      青云志云端助力计划

      一站式科研助手,海外资源安全访问平台,助力青年翼展宏图,平步青云

      企业出海解决方案

      助力您的业务扬帆出海,通达全球!

      天翼云信创专区

      “一云多芯、一云多态”,国产化软件全面适配,国产操作系统及硬件芯片支持丰富

      中小企业服务商合作专区

      国家云助力中小企业腾飞,高额上云补贴重磅上线

      云上钜惠

      爆款云主机全场特惠,2核4G只要1.8折起!

      天翼云奖励推广计划

      加入成为云推官,推荐新用户注册下单得现金奖励

      产品推荐

      物理机 DPS

      多活容灾服务 MDR

      镜像服务 IMS

      弹性伸缩服务 AS

      天翼云CTyunOS系统

      训推服务

      应用托管

      知识库问答

      人脸属性识别

      推荐文档

      安装网页防篡改集中管理中心

      升级

      域名管理

      价格

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 息壤智算平台
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 天翼云国际站
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2026 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号