OpenClaw模型配置指南 前置工作 已通过天翼云生态专区订购 OpenClaw 应用 。 说明 若 OpenClaw 版本过低,将导致无法在公有云生态专区页面中进行模型配置。 操作步骤 1.订购息壤模型推理服务 推荐使用息壤模型推理服务,本文以息壤模型推理服务为例,介绍配置步骤。 登录天翼云控制台,根据您的需求选择适合的模型,本文以DeepSeek模型为例,详细开通步骤可参考DeepSeek模型调用快捷版。 注意 为保障您的账户安全、避免额外损失,请妥善保管模型 API Key 等敏感数据。 OpenClaw 携带较多上下文会导致 Token 消耗偏高,建议您关注用量计费情况。 2.配置模型 2.1 进入OpenClaw应用管理 登录天翼云官网,进入生态专区控制台。在应用管理我的应用中,选中对应的OpenClaw实例,点击进入应用详情页面。 2.2 为OpenClaw配置模型 点击“应用配置”页签,进入OpenClaw应用配置页面。在“模型”模块中,您可以为OpenClaw配置所需模型。天翼云支持: 天翼云息壤:推荐购买天翼云息壤模型推理服务。填写完成后,点击“添加并应用”按钮,即可保存该模型配置,并将其设为 OpenClaw 应用的模型服务提供商。 说明 使用天翼云息壤作为模型来源时,请确保您已订购息壤模型推理服务。立即订购息壤模型推理服务 OpenClaw 运行时,可能导致Token消耗偏高,建议您提前了解息壤模型用量计费情况。 息壤为您提供了“模型体验”功能,具有免费Token额度,您可以选择服务组“模型体验”,即刻体验模型推理效果。 参数 填写说明 示例 模型来源 选择“天翼云息壤”。 模型 选择已订购的服务模型。 GLM5 服务组 选择需要使用的服务组。 test02 模型 App Key 根据服务组自动填充。 GPUStack 应用:GPUStack是生态专区提供的开源托管式AI模型部署平台,您可以通过订购GPUStack应用和GPU云主机资源,部署专属模型推理服务,保障数据的安全与服务的稳定。 说明 使用GPUStack前,请确保已购买GPUStack应用资源并正确部署模型,详细请参考通过GPUStack部署模型推理平台。 为保障OpenClaw稳定运行,推荐使用“GPUStack单机版”、“≥4 张英伟达GPU卡的云主机”、“Qwen332B”模型部署GPUStack应用为OpenClaw提供模型推理能力。 参数 填写说明 示例 模型来源 选择“GPUStack”应用。 GPUStack实例 为OpenClaw提供模型服务的GPUStack实例,支持自动获取已订购的GPUStack实例,可选择: GPUStack 单机版实例 GPUStack 集群版Server实例 GPUStack单机版39sh 模型 选择的GPUStack实例中,已部署的模型列表,支持自动获取。 说明 可根据您的使用场景、GPU云主机资源选择合适的模型。GPUStack单机版推荐使用模型“Qwen332B”。 Qwen332B 自定义模型配置:您可以自行配置其他模型,如Kimi、MiniMax等。本文以息壤模型推理服务为例。 填写模型所需的参数说明见下表。填写完成后,点击“添加并应用”按钮,即可保存该模型配置,并将其设为 OpenClaw 应用的模型服务提供商。 参数 填写说明 示例 模型来源 选择“自定义模型” 模型Provider 模型供应商名称,可自定义命名。 XiRang 模型Base url 模型服务调用地址。 说明 即息壤模型服务生成的 baseurl ,默认为“ 模型Api 模型提供商的 API 协议格式。 openaicompletions 说明 息壤模型推理服务提供的模型默认均支持“openaicompletions”协议格式。 模型Api Key 模型服务的API Key。 12356789 说明 即息壤模型服务生成的App Key,可在服务接入模块查看。 模型ID 调用模型的ID。 DeepSeekV3.2Standard 说明 息壤模型广场中,可在查看模型详情页顶部获取模型ID信息。 模型Name 调用模型的名称。 DeepSeekV3.2Standard 说明 息壤模型广场中,可在查看模型详情页顶部获取模型名称信息。 注意 如果您重复添加同一个模型提供商(Provider),后添加的API Key将自动覆盖之前设置的API Key,并以最新的配置为准。