前置说明
1.该文档为介绍通过应用托管-应用市场体验OpenClaw更改厂商模型配置的内容。
2.本产品中的应用由第三方主体提供,尽管天翼云已尽最大努力进行识别和维护,但仍无法保证应用的可用性。请客户按照该产品的服务协议使用该产品,做好甄别工作,并对自行选择的服务承担相应责任。
概述
OpenClaw是近期在开发者社区和AI领域广受关注的一款开源、自托管的个人AI助手。它以其独特的“本地优先”设计理念,将强大的大型语言模型能力与用户本地系统深度结合,实现了从“对话式AI”到“可执行实际任务的智能体”的跨越。与依赖云端服务的传统AI助手不同,OpenClaw将数据主权和隐私控制权完全交还给用户,所有数据和处理过程均在用户可控的环境中进行,被誉为“首个7×24小时永不下班的AI员工”。它的开源特性也吸引了大量开发者参与生态建设,形成了一个活跃的技能市场。
重要:OpenClaw 为开源 AI 助手,请在使用前充分评估其安全性与稳定性并严格遵循许可协议,以切实保障您的系统环境与数据安全。
1. 请避免在 OpenClaw 中绑定生产级敏感账号。如需使用 API 服务,建议使用受限的 API Key 或临时 Token,并建立定期轮换机制,以降低密钥泄露带来的风险。
2. 建议优先使用天翼云官方提供的skills与插件,避免安装来源不明的第三方技能,防止恶意代码注入。
3. 请通过密码或 Token 对 OpenClaw 服务进行访问授权,严格限制访问 IP 范围,避免公网暴露,拦截非授权访问请求。
4. 建议启用详细的日志记录与行为监控,对操作行为和数据处理过程进行持续审计,及时发现并处置异常行为。
前提条件
-
已成功部署并可正常访问 OpenClaw 产品界面。
-
已获取第三方模型的访问 BaseUrl、APIKey 及模型名称等核心信息。
操作步骤
-
登录 OpenClaw的UI界面,在侧边栏中点击【配置】选项,将配置文件用 Raw形式展示。
-
在providers字段下(该字段用于管理所有模型提供商配置),按照以下格式添加厂商的模型配置。
{厂商名称}: {
baseUrl: {模型的访问baseurl},
api: 'openai-completions',
apiKey: '{apikey}',
models: [
{
id: '{模型名称}',
name: '{模型名称}',
reasoning: false,
input: [
'text',
],
cost: {
input: 0,
output: 0,
cacheRead: 0,
cacheWrite: 0,
},
contextWindow: 256000,
maxTokens: 8192,
},
],
},
| 字段名 | 说明 |
|---|---|
| 厂商名称 | 自定义的模型提供商标识(如:CustomAI、Tongyi、Baichuan 等) |
| baseUrl | 第三方模型的 API 访问基础地址 |
| apiKey | 访问第三方模型的密钥(需从模型提供商处获取) |
| 模型名称 | 模型的唯一标识 |
| reasoning | 是否启用推理能力,默认 false |
3. 在配置文件中找到agents.defaults.model.primary字段,将其值修改为 {厂商名称}/{模型名称}(与步骤2中配置的厂商名称、模型名称保持一致)。
4. 完成上述配置修改后,点击【Save】按钮,等待OpenClaw自动重启加载,确认配置生效。
验证配置结果
配置生效后,可通过以下方式验证:
-
重新进入 OpenClaw UI 界面,检查providers字段下是否更新了厂商及模型配置。
-
发起模型调用测试对话,确认默认使用的是新配置的第三方模型。
-
查看系统日志,确认无配置加载错误提示。