DeepSeek模型调用-专业版 Ragflow 注意 目前息壤model不支持embedding model能力,因此只能作为chat model提供能力。 下载镜像git clone < 通过docker安装并启动。 shell cd ragflow/docker docker compose f dockercomposeCN.yml up d 检查 RAGFlow 服务是否正常启动。 shell docker logs f ragflowserver 如果看到类似以下输出,则表示启动成功: shell Running on all addresses (0.0.0.0) Running on Running on 打开浏览器配置模型Xinference服务提供商。 在浏览器中输入服务器的 IP 地址访问 RAGFlow。默认情况下,RAGFlow 使用 HTTP 端口 80,因此无需输入端口号。 选择“Xinference”模型服务商( Xinference是工厂配置,支持自定义模型名称)。 配置chatmodel的界面如下: 回到对话界面,配置聊天助手: 开启对话: 常见报错 触发限流 ruby 报错信息为:[openaiapicompatible]Error:APIrequestfailedwithstatuscode429:{"code":700007,"detail":"Deepseek模型并发已达上限","message":"DEEPSEEKMODELCONCURRENCYLIMIT","error":{"code":"700007","message":"Deepseek模型并发已达上限","type":"DEEPSEEKMODELCONCURRENCYLIMIT"}} 问题原因:大模型并发是大模型的并发能力,和用户、tokens是否用完都无关,只和机器负载能力有关。目前单个模型有固定的并发度,这是所有ds模型共享的并发度,只能支持固定个请求同时访问。 解决方案:等一段时间再调用,或增加重试机制。