DeepSeek模型调用-专业版 流式调用 ruby import OpenAI from 'openai'; const baseUrl" //api前缀地址 //从环境变量获取API密钥,如果没有设置,也可以直接终端执行export XIRANGappkey"xxx" const appkey process.env.XIRANGappkey const modelId"xxxxx" //模型id const prompt"你好啊,给一篇100字左右的作文" //对话问题 const client new OpenAI({ apiKey: appkey, baseURL:baseUrl }); async function streamchatCompletion() { const stream await client.chat.completions.create({ model: modelId, messages: [{ role: 'user', content: prompt }], stream: true, }); for await (const chunk of stream) { process.stdout.write(chunk.choices[0]?.delta?.content ''); } } streamchatCompletion(); 开源框架集成 说明 部分第三方工具调用可能存在接口不适配问题,如涉及工具调用时,建议优先使用下文提及的工具。 涉及第三方工具配置时,API key等同于上文中创建的服务组APP key。 Langchain调用 参考langchain的自定义模型文档通过OpenAI协议调用即可。 python from langchain.chatmodels import ChatOpenAI from langchain.schema import HumanMessage def main(): 初始化LangChain模型,配置自定义API端点 llm ChatOpenAI( modelname"9dc913a037774fc0b248376905c85da5", 自定义模型名称 从环境变量获取API密钥,如果没有设置,也可以直接终端执行export XIRANGappkey"xxx" openaiapikeyos.getenv("XIRANGappkey) openaiapibase" API基础URL temperature0.7 ) 创建一个聊天消息 message HumanMessage(content"你是谁") 使用LangChain进行对话 response llm([message]) print(response.content) if name "main": main()