通过应用市场部署Qwen3推理api服务 使用python代码调用api接口 1. 准备python代码 python from openai import OpenAI import httpx c httpx.Client() client OpenAI( baseurl'', 准备工作的baseurl apikey'', 准备工作的apikey, httpclientc ) streamFalse completion client.chat.completions.create( messages[ { 'role': 'user', 'content': '你是谁', } ], model"",准备工作的模型名称 streamstream ) if stream: outputtext '' for chunk in completion: print(chunk.choices[0].delta.content,end'') print(chunk.choices[0].delta.content or "", end"") content chunk.choices[0].delta.content if content: 检查 content 是否为 None outputtext +content print('n',''100) print('接收到内容:n',outputtext) else: print(completion) print(completion.choices[0].message) 2. 执行python代码,Qwen3将给出答复 使用anythingllm连接api服务 1. 下载anythingllm桌面端程序并安装。 2. 打开anythingllm程序,选择模型提供方【Generic OpenAI】。 3. 输入baseURL:准备工作的baseurl,APIKey:准备工作的apikey,Chat Model Name:准备工作的模型名称,Token context windows大小,完成模型提供方配置。 4. 输入问题,并发送问题,Qwen3将给出答复。 使用Dify v1.8.1连接api服务 1. 部署dify v1.8.1,选择OpenAIAPIcompatible插件进行安装。 2. 点击系统配置,添加模型。 3. 输入API endpoint URL:准备工作的baseurl,API Key:准备工作的apikey,API endpoint中的模型名称:准备工作的模型名称,完成模型提供方配置。 4. 返回工作室,创建空白应用。 5. 选择聊天助手,输入应用名称,提交创建。 6. 输入问题,并发送问题,Qwen3将给出答复。