活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      一站式智算服务平台

      一站式智算服务平台

        • 产品动态
        • 产品介绍
        • 产品定义
        • 产品优势
        • 功能特性
        • 应用场景
        • 术语解释
        • 使用限制
        • 与其他服务的关系
        • 计费说明
        • 包周期计费模式
        • 按需计费模式-卡时
        • 按需计费模式-Tokens
        • 产品退订
        • 快速入门
        • 准备工作
        • 用户指南
        • 模型广场
        • 体验中心
        • 数据工具
        • 数据处理
        • 模型定制
        • 模型精调
        • 开发机
        • 训练任务
        • 挂载目录
        • 断点续训
        • 模型服务
        • 服务接入
        • 在线服务
        • 调用监控
        • 模型工具
        • 模型评估
        • 模型压缩
        • 训推加速
        • 训练性能与加速
        • 模型的国产化适配与性能加速
        • 断点续训加速
        • 智算资产
        • 我的模型
        • 我的数据集
        • 我的镜像
        • 我的代码包
        • 管理中心
        • 成员管理
        • 资源总览
        • 调度中心
        • 设置
        • 队列管理
        • 工作空间管理
        • 模型简介
        • DeepSeek-R1
        • DeepSeek-V3
        • Baichuan2-Turbo
        • Llama3-70B-Instruct
        • Qwen2.5-72B-Instruct
        • Qwen2-72B-Instruct
        • Qwen-VL-Chat
        • TeleChat-12B
        • InternLM2-Chat-7B
        • 最佳实践
        • 专业模型训练-昇腾环境
        • 专业模型训练-英伟达环境
        • DeepSeek模型调用-快捷版
        • DeepSeek模型调用-专业版
        • 使用专属节点部署DeepSeek服务
        • NLP大模型快速微调
        • 推理服务API
        • 如何调用API
        • 接口类型列表
        • API列表
        • 错误处理
        • API
        • Chat对话API
        • Image文本生图API
        • Embeddings文本向量化API
        • 模型列表API
        • 平台OpenAPI
        • 平台功能API使用说明
        • 常见问题
        • 计费类
        • 操作类
        • 相关协议
        • 一站式智算服务平台服务协议
        • 文档下载
        • 用户使用手册
          无相关产品

          本页目录

          帮助中心一站式智算服务平台最佳实践DeepSeek模型调用-快捷版
          DeepSeek模型调用-快捷版
          更新时间 2025-06-12 16:36:56
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2025-06-12 16:36:56
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          本章节是关于开发者通过对话工具(比如Chatbox、CherryStudio等)以OpenAI-API-compatible的方式快速添加使用模型的实践。

          说明

          目前天翼云息壤的新老用户均可免费体验2500万Tokens,限时两周。模型广场支持DeepSeek-R1、DeepSeek-V3等多个版本模型的调用。

          支持在对话工具(比如Chatbox、CherryStudio等)以OpenAI-API-compatible的方式快速添加使用。

          天翼云官网获取模型调用APP key等信息

          模型API终端请求地址

            请求地址

          API终端请求地址:https://wishub-x1.ctyun.cn/v1/chat/completions

            通信协议

            接口通过 HTTPS 进行通信,保护用户数据的机密性和完整性,确保网络通信的安全性。

            请求方法

          • 支持的 HTTP 请求方法:POST。

          • POST 请求支持的 Content-Type 类型:application/json。

          获取模型调用APP key

          • 访问天翼云息壤deepseek活动页地址:https://www.ctyun.cn/act/xirang/deepseek,选择“立即体验”。

          • 登录天翼云账户,进入“体验中心”后切换到“服务接入”。 

          • 在“服务接入”下面,创建建服务组。选择默认勾选的模型即可。

          • 创建服务组后,从服务组上面获取APP KEY。

          获取调用的模型名称

          • 左侧导航栏切换到”模型广场“,选择对应想要调用的模型。

          • 获取模型ID作为模型名称。

          例如下图中模型ID为 : 4bd107bff85941239e27b1509eccfe98

          DeepSeek模型版本选择参考:

          • DeepSeek-R1:适合需要高级推理能力和高精度的复杂任务,如科研、金融建模等。响应时间相对长。

          • DeepSeek-V3:适合需要快速响应和高性价比的通用自然语言处理任务,如智能客服、内容生成等。响应时间相对短。

          手动验证key的可用性

          下列请求为DeepSeek-R1-昇腾版请求样例,如果正常返回deepseek回答,代表没有问题。

          注意

          以下curl请求中替换成自己的APP KEY后类似“--header 'Authorization: Bearer abcdefghxxsssss' \ ”

          curl --location 'https://wishub-x1.ctyun.cn/v1/chat/completions' \
          --header 'Content-Type: application/json' \
          --header 'Authorization: Bearer 替换成自己的APP KEY' \
          --data '{
              "messages": [
                  {
                      "role": "system",
                      "content": "You are a test assistant."
                  },
                  {
                      "role": "user",
                      "content": "Testing. Just say hi and nothing else."
                  }
              ],
              "model": "4bd107bff85941239e27b1509eccfe98"
          }'

          说明

          • 部分第三方工具调用可能存在接口不适配问题,建议优先使用以下几款工具。
          • 配置下列工具时,API key等同于上述内容中创建的服务组APP key。

          Chatbox

          访问链接:https://web.chatboxai.app/

          点击Setting,然后配置Api Host、API path、API key和Model,就可以使用了。

          注意

          chatbox web如果api setting配置错误,更改后,仍然会报错。报错如下:

          如遇上述报错,建议重新开启一个对话,再次尝试即可。

          CherryStudio

          访问链接:https://cherry-ai.com/

          按照下图配置即可。

          一旦出现以下报错,重新开启一个对话,再次尝试,则可以看到正确的对话。

          Langchain

          参考langchain的自定义模型文档通过OpenAI协议调用即可。

          from langchain.chat_models import ChatOpenAI
          from langchain.schema import HumanMessage
          
          def main():
              # 初始化LangChain模型,配置自定义API端点
              llm = ChatOpenAI(
                  model_name="9dc913a037774fc0b248376905c85da5",  # 自定义模型名称
                  # 从环境变量获取API密钥,如果没有设置,也可以直接终端执行export TYY_API_KEY="xxx"
                  openai_api_key=os.getenv("XIRANG_API_KEY")
                  openai_api_base="https://wishub-x1.ctyun.cn/v1",  # API基础URL
                  temperature=0.7
              )
          
              # 创建一个聊天消息
              message = HumanMessage(content="你是谁")
              
              # 使用LangChain进行对话
              response = llm([message])
              print(response.content)
          
          
          if __name__ == "__main__":
              main()

          Dify

          说明

          • 前置条件:本地下载并安装Docker。
          • 访问 Docker 官方网站,点击“Download Docker Desktop”按钮,选择合适的 Windows、macOS 或 Linux版本下载并安装。

          拉取dify镜像到本地

          # 如果本地已安装dify可以忽略
          # 假设当前最新版本为 0.15.3
          git clone https://github.com/langgenius/dify.git --branch 0.15.3

          修改配置参数

          cd docker
          mv .env.example .env

          启动并验证

          #执行:
          docker compose up -d
          # 等服务启动访问
          http://localhost/apps

          配置天翼云息壤模型

          配置方式一:直接配置方式(所有版本均可使用)

          通过直接配置OpenAI-API-compatible支持,配置方式如下:

          配置方式二:使用息壤镜像配置方式(仅支持0.15.3版本)

          修改env配置

          cd docker
          #在.env文件添加
          CUSTOM_MODEL_ENABLED=true
          OLLAMA_API_BASE_URL=host.docker.internal:11434

          修改下api和work的镜像地址,改为增加了xirang模型供应商的dify 0.15.3版本。

          修改后需要重启dify。

          services:
            # API service with Xirang model provider
            api:
              image: telecom-eci-huadong1-crs-registry-huadong1.crs.ctyun.cn/xirang/dify-with-xirang:0.15.3 # 原来为langgenius/dify-api:0.15.3
              
              
             # worker service
            # The Celery worker for processing the queue.
            worker:
              image: telecom-eci-huadong1-crs-registry-huadong1.crs.ctyun.cn/xirang/dify-with-xirang:0.15.3 # 原来为langgenius/dify-api:0.15.3

          在个人设置里面点击模型供应商,选择天翼云模型。

          点击保存后,可以看到模型的配置。

           

          其他非预置模型:

          配置对话助手

          常见问题(0.15.3版本)

          如遇到无法展示问题,可能是因为您的dify版本为最新版,我们目前还不支持,可执行以下操作切换到0.15.3版本并重启服务。

          dify插件需要切换版本重新启动服务才可以达成兼容
          git clone  https://gitcode.com/gh_mirrors/di/dify.git 
          cd dify
          git checkout 7796984444191c639bd3c541a44e832b17ad1cae

          如遇到息壤镜像失败问题,可切换到dify原始镜像,通过配置直接配置OpenAI-API-compatible支持,配置方式如下:

          Obsidian copilot

          • 打开 Obsidian,进入设置面板,选择“社区插件”。

          • 关闭“安全模式”,点击“浏览”按钮搜索“Copilot for Obsidian”并安装。

          • 安装完成后,启用插件。

          Ragflow

          注意

          目前息壤model不支持embedding model能力,因此只能作为chat model提供能力。

          • 下载镜像git clone https://github.com/infiniflow/ragflow.git

          • 通过docker安装并启动。

          cd ragflow/docker
          docker compose -f docker-compose-CN.yml up -d
          • 检查 RAGFlow 服务是否正常启动。

          docker logs -f ragflow-server

          如果看到类似以下输出,则表示启动成功:

              * Running on all addresses (0.0.0.0)
              * Running on http://127.0.0.1:9380
              * Running on http://x.x.x.x:9380
          • 打开浏览器配置模型Xinference服务提供商。

          在浏览器中输入服务器的 IP 地址访问 RAGFlow。默认情况下,RAGFlow 使用 HTTP 端口 80,因此无需输入端口号。

          选择“Xinference”模型服务商( Xinference是工厂配置,支持自定义模型名称)。

          配置chatmodel的界面如下:

          回到对话界面,配置聊天助手:

          开启对话:

          Cline

          按照下图配置即可。注意baseUrl配置:https://wishub-x1.ctyun.cn/v1

          配置完成后即可开启对话:

          Maxkb

          通过docker命令拉取部署

          docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb

          启动后,浏览器访问http://localhost:8080

          初始用户名:admin

          初始密码:见https://maxkb.cn/docs/installation/offline_installtion/#4

          按照下图配置即可。注意baseUrl配置:https://wishub-x1.ctyun.cn/v1

          AnythingLLM

          按照下图配置即可。注意baseUrl配置:https://wishub-x1.ctyun.cn/v1

          配置完成后即可开启对话:

          常见报错

          role参数错误,user后应为assistant

          • 问题原因:模型setting首次配置错误,更改配置后,因本次对话包含历史错误信息,仍然会报错。

          • 解决方案:开启一个全的对话即可。

          400 role参数错误,不能以assistant开头

          • 问题原因:模型setting首次配置错误,更改配置后,因为本次对话包含历史错误信息,导致仍然会报错。

          • 解决方案:开启一个全的对话即可。

          API statuscode429:DEEP_SEEK_MODEL_CONCURRENCY_LIMIT

          报错信息为:[openai_api_compatible]Error:APIrequestfailedwithstatuscode429:{"code":700007,"detail":"Deepseek模型并发已达上限","message":"DEEP_SEEK_MODEL_CONCURRENCY_LIMIT","error":{"code":"700007","message":"Deepseek模型并发已达上限","type":"DEEP_SEEK_MODEL_CONCURRENCY_LIMIT"}} 
          • 问题原因:大模型并发是大模型的并发能力,和用户、tokens是否用完都无关,只和机器负载能力有关。目前单个模型有固定的并发度,这是所有ds模型共享的并发度,只能支持固定个请求同时访问。

          • 解决方案:等一段时间再调用,或增加重试机制。

          API 直连调用耗时长

          • 问题原因:大模型API同步耗时长是因为其推理过程复杂,需要逐个生成token并拼接结果,且在处理长文本或复杂问题时,等待完整结果返回的时间过长。而流式API可以在推理过程中逐步返回结果,用户无需等待全部结果生成,从而提升交互效率。

          • 解决方案:改为流式调用。

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  专业模型训练-英伟达环境
          下一篇 :  DeepSeek模型调用-专业版
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明