算力服务
智能算力
聚焦人工智能、大模型训练、科研仿真等“高并发、高浮点、高宽带”的需求,提供GPU/TPU/NPU等异构加速资源,助力AI创新从“可用”走向“好用”。
主要面向客户:大模型预训练、AIGC、多模态理解等AI企业与算法公司,高校与科研院所,自动驾驶团队以及医疗影像AI厂商等客户。
通用算力
面向Web服务、ERP、数据库、开发测试、办公协同等常规业务,以“按需付费、秒级开通”模式提供高性价比的基础算力。
主要面向客户:中小企业、初创团队、政府及事业单位(如一网通办、公共数据平台、政务云开发测试环境)等客户。
模型服务
模型推理
提供高性能的模型调用服务,可以通过标准的API接口将平台提供的大模型服务集成到自己的业务系统中,提供模型推理一站式部署服务。
主要面向用户:各种软件开发商,特别是行业软件开发商,以及科研院所、大专院校和教育机构、政府、金融机构、工业企业、科技单位、医院等行业客户。
模型应用
大模型与插件工具的结合能够有效拓展其在复杂任务中的实用性,支持接入私有知识库增强领域应答,集成联网搜索获取实时信息。
主要面向用户:需要组合模型和工具提供智能办公、智能客服、智能运维能力以及业务主要为知识密集型场景和特定内容生成的企业。
AI应用服务
搭建专属的智能体应用:基于应用广场筛选快速定位所需行业应用,一键部署,简化传统应用安装与配置的复杂流程。实现应用部署、运维和治理的全生命周期管理能力。
主要面向客户:需要快速集成AI能力形成垂直SaaS服务的行业服务集成商,电商/新媒体运营团队,初创公司与个人开发者等客户。
MCP服务
MCP(Model Context Protocol)即模型上下文协议,它为应用程序与大语言模型(LLM)之间的数据、工具和上下文交互提供了统一的接口和标准。
AI Store的MCP市场涵盖内容生成、网页搜索、效率工具等多种类型,全面支撑企业各类智能应用场景。以网页搜索为例,智能体可借助MCP网页搜索功能,通过自然语言提问,就能获取最新的网络信息。
主要面向客户:AI开发者、企业用户、科研人员和普通个人用户等,更有效的利用AI大模型完成各种任务。
