前言
随着人工智能技术的迅猛发展,越来越多的开发者希望在本地环境中部署和调用 ai 模型,以满足特定的业务需求。本文将详细介绍如何在本地环境中使用 ollama 配置 deepseek 模型,并在 intellij idea 中创建一个 spring boot 项目来调用该模型。通过这些步骤,您将能够在本地环境中高效地运行和测试 ai 模型,提升开发效率。
详细步骤
一、本地配置deepseek
1.安装ollama
ollama 是一个开源平台,旨在简化大型语言模型的本地部署和管理。您可以从 ollama官网下载适用于 windows、linux 或 macos 的安装包。
安装成功后可以使用win+r并输入cmd打开终端,接着输入ollama检查是否安装成功,如果有输出对应信息则说明安装成功了
2.下载对应deepseek模型并运行
首先选中想要配置的deepseek版本并复制右侧指令
将指令复制到终端并进行下载对应版本的deepseek,下载完成之后到这个界面,就是下载成功了,可以输入一些信息进行测试
二、springboot项目调用本地deepseek
1.创建springboot项目
具体操作如下:
- 打开 intellij idea,选择 "new project"。
- 选择 "spring initializr" 作为项目类型。
- 填写项目的基本信息,如 group、artifact 等。
- 在 "dependencies" 中添加所需的依赖,例如 "spring web"。
- 点击 "create" 创建项目。
这里我添加了web和ollama的依赖,创建成功界面如下
2.添加deepseek对应配置信息
在application.properties中添加下面配置信息
spring.ai.ollama.chat.options.model=deepseek-r1:1.5b spring.ai.ollama.base-url=http://127.0.0.1:11434 spring.ai.ollama.chat.enabled=true server.port=9099
3.编码调用deepseek
接着创建简单controller类和service实现类,结构如图:
对应代码如下:
controller:
@restcontroller public class testcontroller { @autowired private deepseektestservice deepseektestservice; @requestmapping("/ask1") public string speak(@requestparam string msg){ return deepseektestservice.getresponse(msg); } }
service接口:
public interface deepseektestservice { string getresponse(string message); }
service实现类
@service public class deepseekserviceimpl implements deepseektestservice { private final ollamachatmodel ollamachatmodel; public deepseekserviceimpl(ollamachatmodel ollamachatmodel) { this.ollamachatmodel = ollamachatmodel; } @override public string getresponse(string message) { string response = ollamachatmodel.call(message); return response; } }
4.测试
启动项目,在浏览器的url路径中输入对应信息进行测试,这样一个简单的springboot对接deepseek项目就完成了!
到此这篇关于springboot配置ollama实现本地部署deepseek的文章就介绍到这了,更多相关springboot 本地部署deepseek内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!
发表评论