当前位置: 代码网 > it编程>编程语言>Java > SpringBoot 整合 Langchain4j AIService 深度使用操作实战教程

SpringBoot 整合 Langchain4j AIService 深度使用操作实战教程

2025年07月28日 Java 我要评论
一、前言langchain4j 是一个基于 java 的框架,旨在简化与大型语言模型(llms)的集成和应用开发。它提供了丰富的工具和组件,帮助开发者快速构建基于 llm 的应用程序,如聊天机器人、问

一、前言

langchain4j 是一个基于 java 的框架,旨在简化与大型语言模型(llms)的集成和应用开发。它提供了丰富的工具和组件,帮助开发者快速构建基于 llm 的应用程序,如聊天机器人、问答系统、文本生成等。利用langchain4j ,springboot微服务应用可以快速实现对接市场上各种主流大模型的能力,从而快速验证业务的价值,本文以langchain4j 中一个非常核心的与大模型交互的组件aiservice 为例进行详细的说明。

二、aiservice 介绍

2.1 aiservice 是什么

aiservice 是 langchain4j 中的一个核心组件,用于将 ai 模型(如 openai、通义千问,deepseek,hugging face 等)的能力封装为服务接口,方便开发者调用。通过 aiservice,开发者可以轻松地将 ai 模型集成到应用程序中,而无需直接处理复杂的模型调用和数据处理逻辑。

2.2 aiservice 主要功能

aiservice 主要提供了如下的功能:

  • 模型调用封装:
    • aiservice 将 ai 模型的调用逻辑封装为简单的 java 接口,开发者只需定义接口方法即可调用模型。
  • 自动请求/响应处理:
    • aiservice 会自动处理输入数据的预处理和输出数据的后处理,简化开发流程。
  • 多模型支持:
    • 支持多种 ai 模型(如 gpt、bert 等),并可以根据需要切换模型。
  • 异步调用:
    • 支持异步调用 ai 模型,提升应用程序的性能和响应速度。

2.3 aiservice 使用步骤

aiservice 在实际开发使用中,遵循下面的几步即可:

  • 定义服务接口:创建一个 java 接口,定义需要调用的 ai 模型功能。
  • 配置模型:在配置文件中指定使用的 ai 模型及其参数。
  • 创建服务实例:通过 aiservice 创建服务实例。
  • 调用服务:通过服务实例调用定义的方法,获取 ai 模型的输出。

通过 aiservice,开发者可以更高效地将 ai 能力集成到 java 应用程序中,降低开发复杂度,提升开发效率。

三、aiservice 操作实践

3.1 前置准备

3.1.1 获取apikey

为了方便与大模型交互,本文案例使用阿里云百炼平台进行对接,所以需要先去百炼大模型平台获取apikey,操作入口:大模型服务平台百炼控制台

3.1.2 导入核心依赖

创建一个springboot 工程,并导入下面的核心依赖

<properties>
     <maven.compiler.source>17</maven.compiler.source>
     <maven.compiler.target>17</maven.compiler.target>
     <project.build.sourceencoding>utf-8</project.build.sourceencoding>
     <spring-boot.version>3.2.6</spring-boot.version>
     <langchain4j.version>1.0.0-beta3</langchain4j.version>
     <mybatis-plus.version>3.5.11</mybatis-plus.version>
 </properties>
 <dependencies>
     <!-- web应用程序核心依赖 -->
     <dependency>
         <groupid>org.springframework.boot</groupid>
         <artifactid>spring-boot-starter-web</artifactid>
     </dependency>
     <!-- 编写和运行测试用例 -->
     <dependency>
         <groupid>org.springframework.boot</groupid>
         <artifactid>spring-boot-starter-test</artifactid>
         <scope>test</scope>
     </dependency>
     <!-- 接入阿里云百炼平台 -->
     <dependency>
         <groupid>dev.langchain4j</groupid>
         <artifactid>langchain4j-community-dashscope-spring-boot-starter</artifactid>
     </dependency>
     <!--langchain4j高级功能-->
     <dependency>
         <groupid>dev.langchain4j</groupid>
         <artifactid>langchain4j-spring-boot-starter</artifactid>
     </dependency>
 </dependencies>
 <dependencymanagement>
     <dependencies>
         <!--引入springboot依赖管理清单-->
         <dependency>
             <groupid>org.springframework.boot</groupid>
             <artifactid>spring-boot-dependencies</artifactid>
             <version>${spring-boot.version}</version>
             <type>pom</type>
             <scope>import</scope>
         </dependency>
         <!--引入langchain4j依赖管理清单-->
         <dependency>
             <groupid>dev.langchain4j</groupid>
             <artifactid>langchain4j-bom</artifactid>
             <version>${langchain4j.version}</version>
             <type>pom</type>
             <scope>import</scope>
         </dependency>
         <!--引入百炼依赖管理清单-->
         <dependency>
             <groupid>dev.langchain4j</groupid>
             <artifactid>langchain4j-community-bom</artifactid>
             <version>${langchain4j.version}</version>
             <type>pom</type>
             <scope>import</scope>
         </dependency>
     </dependencies>
 </dependencymanagement>

3.1.3 添加配置文件

在工程的配置文件中添加下面的配置信息

server:
  port: 8082
#直接对接的是deepseek官网的的大模型
langchain4j:
  #阿里百炼平台的模型
  community:
    dashscope:
      chat-model:
        api-key: 你的apikey  #这个是白炼平台的apikey
        model-name: qwen-max
logging:
  level:
    root: debug

3.1.4 前置导入案例

还记得在之前学习langchain4j与大模型整合进行对话时,像下面的这样的接口写法:

package com.congge.controller;
import dev.langchain4j.community.model.dashscope.qwenchatmodel;
import dev.langchain4j.model.openai.openaichatmodel;
import dev.langchain4j.model.output.response;
import org.springframework.beans.factory.annotation.autowired;
import org.springframework.web.bind.annotation.getmapping;
import org.springframework.web.bind.annotation.requestmapping;
import org.springframework.web.bind.annotation.requestparam;
import org.springframework.web.bind.annotation.restcontroller;
import java.net.uri;
@restcontroller
@requestmapping("/qwen")
public class qwencahtcontroller {
    @autowired
    private qwenchatmodel qwenchatmodel;
    //localhost:8082/qwen/chat?question=你是谁
    @getmapping("/chat")
    public object chat(@requestparam("question") string question){
        string chat = qwenchatmodel.chat(question);
        return chat;
    }
}

调用一下接口,可以得到预期的结果

尽管大模型给出了回复,但是细心的同学会发现,这种方式的实现,很明显在调用chat方法的时候需要依赖具体的模型提供商,假如说本次使用的是千问大模型,下一次如果更换为openai大模型,再下一次更换为deepseek的话,代码是不是就需要调整了,这么来看,使用这种方式是存在一定的局限性的,于是在langchain4j中,还提供了另一种更为简单灵活,并且更优雅的实现方式,即使用aiservice 这个组件。

3.2 aiservice 案例操作详解

官方文档:ai services | langchain4j

3.2.1 入门案例使用

参考官方文档可以看到,aiservice 的使用很简单。首先需要定义一个接口,里面定义一个chat方法,然后基于aiservices 这个对象创建chat方法所在的接口代理对象,最后就可以调用这个chat方法与大模型进行对话了。

1)定义一个接口

如下,自定义一个接口,里面有一个chat方法

package com.congge.assistant;
public interface assistant {
    string chat(string usermessage);
}

2)添加测试接口

添加一个测试接口,从下面这段代码不难看出,使用这种方式,其核心就是通过aiservices这个对象创建出接口的带理对象,然后再由带理对象调用chat方法,相比传统的方式,这样的写法显得更加灵活便捷

package com.congge.controller;
import com.congge.assistant.assistant;
//import com.congge.assistant.qwenassistant;
import dev.langchain4j.community.model.dashscope.qwenchatmodel;
import dev.langchain4j.service.aiservices;
import org.springframework.beans.factory.annotation.autowired;
import org.springframework.web.bind.annotation.getmapping;
import org.springframework.web.bind.annotation.requestmapping;
import org.springframework.web.bind.annotation.requestparam;
import org.springframework.web.bind.annotation.restcontroller;
@restcontroller
@requestmapping("/assistant")
public class assistantcontroller {
    @autowired
    private qwenchatmodel qwenchatmodel;
    //localhost:8082/assistant/chat/v1?usermessage=你是谁
    @getmapping("/chat/v1")
    public string chat(@requestparam("usermessage") string usermessage) {
        assistant assistant = aiservices.create(assistant.class, qwenchatmodel);
        string chatres = assistant.chat(usermessage);
        return chatres;
    }
}

3)接口效果测试

启动工程后,调用下接口,可以正常与大模型进行对话

3.2.2 简化写法

上面这种方式需要通过aiservices对象创建代理对象来调用,实际上,aiservice还提供了更简单的方式,即只需要在接口上面增加一个 @aiservice注解即可 ,这样就可以直接将接口注入到需要调用的类中就能使用了,简单改造下,如下代码:

1)接口改造

package com.congge.assistant;
import dev.langchain4j.service.spring.aiservice;
@aiservice
public interface assistant {
    string chat(string usermessage);
}

2)测试接口

改为注入assistant

package com.congge.controller;
import com.congge.assistant.assistant;
//import com.congge.assistant.qwenassistant;
import dev.langchain4j.community.model.dashscope.qwenchatmodel;
import dev.langchain4j.service.aiservices;
import org.springframework.beans.factory.annotation.autowired;
import org.springframework.web.bind.annotation.getmapping;
import org.springframework.web.bind.annotation.requestmapping;
import org.springframework.web.bind.annotation.requestparam;
import org.springframework.web.bind.annotation.restcontroller;
@restcontroller
@requestmapping("/assistant")
public class assistantcontroller {
    @autowired
    private assistant assistant;
    //localhost:8082/assistant/chat/v1?usermessage=你是谁
    @getmapping("/chat/v1")
    public string chat(@requestparam("usermessage") string usermessage) {
        //assistant assistant = aiservices.create(assistant.class, qwenchatmodel);
        string chatres = assistant.chat(usermessage);
        return chatres;
    }
}

3)效果测试

调用一下接口,可以看到仍然可以得到预期的效果

3.2.3 问题说明

基于上面的这一步,细心的同学会发现,使用上面带注解的方式改造后,在测试的接口中并没有注入具体的chatmodel,最后也能够正常与大模型对话,这是因为在上面的配置文件中,我们配置的是与百炼的apikey,使用的是千问大模型,所以@aiservice 注解就会在上下文环境中查找并自动注入了千问的chatmodel,在@aiservice注解源码中也可以看到该注解可以接收一个chatmodel的属性

但是假如在你的配置文件中,同时配置了多个大模型厂商的信息,在工程启动的时候报就会报下面找不到chatmodel的错误

遇到这个问题的时候,在控制台中,错误的提示中也给出了解决建议

参照这个提示,接口改造后代码如下:

package com.congge.assistant;
import dev.langchain4j.service.spring.aiservice;
import dev.langchain4j.service.spring.aiservicewiringmode;
@aiservice(wiringmode = aiservicewiringmode.explicit, chatmodel = "qwenchatmodel")
public interface assistant {
    string chat(string usermessage);
}

再次启动的时候,如果保持配置文件不变,仍然配置了多个大模型的信息,此时就不会报错了。

3.3 aiservice 高级用法

3.3.1 @systemmessage 注解使用

aiservice 还可以基于接口中的方法,搭配@systemmessage 注解使用,通过这个注解,可以赋予接口中的方法更灵活的能力,比如在实际使用中,为了将这个chat方法以更灵活的模板方式进行封装,可以通过传入更多的参数,然后以参数的形式传递到模板描述中,如下:

import dev.langchain4j.service.systemmessage;
import dev.langchain4j.service.usermessage;
import dev.langchain4j.service.v;
import dev.langchain4j.service.spring.aiservice;
@aiservice
public interface assistant {
    //string chat(string usermessage);
    @systemmessage("你是一个知名的散文作家,根据输入的{{title}},写一篇不超过{{count}}字的散文")
    string chat(@usermessage string message, @v("title") string title, @v("count") long count);
}

3.3.2 添加测试接口

增加一个测试接口,可以接收上述新增的方法中的多个参数

package com.congge.controller;
import com.congge.assistant.assistant;
//import com.congge.assistant.qwenassistant;
import dev.langchain4j.community.model.dashscope.qwenchatmodel;
import dev.langchain4j.service.aiservices;
import org.springframework.beans.factory.annotation.autowired;
import org.springframework.web.bind.annotation.getmapping;
import org.springframework.web.bind.annotation.requestmapping;
import org.springframework.web.bind.annotation.requestparam;
import org.springframework.web.bind.annotation.restcontroller;
@restcontroller
@requestmapping("/assistant")
public class assistantcontroller {
    @autowired
    private assistant assistant;
    //localhost:8082/assistant/chat/v1?usermessage=歌颂祖国的大好河山&title=歌颂祖国的大好河山&count=300
    @getmapping("/chat/v1")
    public string chat(
            @requestparam("usermessage") string usermessage,
            @requestparam("title") string title,
            @requestparam("count") long count) {
        string chatres = assistant.chat(usermessage, title, count);
        return chatres;
    }
}    

3.3.3 接口效果测试

调用一下接口,可以看到下面的效果

不难看出,有了@systemmessage这个注解,在实际的开发中,让对接大模型的程序,在设计上提供了更多的扩展性,也让程序的可定制性增强了,从而让应用更灵活。

3.4 aiservice 原理解读

3.4.1 aiservice 核心原理

aiservices会组装assistant接口以及其他组件,并使用反射机制创建一个实现assistant接口的代理对象。这个代理对象会处理输入和输出的所有转换工作。在上面的案例中,chat方法的输入是一个字符串,但是大模型需要一个 usermessage 对象。所以,代理对象将这个字符串转换为 usermessage ,并调用聊天语言模型。chat方法的输出类型也是字符串,但是大模型返回的是 aimessage 对象,代理对象会将其转换为字符串。

3.4.2 aiservice 代码跟踪

通过上面的代码演示基本掌握了aiservice的用法,下面对其原理做一下详细的说明,方便我们对其底层设计有更深刻的理解,通过 aiservices.create 方法进入到下面的源码中

public static <t> t create(class<t> aiservice, chatlanguagemodel chatlanguagemodel) {
    return builder(aiservice).chatlanguagemodel(chatlanguagemodel).build();
}

启动工程后,执行接口调用 ,进入到下面的 new defaultaiservices 方法

继续往下走,进入到下面的方法,在这个方法中可以看到,需要接收aiservice 和 chatlanguagemodel

这一步创建完成后,代理对象就有了,最后使用assistant调用chat方法的时候,通过debug源码可以看到,此时的assistant就是一个代理对象了

四、写在文末

本文通过较大的篇幅详细介绍了langchain4j中的核心组件aiservice的使用,并通过案例演示了其实际的使用过程,希望对看到的同学有用哦,本篇到此结束,感谢观看。

到此这篇关于springboot 整合 langchain4j aiservice 深度使用操作实战教程的文章就介绍到这了,更多相关springboot langchain4j aiservice使用内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com