当前位置: 代码网 > it编程>编程语言>Java > Java RAG集成实战指南(含代码)

Java RAG集成实战指南(含代码)

2026年04月14日 Java 我要评论
一、rag 技术选型与架构设计1. 技术栈选型组件选型建议理由应用框架spring ai 或 langchain4jspring ai 集成度高,spring 官方出品;langchain4j 功能更

一、rag 技术选型与架构设计

1. 技术栈选型

组件选型建议理由
应用框架spring ai 或 langchain4jspring ai 集成度高,spring 官方出品;langchain4j 功能更丰富,贴近 python langchain 设计
向量数据库milvus、qdrant 或 postgresql + pgvectormilvus 云原生,适合大规模数据;qdrant 性能极佳;pgvector 适合已有 postgresql 生态的项目
模型层openai api 或本地 embedding 模型可选择云端 api 或本地部署的小型模型

2. 系统架构设计

一个成熟的 java rag 系统包含三个主要阶段:

  1. 数据处理(etl):文档加载、分块、向量化、存储
  2. 检索(retrieval):向量检索、混合检索、重排序
  3. 生成(generation):组装 prompt、调用大模型

二、spring ai 实现 rag

1. 依赖配置

<dependencies>
    <!-- spring ai 核心 -->
    <dependency>
        <groupid>org.springframework.ai</groupid>
        <artifactid>spring-ai-openai-spring-boot-starter</artifactid>
    </dependency>
    <!-- 向量数据库集成 -->
    <dependency>
        <groupid>org.springframework.ai</groupid>
        <artifactid>spring-ai-milvus-store-spring-boot-starter</artifactid>
    </dependency>
    <!-- web api -->
    <dependency>
        <groupid>org.springframework.boot</groupid>
        <artifactid>spring-boot-starter-web</artifactid>
    </dependency>
</dependencies>

2. 配置文件

# openai 配置
spring.ai.openai.api-key=your_openai_api_key
spring.ai.openai.embedding.model=text-embedding-ada-002
spring.ai.openai.chat.model=gpt-3.5-turbo
# milvus 配置
spring.ai.vectorstore.milvus.uri=http://localhost:19530
spring.ai.vectorstore.milvus.collection-name=my_knowledge_base
spring.ai.vectorstore.milvus.embedding-dimension=1536

3. 核心代码实现

文档向量化与存储

@service
public class documentservice {
    @autowired
    private vectorstore vectorstore;
    @autowired
    private embeddingclient embeddingclient;
    public void adddocument(string content) {
        document document = new document(content);
        vectorstore.add(list.of(document));
    }
}

rag 查询服务

@service
public class ragservice {
    @autowired
    private chatclient chatclient;
    @autowired
    private vectorstore vectorstore;
    public string answer(string question) {
        // 检索相关文档
        list<document> relevantdocuments = vectorstore.similaritysearch(question);
        // 构建上下文
        string context = relevantdocuments.stream()
                .map(document::getcontent)
                .collect(collectors.joining("\n\n"));
        // 组装 prompt
        string prompt = """
                answer the question using only the context below.
                context:
                %s
                question:
                %s
                """.formatted(context, question);
        // 调用大模型
        return chatclient.call(prompt);
    }
}

三、langchain4j 实现 rag

1. 依赖配置

<dependencies>
    <dependency>
        <groupid>dev.langchain4j</groupid>
        <artifactid>langchain4j-core</artifactid>
        <version>0.30.0</version>
    </dependency>
    <dependency>
        <groupid>dev.langchain4j</groupid>
        <artifactid>langchain4j-open-ai</artifactid>
        <version>0.30.0</version>
    </dependency>
    <dependency>
        <groupid>dev.langchain4j</groupid>
        <artifactid>langchain4j-milvus</artifactid>
        <version>0.30.0</version>
    </dependency>
</dependencies>

2. 核心代码实现

初始化配置

@configuration
public class langchain4jconfig {
    @bean
    public openaichatmodel chatmodel() {
        return openaichatmodel.builder()
                .apikey("your_openai_api_key")
                .modelname("gpt-3.5-turbo")
                .build();
    }
    @bean
    public openaiembeddingmodel embeddingmodel() {
        return openaiembeddingmodel.builder()
                .apikey("your_openai_api_key")
                .modelname("text-embedding-ada-002")
                .build();
    }
    @bean
    public milvusembeddingstore embeddingstore() {
        return milvusembeddingstore.builder()
                .host("localhost")
                .port(19530)
                .collectionname("my_knowledge_base")
                .dimension(1536)
                .build();
    }
}

文档处理与检索

@service
public class ragservice {
    @autowired
    private openaichatmodel chatmodel;
    @autowired
    private openaiembeddingmodel embeddingmodel;
    @autowired
    private milvusembeddingstore embeddingstore;
    public void adddocument(string content) {
        textsegment segment = textsegment.from(content);
        embeddingstore.add(segment, embeddingmodel.embed(segment));
    }
    public string answer(string question) {
        // 检索相关文档
        list<textsegment> relevantsegments = embeddingstore.similaritysearch(question, embeddingmodel);
        // 构建上下文
        string context = relevantsegments.stream()
                .map(textsegment::text)
                .collect(collectors.joining("\n\n"));
        // 组装 prompt
        string prompt = """
                answer the question using only the context below.
                context:
                %s
                question:
                %s
                """.formatted(context, question);
        // 调用大模型
        return chatmodel.generate(prompt);
    }
}

四、关键优化策略

1. 文档分块策略

  • 固定大小分块:简单但易切断语义
  • 递归分块:按段落、句子递归切分,保留上下文
  • 基于文档结构分块:针对 markdown 或 code 的特定结构切分

2. 检索优化

  • 混合检索:向量检索 + bm25 关键词检索,加权融合
  • 重排序:使用 cross-encoder 模型对检索结果进行重排序
  • 缓存:对相同问题的检索结果进行缓存,减少重复计算

3. 性能优化

  • 批量处理:批量加载和向量化文档
  • 异步处理:使用 java 21 虚拟线程处理 i/o 密集型任务
  • 索引优化:调整向量数据库的索引参数,如 hnsw 的 m 和 ef 参数

五、部署与运维

1. 向量数据库部署

使用 docker 快速启动 milvus:

# 下载 docker-compose.yml
wget https://github.com/milvus-io/milvus/releases/download/v2.3.0/milvus-standalone-docker-compose.yml -o docker-compose.yml
# 启动
docker-compose up -d

2. 应用部署

  • 可部署为 docker 容器
  • 可部署到 kubernetes 集群
  • 可部署到云原生平台,如 aws ecs、gcp cloud run

六、总结

java rag 集成方案已经非常成熟,开发者可以根据项目需求选择 spring ai 或 langchain4j 框架。spring ai 集成度高,适合快速上手;langchain4j 功能更丰富,适合复杂场景。

到此这篇关于java rag集成实战指南的文章就介绍到这了,更多相关java rag集成内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2026  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com