一、rag 技术选型与架构设计
1. 技术栈选型
| 组件 | 选型建议 | 理由 |
|---|---|---|
| 应用框架 | spring ai 或 langchain4j | spring ai 集成度高,spring 官方出品;langchain4j 功能更丰富,贴近 python langchain 设计 |
| 向量数据库 | milvus、qdrant 或 postgresql + pgvector | milvus 云原生,适合大规模数据;qdrant 性能极佳;pgvector 适合已有 postgresql 生态的项目 |
| 模型层 | openai api 或本地 embedding 模型 | 可选择云端 api 或本地部署的小型模型 |
2. 系统架构设计
一个成熟的 java rag 系统包含三个主要阶段:
- 数据处理(etl):文档加载、分块、向量化、存储
- 检索(retrieval):向量检索、混合检索、重排序
- 生成(generation):组装 prompt、调用大模型
二、spring ai 实现 rag
1. 依赖配置
<dependencies>
<!-- spring ai 核心 -->
<dependency>
<groupid>org.springframework.ai</groupid>
<artifactid>spring-ai-openai-spring-boot-starter</artifactid>
</dependency>
<!-- 向量数据库集成 -->
<dependency>
<groupid>org.springframework.ai</groupid>
<artifactid>spring-ai-milvus-store-spring-boot-starter</artifactid>
</dependency>
<!-- web api -->
<dependency>
<groupid>org.springframework.boot</groupid>
<artifactid>spring-boot-starter-web</artifactid>
</dependency>
</dependencies>2. 配置文件
# openai 配置 spring.ai.openai.api-key=your_openai_api_key spring.ai.openai.embedding.model=text-embedding-ada-002 spring.ai.openai.chat.model=gpt-3.5-turbo # milvus 配置 spring.ai.vectorstore.milvus.uri=http://localhost:19530 spring.ai.vectorstore.milvus.collection-name=my_knowledge_base spring.ai.vectorstore.milvus.embedding-dimension=1536
3. 核心代码实现
文档向量化与存储
@service
public class documentservice {
@autowired
private vectorstore vectorstore;
@autowired
private embeddingclient embeddingclient;
public void adddocument(string content) {
document document = new document(content);
vectorstore.add(list.of(document));
}
}rag 查询服务
@service
public class ragservice {
@autowired
private chatclient chatclient;
@autowired
private vectorstore vectorstore;
public string answer(string question) {
// 检索相关文档
list<document> relevantdocuments = vectorstore.similaritysearch(question);
// 构建上下文
string context = relevantdocuments.stream()
.map(document::getcontent)
.collect(collectors.joining("\n\n"));
// 组装 prompt
string prompt = """
answer the question using only the context below.
context:
%s
question:
%s
""".formatted(context, question);
// 调用大模型
return chatclient.call(prompt);
}
}三、langchain4j 实现 rag
1. 依赖配置
<dependencies>
<dependency>
<groupid>dev.langchain4j</groupid>
<artifactid>langchain4j-core</artifactid>
<version>0.30.0</version>
</dependency>
<dependency>
<groupid>dev.langchain4j</groupid>
<artifactid>langchain4j-open-ai</artifactid>
<version>0.30.0</version>
</dependency>
<dependency>
<groupid>dev.langchain4j</groupid>
<artifactid>langchain4j-milvus</artifactid>
<version>0.30.0</version>
</dependency>
</dependencies>2. 核心代码实现
初始化配置
@configuration
public class langchain4jconfig {
@bean
public openaichatmodel chatmodel() {
return openaichatmodel.builder()
.apikey("your_openai_api_key")
.modelname("gpt-3.5-turbo")
.build();
}
@bean
public openaiembeddingmodel embeddingmodel() {
return openaiembeddingmodel.builder()
.apikey("your_openai_api_key")
.modelname("text-embedding-ada-002")
.build();
}
@bean
public milvusembeddingstore embeddingstore() {
return milvusembeddingstore.builder()
.host("localhost")
.port(19530)
.collectionname("my_knowledge_base")
.dimension(1536)
.build();
}
}文档处理与检索
@service
public class ragservice {
@autowired
private openaichatmodel chatmodel;
@autowired
private openaiembeddingmodel embeddingmodel;
@autowired
private milvusembeddingstore embeddingstore;
public void adddocument(string content) {
textsegment segment = textsegment.from(content);
embeddingstore.add(segment, embeddingmodel.embed(segment));
}
public string answer(string question) {
// 检索相关文档
list<textsegment> relevantsegments = embeddingstore.similaritysearch(question, embeddingmodel);
// 构建上下文
string context = relevantsegments.stream()
.map(textsegment::text)
.collect(collectors.joining("\n\n"));
// 组装 prompt
string prompt = """
answer the question using only the context below.
context:
%s
question:
%s
""".formatted(context, question);
// 调用大模型
return chatmodel.generate(prompt);
}
}四、关键优化策略
1. 文档分块策略
- 固定大小分块:简单但易切断语义
- 递归分块:按段落、句子递归切分,保留上下文
- 基于文档结构分块:针对 markdown 或 code 的特定结构切分
2. 检索优化
- 混合检索:向量检索 + bm25 关键词检索,加权融合
- 重排序:使用 cross-encoder 模型对检索结果进行重排序
- 缓存:对相同问题的检索结果进行缓存,减少重复计算
3. 性能优化
- 批量处理:批量加载和向量化文档
- 异步处理:使用 java 21 虚拟线程处理 i/o 密集型任务
- 索引优化:调整向量数据库的索引参数,如 hnsw 的 m 和 ef 参数
五、部署与运维
1. 向量数据库部署
使用 docker 快速启动 milvus:
# 下载 docker-compose.yml wget https://github.com/milvus-io/milvus/releases/download/v2.3.0/milvus-standalone-docker-compose.yml -o docker-compose.yml # 启动 docker-compose up -d
2. 应用部署
- 可部署为 docker 容器
- 可部署到 kubernetes 集群
- 可部署到云原生平台,如 aws ecs、gcp cloud run
六、总结
java rag 集成方案已经非常成熟,开发者可以根据项目需求选择 spring ai 或 langchain4j 框架。spring ai 集成度高,适合快速上手;langchain4j 功能更丰富,适合复杂场景。
到此这篇关于java rag集成实战指南的文章就介绍到这了,更多相关java rag集成内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!
发表评论