当前位置: 代码网 > it编程>编程语言>Java > Java 集合框架高级应用与架构设计方案

Java 集合框架高级应用与架构设计方案

2026年02月11日 Java 我要评论
一、章节学习目标与重点1.1 学习目标掌握集合框架在复杂架构场景中的高级应用(缓存设计、分层存储、数据分片)理解集合与设计模式的结合实践(享元模式、装饰器模式、迭代器模式等)精通高并发、大数据量场景下

一、章节学习目标与重点

1.1 学习目标

  • 掌握集合框架在复杂架构场景中的高级应用(缓存设计、分层存储、数据分片)
  • 理解集合与设计模式的结合实践(享元模式、装饰器模式、迭代器模式等)
  • 精通高并发、大数据量场景下集合的架构优化方案
  • 解决集合在分布式、微服务架构中的适配问题
  • 能够基于集合框架设计可扩展、高性能的核心业务组件

1.2 学习重点

  • 基于集合的缓存架构设计(本地缓存、多级缓存)
  • 集合与设计模式的深度融合实践
  • 大数据量下集合的分片存储与并行处理架构
  • 分布式场景中集合的数据一致性与传输优化
  • 集合框架驱动的业务组件设计(配置中心、规则引擎)

二、基于集合的缓存架构设计实战

💡 缓存是提升系统性能的核心手段,而 java 集合框架是实现本地缓存的基础。基于集合的缓存设计需兼顾查询效率、内存占用、过期策略、线程安全四大核心诉求,常用集合包括 hashmap、linkedhashmap、weakhashmap 等。

2.1 本地缓存设计核心要素

  • 存储结构:选择合适的集合实现类(如 hashmap 用于高效查询,linkedhashmap 用于 lru 过期策略)
  • 过期策略:支持时间过期(ttl)、空间淘汰(lru/lfu)
  • 线程安全:高并发场景需保证读写安全
  • 内存控制:避免缓存膨胀,支持自动回收无用数据

2.2 基于 linkedhashmap 的 lru 缓存实现(固定容量+ttl)

linkedhashmap 天然支持访问顺序维护,结合 removeeldestentry() 方法可实现 lru 淘汰,扩展后支持 ttl 过期策略:

import java.util.linkedhashmap;
import java.util.map;
import java.util.objects;
import java.util.concurrent.locks.reentrantlock;
/**
 * 基于 linkedhashmap 的 lru+ttl 本地缓存
 * 特性:固定容量(lru 淘汰)、时间过期(ttl)、线程安全
 */
public class lruttlcache<k, v> extends linkedhashmap<k, cacheentry<v>> {
    private final int maxcapacity; // 最大容量
    private final long ttlmillis; // 过期时间(毫秒)
    private final reentrantlock lock = new reentrantlock(); // 可重入锁保证线程安全
    // 缓存条目:包装值和过期时间
    private static class cacheentry<v> {
        v value;
        long expiretime; // 过期时间戳(毫秒)
        cacheentry(v value, long expiretime) {
            this.value = value;
            this.expiretime = expiretime;
        }
        // 判断是否过期
        boolean isexpired() {
            return system.currenttimemillis() > expiretime;
        }
    }
    // 构造函数:指定最大容量和 ttl
    public lruttlcache(int maxcapacity, long ttlmillis) {
        super(maxcapacity, 0.75f, true); // accessorder=true(访问顺序)
        this.maxcapacity = maxcapacity;
        this.ttlmillis = ttlmillis;
    }
    /**
     * 重写 removeeldestentry:达到最大容量时删除最久未使用的条目
     */
    @override
    protected boolean removeeldestentry(map.entry<k, cacheentry<v>> eldest) {
        // 先清理过期条目
        if (eldest.getvalue().isexpired()) {
            return true;
        }
        // 未过期则判断是否超容量
        return size() > maxcapacity;
    }
    /**
     * 存缓存:线程安全
     */
    public void put(k key, v value) {
        objects.requirenonnull(key);
        objects.requirenonnull(value);
        lock.lock();
        try {
            // 计算过期时间戳
            long expiretime = system.currenttimemillis() + ttlmillis;
            super.put(key, new cacheentry<>(value, expiretime));
        } finally {
            lock.unlock();
        }
    }
    /**
     * 取缓存:线程安全,自动过滤过期条目
     */
    public v get(object key) {
        lock.lock();
        try {
            cacheentry<v> entry = super.get(key);
            if (entry == null) {
                return null;
            }
            // 过期则删除并返回 null
            if (entry.isexpired()) {
                super.remove(key);
                return null;
            }
            return entry.value;
        } finally {
            lock.unlock();
        }
    }
    /**
     * 批量清理过期条目
     */
    public void cleanexpired() {
        lock.lock();
        try {
            keyset().removeif(key -> super.get(key).isexpired());
        } finally {
            lock.unlock();
        }
    }
}

2.3 多级缓存架构设计(本地缓存+分布式缓存)

在微服务架构中,单一本地缓存无法满足分布式部署需求,需设计“本地缓存+分布式缓存”的多级架构:

2.3.1 架构示意图

应用服务 a                应用服务 b
┌───────────────┐        ┌───────────────┐
│ 本地缓存      │        │ 本地缓存      │
│ (lruttlcache)│        │ (lruttlcache)│
└───────┬───────┘        └───────┬───────┘
        │                        │
        └───────────┬───────────┘
                    │
            ┌───────▼───────┐
            │ 分布式缓存    │
            │ (redis)     │
            └───────┬───────┘
                    │
            ┌───────▼───────┐
            │ 数据库        │
            └───────────────┘

2.3.2 核心逻辑

  1. 读取数据:优先查本地缓存 → 本地未命中查分布式缓存 → 分布式未命中查数据库,查询结果回写两级缓存
  2. 更新数据:更新数据库 → 淘汰分布式缓存 → 淘汰所有应用节点的本地缓存(通过消息通知)
  3. 优势:本地缓存提升响应速度,分布式缓存保证分布式一致性,数据库保证数据持久化

2.3.3 代码简化实现(多级缓存客户端)

import redis.clients.jedis.jedis;
import java.util.function.supplier;
/**
 * 多级缓存客户端(本地缓存+redis)
 */
public class multilevelcache<k, v> {
    private final lruttlcache<k, v> localcache;
    private final jedis redisclient;
    private final string prefix; // redis 键前缀
    private final long redisttlseconds; // redis 过期时间(秒)
    // 构造函数:初始化各级缓存
    public multilevelcache(int localmaxcapacity, long localttlmillis,
                          jedis redisclient, string prefix, long redisttlseconds) {
        this.localcache = new lruttlcache<>(localmaxcapacity, localttlmillis);
        this.redisclient = redisclient;
        this.prefix = prefix;
        this.redisttlseconds = redisttlseconds;
    }
    /**
     * 读取缓存:自动降级查询
     * @param key 缓存键
     * @param loader 数据库加载器(缓存未命中时执行)
     * @return 缓存值
     */
    public v get(k key, supplier<v> loader) {
        // 1. 查本地缓存
        v value = localcache.get(key);
        if (value != null) {
            return value;
        }
        // 2. 查 redis 缓存
        string rediskey = prefix + key;
        string redisvalue = redisclient.get(rediskey);
        if (redisvalue != null) {
            v deserialized = deserialize(redisvalue); // 反序列化
            localcache.put(key, deserialized); // 回写本地缓存
            return deserialized;
        }
        // 3. 查数据库并回写缓存
        value = loader.get();
        if (value != null) {
            localcache.put(key, value);
            redisclient.setex(rediskey, redisttlseconds, serialize(value)); // 序列化并设置过期时间
        }
        return value;
    }
    /**
     * 淘汰缓存:更新数据时调用
     */
    public void evict(k key) {
        localcache.remove(key); // 淘汰本地缓存
        redisclient.del(prefix + key); // 淘汰 redis 缓存
        // 发送消息通知其他节点淘汰本地缓存(如 rocketmq/kafka)
        sendevictmessage(key);
    }
    // 序列化/反序列化(简化实现,实际可使用 jackson)
    private string serialize(v value) {
        return value.tostring();
    }
    private v deserialize(string value) {
        return (v) value;
    }
    // 发送缓存淘汰消息(简化实现)
    private void sendevictmessage(k key) {
        system.out.println("发送缓存淘汰消息:" + key);
    }
}

2.4 缓存架构优化要点

  • 本地缓存:使用 lruttlcache 控制内存,定期清理过期数据,避免内存泄漏
  • 分布式缓存:选择 redis 等高性能组件,设置合理 ttl,避免缓存雪崩
  • 一致性保障:更新数据时采用“更新数据库→淘汰缓存”顺序,结合消息通知实现分布式缓存一致性
  • 降级策略:分布式缓存不可用时,仅依赖本地缓存+数据库,保证系统可用性

三、集合与设计模式的深度融合实践

java 集合框架本身大量运用设计模式(如迭代器模式、装饰器模式),在实际开发中,结合设计模式使用集合可大幅提升代码的扩展性和可维护性。

3.1 装饰器模式+集合:增强集合功能

装饰器模式通过包装原集合,在不修改原代码的前提下增强功能(如日志记录、权限控制、数据校验)。以下实现一个“带访问日志的 list”:

import java.util.*;
/**
 * 装饰器模式:带访问日志的 list
 */
public class logginglist<e> implements list<e> {
    // 被装饰的原 list
    private final list<e> target;
    // 日志记录器(简化实现)
    private final logger logger = new logger();
    // 构造函数:传入原 list
    public logginglist(list<e> target) {
        this.target = objects.requirenonnull(target);
    }
    /**
     * 增强 add 方法:记录添加日志
     */
    @override
    public boolean add(e e) {
        logger.log("添加元素:" + e);
        return target.add(e);
    }
    /**
     * 增强 get 方法:记录访问日志
     */
    @override
    public e get(int index) {
        e e = target.get(index);
        logger.log("访问索引 " + index + " 的元素:" + e);
        return e;
    }
    /**
     * 其他方法直接委托给原 list(省略重复代码,实际开发可通过 ide 自动生成)
     */
    @override
    public int size() {
        return target.size();
    }
    @override
    public boolean isempty() {
        return target.isempty();
    }
    // ... 其他 list 接口方法(均委托给 target)
    /**
     * 简化日志类
     */
    private static class logger {
        public void log(string message) {
            system.out.println("[logginglist] " + message);
        }
    }
    // 测试
    public static void main(string[] args) {
        list<string> list = new logginglist<>(new arraylist<>());
        list.add("java");
        list.add("集合");
        list.get(0);
        // 输出:
        // [logginglist] 添加元素:java
        // [logginglist] 添加元素:集合
        // [logginglist] 访问索引 0 的元素:java
    }
}

3.2 享元模式+集合:复用重复对象

享元模式通过缓存重复对象减少内存占用,适用于大量相似对象场景(如配置项、常量、商品规格)。以下基于 hashmap 实现享元池:

import java.util.hashmap;
import java.util.map;
import java.util.objects;
/**
 * 享元模式:商品规格享元池(复用重复的规格对象)
 */
public class specificationflyweightpool {
    // 享元池:缓存规格对象(key=规格编码,value=规格对象)
    private static final map<string, specification> pool = new hashmap<>();
    /**
     * 获取规格对象:存在则复用,不存在则创建并缓存
     */
    public static specification getspecification(string color, string size) {
        objects.requirenonnull(color);
        objects.requirenonnull(size);
        // 生成唯一编码(作为享元池 key)
        string key = color + "_" + size;
        // 双重检查锁定(dcl)保证线程安全
        if (!pool.containskey(key)) {
            synchronized (specificationflyweightpool.class) {
                if (!pool.containskey(key)) {
                    pool.put(key, new specification(color, size));
                }
            }
        }
        return pool.get(key);
    }
    /**
     * 商品规格类(不可变,确保享元安全复用)
     */
    public static class specification {
        private final string color;
        private final string size;
        private specification(string color, string size) {
            this.color = color;
            this.size = size;
        }
        // getter(无 setter,确保不可变)
        public string getcolor() {
            return color;
        }
        public string getsize() {
            return size;
        }
        // 重写 equals 和 hashcode(确保 key 唯一性)
        @override
        public boolean equals(object o) {
            if (this == o) return true;
            if (o == null || getclass() != o.getclass()) return false;
            specification that = (specification) o;
            return objects.equals(color, that.color) && objects.equals(size, that.size);
        }
        @override
        public int hashcode() {
            return objects.hash(color, size);
        }
    }
    // 测试:复用对象
    public static void main(string[] args) {
        specification spec1 = getspecification("红色", "m");
        specification spec2 = getspecification("红色", "m");
        system.out.println(spec1 == spec2); // true(复用同一对象)
    }
}

3.3 迭代器模式+集合:自定义遍历逻辑

迭代器模式隔离集合的存储结构与遍历逻辑,支持自定义遍历规则(如过滤、分页、排序)。以下实现一个“分页迭代器”:

import java.util.iterator;
import java.util.list;
import java.util.nosuchelementexception;
import java.util.objects;
/**
 * 迭代器模式:分页迭代器(按页遍历集合)
 */
public class pagingiterator<e> implements iterator<list<e>> {
    private final list<e> source; // 源集合
    private final int pagesize; // 每页大小
    private int currentpage; // 当前页码(从 0 开始)
    private final int totalpages; // 总页数
    /**
     * 构造函数:传入源集合和每页大小
     */
    public pagingiterator(list<e> source, int pagesize) {
        this.source = objects.requirenonnull(source);
        if (pagesize <= 0) {
            throw new illegalargumentexception("每页大小必须大于 0");
        }
        this.pagesize = pagesize;
        this.currentpage = 0;
        // 计算总页数
        this.totalpages = (source.size() + pagesize - 1) / pagesize;
    }
    /**
     * 是否还有下一页
     */
    @override
    public boolean hasnext() {
        return currentpage < totalpages;
    }
    /**
     * 获取下一页数据
     */
    @override
    public list<e> next() {
        if (!hasnext()) {
            throw new nosuchelementexception("没有更多页面");
        }
        // 计算当前页的起始索引和结束索引
        int start = currentpage * pagesize;
        int end = math.min(start + pagesize, source.size());
        list<e> pagedata = source.sublist(start, end);
        currentpage++;
        return pagedata;
    }
    // 测试:分页遍历 10 条数据(每页 3 条)
    public static void main(string[] args) {
        list<integer> list = list.of(1, 2, 3, 4, 5, 6, 7, 8, 9, 10);
        pagingiterator<integer> iterator = new pagingiterator<>(list, 3);
        int pagenum = 1;
        while (iterator.hasnext()) {
            list<integer> page = iterator.next();
            system.out.println("第 " + pagenum + " 页:" + page);
            pagenum++;
        }
        // 输出:
        // 第 1 页:[1, 2, 3]
        // 第 2 页:[4, 5, 6]
        // 第 3 页:[7, 8, 9]
        // 第 4 页:[10]
    }
}

四、大数据量下集合的分片存储与并行处理

当数据量达到百万、千万级别时,单一集合会面临内存溢出、遍历效率低等问题,需采用“分片存储+并行处理”架构,利用多线程和分布式资源提升处理能力。

4.1 集合分片存储设计(基于 list 的分片)

将大数据量集合拆分为多个小分片(shard),每个分片存储部分数据,便于并行处理和内存控制:

import java.util.arraylist;
import java.util.list;
import java.util.objects;
/**
 * 集合分片工具类:将大 list 拆分为多个小分片
 */
public class listsharder<t> {
    private final list<t> source; // 源集合
    private final int shardsize; // 每个分片的最大大小
    public listsharder(list<t> source, int shardsize) {
        this.source = objects.requirenonnull(source);
        if (shardsize <= 0) {
            throw new illegalargumentexception("分片大小必须大于 0");
        }
        this.shardsize = shardsize;
    }
    /**
     * 执行分片:返回分片列表
     */
    public list<list<t>> shard() {
        list<list<t>> shards = new arraylist<>();
        int totalsize = source.size();
        if (totalsize == 0) {
            return shards;
        }
        // 计算分片数量
        int shardcount = (totalsize + shardsize - 1) / shardsize;
        for (int i = 0; i < shardcount; i++) {
            // 计算当前分片的起始和结束索引
            int start = i * shardsize;
            int end = math.min(start + shardsize, totalsize);
            // 截取分片并添加到结果集(arraylist 是线程不安全的,并行处理时需注意)
            list<t> shard = new arraylist<>(source.sublist(start, end));
            shards.add(shard);
        }
        return shards;
    }
    // 测试:将 100 万条数据拆分为每个分片 1 万条
    public static void main(string[] args) {
        // 生成 100 万条测试数据
        list<integer> biglist = new arraylist<>(1_000_000);
        for (int i = 0; i < 1_000_000; i++) {
            biglist.add(i);
        }
        // 分片(每个分片 10000 条)
        listsharder<integer> sharder = new listsharder<>(biglist, 10_000);
        list<list<integer>> shards = sharder.shard();
        system.out.println("总数据量:" + biglist.size());
        system.out.println("分片数量:" + shards.size());
        system.out.println("每个分片大小:" + shards.get(0).size());
        // 输出:
        // 总数据量:1000000
        // 分片数量:100
        // 每个分片大小:10000
    }
}

4.2 分片并行处理(基于线程池)

将分片分配给线程池并行处理,利用多核 cpu 资源提升处理效率,适用于数据筛选、统计、转换等场景:

import java.util.list;
import java.util.concurrent.executorservice;
import java.util.concurrent.executors;
import java.util.concurrent.timeunit;
import java.util.stream.collectors;
/**
 * 分片并行处理器:基于线程池处理分片数据
 */
public class shardparallelprocessor<t, r> {
    private final executorservice executor; // 线程池
    private final int threadcount; // 线程数(默认 cpu 核心数)
    // 构造函数:默认线程数为 cpu 核心数
    public shardparallelprocessor() {
        this.threadcount = runtime.getruntime().availableprocessors();
        this.executor = executors.newfixedthreadpool(threadcount);
    }
    // 构造函数:自定义线程数
    public shardparallelprocessor(int threadcount) {
        this.threadcount = threadcount;
        this.executor = executors.newfixedthreadpool(threadcount);
    }
    /**
     * 并行处理分片:每个分片执行 processor 逻辑
     * @param shards 分片列表
     * @param processor 分片处理逻辑(函数式接口)
     * @return 合并后的处理结果
     */
    public list<r> process(list<list<t>> shards, shardprocessor<t, r> processor) {
        try {
            // 提交所有分片任务,并行执行
            return shards.stream()
                    .map(shard -> executor.submit(() -> processor.process(shard)))
                    .map(future -> {
                        try {
                            return future.get(); // 获取分片处理结果
                        } catch (exception e) {
                            throw new runtimeexception("分片处理失败", e);
                        }
                    })
                    .flatmap(list::stream) // 合并所有分片结果
                    .collect(collectors.tolist());
        } finally {
            // 关闭线程池
            executor.shutdown();
            try {
                if (!executor.awaittermination(1, timeunit.hours)) {
                    executor.shutdownnow();
                }
            } catch (interruptedexception e) {
                executor.shutdownnow();
            }
        }
    }
    /**
     * 分片处理函数式接口
     */
    @functionalinterface
    public interface shardprocessor<t, r> {
        list<r> process(list<t> shard);
    }
    // 测试:并行统计分片数据中偶数的个数
    public static void main(string[] args) {
        // 1. 生成 100 万条数据并分片
        list<integer> biglist = new arraylist<>(1_000_000);
        for (int i = 0; i < 1_000_000; i++) {
            biglist.add(i);
        }
        listsharder<integer> sharder = new listsharder<>(biglist, 10_000);
        list<list<integer>> shards = sharder.shard();
        // 2. 并行处理:统计每个分片的偶数个数
        shardparallelprocessor<integer, integer> processor = new shardparallelprocessor<>();
        list<integer> shardevencounts = processor.process(shards, shard -> {
            // 每个分片统计偶数个数
            long count = shard.stream().filter(num -> num % 2 == 0).count();
            return list.of((int) count);
        });
        // 3. 合并结果
        int totalevencount = shardevencounts.stream().maptoint(integer::intvalue).sum();
        system.out.println("100 万条数据中偶数的个数:" + totalevencount); // 输出:500000
    }
}

4.3 分布式分片处理(基于 mapreduce 思想)

当数据量达到亿级别时,单机分片已无法满足需求,需采用分布式分片架构(如 hadoop mapreduce、spark),核心思想:

  1. 分片:将分布式存储(如 hdfs、mysql 分库分表)中的数据拆分为多个分片
  2. 映射(map):多个节点并行处理各自分片,输出中间结果
  3. 归约(reduce):汇总所有节点的中间结果,得到最终结果

java 集合可作为分布式分片的“本地处理单元”,配合分布式框架实现大规模数据处理。

五、分布式场景中集合的数据一致性与传输优化

在分布式系统中,集合数据的传输和一致性维护是核心挑战,需解决“数据序列化、网络传输效率、分布式一致性”三大问题。

5.1 集合数据序列化优化

集合数据在网络中传输时需序列化,选择高效的序列化框架可降低传输开销,常用框架包括:

  • jackson:json 序列化,可读性强,适用于中小数据量
  • protostuff:二进制序列化,效率高、体积小,适用于大数据量
  • kryo:高性能二进制序列化,适用于分布式缓存、rpc 传输

以下是基于 protostuff 的集合序列化工具类:

import io.protostuff.linkedbuffer;
import io.protostuff.protostuffioutil;
import io.protostuff.schema;
import io.protostuff.runtime.runtimeschema;
import java.util.list;
import java.util.map;
/**
 * 集合序列化工具类(基于 protostuff)
 */
public class collectionserializer {
    // 线程局部变量:避免缓冲区竞争
    private static final threadlocal<linkedbuffer> buffer = threadlocal.withinitial(() -> linkedbuffer.allocate(linkedbuffer.default_buffer_size));
    /**
     * 序列化 list
     */
    public static <t> byte[] serializelist(list<t> list, class<t> clazz) {
        if (list == null || list.isempty()) {
            return new byte[0];
        }
        schema<t> schema = runtimeschema.getschema(clazz);
        linkedbuffer buffer = buffer.get();
        try {
            return protostuffioutil.tobytearray(list, schema, buffer);
        } finally {
            buffer.clear(); // 清空缓冲区
        }
    }
    /**
     * 反序列化 list
     */
    public static <t> list<t> deserializelist(byte[] data, class<t> clazz) {
        if (data == null || data.length == 0) {
            return list.of();
        }
        schema<t> schema = runtimeschema.getschema(clazz);
        list<t> list = schema.newmessage().getclass().isassignablefrom(list.class) ? 
                (list<t>) schema.newmessage() : new arraylist<>();
        protostuffioutil.mergefrom(data, (t) list, schema);
        return list;
    }
    /**
     * 序列化 map(简化实现,实际需自定义 schema)
     */
    public static <k, v> byte[] serializemap(map<k, v> map, class<k> keyclazz, class<v> valueclazz) {
        // 实际开发中需为 map 自定义 schema,此处简化为 json 序列化(仅作示例)
        try {
            return new com.alibaba.fastjson.jsonobject().tojsonbytes(map);
        } catch (exception e) {
            throw new runtimeexception("map 序列化失败", e);
        }
    }
    /**
     * 反序列化 map
     */
    public static <k, v> map<k, v> deserializemap(byte[] data, class<k> keyclazz, class<v> valueclazz) {
        if (data == null || data.length == 0) {
            return map.of();
        }
        // 对应序列化逻辑,简化为 json 反序列化
        try {
            return com.alibaba.fastjson.jsonobject.parseobject(data, new com.alibaba.fastjson.typereference<map<k, v>>() {});
        } catch (exception e) {
            throw new runtimeexception("map 反序列化失败", e);
        }
    }
}

5.2 分布式集合数据一致性保障

分布式场景中,多个节点同时操作集合数据会导致一致性问题,常用解决方案:

  1. 分布式锁:通过 redis 分布式锁、zookeeper 锁等,保证同一时间只有一个节点修改数据
  2. 版本控制:为集合数据添加版本号,修改时校验版本,避免覆盖过期数据
  3. 最终一致性:基于消息队列异步同步数据,允许短时间不一致,最终达到一致

以下是基于 redis 分布式锁的集合修改示例:

import redis.clients.jedis.jedis;
import java.util.list;
import java.util.uuid;
import java.util.concurrent.timeunit;
/**
 * 分布式集合修改:基于 redis 分布式锁保证一致性
 */
public class distributedlistmodifier<t> {
    private final jedis jedis;
    private final string listkey; // redis 中 list 的 key
    private final string lockkey; // 分布式锁 key
    private final long locktimeout; // 锁超时时间(毫秒)
    public distributedlistmodifier(jedis jedis, string listkey, long locktimeout) {
        this.jedis = jedis;
        this.listkey = listkey;
        this.lockkey = "lock:" + listkey;
        this.locktimeout = locktimeout;
    }
    /**
     * 向分布式 list 中添加元素(线程安全)
     */
    public boolean addelement(t element) {
        string lockvalue = uuid.randomuuid().tostring();
        try {
            // 1. 获取分布式锁
            boolean locked = trylock(lockvalue);
            if (!locked) {
                return false; // 获取锁失败,返回重试
            }
            // 2. 序列化元素并添加到 redis list
            byte[] data = collectionserializer.serializelist(list.of(element), (class<t>) element.getclass());
            jedis.rpush(listkey.getbytes(), data);
            return true;
        } finally {
            // 3. 释放锁
            releaselock(lockvalue);
        }
    }
    /**
     * 获取分布式锁
     */
    private boolean trylock(string lockvalue) {
        string result = jedis.set(lockkey, lockvalue, "nx", "px", locktimeout);
        return "ok".equals(result);
    }
    /**
     * 释放分布式锁(防止误释放)
     */
    private void releaselock(string lockvalue) {
        string script = "if redis.call('get', keys[1]) == argv[1] then return redis.call('del', keys[1]) else return 0 end";
        jedis.eval(script, list.of(lockkey), list.of(lockvalue));
    }
}

5.3 集合传输优化技巧

  • 分片传输:大数据量集合拆分后分批传输,避免单次传输过大导致超时
  • 压缩传输:序列化后对数据进行压缩(如 gzip),减少网络带宽占用
  • 增量传输:仅传输新增/修改的元素,而非整个集合,降低传输开销
  • 延迟加载:分布式场景中,先传输集合元数据(如大小、分片信息),按需加载具体数据

六、实战案例:基于集合的规则引擎设计

规则引擎是业务系统的核心组件,用于动态管理业务规则(如风控规则、促销规则),基于集合框架可实现轻量级规则引擎,支持规则的动态添加、匹配和执行。

6.1 需求分析

设计一个促销规则引擎,支持以下功能:

  1. 动态添加促销规则(如满减、折扣、赠品)
  2. 根据订单信息匹配符合条件的规则
  3. 执行规则并返回促销结果
  4. 支持规则优先级(高优先级规则先执行)

6.2 设计思路

  • 规则接口(promotionrule):定义规则的匹配条件和执行逻辑
  • 规则引擎(ruleengine):使用 treeset 存储规则(按优先级排序),提供规则添加、匹配、执行方法
  • 订单上下文(ordercontext):封装订单信息,作为规则匹配和执行的入参

6.3 代码实现

6.3.1 订单上下文类(ordercontext.java)

import java.math.bigdecimal;
import java.util.list;
import java.util.objects;
/**
 * 订单上下文:封装规则匹配所需的订单信息
 */
public class ordercontext {
    private final string orderid;
    private final bigdecimal totalamount; // 订单总金额
    private final list<string> productids; // 商品 id 列表
    private final int memberlevel; // 会员等级
    // 构造函数
    public ordercontext(string orderid, bigdecimal totalamount, list<string> productids, int memberlevel) {
        this.orderid = objects.requirenonnull(orderid);
        this.totalamount = objects.requirenonnull(totalamount);
        this.productids = objects.requirenonnull(productids);
        this.memberlevel = memberlevel;
    }
    // getter
    public string getorderid() {
        return orderid;
    }
    public bigdecimal gettotalamount() {
        return totalamount;
    }
    public list<string> getproductids() {
        return productids;
    }
    public int getmemberlevel() {
        return memberlevel;
    }
}

6.3.2 促销规则接口(promotionrule.java)

/**
 * 促销规则接口:所有规则需实现此接口
 */
public interface promotionrule {
    /**
     * 规则优先级:数值越大,优先级越高
     */
    int getpriority();
    /**
     * 规则匹配:判断订单是否满足规则条件
     */
    boolean match(ordercontext context);
    /**
     * 执行规则:返回促销结果
     */
    promotionresult execute(ordercontext context);
    /**
     * 促销结果封装
     */
    record promotionresult(string rulename, bigdecimal discountamount, string gift) {}
}

6.3.3 具体规则实现(满减规则、折扣规则)

import java.math.bigdecimal;
/**
 * 满减规则:满 1000 减 200
 */
public class fullreducerule implements promotionrule {
    @override
    public int getpriority() {
        return 2; // 优先级:2
    }
    @override
    public boolean match(ordercontext context) {
        // 订单金额 ≥1000 元
        return context.gettotalamount().compareto(new bigdecimal("1000")) >= 0;
    }
    @override
    public promotionresult execute(ordercontext context) {
        return new promotionresult("满1000减200", new bigdecimal("200"), "无");
    }
}
/**
 * 会员折扣规则:vip 会员 9 折
 */
public class memberdiscountrule implements promotionrule {
    @override
    public int getpriority() {
        return 1; // 优先级:1(低于满减规则)
    }
    @override
    public boolean match(ordercontext context) {
        // 会员等级 ≥3(vip 会员)
        return context.getmemberlevel() >= 3;
    }
    @override
    public promotionresult execute(ordercontext context) {
        bigdecimal discount = context.gettotalamount().multiply(new bigdecimal("0.1"));
        return new promotionresult("vip 9折", discount, "无");
    }
}
/**
 * 赠品规则:购买指定商品送赠品
 */
public class giftrule implements promotionrule {
    private final string targetproductid;
    private final string gift;
    public giftrule(string targetproductid, string gift) {
        this.targetproductid = targetproductid;
        this.gift = gift;
    }
    @override
    public int getpriority() {
        return 3; // 优先级:3(最高)
    }
    @override
    public boolean match(ordercontext context) {
        // 包含指定商品
        return context.getproductids().contains(targetproductid);
    }
    @override
    public promotionresult execute(ordercontext context) {
        return new promotionresult("购买指定商品送赠品", bigdecimal.zero, gift);
    }
}

6.3.4 规则引擎类(ruleengine.java)

import java.util.arraylist;
import java.util.comparator;
import java.util.list;
import java.util.treeset;
/**
 * 规则引擎:基于 treeset 按优先级管理规则
 */
public class ruleengine {
    // 存储规则:treeset 按优先级降序排序(优先级越高越先执行)
    private final treeset<promotionrule> rules = new treeset<>(comparator.comparingint(promotionrule::getpriority).reversed());
    /**
     * 添加规则
     */
    public void addrule(promotionrule rule) {
        rules.add(rule);
    }
    /**
     * 匹配并执行规则:返回所有符合条件的规则结果
     */
    public list<promotionresult> executerules(ordercontext context) {
        list<promotionresult> results = new arraylist<>();
        for (promotionrule rule : rules) {
            if (rule.match(context)) {
                results.add(rule.execute(context));
                // 若为排他规则,可在此处 break(本案例支持多规则叠加)
            }
        }
        return results;
    }
    // 测试
    public static void main(string[] args) {
        // 1. 初始化规则引擎并添加规则
        ruleengine engine = new ruleengine();
        engine.addrule(new fullreducerule());
        engine.addrule(new memberdiscountrule());
        engine.addrule(new giftrule("p001", "保温杯"));
        // 2. 构造订单上下文(满 1000 元、vip 会员、包含 p001 商品)
        ordercontext context = new ordercontext(
                "order001",
                new bigdecimal("1500"),
                list.of("p001", "p002"),
                3
        );
        // 3. 执行规则
        list<promotionresult> results = engine.executerules(context);
        // 4. 输出结果(按优先级排序:赠品规则 → 满减规则 → 折扣规则)
        system.out.println("订单 " + context.getorderid() + " 匹配的促销规则:");
        for (promotionresult result : results) {
            system.out.printf("规则:%s,折扣金额:%s,赠品:%s%n",
                    result.rulename(), result.discountamount(), result.gift());
        }
    }
}

6.4 测试结果与案例总结

6.4.1 测试输出

订单 order001 匹配的促销规则:
规则:购买指定商品送赠品,折扣金额:0,赠品:保温杯
规则:满1000减200,折扣金额:200,赠品:无
规则:vip 9折,折扣金额:150.00,赠品:无

6.4.2 案例总结

✅ 核心技术亮点:

  1. 集合选型:使用 treeset 存储规则,自动按优先级排序,无需手动维护顺序
  2. 接口抽象:定义 promotionrule 接口,支持规则扩展(新增规则无需修改引擎代码)
  3. 灵活性:支持多规则叠加执行,可通过修改比较器或添加排他标记支持排他规则
  4. 可扩展性:规则可动态添加/删除,适用于业务规则频繁变化的场景

✅ 扩展方向:

  • 规则持久化:将规则存储到数据库,支持动态配置和热更新
  • 规则条件表达式:使用 el 表达式或脚本语言(如 groovy)定义规则条件,更灵活
  • 规则执行监控:记录规则执行日志和结果,便于排查问题和优化规则

七、本章小结

本章聚焦 java 集合框架的高级应用与架构设计,从缓存架构、设计模式融合、大数据量处理、分布式适配到业务组件设计,全面覆盖复杂场景的实践方案,核心要点回顾如下:

  1. 缓存架构:基于 linkedhashmap 实现 lru+ttl 本地缓存,结合分布式缓存设计多级缓存架构,兼顾性能和一致性。
  2. 设计模式融合:装饰器模式增强集合功能,享元模式复用重复对象,迭代器模式自定义遍历逻辑,提升代码扩展性。
  3. 大数据量处理:通过集合分片存储控制内存,结合线程池并行处理提升效率,分布式场景下可扩展为 mapreduce 架构。
  4. 分布式适配:优化集合序列化和传输效率,基于分布式锁保证数据一致性,适用于微服务和分布式系统。
  5. 业务组件设计:基于集合框架实现轻量级规则引擎,支持规则动态管理和灵活扩展,可复用至各类业务系统。

通过本章学习,读者应能跳出“基础 api 使用”的层面,站在架构设计的角度运用集合框架,解决高并发、大数据量、分布式等复杂场景的问题,设计出高性能、可扩展、易维护的 java 应用。集合框架作为 java 开发的基础工具,其灵活运用是高级开发工程师的核心能力之一,后续可结合具体业务场景持续深化实践。

到此这篇关于java 集合框架高级应用与架构设计方案的文章就介绍到这了,更多相关java 集合框架实战应用内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2026  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com