当前位置: 代码网 > it编程>前端脚本>Golang > 一文教你学会Go中singleflight的使用

一文教你学会Go中singleflight的使用

2024年05月19日 Golang 我要评论
写作背景缓存在项目中使用应该是非常频繁的,提到缓存只要了解过singleflight,基本都会用于缓存实现的一部分吧?但singleflight要用好也不容易。名称解释singleflight来源于准

写作背景

缓存在项目中使用应该是非常频繁的,提到缓存只要了解过 singleflight ,基本都会用于缓存实现的一部分吧?但 singleflight 要用好也不容易。

名称解释

singleflight 来源于准官方库(也可以说官方扩展库)golang.org/x/sync/singleflight 包中。它的作用是避免同一个 key 对下游发起多次请求,降低下游流量。

源码剖析

3 个结构体

group 是 singleflight 的核心,代表一个组,用于执行具有重复抑制的工作单元。

type group struct {
	mu sync.mutex       
	m  map[string]*call
}

mu 是保护 m 字段的互斥锁,确保对调用信息的访问是线程安全的。m 是一个 map,键是函数的唯一标识符,值是 call 结构体,代表一次函数调用的信息,包括函数的返回值和错误。

call 代表一次函数调用的信息,把函数的调用结果封装到 call 中

type call struct {
	wg sync.waitgroup

	// 这些字段在 waitgroup 完成之前只被写入一次,并且在 waitgroup 完成之后只被读取
	val interface{} // 函数调用的返回值
	err error       // 函数调用可能出现的错误

	dups  int          // 相同 key 调用次数
	chans []chan<- result // 结果通道列表,仅调用 dochan() 方法时返回
}

result 结构体用于保存 dochan() 方法的执行结果,以便将结果传递给通道。

type result struct {
	val    interface{}
	err    error
	shared bool
}

4 个方法

group 主要提供了 3 个公开方法和 1 个非公开方法。

do() 方法,相同的 key 对应的 fn 函数只会调用一次。返回值 v 调用 fn() 方法返回的结果;err 调用 fn() 返回的 err;shared:表示在多次调用的结果是否共享。

func (g *group) do(key string, fn func() (interface{}, error)) (v interface{}, err error, shared bool) {
	g.mu.lock()
	if g.m == nil {
		g.m = make(map[string]*call)
	}
	if c, ok := g.m[key]; ok {
		c.dups++
		g.mu.unlock()
		c.wg.wait()

		if e, ok := c.err.(*panicerror); ok {
			panic(e)
		} else if c.err == errgoexit {
			runtime.goexit()
		}
		return c.val, c.err, true
	}
	c := new(call)
	c.wg.add(1)
	g.m[key] = c
	g.mu.unlock()

	g.docall(c, key, fn)
	return c.val, c.err, c.dups > 0
}

源码比较简单,如果 key 对应的 fn 函数已被调用,则等待 fn 函数调用完成直接返回结果。如果 fn 未被调用,new(call) 存入 m 中,执行 docal() 方法。

docall()  方法,调用 key 对应的 fn 方法。

func (g *group) docall(c *call, key string, fn func() (interface{}, error)) {
	normalreturn := false
	recovered := false
	defer func() {
		if !normalreturn && !recovered {
			c.err = errgoexit
		}

		g.mu.lock()
		defer g.mu.unlock()
		c.wg.done()
		if g.m[key] == c {
			delete(g.m, key)
		}

		if e, ok := c.err.(*panicerror); ok {
			if len(c.chans) > 0 {
				go panic(e)
				select {} 
			} else {
				panic(e)
			}
		} else if c.err == errgoexit {
		} else {
			for _, ch := range c.chans {
				ch <- result{c.val, c.err, c.dups > 0}
			}
		}
	}()

	func() {
		defer func() {
			if !normalreturn {
				if r := recover(); r != nil {
					c.err = newpanicerror(r)
				}
			}
		}()

		c.val, c.err = fn()
		normalreturn = true
	}()

	if !normalreturn {
		recovered = true
	}
}

docall() 代码比较简单,double defer 双延迟机制区分 panic 和 runtime.goexit。第二个 defer 会先执行调用 fn() 函数,如果未正常返回将会补获异常,并将堆栈信息存入 err 中。

第一个 defer 先将 key 从 m 中移除,再就是异常处理,如果是 goexit 正常退出,如果断言是 panicerror 将对外抛出 panic。若正常退出将结果发送到 chans 通道列表中。

dochan() 方法类似于 do() 方法,返回通道(chan),通过通道接收数据。另外通道不会被关闭。

func (g *group) dochan(key string, fn func() (interface{}, error)) <-chan result {
	ch := make(chan result, 1)
	g.mu.lock()
	if g.m == nil {
		g.m = make(map[string]*call)
	}
	if c, ok := g.m[key]; ok {
		c.dups++
		c.chans = append(c.chans, ch)
		g.mu.unlock()
		return ch
	}
	c := &call{chans: []chan<- result{ch}}
	c.wg.add(1)
	g.m[key] = c
	g.mu.unlock()

	go g.docall(c, key, fn)

	return ch
}

forget() 方法,可以理解为丢弃某一个 key,后面该 key 会被立即调用,而不是等待先前的调用完成。

func (g *group) forget(key string) {
	g.mu.lock()
	delete(g.m, key)
	g.mu.unlock()
}

经典案例

缓存场景在大家的业务场景中应该是被广泛使用的,大部分的场景使用应该都是下图吧?

从单体应用到微服务化,调用下游服务一般如下图吧?

假设缓存 miss 所有流量会瞬间打到数据库,或者所有流量都会打到 server2,如果学习过 singleflight 的同学,肯定会把它用在 reids->db 或 server->server2 之间,包括我也是。如下图(只举数据库案例)。

在使用 singleflight 之前你先确定下你的业务场景,key 相同的情况多吗?(可以统计一些数据,我们业务场景同一个 key 多次调用下游概率是比较高的)如果 key 相同的情况比较少,singleflight 对你的帮助可能不大。

上面列举 2 种方案。

1、  singleflight 介于 redis 和 db 之间,redis 是内存缓存 qps 高、响应也快。大部分情况不会成为瓶颈,但数据库就不一样了,所以这种方案可以防止缓存被击穿流量打到数据库。

2、  singleflight 介于 server 和 redis 之间,网上挺多推荐这种用法的,有必要用此方案吗?大家可以思考下,文章末尾我给出我的想法。

我更倾向方案一。代码如下:

func testsingleflight(t *testing.t) {
	var (
		n  = 10
		k  = "12344556"
		wg = sync.waitgroup{}
		sf singleflight.group
	)

	for i := 0; i < n; i++ {
		go func() {
			wg.add(1)
			defer wg.done()
			r, err, shared := sf.do(k, func() (interface{}, error) {
				return get(k)
			})
			if err != nil {
				panic(err)
			}

			fmt.printf("r=%v,shared=%v\n", r, shared)
		}()
	}

	wg.wait()
}

func get(key string) (interface{}, error) {
	time.sleep(time.microsecond) // todo 模拟业务处理
	return key, nil
}

输出结果如下

=== run   testsingleflight
r=12344556,shared=true
r=12344556,shared=true
r=12344556,shared=true
r=12344556,shared=true
r=12344556,shared=true
r=12344556,shared=false
r=12344556,shared=true
r=12344556,shared=false
r=12344556,shared=true
r=12344556,shared=true
--- pass: testsingleflight (0.00s)
pass

打印结果中为 true 都代表 调用 get() 函数返回结果被共享。get 函数调用明显降低了。

这种写法在函数正常返回情况下是能拿到正确的结果,如果下游返回异常了呢?(业务上遇过下游返回3-4s的拉低业务处理速度)因为 do() 方法是以阻塞的方式来控制对下游的调用的,如果某一个请求被阻塞了,同一个 key 后面的请求都会被阻塞。

假设有一场景(sop),消费 kafka 消息处理业务逻辑,业务高峰期某一时间段生产消息量为 100 w,单 pod 消费速度 500/s ,请求下游用 singleflight 控制对下游(三方接口)的并发量,假设下游某一次请求耗时 2s。这时会有几个问题:

1、若某一个 key 被阻塞后续该 key 大量请求被阻塞,若这批请求失败从而导致消息处理失败,如果对消息重试会加剧业务下游压力。

2、单 pod 消费速度从 500/s,降低到个位数,消费时间拉长,消息堆积(如果消息堆积对实时性要求场景影响视频很大的)。

造成这个问题主要原因如下:

singleflight 是同步阻塞且缺乏超时控制机制,若某一个 key 阻塞后面次 key 都会被阻塞并且等待第一次结束。

singleflight 虽然能降低对下游的请求量,但在某些场景失败的情况也增加了。

我们有办法给 singleflight 加一个超时时间吗?答案是肯定有的

下面这段代码 singleflight 没有增加超时控制

var (
	offset int32 = 0
)

func testsingleflight(t *testing.t) {
	var (
		n       int32 = 1000
		k             = "12344556"
		wg            = sync.waitgroup{}
		sf      singleflight.group
		failcnt int32 = 0
	)

	for i := 0; i < int(n); i++ {
		go func() {
			wg.add(1)
			defer wg.done()
			_, err, _ := sf.do(k, func() (interface{}, error) {
				return get(k)
			})
			if err != nil {
				atomic.addint32(&failcnt, 1)
				return
			}
		}()
	}

	wg.wait()
	fmt.printf("总请求数=%d,请求成功率=%d,请求失败率=%d", n, n-failcnt, failcnt)
}

func get(key string) (interface{}, error) {
	var err error
	if atomic.addint32(&offset, 1) == 3 { // 假设偏移量 offset == 3 执行耗时长,超时失败了
		time.sleep(time.microsecond * 500)
		err = fmt.errorf("耗时长")
	}

	return key, err
}

结果输出如下

=== run   testsingleflight
总请求数=1000,请求成功率=792,请求失败率=208--- pass: testsingleflight (0.00s)
pass

singleflight 增加超时控制代码如下

func testsingleflight(t *testing.t) {
	var (
		n       int32 = 1000
		k             = "12344556"
		wg            = sync.waitgroup{}
		sf      singleflight.group
		failcnt int32 = 0
	)

	for i := 0; i < int(n); i++ {
		go func() {
			wg.add(1)
			defer wg.done()
			_, err, _ := sf.do(k, func() (interface{}, error) {
				ctx, _ := context.withtimeout(context.todo(), time.microsecond*30)
				go func(_ctx context.context) {
					<-_ctx.done()
					sf.forget(k)
				}(ctx)
				
				return get(k)
			})
			if err != nil {
				atomic.addint32(&failcnt, 1)
				return
			}
		}()
	}

	wg.wait()
	fmt.printf("总请求数=%d,请求成功率=%d,请求失败率=%d", n, n-failcnt, failcnt)
}

利用 context.withtimeout() 方法控制超时,并且调用 forget() 方法移除超时 key 结果输出如下

=== run   testsingleflight
总请求数=1000,请求成功率=992,请求失败率=8--- pass: testsingleflight (0.00s)
pass

成功率提高了失败率明显降低了。

下面我用 dochan() 函数实现

var (
	offset int32 = 0
)

func testsingleflight(t *testing.t) {
	var (
		n          int32 = 1000 // n 越大,效果越明显
		k                = "12344556"
		wg               = sync.waitgroup{}
		sf         singleflight.group
		successcnt int32 = 0
	)

	for i := 0; i < int(n); i++ {
		go func() {
			wg.add(1)
			defer wg.done()
			ch := sf.dochan(k, func() (interface{}, error) {
				return get(k)
			})

			ctx, _ := context.withtimeout(context.todo(), time.microsecond*100)
			select {
			case <-ctx.done():
				sf.forget(k)
				return
			case ret := <-ch:
				if ret.err != nil {
					return
				}
				atomic.addint32(&successcnt, 1)
			}
		}()
	}

	wg.wait()
	fmt.printf("总请求数=%d,请求成功率=%d,请求失败率=%d", n, successcnt, n-successcnt)
}

func get(key string) (interface{}, error) {
	var err error
	if atomic.addint32(&offset, 1) == 3 { // 假设偏移量 offset == 3 执行耗时长,超时失败了
		time.sleep(time.microsecond * 400)
		err = fmt.errorf("耗时长")
	}

	return key, err
}

大家自行验证

总结

1、singleflight 使用得当确实能有效降低下游流量,我也推荐大家使用,但一定要注意同步阻塞问题,防止下游长耗时造成业务异常或高延迟,一定要做好正确性与降低业务下游流量权衡。

2、上面我留了一个问题,singleflight 有必要放在 server 应用和 redis 之间吗?我认为没必要,redis 是内存数据库,响应快,高 qps 本身不会是瓶颈,保护 redis 没有意义。另外 singleflight 用途是防止 redis 击穿流量打到数据库,如果你业务 qps 非常高并且对数据实时性要求高,为啥不通过其他手段把数据库数据刷新到 redis 中?比如数据创建同步写入 redis、或通过 binlog 写入。

到此这篇关于一文教你学会go中singleflight的使用的文章就介绍到这了,更多相关go singleflight内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com