当前位置: 代码网 > 科技>人工智能>aigc > LLama学习记录

LLama学习记录

2024年07月28日 aigc 我要评论
学习前:五大问题:GQAKV-Cache。

学习前:

五大问题:

  1. 为什么swiglu激活函数能够提升模型性能?
  2. rope位置编码是什么?怎么用的?还有哪些位置编码方式?
  3. gqa(grouped-query attention, gqa)分组查询注意力机制是什么?
  4. pre-normalization前置了层归一化,使用rmsnorm 作为层归一化方法,这是什么意思?还有哪些归一化方法?layernorm?
  5. 将self-attention改进为使用kv-cache的grouped query,怎么实现的?原理是什么?

embedding

embedding的过程word -> token_id -> embedding_vector,其中第一步转化使用tokenizer的词表进行,第二步转化使用 learnable 的 embedding layer

这里的第二步,不是很明白怎么实现的,需要再细化验证

rms norm

对比batch norm 和 layer norm:都是减去均值mean,除以方差var(还加有一个极小值),最终将归一化为正态分布n(0,1)。只不过两者是在不同的维度(batch还是feature)求均值和方差,(其中,减均值:re-centering 将均值mean变换为0,除方差:re-scaling将方差varance变换为1)。

参考知乎的norm几则

rope(rotary positional encodding)

绝对positional encodding的使用过程:word -> token_id -> embedding_vector + position_encodding -> encoder_input,其中第一步转化使用tokenizer的词表进行,第二步转化使用 learnable 的 embedding layer。将得到的embedding_vector 和 position_encodding 进行element-wise的相加,然后才做为input送入llm的encoder。

理解llm位置编码:rope

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com