[LLM推理优化] 100+篇: 大模型推理各方向新发展整理
共 1113字,需浏览 3分钟
·
2024-05-30 20:10
0x01 前言
从事大模型推理的工作有段时间了,业余有空的时候也会关注一下LLM近期发展的方向,以及一些新的paper。说实话,这些论文没法一一看完,大部分都只是看了摘要和结论,了解一下相关的技术对自己当前所做的业务是否有助益。整理和归纳是自己长期以来的习惯,对于LLM推理的发展也是如此,虽然无法一一深入到所有细节,但至少让自己保持一下对业界发展的敏感度应该还是可以的。
0x02 目录
半年多时间,大概收录了100多篇LLM推理相关的论文(paper with codes),既包括了常用的Attention优化、权重量化、KV Cache优化等技术,也涵盖了一些新方向,比如Early Exit、Long Context/Prompt KV Cache优化、Parallel Decoding/Sampling等。
0x03 内容
整理的内容都放在了GitHub:
这里不打算重复粘贴了,感兴趣的欢迎来GitHub阅读。
0x04 总结
TIPS: 欢迎大家提交PR增加LLM推理最新动向~
- The End -
长按二维码关注我们
本公众号专注:
1. 技术分享;
2. 学术交流;
3. 资料共享。
欢迎关注我们,一起成长!
评论