谷歌浏览器插件
订阅小程序
在清言上使用

NoMAD-Attention: Efficient LLM Inference on CPUs Through Multiply-add-free Attention

Tianyi Zhang, Jonah Wonkyu Yi, Bowen Yao,Zhaozhuo Xu,Anshumali Shrivastava

NeurIPS 2024(2024)

引用 6|浏览29
关键词
large language model,efficiency,CPU inference,attention
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要