谷歌浏览器插件
订阅小程序
在清言上使用

Logit Standardization in Knowledge Distillation

CVPR 2024(2024)

引用 103|浏览145
关键词
Knowledge distillation,Efficient learning,Logit distillation,Efficient model,Logit standardization,Logit normalization,Plug-and-play,Image Classification
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要