谷歌浏览器插件
订阅小程序
在清言上使用

Data-Free Knowledge Distillation with Positive-Unlabeled Learning

NEURAL PROCESSING LETTERS(2023)

引用 1|浏览1
关键词
Convolutional neural networks,Model compression,Knowledge distillation,Positive-unlabeled learning,Attention mechanism,Soft-target
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要