CMU提出快速知识蒸馏视觉框架ResNe

机器之心专栏

机器之心编辑部

今天介绍一篇来自卡耐基梅隆大学等单位ECCV的一篇关于快速知识蒸馏的文章,用基本的训练参数配置就可以把ResNet-50在ImageNet-1K从头开始(fromscratch)训练到80.1%(不使用mixup,cutmix等数据增强),训练速度(尤其是数据读取开销)相比传统分类框架节省16%以上,比之前SOTA算法快30%以上,是目前精度和速度双双最优的知识蒸馏策略之一,代码和模型已全部开源!

论文和项目网址:


转载请注明:http://www.aierlanlan.com/cyrz/7670.html

  • 上一篇文章:
  •   
  • 下一篇文章: