最新文章
推荐文章
热点文章
机器之心专栏
机器之心编辑部
今天介绍一篇来自卡耐基梅隆大学等单位ECCV的一篇关于快速知识蒸馏的文章,用基本的训练参数配置就可以把ResNet-50在ImageNet-1K从头开始(fromscratch)训练到80.1%(不使用mixup,cutmix等数据增强),训练速度(尤其是数据读取开销)相比传统分类框架节省16%以上,比之前SOTA算法快30%以上,是目前精度和速度双双最优的知识蒸馏策略之一,代码和模型已全部开源!
论文和项目网址:
转载请注明:http://www.aierlanlan.com/cyrz/7670.html