最新MLPerf基准表明:AI的训练速度比去年提升了几乎两倍
6月29日,开放工程联盟MLCommons发布了MLPerf基准的最新训练结果,发现今年机器学习系统的训练速度几乎是去年的两倍,超越了摩尔定律(每18-24个月翻一倍)。
MLPerf由八个基准测试组成:图像识别、医学影像分割、两个版本的对象检测、语音识别、自然语言处理、推荐和强化学习。在这八个基准测试中,英伟达的加速器都拔得头筹,表现优异。
MLPerfTrainingv2.0结果包括来自21个不同提交者的多个性能结果,包括Azure、百度、戴尔、富士通、技嘉、谷歌、Graphcore、HPE、浪潮、英特尔-HabanaLabs、联想、Nettrix、NVIDIA、三星和Supermicro等等。(IEEESpectrum)
宋舒然获得机器人顶会RSS公布最佳论文奖
机器人顶会RSS(Robotics:ScienceandSystems)于6月27日至7月1日在纽约召开,并公布了最佳论文、最佳系统论文、最佳学生论文等全部奖项。
其中,目前任职于哥伦比亚大学的中国学者宋舒然与团队获得RSS最佳论文奖,获奖工作是“IterativeResidualPolicyforGoal-ConditionedManipulationofDeformableObjects”。宋舒然是机器人研究领域的知名青年学者,曾获得多项会议最佳论文奖,并获得年素有“诺贝尔风向标”之称的斯隆研究奖。
此前,AI科技评论曾对宋舒然博士进行专访,链接如下:
谷歌提出新的语言模型Mineva来解决定量推理问题
最近,谷歌研究院提出了一个能够用逐步推理来解决数学和科学问题的语言模型——Mineva。
据团队介绍,目前语言模型在定量推理问题(即结合数学和信息来解决现实世界问题)中的性能仍远远低于人类,而他们通过收集与定量推理问题相关的训练数据、大规模训练模型和采用先进的推理技术,实现了AI模型在定量推理任务上的显著进步。
论文链接: