单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

人工智能 新闻
CTR(click-through rate)预测模型是个性化推荐场景下的一种常用算法。

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

就在刚刚,UC伯克利博士、新加坡国立大学校长青年教授尤洋发布最新消息——

斩获AAAI 2023杰出论文奖(Distinguished Paper)

图片

研究成果一次性将模型的训练速度,提升72倍

甚至网友在拜读完论文之后发出感慨:

从12小时到10分钟,嫩牛(你们牛)啊!

图片

尤洋博士曾在求学期间刷新ImageNet以及BERT训练速度的世界纪录。

他所设计的算法也是广泛应用于谷歌,微软,英特尔,英伟达等科技巨头。

现如今,已经回国创业潞晨科技一年半的他,带着团队又做出了怎样的算法,斩获AI顶会如此殊荣呢?

训练时长从12小时到10分钟

在这项研究中,尤洋团队提出了一种优化策略CowClip,能够加速CTR预测模型的大批量训练。

CTR(click-through rate)预测模型是个性化推荐场景下的一种常用算法。

它通常需要学习用户的反馈(点击、收藏、购买等),而每天在线产生的数据量又是空前庞大的。

图片

因此,加快CTR预估模型的训练速度至关重要。

一般来说,提高训练速度会使用批量训练,不过批量太大会导致模型的准确度有所降低。

通过数学分析,团队证明了在扩大批次时,对于不常见特征的学习率(learning rate for infrequent features)不应该进行缩放。

图片

通过他们提出的CowClip,可以简单有效扩展批大小。

图片

通过在4个CTR预估模型和2个数据集上进行测试,团队成功将原始批大小扩大了128倍,并没有造成精度损失。

特别是在DeepFM上,通过将批大小从1K扩大到128K,CowClip实现了AUC超过0.1%的改进。

并在单块V100 GPU上,将训练时长从原本的12小时,缩短至只需10分钟,训练提速72倍

图片

目前,项目代码已开源。团队表示该算法也适用于NLP等任务。

团队介绍

本文的一作是尤洋的博士生郑奘巍,本科毕业于南京大学计算机精英班,博士毕业于新加坡国立大学。

其研究方向包括机器学习、计算机视觉和高性能计算。

责任编辑:张燕妮 来源: 量子位
相关推荐

2023-02-17 10:32:20

2024-02-29 11:56:10

AI模型

2023-07-12 14:28:45

谷歌模型

2024-02-26 08:25:00

模型训练

2024-01-18 15:18:48

数据模型

2018-06-04 14:53:21

Tesla V100NVIDIA计算平台

2016-02-24 22:26:04

2023-03-23 18:46:19

论文

2022-04-26 15:09:14

优化模型训练

2023-08-23 12:59:35

2013-02-28 10:35:59

hadoop大数据Hortonworks

2020-07-30 14:05:53

谷歌华为芯片

2011-04-20 14:16:02

爱普生V100扫描仪

2019-07-31 10:00:33

开源技术 软件

2022-08-09 09:10:31

TaichiPython

2011-04-20 13:59:28

爱普生V100扫描仪

2024-02-26 07:30:00

神经网络AI

2015-06-23 09:57:42

中企通信

2023-03-03 14:00:00

模型深度学习

2010-10-28 13:44:29

CEO网络安全360安全中心
点赞
收藏

51CTO技术栈公众号