GPU驯服千亿参数巨兽:百度凤巢广告AI技术全面突破

mysmile 4个月前 (11-24) 广告新闻 51 0
GPU驯服千亿参数巨兽:百度凤巢广告AI技术全面突破

百度凤巢广告系统AI大揭秘:GPU如何驱动千亿级深度学习模型

中国网

你知道吗?在新冠疫情全球蔓延的紧张时刻,百度却悄然掀起了一场AI技术风暴。2020年3月2日清晨7点,百度研究院西雅图办公室通过远程连线,向正在美国奥斯丁召开的MLSys顶级AI会议听众展示了一项突破性研究。这篇论文深入解析了百度凤巢广告系统的核心AI技术:分布式层级GPU参数服务器,专为大规模深度学习广告系统设计。

论文首先回顾了百度自2010年起在广告技术领域的一系列世界级创新:

1. 2010年,百度率先采用分布式超大规模机器学习模型和参数服务器,开启了AI广告新纪元。

2. 2013年,百度将深度学习模型规模推向千亿参数级别,引领行业浪潮。

3. 2014年,百度攻克大规模向量近邻检索(ANN)和最大内积检索(MIPS)技术,并成功商用(注:相关成果获NIPS2014最佳论文奖),大幅提升广告召回精准度。

4. 2019年,百度在KDD顶级会议上发表MOBIUS论文,通过近邻检索技术优化查询-广告匹配,效果显著。

5. 2017年,百度广告AI团队大胆转向分布式GPU系统(4-8块GPU卡),替代传统MPI CPU集群,实现效率飞跃。

论文核心在于如何用小型GPU-SSD集群训练千亿参数模型。想象一下,普通机器学习模型参数仅数万到百万级,而百度凤巢系统整合用户、查询词、广告等多维特征,参数维度高达数千亿,存储需10TB空间。以往,这需要数百台CPU节点支撑,但GPU显存有限(仅32GB),无法直接加载千亿模型。尽管GPU加速优势明显,工业界长期束手无策。

百度曾于2015年尝试哈希技术压缩模型,虽能单机运行并提升逻辑回归准确率,但压缩并非无损。为追求极致性能,必须回归原始千亿维向量训练。

自2017年,百度团队创新融合GPU与SSD,首创分布式层级参数服务器方案。挑战在于SSD读取速度远慢于内存,但百度通过系统级优化,攻克技术难关,全球首次实现商用GPU-SSD深度学习广告系统。

如今,仅需4个GPU节点,训练速度比150个CPU集群快2倍,性价比提升9倍!这不仅加速模型迭代,更让研究人员高效试验新策略。系统扩展性极佳,1、2、4个GPU节点测试均呈线性效率增长,为未来更大模型训练铺平道路。

值得一提的是,论文第一作者赵炜捷博士来自百度研究院博士后项目,该项目由CTO王海峰支持,助力青年科学家专注基础研究。

该系统还与百度飞桨深度学习平台深度融合,助推中国自主AI生态建设。

相关问答

如何快速定位竞争对手的广告投放地?-ZOL问答

想了解对手的竞价广告策略?这里教你实用方法...如何精准查看他人广告投放位置?广告讨论回答(3)网络广告实战指南

百度信息流广告收费标准解析-天涯问答

[回答]百度信息流广告是什么?它嵌入百度首页、贴吧等平台资讯流,原生展示,覆盖亿级用户...收费标准灵活,按效果计费,助力品牌高效触达目标人群。

百度信息流广告计费方式详解-天涯问答

[回答]信息流广告如何收费?它基于百度海量流量,以CPC或CPM模式计费,精准匹配用户兴趣...优化投放策略,可显著提升ROI,实现广告效益最大化。

扫描二维码

手机扫一扫添加微信