在GTC2024大会上,老黄出了拥有超过2080亿个晶体管的世界GPU——BlackwellB200。相比上一代的H100(800亿个晶体管),B200的晶体管数量增加了一倍以上,同时AI性能增长了5倍,运行速度提高了30倍。如果将晶体管数量从千亿级扩展到1万亿,这对AI领域意味着什么?IEEE今天刊登了董事长和首席科学家撰写的文章,题为《我们如何实现1万亿个晶体管GPU》。文章的主要目的是让AI界认识到,半导体技术的突破对AI技术带来的贡献。
从1997年战胜国际象棋冠军的计算机“深蓝”,到2024年大热的ChatGPT,AI在过去的25年中已经从实验室中的研究项目发展到每个人的手机中。这一切都归功于三个关键领域的重大突破:机器学习算法的创新、海量数据的使用,以及半导体工艺的不断进步。据台积电预测,在未来10年,GPU上的晶体管数量将达到1万亿。同时,未来15年,每瓦GPU的性能将提高1000倍。半导体工艺的不断演变,使得像ChatGPT这样的技术从软件、算法、架构到电路设计和器件技术的每个层面都有了显著提升,极大地增强了AI的性能。
正是对基础晶体管器件技术的持续提升,让一切成为可能:IBM使用0.6微米和0.35微米工艺训练“深蓝”,Ilya团队在40纳米工艺下训练赢得ImageNet大赛的深度神经网络,DeepMind在28纳米工艺下训练AlphaGo战胜李世石,而训练ChatGPT的芯片则采用5纳米工艺,ChatGPT推理服务器的芯片工艺已经达到了4纳米。这表明,自1997年以来,半导体工艺节点的进步推动了AI的飞速发展。如果AI革命希望继续以当前速度发展,就需要半导体行业不断创新和支持。
近五年来,AI训练所需的计算量和内存访问量增长了几个数量级。以GPT-3为例,它的训练需要每秒进行超过5千万亿亿次的运算,持续整整一天,同时需要3TB的内存容量。随着新一代生成式AI应用的出现,对计算能力和内存访问的需求仍在快速增加。这引发了一个迫切问题:半导体技术如何跟得上这种发展速度?
自从集成电路诞生以来,半导体行业一直致力于将芯片制造得更小,以在有限空间内集成更多晶体管。如今,晶体管的集成工艺和封装技术已经迈入更高层次——从2D空间的缩放走向3D系统集成。芯片行业正在将多个芯片整合到一个集成度更高、高度互连的系统中,标志着半导体集成技术的重大进展。在AI时代,芯片制造的一个瓶颈是光刻芯片制造工具只能制造面积不超过约800平方毫米的芯片,即光刻极限。台积电通过将多个芯片连接在内嵌互连线路的硅片上,打破了这一极限,实现了在单一芯片上实现大规模集成的目标。
举例来说,台积电的CoWoS技术能够将多达6个光刻极限范围内的芯片以及十二个高带宽内存(HBM)芯片封装在一起。高带宽内存(HBM)是AI领域日益依赖的关键半导体技术,通过垂直堆叠芯片的方式集成系统。这种技术在台积电被称为系统集成芯片(SoIC),HBM由多层DRAM芯片垂直堆叠而成,位于控制逻辑IC之上,利用硅穿孔(TSV)的垂直连接方式让信号穿过每层芯片,并通过焊球连接各个内存芯片。目前,先进的GPU广泛依赖HBM技术。未来,3DSoIC技术将提供一种新的解决方案,与现有HBM技术相比,它能在堆叠芯片之间实现更密集的垂直连接,通过混合键合技术可以将12层芯片堆叠在一起,创造全新的HBM结构,这种铜对铜的连接方式比传统的焊球连接更紧密。
本文地址:
推荐阅读:
发表评论