随着大型人工智能模型越来越依赖海量数据,传统计算机架构中内存与处理能力分离所造成的“内存墙”瓶颈正消耗大量时间和精力。普渡大学和佐治亚理工学院的研究人员在《科学前沿》期刊上发表了一项新研究,提出利用脑启发算法构建新型计算机架构的方法,旨在显著降低人工智能模型的能耗。
冯·诺依曼建筑的瓶颈:记忆墙
如今大多数计算机仍基于1945年提出的冯·诺依曼架构,该架构将内存和处理能力分离,导致数据快速移动时造成性能瓶颈。普渡大学计算机工程教授、该研究第一作者Kousik Roy指出,过去四年语言处理模型的规模增长了5000倍,使得这一效率问题变得至关重要,并呼吁对计算机设计进行根本性重新思考。计算机工程师将内存容量无法跟上处理速度的问题称为**“内存墙”**,这消耗了运行底层人工智能模型所需的大量时间和能量。数字化转型网www.szhzxw.cn
解决方案:受大脑启发的“内存计算”
本文的研究人员认为,解决内存瓶颈的关键在于尝试一种将内存与处理能力整合在一起的新计算机架构,即**“内存计算(CIM)”。 **
- 算法核心:研究人员建议AI模型应采用尖峰神经网络(SNN),灵感来源于人脑的运作方式。尽管SNN曾被批评为速度慢且精度低,但近年来其性能显著提升。
- CIM优势:论文摘要指出:“CIM通过将计算能力直接集成到内存系统中,为内存墙提供了有前景的解决方案。”通过这种集成,数据传输可以减少,处理效率也得以提升。数字化转型网www.szhzxw.cn
应用前景:从数据中心到现实世界
研究人员认为,将计算机处理和内存集成到一个系统中,可以大大降低人工智能的能耗。普渡大学合著者兼研究员Tanvi Sharma表示:“要将(人工智能)从数据中心带到现实世界,我们需要显著减少其能耗。”
通过这种方法,人工智能可以集成到更小、更实惠且电池续航更长的设备中
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
