在_memristor交叉阵列上实现大型语言模型的能源高效部署:大与小的协同
原文中文,约500字,阅读约需2分钟。发表于: 。本研究针对大型语言模型(LLM)在部署过程中的高能源消耗和计算需求问题,提出了一种新的memristor交叉阵列架构。这种架构在不损失准确度的情况下,显著提高了部署效率,测试结果显示相较于传统方法,能耗减少69%,面积延迟积降低68X,展现了其在计算机视觉和语言模型领域的巨大潜力。
本研究提出了一种结合忆阻器和忆容器交叉阵列的深度神经网络设计框架,使用Python和PyTorch实现。在8层VGG网络上,CIFAR-10数据集的训练准确率达到90.02%和91.03%。通过运算跨导放大器和电容器模拟忆感器设备,功耗为0.337 mW,并在神经形态电路中验证,训练和测试准确率分别为91.04%和88.82%。研究展示了高效机器学习硬件的潜力。