NASH:硬件优化机器学习模型的神经架构搜索
原文中文,约500字,阅读约需2分钟。发表于: 。机器学习算法在不断增加的应用中需要在高准确性、高吞吐量和低延迟之间实现更好的权衡。本论文介绍了一种名为 NASH 的新方法,将神经架构搜索应用于机器学习硬件中。通过使用 NASH,硬件设计可以同时达到更高的吞吐量、低延迟和更好的准确性性能。该论文介绍了 NASH 策略的四个版本,所有版本均显示出比原始模型更高的准确性。实验结果表明,在 ImageNet 数据集上,将 NASH 应用于...
本论文介绍了一种名为NASH的新方法,将神经架构搜索应用于机器学习硬件中,以提高吞吐量、降低延迟和提升准确性。实验结果显示,应用NASH于ResNet18或ResNet34可使准确性提升最多3.1%。NASH模型在准确性和硬件资源利用率之间取得了更好的权衡。