随机特征 Hopfield 网络泛化到以前未见的示例的检索
原文中文,约500字,阅读约需2分钟。发表于: 。通过计算模型的相图,我们揭示了霍普菲尔德网络在存储随机特征生成的示例时发生了学习转变,并进一步发现该网络也会生成与之前未见示例相对应的吸引子,我们将这种行为解释为学习特征的虚假状态,这表明模型不仅代表了存储示例,还混合了特征以表示之前未见的示例。
本文研究了Hopfield网络中的原型形成问题,发现Hebbian学习可以缓解容量问题。实验表明,原型状态的稳定性与示例数量、噪声和非示例状态的数量有关。网络能够同时稳定多个原型,并且吸引强度随示例数量和一致性的增加而增长。研究将原型状态的稳定性与能量分布联系起来。