元学习的神经程序偏差
原文中文,约300字,阅读约需1分钟。发表于: 。通过神经程序化偏差元学习(NPBML)的提出,我们可以通过元学习的过程来赋予神经网络特定的程序化偏差,以实现对分布式学习任务的高性能表现。
本文介绍了Meta Networks(MetaNet)的新元学习方法,通过快速参数化学习跨任务的元级知识,实现在新概念上的快速泛化和保持以前学习的性能表现。在Omniglot和Mini-ImageNet基准测试中,MetaNet模型接近人类水平且准确性优于基线方法高达6%。展示了MetaNet的泛化和持续学习等几个有吸引力的性质。