生成流网络(GFlowNets)是一种概率抽样框架,通常因数据效率低而难以扩展。本文提出了一种新方法,称为分岔生成流网络(BN),通过分岔结构将流程分解为状态流程和基于边缘的流程的独立表示。这种方法提高了学习效率和处理大规模问题的能力,并在实验中表现出色。
本研究提出了一种新的Q学习算法,解决了在接近一的折扣因子下收敛缓慢的问题。该算法在深度强化学习中表现出更低的偏差,并在大规模问题上显示出有效性。
本研究通过设计Hamming距离约束器来评估生成模型的泛化能力,并对几种神经网络架构进行了实验。研究发现,小规模问题上的泛化能力可以预测大规模问题上的性能,对搜索大规模Ising模型的最佳网络架构具有重要意义。
本研究提出了一种基于干预实验数据的本地方法,用于学习线性高斯多叉树的因果结构,能快速且准确地处理大规模问题。
完成下面两步后,将自动完成登录并继续当前操作。