GPU 上的 LTL 学习

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文研究了神经符号计算中的两个问题:深度学习是否能解决逻辑中的挑战性问题,神经网络是否能学习逻辑语义。通过训练Transformer预测LTL公式的解,使用传统求解器生成训练数据,研究表明这种方法有效。

🎯

关键要点

  • 本文研究神经符号计算中的两个基本问题。
  • 深度学习是否能够解决逻辑中的挑战性问题。
  • 神经网络是否能够学习逻辑的语义。
  • 研究重点是线性时间暂态逻辑(LTL)。
  • 通过训练Transformer预测给定LTL公式的解。
  • 使用传统求解器生成训练数据。
  • 研究表明使用特定解决方案进行训练是有效的。
  • Transformers可以预测经典求解器超时的公式的解。
  • Transformers能够推广到逻辑的语义,尽管与经典求解器的解有所不同。
➡️

继续阅读