当数量越少越好:基于正样本和未标记样本的漏洞检测学习模型

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文介绍了一种新的鲁棒性正例与未标记学习方法,通过训练策略改善标签不确定性的影响并提高学习的准确性和稳定性。该方法利用一种新颖的“困难度”度量来区分未标记样本,并通过迭代式训练策略在训练过程中选择负例样本,从而在训练的早期阶段包含更多“易样本”。

🎯

关键要点

  • 正例与未标记学习方法在文献中受到广泛关注。
  • 提出了一种新的鲁棒性正例与未标记学习方法。
  • 该方法通过训练策略改善标签不确定性的影响。
  • 提高学习的准确性和稳定性。
  • 利用新颖的“困难度”度量来区分未标记样本。
  • 通过迭代式训练策略细化选择负例样本。
  • 在训练早期阶段包含更多“易样本”。
➡️

继续阅读