一个训练实现两个任务的框架:使用监督对比学习的加密流量分类

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文介绍了CLE-TFE模型,通过对比学习增强数据表示,捕捉字节之间的细粒度语义无关特性,并使用跨级多任务学习完成分类任务。实验结果显示,CLE-TFE在两个任务上表现最佳,计算开销仅为预训练模型的1/14。

🎯

关键要点

  • 提出了一种名为对比学习增强时域融合编码器(CLE-TFE)的有效模型。
  • 使用监督对比学习增强数据包级别和流级别的表示。
  • 对字节级流量图进行图数据增强,以捕捉字节之间的细粒度语义无关特性。
  • 提出了跨级多任务学习,使用同一模型同时完成数据包级别和流级别的分类任务。
  • 实验结果显示,CLE-TFE在两个任务上表现最佳。
  • CLE-TFE的计算开销仅为预训练模型(如ET-BERT)的1/14。
➡️

继续阅读