一个训练实现两个任务的框架:使用监督对比学习的加密流量分类
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文介绍了CLE-TFE模型,通过对比学习增强数据表示,捕捉字节之间的细粒度语义无关特性,并使用跨级多任务学习完成分类任务。实验结果显示,CLE-TFE在两个任务上表现最佳,计算开销仅为预训练模型的1/14。
🎯
关键要点
- 提出了一种名为对比学习增强时域融合编码器(CLE-TFE)的有效模型。
- 使用监督对比学习增强数据包级别和流级别的表示。
- 对字节级流量图进行图数据增强,以捕捉字节之间的细粒度语义无关特性。
- 提出了跨级多任务学习,使用同一模型同时完成数据包级别和流级别的分类任务。
- 实验结果显示,CLE-TFE在两个任务上表现最佳。
- CLE-TFE的计算开销仅为预训练模型(如ET-BERT)的1/14。
➡️