南京大学 | MIETT:面向加密流量分类的多实例Transformer模型
💡
原文中文,约3600字,阅读约需9分钟。
📝
内容提要
本文提出了一种多实例加密流量转换器(MIETT),通过双层注意力机制有效捕捉token级和数据包级特征。引入的预训练任务增强了模型对流量结构和包顺序的理解,实验结果表明MIETT在多个数据集上的分类性能优于现有方法。
🎯
关键要点
- 提出了一种多实例加密流量转换器(MIETT),通过双层注意力机制捕捉token级和数据包级特征。
- 传统基于端口或统计特征的分类方法逐渐失效,深度学习依赖大量标注数据。
- 现有方法主要侧重于单个数据包特征建模,忽略数据包间的关联性。
- MIETT结合数据包注意力和流注意力机制,增强对流量结构和包顺序的理解。
- MIETT模型架构包括tokenization、packet representation和flow representation三个步骤。
- MIETT引入TLA架构以保留流量层次结构,提高计算效率,捕捉数据包间依赖关系。
- 模型训练分为预训练和微调两个阶段,预训练通过MFP、PRPP和FCL任务学习流量特征。
- 实验在多个数据集上评估,MIETT在准确率和F1分数上优于传统深度学习方法。
- MIETT模型在CrossPlatform (Android)上准确率提升8.27%,F1分数提升14.66%。
- 本文贡献包括新颖的MIETT架构和新型预训练任务,验证了其在加密流量分类中的有效性。
➡️