高效有效:一个两阶段方法平衡明文与加密文本以实现流量分类

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文介绍了ET-BERT流量表示模型,通过预训练和微调在加密流量分类任务中取得了显着提高。ISCX-Tor任务中的F1分数达到了99.2%。作者解释了预训练模型的强大原因,并分析了加密流量之间边界的分类能力,为未来的研究和应用提供了新的思路。

🎯

关键要点

  • 提出了一种新颖的流量表示模型ET-BERT。
  • ET-BERT在大规模未标记数据上进行预训练。
  • 在少量特定任务的有标签数据上进行微调。
  • 在五个加密流量分类任务上取得最新成果。
  • 在ISCX-Tor任务上F1分数达到了99.2%。
  • 解释了预训练模型的强大原因。
  • 分析了加密流量之间边界的分类能力。
  • 为未来的研究和应用提供了新的思路。
➡️

继续阅读