本文介绍了一种名为ET-BERT的新型流量表示模型,通过在大规模未标记数据上进行预训练并在少量特定任务的有标签数据上进行微调,取得了在加密流量分类任务中显著的提高,尤其是在ISCX-Tor任务中达到了99.2%的F1分数。作者解释了预训练模型的强大原因,并分析了加密流量分类的边界能力,为未来的研究和应用提供了新的思路。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: