Retrieval Augmented Generation - 2016年10月

Adversary Resistant Deep Neural Networks with an Application to Malware Detection

发布时间:2016-10-05

作者:Qinglong Wang, Wenbo Guo, Kaixuan Zhang, Alexander G. Ororbia II, Xinyu Xing, C. Lee Giles, Xue Liu

中文摘要:

除了在围棋比赛中广为人知的胜利之外,深度学习在信息检索、计算机视觉和语音识别等领域也取得了许多成功的应用。在网络安全领域,越来越多的公司对深度学习的潜力感到兴奋,并开始将其用于各种安全事件,其中最流行的是恶意软件检测。这些公司声称深度学习(DL)可以帮助扭转对抗恶意软件感染的斗争。然而,深度神经网络(DNNs)容易受到对抗样本的攻击,这是一个困扰大多数甚至所有统计学习模型的缺陷。最近的研究表明,有恶意意图的人可以轻易地利用这个缺陷来规避深度学习驱动的恶意软件检测。为了解决这个问题,先前的研究已经开发了各种防御机制,这些机制要么增加训练数据,要么增强模型的复杂性。然而,经过对DNNs基本缺陷的彻底分析,我们发现当前防御措施的有效性有限,更重要的是,不能提供关于其对抗基于对抗样本攻击的鲁棒性的理论保证。因此,我们提出了一种新的对抗性抵抗技术,通过随机消除样本中的特征来阻止攻击者构建有影响力的对抗样本。在这项工作中,我们使用包含14,679种恶意软件变体和17,399个良性程序的实际情况数据集评估了我们提出的技术。我们从理论上验证了我们技术的鲁棒性,并通过实验表明,我们的技术显著提高了DNN对对抗样本的鲁棒性,同时在分类中保持了高精度。为了证明我们提出的方法的通用适用性,我们还使用MNIST和CIFAR-10数据集进行了实验,这些数据集通常用于图像识别研究。

一句话总结:

本研究提出了一种新的对抗性抵抗技术,通过随机消除样本特征来增强深度神经网络对对抗样本的鲁棒性,同时保持高分类精度。