标签:

Deep neural networks are easily fooled: High confidence predictions for unrecognizable images

随着DNN(深度神经网络)的发展,DNN在图像分类任务上的表现足以达到人类的水平。那么DNN对于一张图片的理解和人类是一样的吗?最近的一项研究表明,DNN和人类在对于图片的理解方面有所不同,研究人员可以通过对图片进行一些肉眼无法察觉的改变(比如改变一些像素点的值),就可以让DNN分类器将图片分类为不相关的类别。这对于一些应用来讲问题非常大,比如对于安全性要求较高的图像识别领域(自动驾驶、人脸识别等)。本文对于此类问题,进行了研究,结果表明:可以很容易生成一些对于人类无法识别的图片,但是最好的DNN分类器却可以将其以非常高的置信度将其分类为一个特定类别。

随着DNN(深度神经网络)的发展,DNN在图像分类任务上的表现足以达到人类的水平。那么DNN对于一张图片的理解和人类是一样的吗?最近的一项研究表明,DNN和人类在对于图片的理解方面有所不同,研究人员可以通过对图片进行一些肉眼无法察觉的改变(比如改变一些像素点的值),就可以让DNN分类器将图片分类为不相关的类别。这对于一些应用来讲问题非常大,比如对于安全性要求较高的图像识别领域(自动驾驶、人脸识别等)。本文对于此类问题,进行了研究,结果表明:可以很容易生成一些对于人类无法识别的图片,但是最好的DNN分类器却可以将其以非常高的置信度将其分类为一个特定类别。