AI人工智能 | 人工智能机器人【中国人工智能网】

滚动新闻

学界|康奈尔大学最新研究:反抗性样本是纸老虎,一出门就欠好使!

时间:2017-07-17 22:41来源:网络整理 作者:AI人工智能

AI科技评论按众所周知,在图像识别规模,反抗样本是一个很是棘手的问题,研究如何降服它们可以辅佐制止潜在的危险。可是,当图像识别算法应用于实际糊口场景下时,我们真的需要那么担忧反抗样本问题吗?克日,康奈尔大学的一篇论文《不消那么担忧自动驾驶中物体识此外反抗样本问题》给了我们解答。

论文首先提出如下概念:大大都呆板进修算法对付反抗滋扰很敏感,只要从图像空间中经心选取的偏向增加轻微的滋扰,就大概会导致这个图像被练习好的神经网络模子误分类。另外,打印出增加过滋扰的图像,然后把它们拍下来,这些拍下的图像仍然会被误分类,这也证实了现实世界中反抗样本的存在。这些失误让人们意识到将呆板进修应用于现实场景下时,安详是否有保障。

不外前面那些尝试忽略了现实世界中物体的要害性质:对比虚拟场景下对图片单一的识别,在现实世界中,相机可以从差异的间隔和角度拍下物体来举办识别。从移动调查者的角度来看,今朝现实世界中的反抗样本不会对物体检测造成滋扰。

他们做的一系列尝试表白,实际情况下,在特定的间隔和角度下拍摄的带有反抗滋扰的停车符号大概会导致深度神经网络物体识别器误识别,但对付大量从差异的间隔和角度拍下的停车符号的照片,反抗滋扰就无法担保总能愚弄物体检测器了。

学界|康奈尔大学最新研究:抵御性样本是纸老虎,一出门就不好使!

图:为了模仿真实场景,尝试中把图像打印了出来。如图场景中的停车符号都能被正确识别。

他们收集了一系列停车符号的图像,然后用三种差异的反抗进攻要领发生滋扰样本,同时进攻图像分类器和物体识别器。然后,打印出受到滋扰的图像,从差异的间隔拍成照片,并查抄了不再具有反抗性的图片中本来增加的滋扰的受损水平。在大大都环境下,损坏率很高,而且跟着间隔的增加而增加。最后,通过一个小尝试表白,照片拍摄的角度也可以改变反抗滋扰的影响。

为什么能正确识别大大都图片呢,他们认为原因是滋扰的反抗特征对受到滋扰的图片的巨细较量敏感。假如只从很近的间隔来举办识别,自动驾驶汽车就不能得出正确结论。别的,论文中提出了一个要害问题:是否有大概构建出这样的反抗性样本,使得它在大大都差异的调查条件下都能让呆板误判定?假如大概,这种反抗特征可以或许对人类领略深度进修网络的内部表征模式起到庞大的辅佐。假如不能,也可以预期反抗性样本的研究会止步于好奇心罢了,对现实世界的危害很小。

从尝试结论来看,现有的反抗性滋扰要领用于停车符号的识别时(在他们的数据集和节制试验之下)只在特定场景下合用。这也表白,我们大概不需要担忧大都现实场景下的反抗样本问题,尤其是在自动驾驶规模。

论文地点:https://arxiv.org/abs/1707.03501

学界|康奈尔大学最新研究:抵御性样本是纸老虎,一出门就不好使!

    标签: