您正在使用IE低版浏览器,为了您的FUTUREAI账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
FUTUREAI 智能新品
发私信给FUTUREAI
发送

Google最新人工智能的研究:一组图片,就能强迫神经网络执行其他任务

本文作者:FUTUREAI 2018-07-10 16:20
导语:还记得那些把熊猫认成猩猩、把乌龟认成枪、把枪认成直升机的算法吗? 它们遭遇的,是一个名为“ 对抗攻击 (adversarial attacks)”的敌人。这个敌人每次出现,都能让图像识别算法不知

还记得那些把熊猫认成猩猩、把乌龟认成枪、把枪认成直升机的算法吗?

Google最新人工智能研究

它们遭遇的,是一个名为“对抗攻击(adversarial attacks)”的敌人。这个敌人每次出现,都能让图像识别算法不知所措。

现在,更丧心病狂的来了。

谷歌大脑三位研究员Gamaleldin F. Elsayed、Ian Goodfellow、Jascha Sohl-Dickstein的最新论文展示了一种新型对抗攻击手段,AI前所未遇的强大敌人。

他们说,对抗攻击不仅能让图像识别模型认错图,还能对被攻击模型进行重新编程,让它们抛弃本职任务,去干一些由攻击者指定的,别的事情。他们将这种偷天换日指派的事情称为“对抗任务”。

就算是模型根本没有这种技能,也没关系。所需要的,仅仅是在测试图像上加入一些对抗扰动信息。

比如说,让ImageNet分类器改行去数方块

实现的过程并不复杂,总共分三步。

Google最新人工智能的研究:一组图片,就能强迫神经网络执行其他任务

首先,要在ImageNet标签和对抗任务标签之间建立映射。在这个例子里,就是将ImageNet的类别,映射到方块的数量,鲤鱼是1个方块,金鱼是2个方块,白鲨是3个方块……

映射建立好之后,就要把表示对抗任务的图片嵌入到一个对抗程序图片的正中间,得到用来攻击神经网络的对抗图片

接下来,就该让对抗图片和目标模型见面了。

二者见面之后,目标模型就放弃了原本的图像识别任务,只会数图上究竟有几个方块。

重新分配的任务也可以比数方块复杂一点,比如说,让ImageNet分类器以为自己是个只会识别手写数字的MNIST分类器

Google最新人工智能的研究:一组图片,就能强迫神经网络执行其他任务

用来实现这个任务的对抗图片,就长成上图的样子。

Google最新人工智能的研究:一组图片,就能强迫神经网络执行其他任务

同样的方法,还可以让ImageNet分类器变成CIFAR-10分类器

惨遭他们毒手的,有六个ImageNet图像识别模型,包括三种Inception变体和3种Resnet变体。

还好还好,没让神经网络去干什么惊世骇俗的事儿。

但是要知道,这项研究才刚刚起步,以后会发展到什么程度,谁也不好说……毕竟,以前并没有人给神经网络挖过这样的陷阱。

Elsayed等人在论文中也说,这些结果首次展示了这类攻击的可能性。

这一研究的三个作者,全部来自Google Brain团队。

其中第一作者Gamaleldin F. Elsayed,去年从哥伦比亚大学获得博士学位。目前,他其实是一位Google AI Residency成员,也就是相当于实习或者访学的身份。

第二作者Ian Goodfellow,大名鼎鼎。通常也被称作生成对抗网络(GANs)之父,人工智能领域的大牛。早年间,他致力于教神经网络造假骗人;现在,他的大部分研究集中在对抗攻击领域,专注于欺负神经网络。

第三作者Jascha Sohl-Dickstein,2012年在伯克利获得博士学位。加入Google之前曾在斯坦福做访问学者。

Jascha把他们的这个研究发到了Twitter上,立刻引发了大量用户的转载。不过留言评论的目前只有一个人。

那个人问:你们什么时候发布源代码?eeee...

还是先看看论文吧


更多详情,请看他们的论文:

Adversarial Reprogramming of Neural Networks

Gamaleldin F. Elsayed, Ian Goodfellow, Jascha Sohl-Dickstein

https://arxiv.org/abs/1806.11146




声明:景智AI网尊重行业规范,任何转载稿件皆标注作者和来源;景智AI网的原创文章,请转载时务必注明文章作者和"来源:景智AI网", 不尊重原创的行为将受到景智AI网的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至:mailto:813501038@qq.com

分享:
相关文章
最新文章