您正在使用IE低版浏览器,为了您的FUTUREAI账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
FUTUREAI 发展趋势
发私信给FUTUREAI
发送

人工智能的发展已陷入困境

本文作者:FUTUREAI 2019-01-15 10:51
导语:一、 这是一款雅达利(Atari)开发的游戏,在游戏中,你需求用移动下方的平板,把球弹起,然后把上方的一切砖块都打消失。 深度学习,是机器进行自我教育的一种方法;你给人工智

一、

这是一款雅达利(Atari)开发的游戏,在游戏中,你需求用移动下方的平板,把球弹起,然后把上方的一切砖块都打消失。

深度学习,是机器进行自我教育的一种方法;你给人工智能供给很多的数据,它会自己辨认形式。在这个游戏中,数据就是屏幕上的活动——代表砖块、球和玩家平板的块状像素。

现实证明,它会把握一些令人形象深化的技能。在最初的几场游戏中,人工智能仅仅操控下方的平板四处乱晃。可是玩了几百次之后,它现已开端准确地将球弹起了。到了第 600 场竞赛时,神经网络运用了一种专业的人类 Breakout 游戏玩家运用的动作,凿穿整排砖块,让球沿着墙顶不断跳跃。

人工智能,现已显示出它可以像人类相同进行反常奇妙的考虑,把握 Breakout 背面的内在概念。由于神经网络松散地反映了人脑的结构,所以从理论上说,它们应该在某些方面仿照咱们自己的认知方法。这一刻好像证明了这个理论是正确的。

成果很棒。但随后,他们稍微调整了游戏的布局。在一次迭代中,他们将平板提得更高了;另一次迭代中,他们在上方增加了一个牢不行破的区域。

「咱们人类不只仅是形式辨认器,」Vicarious 的共同创始人之一、计算机科学家迪利普 · 乔治(Dileep George)通知我。「咱们也在为咱们看到的东西树立模型。这些是因果模型——有咱们对因果关系的了解。」

但另一方面,神经网络对 Breakout 一窍不通。它所能做的就是遵从这个形式。当形式改动时,它无能为力。

它为 Alexa 的语音辨认、Waymo 的自动驾驶轿车和谷歌的即时翻译供给了动力。从某些方面来说,Uber 的网络也是一个巨大的优化问题,它利用机器学习来找出乘客需求轿车的地方。我国科技巨子百度,有 2000 多名工程师在神经网络人工智能上尽力作业。

可是一些人以为,深度学习正在面临窘境。他们说,单凭这一点,它永久不会发生广义上的智能,由于真实像人类相同的智能,不只仅是形式辨认。

但他们说,假如咱们成功了,咱们将见证更安全、更有用的设备爆破式增长——比方在凌乱的家中自由举动的医疗机器人、不会误报的诈骗检测体系等等。

加里 · 马库斯(Gary Marcus)是纽约大学的心思学和神经科学教授,现年 48 岁,戴着眼镜,忧心忡忡。他或许是最著名的深度学习反对者。

「我不只仅来晚了,并且还想在派对上撒尿,」 当我在纽约大学邻近的公寓遇见他时,马库斯通知我。(咱们也是私人朋友。)「深度学习刚开端爆发的时分,我就说 ‘方向错了,伙计们!’」

你在第一层输入一个雏菊的图画,它的神经元会根据图画是否像它曾经看到的雏菊的比方而进行判别。然后,信号将移动到下一层,在那里循环这个进程。终究,这些层会得出一个定论。

给定满足的时刻和满足多的雏菊样本,神经网络会变得愈加准确。它学会了经过直觉来辨认一些雏菊的形式,让它每次都能辨认出雏菊 (而不是向日葵或菊花)。

可是马库斯从未被压服。对他来说,问题就在于一张白纸:它假定人类纯粹经过观察周围的国际来树立他们的智力,机器也可以。

他指出,虽然有很多人以为神经网络是智能的,但它好像不像人类大脑那样作业。首要,它们太需求数据了。

「咱们不需求很多的数据来学习,」 马库斯说。他的孩子不需求看一百万辆车就能认出车辆来。更好的是,他们可以「笼统化」,当他们第一次看到拖拉机时,他们会知道它有点像轿车。他们也可以进行反现实的作业。

「这些深度学习体系不知道怎么整合笼统常识,」 马库斯说,他创立了一家公司,发明了用更少的数据进行学习的人工智能 (并在 2016 年将公司卖给了 Uber)。

奥伦 · 埃齐奥尼(Oren Etzioni)常常面带微笑。他是一位计算机科学家,在西雅图经营着艾伦人工智能研讨所 (Allen Institute for Artificial Intelligence)。

埃茨奥尼和他的团队正在研讨常识问题。他将此定义为两个传奇的人工智能时刻——1997 年 IBM 的深蓝 (Deep Blue) 打败象棋大师加里 · 卡斯帕罗夫 (Garry Kasparov) ,以及去年 DeepMind 的 AlphaGo 打败国际顶尖围棋选手李世石。(谷歌在 2014 年收购了 DeepMind。)

当然,人类没有这个约束。假如发生火灾,人们会拉响警报,奔向大门。

为了让人工智能真实像人类相同考虑,咱们需求教它一切人都知道的东西,比方物理学 (抛向空中的球会落下) 或相对巨细的东西 (大象无法被放进浴缸)。 在人工智能具有这些基本概念之前,埃茨奥尼以为人工智能无法进行推理。

他们面临的第一个问题,就是答复一个问题:什么是常识?

获取这种常识的一种方法,是从人类那里提取。埃茨奥尼的试验室正在付费给亚马逊土耳其机器人上的众包人员,以协助他们制作常识性的陈说。

崔叶金 (Yejin Choi) 是埃茨奥尼团队研讨常识的科学家之一,她负责了几回众包作业。 在一个项目中,她想开发一种人工智能,可以了解一个人的行为,或陈说出来其隐含的目的或情感。

当她搜集了 25000 个这样的标记语句后,她用它们练习一个机器学习体系,来分析它从未见过的语句,并揣度出语句的心情或目的。

「咱们也可以对其他人的反响进行推理,即使他们没有被提及,」 崔说。「所以 X 的家人或许会感到形象深化和被爱。」

例如,有人通知我,一名音乐教练对他的乐队糟糕的表演感到愤怒,并说「教练很气愤,把他的椅子扔了。人工智能会预测他们会「过后感到恐惧」,虽然这个故事没有清晰阐明这一点。

深度学习是废物输入,废物输出。仅仅给一个神经网络供给很多新闻文章是不行的,由于它不会吸取未陈说的常识,这是作家们不愿提及的清楚明了的作业。

另一个应战是视觉推理。阿尼鲁达 · 凯姆巴维(Aniruddha Kembhavi)是埃茨奥尼团队中的另一位人工智能科学家,他向我展现了一个在屏幕上漫步的虚拟机器人。 艾伦研讨所的其他科学家缔造了类似模拟人生的房子,里面装满了日常用品——厨房橱柜里装满了碗碟,沙发可以随意摆放,并契合现实国际中的物理定律。

「当你问它 ‘我有西红柿吗?它不会翻开一切的橱柜。它更倾向去翻开冰箱,」 凯姆巴韦说。「或许,假如你说 ‘给我找我的钥匙’,它不会试图拿起电视。它会去看电视机后边。它现已知道,电视机通常不会被拿走。」

可是需求多长时刻,终究的产品会是什么姿态?他们不知道。他们正在树立的常识体系仍然会犯错,有时乃至逾越一半的概率。

四、

34 年来,莱纳特雇佣了一个工程师和哲学家团队,来编写 2500 万条常识性规矩,比方 “「水是湿的」 或许「大多数人都知道他们朋友的名字」。这让 Cyc 可以揣度:「假如你的衬衫湿了,所以你或许是在雨中。」 优势在于,莱纳特可以准确地操控输入 Cyc 数据库的内容; 而众包常识并非如此。

Cyc 的才能比聊天机器人更强,并且现现已过同意,可以用于医疗保健体系、金融服务和军事项目。可是这项作业进展十分缓慢,并且耗资巨大。莱纳特说开发 Cyc 花费了大约 2 亿美元。

这就是迪利普 · 乔治和研讨人员对 Breakout 所做的作业。为了发明一个不会面临游戏布局变化而变「智障」 的人工智能,他们放弃了深化学习,树立了一个包含硬编码基本假定的体系。

在 Breakout 中,这套体系发展出了衡量不同举动进程及其或许成果的才能。但这也起到了相反的效果。假如人工智能想要打破屏幕最左上角的一个砖块,它会理性地将平板放在最右边的角落。

明显,这种人工智能在工程中存在权衡。 可以说,精心规划和细心规划,以准确找出将什么预先设定的逻辑输入到体系中,是一个更艰苦的作业。 在规划一个新体系时,很难在速度和精度之间取得恰当的平衡。

一旦你练习了一个深度学习模型来辨认猫,你就可以给它看一只它从未见过的俄罗斯蓝猫,然后它就会立刻给出定论——这是一只猫。 在处理了数百万张相片之后,它不只知道是什么让一只猫变成了猫,还知道辨认一只猫的最快方法。

当 Vicarious 的人工智能运转杰出时,它可以从更少的数据中学习。乔治的团队经过辨认扭曲的字体形象,发明一种人工智能来打破神经网络上「我不是机器人」 的妨碍。

其他人,正在以不同的方法将常识般的结构构建到神经网络中。例如,DeepMind 的两名研讨人员最近创建了一个混合体系:部分是深度学习,部分是更传统的技能。他们将这个体系称为归纳逻辑编程。目标是发明出可以进行数学推理的东西。

但它不知道怎么处理 105。相比之下,DeepMind 的混合深度思想体系好像了解了这个规矩,并在数字逾越 100 时没有出现任何问题。爱德华 · 格雷芬斯特(Edward Grefenstette)是开发这种混合体系的 DeepMind 程序员之一,他说,「你可以练习出一些体系,这些体系会以一种深度学习网络无法独自完结的方法进行推理。」

深度学习的先驱、Facebook 人工智能研讨部门的现任负责人杨立昆(Yann LeCun)对许多针对这个范畴的批评表明赞同。他供认,它需求太多的练习数据,不能推理,也不具有常识。

「假如你考虑一下动物和婴儿是怎么学习的,在生命的最初几分钟、几小时、几天里,学很多东西都学得很快,以至于看起来像是天然生成的,」 他指出。「但现实上,他们不需求硬编码,由于它们可以很快学会一些东西。」

虽然如此,杨立昆供认,现在还不清楚哪些途径可以协助深度学习走出低谷。有或许是「对抗性」 神经网络,一种相对新的技能,其中一个神经网络试图用虚伪数据诈骗另一个神经网络,迫使第二个神经网络发展出极端奇妙的图画、声音和其他输入的内部表征。

我在 Facebook 坐落纽约的人工智能试验室的办公室里遇见了杨立昆。马克 · 扎克伯格(Mark Zuckerberg)在 2013 年招募了他,承诺试验室的目标将是推动人工智能打破极限,而不只仅是对 Facebook 的产品进行微小的调整。像学术试验室相同,杨立昆和他的研讨人员可以将他们的研讨成果宣布出来,供其他人参看。

借着周围的图片来讨论类人人工智能,让人感到莫名的不安,由于 2001 年的 HAL 9000,一个类人人工智能,是一个高效的杀手。

一些人工智能研讨者忧虑,与人类交谈并了解人类心思的才能或许会使恶人工智能变得极端风险。 牛津大学的尼克 · 博斯特龙 (Nick Bostrom) 敲响了发明 “ 超级智能”(superintelligence) 的警钟。超级智能是一种自我改善并快速逾越人类的人工智能,可以在各个方面逾越咱们。 (他以为积聚操控力的一种方法是经过操纵人们——具有 “ 心智理论” 对此会十分有用。)

这样的未来不会让埃齐奥尼晚上失眠。他不忧虑人工智能会变成歹意的超级智能。「咱们忧虑会有什么东西会接收这个国际,」 他嘲笑道,「那乃至不能自己决议再下一盘棋。」 现在,还不清楚人工智能会怎么发展出这些志愿,也不清楚这种志愿软件中会是什么姿态。深度学习可以征服国际象棋,但它没有天然生成的下棋志愿。

埃齐奥尼指出,对人工智能的反乌托邦式的科幻愿景,其风险要小于短期的经济转移。假如人工智能在常识方面做得更好,它就能更快地完结那些现在仅仅是形式匹配深度学习所难以完结的作业:司机、出纳员、经理、各行各业的分析师,乃至是记者。

马库斯同意人工智能具有推理才能会有风险。可是,他说,这样带来的优点是巨大的。人工智能可以像人类相同推理和感知,但却能以计算机的速度运算,它可以彻底改动科学,以咱们人类不行能的速度找出因果关系。

坐在《2001:太空周游》的相片下面,杨立昆自己提出了一个「异端」 观点。当然,让人工智能愈加人性化有助于人工智能给咱们的国际供给协助。可是直接仿制人类的思想方法呢?没有人清楚这是否有用。咱们现已有了像人类相同考虑的人;或许智能机器的价值在于它们与咱们彻底不同。

「假如他们有咱们没有的才能,他们会更有用,」 他通知我。「那么他们将成为智力的放大器。所以在某种程度上,你期望他们具有非人类形式的智力…… 你期望他们比人类更理性。」 换句话说,或许让人工智能有点人工是值得的。


声明:景智AI网尊重行业规范,任何转载稿件皆标注作者和来源;景智AI网的原创文章,请转载时务必注明文章作者和"来源:景智AI网", 不尊重原创的行为将受到景智AI网的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至:mailto:813501038@qq.com

分享:
相关文章
最新文章