您正在使用IE低版浏览器,为了您的FUTUREAI账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
FUTUREAI 智能新品
发私信给FUTUREAI
发送

[人工智能]人工智能?可能是人工+智能

本文作者:FUTUREAI 2018-09-20 12:09
导语:原标题:人工智能?可能是人工+智能 人工智能远远没有你以为的那么智能 全文共2343字,阅览时长约为4分钟 图片来历 | 网络 撰文 | 先声会 出品 | 先声会 先声论:一些科学家以为,在

  原标题:人工智能?可能是人工+智能



  人工智能远远没有你以为的那么智能



  



  全文共2343字,阅览时长约为4分钟



  图片来历 | 网络



  撰文 | 先声会



  出品 | 先声会



  先声论:一些科学家以为,在接下来的几十年内,人类将创造出通用人工智能,能够像人类相同考虑、学习、沟通、解决问题。但现在咱们所具有的依然是弱人工智能,尚不能够实在替代人类独立作业,人工智能抢走人类饭碗还有很长的路要走。



  本文节选、编译自The Next Web渠道的文章 How bad AI marketing led humans to take on robots’jobs. 作者是BEN DICKSON。



  Part.1 AI尚不完美



  华尔街日报最近刊登了一篇文章,详细介绍了供给电子邮件效劳的公司怎么扫描数百万Gmail用户的收件箱。可这种行为都已不再是什么新鲜事了。



  



  这些公司的效劳协议中清晰标明,将在有需求时拜访用户的电子邮箱,以便他们的人工智能(AI)算法为用户供给智能效劳,如价格比较,主动组织日历等。但效劳协议里没有明说的是,在某些情况下,他们的职工也会阅览你的电子邮件,由于AI无法完美的履行使命,需求人工来补偿这些缺陷。



  华尔街日报文章中提到的一家公司,为运用AI的用户增加了“智能回复”功用,假如用户经过移动设备办理帐户,可能会带来很大的改动。



  问题在于,新建一个能够了解对话语境并给出答案的AI并不简单。Skype最近增加的智能回复功用,就没那么有用,尤其在论题拓宽的时候。即使是Gmail自带的智能回复功用,也是经过Google巨大的数据存储和AI功用供给支撑。



  



  这就是为什么文中提到的公司,在运用AI时离不开人类职工。当AI的回复不符合语境时,工程师们会自行阅览电子邮件并进行更正(当然这不包含在用户条款里)。



  这一进程叫做监督学习,是为了协助人工智能了解、纠正其犯下的过错。在人工智能的开发和测验阶段,监督学习是很常见的。但是在处理实在数据、实时运用人工智能则是另一回事。



  该公司的工程师在承受华尔街日报采访时清晰标明,他们已签署协议,不会泄露或共享在该项作业中看到的任何内容,作业时运用的机器也不允许下载任何内容。



  但一想到有人能够能看到你邮箱内的一切交游邮件,依然让人感到很不舒服。



  最大的问题在于,这种作业流程会无休止地持续,也就是说,总会有人坐在后台扮演人工智能的一部分。



  这不是人类第一次充任机器人。这一技能被称为“绿野仙踪”(Wizard of Oz technique),让人类作业者代替核算机的作业,已成为不能彻底完成自己人工智能蓝图的公司的常见做法。



  Part.2 当代AI的约束



  一些科学家以为,在接下来的几十年内,人类将创造出通用人工智能(又称强人工智能,Artificial General Intelligence,简称AGI,指具有自我意识的程序,能够像人类相同考虑、学习、沟通、解决问题),这种技能能够高质量的处理信息并像人类相同进行重要决议计划。



  但现在咱们所具有的依然是弱人工智能(Artificial Narrow Intelligence,简称ANI,指的是在单一范畴具有必定智能的程序,例如Alpha Go),适用于特定范畴或作业,例如在Google相册中进行图画分类,或在Netflix上为用户引荐电影。



  



  近年来,人工神经网络和深度学习应用的前进为在许多其他用例中完成AI拓荒了路途,而这些范畴在不久前被以为是人类智能的专有范畴。



  其间一个值得注意的比如就是核算机视觉(Computer Vision),它是人工智能的分支之一,能够使核算机了解图画和视频中的内容。另一个比如,是深度神经网络,它能够以十分高的精度仿照人类的图画和声响。



  尽管深度学习算法的体现十分超卓,现在它们依然归于弱人工智能,离自主决议计划还有很长的一段路要走。但咱们总是倾向于夸大深度学习的能力,导致了连绵不断的过错等待乃至惊骇。层出不穷的科幻电影中,人工智能常常扮演着反派人物。



  深度学习和深度神经网络具有十分明显的约束,尽管它们在饱尝练习后的特定使命中,体现能够超越人类,在非练习范畴中,注定会失利。



  它们的持续发展需求许多的、高质量的数据支撑和核算能力,这两样并不是一切公司都能承当的。这就是为什么他们用“绿野仙踪”来补偿这种缺乏。



  Part.3 用人工来补偿智能习以为常



  《华尔街日报》揭穿,这种做法在大型科技公司十分常见。



  2015年,Facebook发布了一款终极谈天机器人助理M,能够履行各种使命,如买东西,挑礼物,订外卖,打电话,叫车,或有用谈天。



  



  M由Facebook的人工智能供给支撑,并由一系列运营商供给支撑,这些运营商将监督其业绩,并介入发作过错的环节。



  Facebook开始推广到湾区的有限数量的用户,以评价其功能并练习AI削减对人类的依靠。终究智能助理将对一切人敞开。



  在2018年,Facebook暂停了此项目,但称“学到了许多东西”。尽管该公司没有阐明是否达到彻底替代人类的程度,但假如没有,M将给20亿Facebook用户供给效劳,需求招聘庞大的人力资源。



  其他公司如X.ai,运用AI来协助用户经过阅览电子邮件和智能使命,会议,电话等来办理他们的作业,X.ai运用自然语言处理,AI分支人类的内容和背景生成的文本。



  然而,X.ai还得到一群人体机器人的支撑,他们坐在菲律宾马尼拉的安全修建中,亲近监督和纠正AI的体现。人类操作员负责的杂乱使命之一是理解怎么处理会议的时刻,以及人们倾向的表达方式。



  2017年,Expensify,一家供给AI设备的公司,可主动扫描并从用户提交的文档中提取数据以填写表格,供认它已凭借了亚马逊的在线数据血汗工厂Mechanical Turk,完成了一项使命,据说是由AI算法履行的。用户一直在向公司的效劳提交灵敏文件,包含收据,报销表和福利索赔。



  



  Part.4 需求AI透明度



  上述及许多其他故事标明,在了解AI技能的全貌之前,咱们还有很长的路要走。



  在Google的Duplex演示之后,该公司演示了怎么运用AI帮手打电话,像真人相同说话,我以为公司需求对他们运用的人工智能坚持透明。



  公司应清晰通知那些等待人工客服的客户,在设置中奉告用户他们正在与AI署理进行沟通,由于不这样做可能会导致挫败感,特别是假如AI署理人开始以不清晰的方式行事。



  反之亦然。假如用户期望与AI署理进行交互,公司应该清楚地通知他们应用程序背面是否有人。



  当人们以为他们正与机器而非人类进行交互时,他们更倾向于披露信息,包含关于他们自己的一般和私密细节。公司不得乱用这种信赖。



  咱们还需求认识到这种技能的长处和缺陷。AI是人类才智的增强,而不是其代替品。只需咱们尝试创立彻底仿照人类行为和功用的AI应用程序,“绿野仙踪”技能就不会消失,咱们终究会需求更多人,来充任人工智能。



  



  △图片来自可可简笔画


声明:景智AI网尊重行业规范,任何转载稿件皆标注作者和来源;景智AI网的原创文章,请转载时务必注明文章作者和"来源:景智AI网", 不尊重原创的行为将受到景智AI网的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至:mailto:813501038@qq.com

分享:
相关文章
最新文章