您正在使用IE低版浏览器,为了您的FUTUREAI账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
FUTUREAI 智能新品
发私信给FUTUREAI
发送

ACM 通讯:为什么社会计算学并不等于「计算机科学+社会数据」

本文作者:FUTUREAI 2018-03-31 13:05
导语:景智AI网 AI 科技评论按:随着机器学习的发展和流行,有越来越多的领域开始尝试借助机器学习的力量解决领域内的原有问题。比如社会科学的问题现在就可以把机器学习作为工具,从而

景智AI网 AI 科技评论按:随着机器学习的发展和流行,有越来越多的领域开始尝试借助机器学习的力量解决领域内的原有问题。比如社会科学的问题现在就可以把机器学习作为工具,从而衍生出「社会计算学」。那么 社会计算学是否等于「计算机科学+社会数据」呢?这篇发表在 ACM 通讯 2018 年 3 月刊的文章就解析了其中的区别。

本文作者 Hanna Wallach 是微软研究院的高级研究员,马萨诸塞大学阿姆赫斯特分校的副教授。景智AI网 AI 科技评论全文编译如下。

ACM 通讯:为什么社会计算学并不等于「计算机科学+社会数据」

「计算社会科学」

本文观点是关于计算机科学和社会科学之间的差异,以及它们对计算社会学的影响。先说结论:重点点很简单,尽管机器学习被大肆炒作,但它并不是一个一劳永逸的解决方案。如果我们要用机器学习并以负责任和道德的方式研究社会现象,我们仍然需要社会科学家。

我是一名受训的机器学习研究员。我最近的工作与传统的机器学习相差甚远,可以说与之相反,我的侧重点是社会计算学——使用数字化信息和数理统计方法来研究社会现象

举个例子,假如您想知道诸如亚马逊或 Netflix 等网站上的活动是来自于推荐还是来自于其他因素,你可以构建一个统计模型来估计观测数据之间的因果联系,例如对于单个产品或者单个电影页面来说,基于推荐的访问次数、总的访问次数都是如何随时间变化的。

或者,假如你对于参议员在特定问题上的投票模式感兴趣,想知道他们何时和为何偏离了他们所属党派和意识形态原本的期待。解决这个问题,你可以利用国会投票历史和相应的法案文本,对每个参议员基于事件的意识形态的调整进行建模。

又或者,假设你想研究美国的教师聘用制度是否是反映系统社会不平等的层级的证据。您可以使用数千名终身职位教职员的职位来模拟大学之间聘用关系的随时动态。

意料之中,解决这些问题需要跨学科的方法,的确,社会计算学正是计算机科学,统计学和社会科学的交叉点。

对我而言,从传统的机器学习转移到这个跨学科的空间意味着我需要在与机器学习相关的算法黑盒子之外进行思考,而不是把注意力放在开发和使用机器学习方法对社会真实数据进行分析中所涉及的机遇和挑战上。

这个观点反映了这些机遇和挑战。在解释机器学习应用于社会科学与其应用于其他领域的不同之处之前,我围绕三点构建了我的讨论:目标,模型和数据

目标

当我第一次开始从社会计算学工作时,我一直在听计算机科学家和社会科学家之间的谈话,我不明白为什么会有「我搞不明白——这怎么研究呢?」这样的对话。但后来当我读到加里·金和丹·霍普金斯这两位政治科学家的这句话时,我认为,这才是抓住了两种研究脱节的核心:「计算机科学家可能有兴趣做大海捞针的事情,例如通过搜索显示正确的网页来展示研究结果,但社会科学家的关注点更多的在于描述大海捞针的特点。

换句话说,我一直听到的对话是因为计算机科学家和社会科学家通常追求的是两种完全不同类别的目标。

计算机科学家和社会科学家通常追求的目标属于两个完全不同的类别。 

第一类目标是预测。预测是指使用观察到的数据来推断缺失的信息或未来的、尚未观察到的数据。使用 King 和 Hopkins 的术语来说,这些是「找到针」的任务。一般来说,计算机科学家和决策者对他们最感兴趣。果然,传统的机器学习一直专注于预测任务——例如图像分类,识别手写体,以及玩象棋和围棋等游戏。

第二类任务是解释。这里的重点是「为什么」或「如何」的问题——换句话说,为观察到的数据找到合理的解释。这些解释可以与已有的理论或先前的发现进行比较,或者用于产生新的理论。因此解释任务是「描述大海捞针」的任务,一般来说,对它是最感兴趣的社会科学家。因此,社会科学家受过训练,可以用清晰的、可测试的假设来构建细致的研究问题。例如,女性是否一直被排除在工作圈的长期战略规划之外?如果政府组织知道他们的同行组织已经遵守公共记录要求,他们是否更有可能一样遵守?

模型

这些不同的目标——预测和解释——会导致非常不同的建模方法。在许多预测任务中,重点不在于因果关系,而在于预测准确性。换句话说,我们不关心为什么一个模型能够做出好的预测;我们只关心它怎么做。因此,预测模型很少需要解释,这意味着它们的结构几乎没有限制,它们可以是由大量数据训练而来的任意复杂的黑盒子。例如,一个「深度」神经网络 GoogLeNet 使用 22 个图层和数百万个参数将图像分类为 1000 个不同的类别。

相反,解释任务基本上与因果关系有关,其目标是使用观察到的数据来提供支持或反对因果关系的依据。因此,解释模型必须是可说明的。它们的结构很容易地将研究者感兴趣的点与世界现有的理论知识联系起来。因此,许多社会科学家利用贝叶斯统计模型——一种表达先验概率,不确定性和明确建模假设的方法。

换言之,预测模型通常旨在替代人类解释或推理,而解释模型旨在告知或指导人类推理。

数据

除了追求不同的目标,计算机科学家和社会科学家通常还会处理不同类型的数据。计算机科学家通常与大规模的数字化数据集打交道,这些数据集除了用于「机器学习研究」这件事自身之外,别无它用。相反,社会科学家通常使用策划收集的数据来回答具体问题。由于这个过程需要大量人工劳动力,所以这些数据集一般都是小规模的。

但是,这也是社会计算学背后的推动力之一——由于互联网,我们现在有各种机会获得以前没法学习的记录各种社会现象的大规模数字化数据集。例如,我的合作者 Bruce Desmarais 和我想对地方政府通信网络进行数据驱动的研究,重点关注当地政治行为者如何与大家进行沟通。事实证明,美国大多数州都有模仿联邦信息自由法的阳光法。这些法律要求地方政府归档文本记录(包括许多州的电子邮件),并根据要求向公众披露。 

因此,Desmarais 和我向北卡罗来纳的100个县政府发出了需要提供公共记录的请求。要求每个县的部门领导提供随机选择的三个月时间内发送和接收到的所有非私人电子邮件信息。出于好奇,我们也决定借此机会进行现场随机试验来测试,当县政府知道了和他们同等级的政府成员在履行了对于公众信息的请问之后是否更乐意去履行同样的请求。

就平均而言,我们发现那些被告知他们的同行已经履行过的那些县会花更少的时间来答复我们的请求,并且更有可能完成它。最终,我们收到了来自25个不同县政府的50多万封电子邮件。

挑战

很明显,像这样的新机会是极好的。但这些机会也带来了新的挑战。其中最引人注目的是,人们很容易说,「为什么不把这些大规模的社会数据集与计算机科学家提出的强大的预测模型结合在一起呢?」。然而,与传统的计算机科学家使用的数据集不同,这些新的数据集通常是关于人们日常生活的——他们的属性,他们的行为,以及他们的互动。这些数据集不仅记录了大规模的社会现象,而且通常是基于个人颗粒度级的和秒到秒的行为。因此,他们提出了一些关于隐私、公平和责任的复杂伦理问题。

从媒体上可以清楚地看到,机器学习最让人害怕的一件事是在社会环境中使用黑盒预测模型。在这种情况下,有可能弊大于利。可以确信的是这些模型会增强现有的结构性偏见,并且边缘化历史地位处于弱势的群体。

结论

对我来说,这是一条重要的前进道路。显然,机器学习是非常有用的,尤其是机器学习对于社会科学来说是很有用的。但是我们必须将我们对待用于社会科学的机器学习的方式和用于类似手写识别或者下象棋的机器学习的方式区别开来。我们不能只把机器学习方法应用到黑盒里,那样的话社会计算科学就只是计算机科学和社会数据的叠加了。我们需要透明度。我们需要区分解释能力——甚至在预测环境中。我们需要进行严格的、详细的错误分析。我们需要质疑。但是,最重要的是,我们需要与社会科学家合作,以了解我们的建模决策背后的伦理意义和影响。

via Communications of the ACM, Vol. 61 No. 3, Pages 42-44,景智AI网 AI 科技评论编译

声明:景智AI网尊重行业规范,任何转载稿件皆标注作者和来源;景智AI网的原创文章,请转载时务必注明文章作者和"来源:景智AI网", 不尊重原创的行为将受到景智AI网的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至:mailto:813501038@qq.com

分享:
相关文章
最新文章