由Chamith丰塞卡
丽贝卡·森夫特(Rebecca Senft)的数字

人工智能(AI)的概念往往会让人联想到具有自我意识的计算机和机器人的形象——骑士、机器人瓦力、终结者——但在很大程度上,这项技术目前仅限于小说和电影。然而,在那段时间里,人工智能已经融入了人们的日常生活,在从网上购物到刑事判决的方方面面发挥着作用。相反,人工智能政策的发展却远远落后于人工智能的发展。在没有监管或透明度的情况下,专利算法被用来做出重要的、改变人生的决定,而没有独立监督。当算法误猜出你接下来想看的电影时,缺乏透明度和监管可能不是什么大问题,但在人工智能无处不在的世界里,这可能成为一个重大问题。

看不见的人工智能

能够轻松地将人工智能技术整合到整个经济中,这导致了我所说的“隐形人工智能”的发展。与自动驾驶汽车或自动个人助理不同,使用隐形人工智能的系统不会宣传这一事实;相反,算法在后台被用来预测结果和做出决定。虽然具体算法可能有所不同,但所有人工智能系统都可以用类似的方式来思考:大量数据被用来训练人工智能识别模式,然后再用来对新数据进行分类。例如,一个人工智能可以通过给它数千个苹果和香蕉的标签图像来训练它区分不同的水果。然后,当呈现一幅未标记的图像时,算法会将其与之前看过的图像进行比较,并确定新图像看起来更像苹果还是香蕉。尽管这看起来像是一个简单的例子,但这一基本原理奠定了人工智能程序执行面部识别或理解语言等复杂任务的能力。

隐形人工智能的一个常见用途是价格导向,即向不同消费者显示相同产品的不同价格。2014年东北大学进行的一项研究发现一些酒店和旅游预订网站使用一种算法,根据消费者的个人数据来决定向他们收取什么费用,比如向使用移动设备浏览的用户显示较低的价格,或向过去租用较昂贵酒店房间的用户显示较高的价格。虽然研究表明价格转向一般局限于少量的产品,无形的人工智能还可以用于在不同的订单根据客户数据显示选项,可以显著影响定价,因为人们通常会选择第一或者第二个选择购买他们认为符合他们的标准。

可以认为价格操纵与店主向倾向于花很多钱的顾客收取更高的价格没有什么不同——也许是不道德的,但不是违法的。然而,在这个例子中,隐形人工智能允许店主根据你在其他地方的花费或你喜欢闲逛的地方向你收费。

机器学习和人工智能的不透明性进一步加剧了非中立性的问题:通常很难或不可能知道为什么一个算法做出了一个决定。某些算法充当“黑匣子”,无法确定输出是如何产生的,而其他算法的细节被开发和营销人工智能系统的私营公司视为专有的商业机密。因此,我们经常发现自己处于这样的情况:无论是使用算法的人,还是被算法分类的人,都无法解释为什么做出某些决定。在使用人工智能的公司中,一个常见的说法是,算法是有效的中立者,以一种公正的方式做出决定,不像人类会受到自己的偏见的影响。然而,由于机器学习算法通常被训练成根据过去的数据做出决定,应用隐形人工智能很可能会加剧现有的不平等。

以就业市场为例,招聘经理经常依靠算法在大量的求职者中识别潜在的候选人。多个研究当看到两个有着相同简历的求职者时,人们会优先选择名字听起来像白人而不是名字听起来像黑人的求职者。一种经过此类数据训练的算法可能会学会在没有明确指示的情况下,优先考虑名字听起来像白人的申请人;因此,由这个算法产生的判断将被认为是无偏的,当它们不是。

在刑事司法系统中,隐形人工智能的一个特别危险的用途是,在这个系统中做出的决定往往会改变生活。例如,在一个人被定罪后,传统上法官会根据案件事实和再犯的可能性来决定刑期的长短。在一些州,法官依赖于由算法产生的风险评估,以确定给定的个人是否具有继续犯罪的低风险或高风险。支持者认为,将犯罪性质、以往犯罪记录、个人历史等因素综合起来使用的算法,为确定未来犯罪行为的可能性提供了一种更公平的方法。从表面上看,这似乎是合理的,尤其是考虑到司法系统中长期存在的种族差异。

去年,记者从ProPublica法庭记录在佛罗里达用来检查这些系统的准确性,节奏(矫正罪犯管理分析替代制裁),发现有将近40%的人决定是高风险的犯罪率并没有这么做,而另一些人则被归类为低风险继续犯下其他罪行。事实上,该算法更有可能错误地将白人被告归类为低风险,而黑人被告往往被错误地归类为高风险。尽管生产COMPAS的公司不同意这种分析,但他们不愿意公开他们的方法,也不愿意解释算法在产生风险评分时是如何考虑不同因素的。

正确的辩论

有关人工智能的伦理问题的流行讨论往往集中在具有完全自我意识的机器的潜力,以及如何确保人工智能正确地珍惜人类生命。科技巨头埃隆•马斯克(特斯拉)和马克•扎克伯格(Facebook)也加入进来基金会和从事公开辩论关于如何避免创造对人类生活危险的自我意识的ai;但是,在目前形式的AI伦理使用中发生了小辩论。像谷歌和亚马逊这样的公司使用了大量的个人数据来构建高级机器学习技术,少量监督或从公众投入,而当地,国家和联邦政府将AI默默地插入各种决策过程中。欧洲联盟最近开发了规则监管个人资料的转移和使用,美国没有类似的立法。

尽管因此目的而完全不合适,但AI通常被用作人类判断和道德的替代品。想象一个人驾驶一辆车的高速公路,他在最后一分钟将一只乌龟过穿过这条路。根据个人判断,有些人可能会减慢并让动物通过,而其他人可能会转移以避免动物并继续驾驶。现在,考虑与自驾车相同的情景。控制汽车的AI将根据如何教授不同目标的方式来处理这种情况:按时完成旅行,比确保动物没有受伤吗?这是如何决定的?这些是重要的道德问题;然而,AI是一个基本上不受管制的技术。

人工智能将需要被教导做出伦理和道德决定,比如自动驾驶汽车决定是否避开过马路的乌龟。
人工智能将需要被教导做出伦理和道德决定,比如自动驾驶汽车决定是否避开过马路的乌龟。

新政策不会解决所有这些挑战,但它们可以在确保人工智能的好处得到公平分配、同时承认其局限性方面发挥重要作用。这方面的初步步骤可以包括下列建议:

  • 要求人工智能算法的透明度和评估。了解一个算法是如何做出决策的,对于确定它是否受到偏见或其他因素的影响至关重要;此外,应该定期测试算法,以确保它们仍然能够正常工作。
  • 确保人工智能技术的目标与社会规范一致,例如确保刑事司法中使用的人工智能系统被优化,以使无辜者获得怀疑的好处。
  • 制定有关政府和企业如何使用个人数据的政策和法规。控制政府、公司和个人如何使用“大”数据将防止他们的个人信息被不必要的商业化。人们应该有权知道他们的活动——无论是在网上还是网下——是如何被人工智能系统使用的。

尽管人工智能的局限性很大,但如果这些技术能够以公平和公正的方式进行整合,那么人工智能在推进人类最大利益方面有很大的前景。

Chamith Fonseka是哈佛大学生物医学和生物科学项目的五年级博士生。

这篇文章是一个人工智能特别版

更多信息:

凯茜奥尼尔

https://www.bloomberg.com/view/contributors/ATFPV0aLyJM/catherine-h-oneil

https://www.amazon.com/Weapons-Math-Destruction-Increases-Inequality/dp/0553418815

泽Tufciki

https://www.nytimes.com/2016/05/19/opinion/the-real-bias-built-in-at-facebook.html

https://www.twitterandteargas.org/

Propublica节奏调查

https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

哈佛数据隐私实验室

https://dataprivacylab.org/

一个想法"让人工智能承担责任

  1. 当今世界的人工智能肯定不是一种有自我意识或能够做出道德判断的“人工智能”。今天的人工智能只不过是不同程度的复杂算法和大型数据集,可以模拟某种形式的决策。它可以非常聪明,当然也非常优雅。

    任何智能的出现都是纯粹偶然的(即使它是以这种方式设计的),因为每个场景都必须被精心编写到AI中。有一些形式的人工智能能够“学习”。但这只是一个预先编程的算法,仅限于设计师能够想到的内容。如果设计者没有编写程序,机器就无法学习或操作。

    一个人的智力不是他/她各部分的总和。我们知道我们有神经元,它们发送电子信号,以及大脑的不同区域可能会做什么。但我们不知道我们是如何有自我意识或智慧的。人类可以学习任何东西(有些人比其他人学习得更多,特别是在年轻的时候,但通常在任何年龄),我们不受某些预先编程场景的限制,如人工智能。人工智能永远不会超过它各部分的总和,我认为可能会更少。

    我同意今天的AI算法的决策能力应该是透明的,特别是在伦理、道德和生活决定的情况下。我们应该理解算法将如何对事物作出反应,以及它将如何对它不理解的事物作出反应。我当然不想乘坐一辆自动驾驶汽车,它会决定以每小时50英里的速度把我的车开到迎击的车流中,以每小时50英里的速度撞到一棵树,或从悬崖或桥上掉下去,而不是撞到鹿、狗或行人。我想知道其中的风险。如果自动驾驶汽车将优先考虑乘员的安全,而不是其他人的安全,那么这是合理的。当然,它也应该想要保护其他车辆和行人。但不是以居住者的生命为代价。

    当然,我认为人们在很多情况下都太聪明了。我们有智慧来发明基因改造、核技术、有限形式的人工智能等等。然而,我们很多时候没有智慧和/或我们允许那些肆无忌惮的人控制这些技术。一切最终都是如何利用这些技术来获取巨额利润,控制人和国家。

    为什么我们会认为我们的人工智能不会有类似的行为?它只能做被编程的事情。如果它是由不道德的人设计的,那么它肯定会以这样的方式行动。人工智能现在是、将来也永远只是人类创造的另一种工具,用于完成某些任务,无论目的是好是坏。我们应该控制AI的使用,让它成为一个好的工具,而不是一个邪恶的工具。

留下一个回复

您的电子邮件地址将不会被公布。必填字段被标记*