算法当道!为什么人类和人工智能越来越像?
算法告诉我们该如何思考,而这正在改变我们。随着计算机学会如何模仿,我们是否正开始变得越来越像它们呢?
硅谷正越来越多地预测人们会如何回复电子邮件,会对某人的Instagram照片做出什么样的反应,越来越多地决定人们有资格享受哪些政府服务,不久以后,即将到来的谷歌语音助理Google Assistant将能够为人们实时打电话预约理发师。
从医院到学校,再到法庭,我们几乎将算法带到了所有的地方。我们被各种自动化系统所环绕。几行代码即可告诉我们应该看什么媒体内容,与谁约会,甚至告诉司法系统应该把谁送进监狱。
我们把如此之多的决策权和控制权交给这些程序,是对的吗?
我们之所以痴迷于数学程序,是因为它们能对一系列错综复杂的问题给出快速而准确的答案。机器学习系统已经被应用于我们的现代社会的几乎每一个领域。
算法是如何影响我们的日常生活的?在一个不断变化的世界里,机器正在快速而出色地学习人类的行为方式,我们喜欢些什么,讨厌些什么,以及什么是对我们最好的。我们现在生活在由预测性技术主宰的空间里。
通过分析整理海量的数据,给我们提供即时且相关的结果,算法极大地改变了我们的生活。多年来,我们让公司们收集了大量的数据,让公司变得能够给我们提供各种建议,能够决定什么是对我们最有利的。
谷歌母公司Alphabet或亚马逊等公司一直在为各自的算法灌输从我们身上收集到的数据,并指导人工智能利用收集到的信息来适应我们的需求,变得更像我们。然而,随着我们习惯了这些便捷的功能以后,我们的说话和行为方式是否会变得更像一台计算机呢?
“算法本身并不公平,因为构建模型的人定义了成功。”——数据科学家凯茜·奥尼尔(Cathy O’Neil)
按照当前这样的技术发展速度,我们不可能不去想象在不久的将来,我们的行为会变得由算法引导或支配。事实上,这已经在发生了。
去年10月,谷歌为旗下邮箱服务Gmail推出了名为“Smart Reply”的智能回复功能,意在帮助你编写回信或者快速回复。此后,该助理功能在互联网上掀起了一场风暴,很多人都批评它,称其量身定制的建议具有侵害性,让人看起来像机器,甚至有人认为,它的回复最终可能会影响我们的交流方式,甚至可能改变电子邮件的规范。
算法的主要问题在于,随着它们变得如此巨大而复杂,它们会开始给我们当前的社会带来负面影响,会危及民主。随着机器学习系统在社会的许多领域变得越来越普遍,算法会统治世界,接管我们的思想吗?
现在,让我们来看看Facebook的做法。早在2015年,他们的新版News Feed信息流的设计初衷就是筛选用户的订阅内容,使其变成个性化的报纸,让用户能够看到与他们之前曾点赞、分享和评论的内容相关的东西。
“个性化”算法的问题在于,它们会将用户放入“过滤气泡”或者“回声室”。在现实生活中,大多数人不太可能接受他们觉得困惑、讨厌、不正确或可恨的观点。就Facebook的算法而言,该公司给予用户他们想要看到的东西,因此,每个用户的信息流都变成一个独特的世界,它们本身就是一个独特的现实。
过滤气泡使得公开论证变得越来越困难,因为从系统的视角来看,信息和虚假信息看起来完全一样。正如罗杰?麦克纳米(Roger McNamee)最近在《时代》(Time)杂志上所写的那样,“在Facebook上,事实不是绝对的;它们是一种选择,最初留给用户和他们的朋友决定的一种选择,但随后被算法放大,以便促进传播和用户的互动。”
过滤气泡制造了一种错觉:每个人都相信我们在做着同样的事情,或者有同样的习惯。我们已经知道,在Facebook上,算法因为加剧了两极化而让这一问题进一步恶化,最终损害了民主。有证据表明,算法可能影响了英国公投或2016年美国总统大选的结果。
“Facebook的算法推崇极端信息,而非中性信息,这会让虚假信息凌驾于真实信息之上,让阴谋论凌驾于事实之上。”——硅谷投资人罗杰·麦克纳米(Roger McNamee)
在无时无刻都充斥着大量信息的当今世界,筛选信息对一些人来说是一个巨大的挑战。如果使用得当,人工智能可能会增强人们的在线体验,或帮助人们迅速处理不断增长的内容资讯负荷。然而,要能够正当运作,算法需要关于真实世界中发生的事情的准确数据。
公司和政府需要确保算法的数据不存在偏见,且是准确的。由于没有什么是完美无瑕的,存在自然偏差的数据估计已经存在于许多的算法中,这不仅给我们的网络世界带来了危险,也给现实世界带来了危险。
倡导实施更强有力的监管框架是必要的,这样我们就不会陷入技术上的蛮荒。
我们也应该非常谨慎于我们赋予算法的能力。人们正变得越来越担心算法带来的透明度问题,算法做出的决策和流程背后的伦理意味,以及影响人们工作生活的社会后果。例如,在法庭上使用人工智能可能会增加偏见,造成对少数族裔的歧视,因为它会考虑到“风险”因素,比如人们所在的社区以及与犯罪的关联性。这些算法可能会犯下灾难性的系统性错误,把现实中无辜的人类送进监狱。
“我们有失去人性的危险吗?”
安全专家布鲁斯·施奈尔(Bruce Schneier)在他的书《点击这里杀死所有人》(Click Here to Kill Everybody)中写道,“如果我们让计算机为我们思考,而底层的输入数据是糟糕的,那么它们会进行糟糕的思考,而我们可能永远都不会察觉。”
英国伦敦大学学院的数学家汉娜·弗莱(Hannah Fry)带领我们进入了一个计算机可以自由操作的世界。在她的新著作《世界你好:在算法的时代里做个人类》(Hello World: Being Human In the Age of Algorithms)中,她认为,作为公民,我们应该更多地关注键盘后面的人,即那些编写算法的人。
“我们不必创造一个由机器来告诉我们该做什么或者该如何思考的世界,尽管我们最终很可能会进入这样一个世界。”她说道。在整本书中,她多次问道:“我们有失去人性的危险吗?”
现在,我们还没有到人类被排除在外的阶段。我们在这个世界上的角色还没有被边缘化,在很长一段时间内都不会。人类和机器可以结合各自的优势和劣势一起运作。机器有缺陷,会犯和我们一样的错误。我们应该注意我们交出了多少的信息,放弃了多少的能力,毕竟算法现在是人类固有的一部分,它们不会在短时间内消失。