据彭博新闻社网站8月9日报道,人工智能(AI)和相关技术构成的一个比较微妙且隐蔽的威胁是它篡改记忆的能力。
心理学家伊丽莎白·洛夫特斯花了50年的时间来表明,人类多么容易被操纵去记住从未发生的事情,尤其是在检方和警察询问证人的时候。
洛夫特斯现在是加利福尼亚大学欧文分校教授。她与麻省理工学院的研究人员合作,探索AI如何操纵我们认为记得的内容。即便受试者知道他们正在看的是AI生成的文本和图像,也会发生这种操纵。
研究结果表明,AI可以增强人类植入错误记忆的能力。
在20世纪70年代开始的一系列著名实验中,洛夫特斯表明,在适当的暗示下,心理学家可以植入人们小时候在购物中心走失的记忆,或者他们在野餐时被鸡蛋或草莓冰淇淋弄恶心的记忆。后一种情况其实使得人们不再想吃这些食物。尽管证据确凿,我们仍无法摆脱记忆就像记录事件的磁带的想法,而对自身头脑的误解使得我们容易受伤害。
洛夫特斯解释说:“信奉这种磁带录音机记忆模型的人似乎没有意识到,记忆是个建设性的过程。”她解释说,我们的大脑会用在不同时间获得的零碎信息构建记忆。我们本能地将遗忘理解为丢失或消退的记忆,而不是添加错误细节。
麻省理工学院媒体实验室的研究人员帕特·巴达拉努达蓬指出,记忆操纵与用深度伪造来欺骗人们是截然不同的过程。你不需要精心制作一个假《纽约时报》网站,你只需让人们相信他们过去在那里看过一些东西。他说:“大家通常不会质疑自己的记忆。”
巴达拉努达蓬是关于三项记忆实验的论文主要作者,其中第一项展示了聊天机器人审讯者如何通过把暗示嵌入问题来改变证人的证词。
在这项研究中,参与者观看了一段持械抢劫的视频片段。然后,有些人被问了误导性问题,比如:“劫匪停车的地方附近有监控摄像头吗?”大约三分之一的参与者后来回忆说看到劫匪是开车来的。实际上并没有车。错误记忆甚至在一周后仍然存在。
受试者被分为三组:一组没有拿到误导性问题,另一组拿到了书面问题,第三组接受了AI聊天机器人的提问。聊天机器人组形成的错误记忆是书面误导信息组的1.7倍。
另一项研究表明,具有欺骗性的AI概述或聊天机器人很容易在人们阅读的故事中插入错误记忆。巴达拉努达蓬说,甚至更令人担忧的是,拿到误导性AI概述或聊天记录的参与者从阅读中保留的真实信息较少,而且对他们回忆起的真实信息的信心较弱。
第三项研究展示了AI如何利用图像和视频植入错误记忆。研究人员将200名志愿者分成四组。每组参与者都观看了一套24张图片,其中有些是新闻网站上常见的图片,还有些是个人照片,比如有人可能会在社交媒体上发布的婚纱照。
在几分钟后第二次观看时,每组看到了不同版本的图片。有一组看的是跟原先相同(未改变)的图片。第二组看的是AI修改过的版本。第三组看的是由AI修改后的图片转换成的AI生成短视频。最后一组看的是完全由AI生成图片转换成的AI生成视频。
就连看到原有图片的那一组也保留了一些错误记忆。这并不奇怪,因为要回忆起24张不同的图片非常困难。但受到任何程度的AI操纵的参与者所报告的错误记忆都明显多得多。记忆失真率最高的是观看基于AI生成图片的AI生成视频的那一组。
年轻人比老年人更容易吸纳错误记忆。教育水平似乎并不影响易感性。值得注意的是,错误记忆并不依赖于欺骗参与者相信AI生成的内容是真实的。他们从一开始就被告知,他们将看到AI生成的内容。
上述最新研究应该会引发更多关于技术影响我们对现实理解的讨论,而影响可能不仅仅是传播错误信息。社交媒体算法还能通过制造有关人气和影响力的错误印象,来鼓励人们接受边缘思想和阴谋论。