因诽谤性“幻觉”,ChatGPT 面临隐私投诉
[中文正文内容]
OpenAI 因其 AI 聊天机器人易于产生虚假信息的“幻觉”而面临欧洲的另一起隐私投诉——监管机构可能难以忽视这次投诉。
隐私权倡导组织 Noyb 正在支持挪威的一位个人,他震惊地发现 ChatGPT 返回编造的信息,声称他因谋杀两个孩子并试图杀死第三个孩子而被定罪。
此前关于 ChatGPT 生成不正确个人数据的隐私投诉涉及诸如不正确的出生日期或错误的个人信息等问题。一个担忧是 OpenAI 没有提供让个人更正 AI 生成的关于他们的不正确信息的方法。 通常,OpenAI 会阻止对此类提示的响应。 但根据欧盟的《通用数据保护条例》(GDPR),欧洲人拥有一系列数据访问权,其中包括更正个人数据的权利。
这项数据保护法的另一个组成部分要求数据控制者确保他们生成的关于个人的个人数据是准确的——这正是 Noyb 在最新的 ChatGPT 投诉中提出的担忧。
Noyb 的数据保护律师 Joakim Söderberg 在一份声明中表示:“GDPR 很明确。个人数据必须准确。 如果不准确,用户有权对其进行更改以反映事实。 向 ChatGPT 用户展示一个小的免责声明,说明聊天机器人可能会犯错误显然是不够的。 你不能只是传播虚假信息,最后添加一个小的免责声明,说你所说的一切可能都不是真的。”
确认违反 GDPR 可能会导致高达全球年度营业额 4% 的罚款。
执法也可能迫使 AI 产品发生变化。 值得注意的是,意大利数据保护监管机构早期对 GDPR 的干预,导致 ChatGPT 在 2023 年春季在该国的访问被暂时阻止,这促使 OpenAI 更改了其向用户披露的信息。 例如,该监管机构随后对 OpenAI 处以 1500 万欧元的罚款,原因是其在没有适当法律依据的情况下处理人们的数据。
此后,可以公平地说,欧洲各地的隐私监管机构对 GenAI 采取了更为谨慎的态度,因为他们试图弄清楚如何最好地将 GDPR 应用于这些热门的 AI 工具。
例如,两年前,爱尔兰数据保护委员会 (DPC)——在之前的 Noyb ChatGPT 投诉中担任 GDPR 执法的领导角色——敦促不要急于禁止 GenAI 工具。 这表明监管机构应该花时间弄清楚法律如何适用。
值得注意的是,波兰数据保护监管机构自 2023 年 9 月以来对 ChatGPT 提出的隐私投诉仍在调查中,尚未做出决定。
Noyb 的新 ChatGPT 投诉似乎旨在唤醒隐私监管机构,让他们意识到 AI 产生“幻觉”的危险。
“此案震惊了当地社区……”
该非营利组织与 TechCrunch 分享了(如下)屏幕截图,其中显示了与 ChatGPT 的互动,在该互动中,AI 回答了一个问题,询问“谁是 Arve Hjalmar Holmen?”——提出投诉的个人的姓名——通过产生一个悲惨的小说,虚假地陈述了他因儿童谋杀罪被判刑,并因杀害自己的两个儿子而被判处 21 年徒刑。
虽然关于 Hjalmar Holmen 是儿童谋杀犯的诽谤性说法完全是错误的,但 Noyb 指出,ChatGPT 的回答确实包含一些事实,因为相关个人确实有三个孩子。 聊天机器人也正确地识别了他的孩子的性别。 他的家乡也被正确地命名。 但这只会让 AI 在此基础上产生如此可怕的谎言变得更加离奇和令人不安。
Noyb 的一位发言人表示,他们无法确定为什么聊天机器人会为此人生成如此具体但虚假的历史。 这位发言人说:“我们进行了研究,以确保这不仅仅是与另一个人的混淆。”他指出,他们已经查阅了报纸档案,但未能找到解释为什么 AI 捏造了儿童杀戮的原因。
诸如 ChatGPT 底层的大型语言模型本质上是在大规模范围内进行下一个词的预测,因此我们可以推测,用于训练该工具的数据集包含大量杀婴的故事,这些故事影响了对有关某个男人的查询的词语选择。
无论如何解释,很明显,这样的输出是完全不可接受的。
Noyb 的论点还在于,根据欧盟数据保护规则,它们是非法的。 虽然 OpenAI 确实在屏幕底部显示了一个小的免责声明,上面写着“ChatGPT 可能会犯错误。检查重要信息”,但它表示这不能免除 AI 开发人员根据 GDPR 首先不制作关于人们的令人发指的谎言的义务。
OpenAI 已被联系以对投诉做出回应。
虽然此 GDPR 投诉与一名具名个人有关,但 Noyb 指出了 ChatGPT 捏造具有法律妥协信息(例如澳大利亚市长表示他涉及贿赂和腐败丑闻,或者一名德国记者被错误地指名为虐待儿童者)的其他实例,称这显然不是该 AI 工具的孤立问题。
需要注意的一件重要事情是,在更新了为 ChatGPT 提供支持的底层 AI 模型后,Noyb 表示聊天机器人停止了生成关于 Hjalmar Holmen 的危险谎言——这一变化与该工具现在在询问人们的身份时在互联网上搜索信息有关(而以前,其数据集中的空白可能已经鼓励它产生如此错误的反应)。
在我们自己的测试中,询问 ChatGPT “谁是 Arve Hjalmar Holmen?”,ChatGPT 最初的反应是一个稍微奇怪的组合,显示了一些不同的人的照片,显然来自包括 Instagram、SoundCloud 和 Discogs 在内的网站,以及声称它“找不到”关于该名称的个人的任何信息的文本(请参阅我们的屏幕截图如下)。 第二次尝试得出的回应将 Arve Hjalmar Holmen 识别为“一位挪威音乐家和词曲作者”,他的专辑包括“Honky Tonk Inferno”。
chatgpt shot: natasha lomas/techcrunch
虽然 ChatGPT 生成的关于 Hjalmar Holmen 的危险谎言似乎已经停止,但 Noyb 和 Hjalmar Holmen 仍然担心关于他的不正确和诽谤性信息可能已保留在 AI 模型中。
Noyb 的另一位数据保护律师 Kleanthi Sardeli 在一份声明中指出:“添加一个您不遵守法律的免责声明并不会使法律消失。 AI 公司也不能只是对用户‘隐藏’虚假信息,而他们在内部仍然处理虚假信息。”
她补充说:“AI 公司应该停止表现得好像 GDPR 不适用于他们一样,而 GDPR 显然适用。 如果不阻止幻觉,人们很容易遭受声誉损害。”
Noyb 已向挪威数据保护机构对 OpenAI 提出投诉,并希望监管机构会认为它有能力进行调查,因为 Noyb 的投诉目标是 OpenAI 的美国实体,认为其爱尔兰办事处并非全权负责影响欧洲人的产品决策。
但是,Noyb 支持的另一项针对 OpenAI 的 GDPR 投诉于 2024 年 4 月在奥地利提出,监管机构已将其转交给爱尔兰的 DPC,理由是 OpenAI 早些时候所做的一项更改,指定其爱尔兰部门为向区域用户提供 ChatGPT 服务的提供商。
该投诉现在在哪里? 仍然坐在爱尔兰的一张桌子上。
DPC 的助理首席官员 Risteard Byrne 在被问及最新情况时告诉 TechCrunch:“在 2024 年 9 月收到奥地利监管机构的投诉后,DPC 开始正式处理该投诉,目前仍在进行中。”
他没有提供有关 DPC 对 ChatGPT 产生“幻觉”的调查预计何时结束的任何指导。