幻觉是有据可查的现象 。由于大型语言模型仅对接下来最有可能出现哪个单词进行最佳猜测,并且不了解诸如上下文之类的事情 ,因此他们很容易简单地制作东西。在假奶酪事实和转变胃的医疗建议之间,这样的虚假信息可能很有趣,但远非无害。现在 ,实际上可能有法律追索权 。
一个名叫Arve Hjalmar Holmen的挪威男子最近与Chatgpt进行了对话,以查看Openai的聊天机器人以自己的名字打字时会提供哪些信息。当据称Chatgpt旋转一条纱线错误地声称自己杀死了自己的儿子并被判处21年监禁(通过TechCrunch),他感到震惊。最令人毛骨悚然的方面?围绕虚构犯罪的故事 ,Chatgpt包括一些有关霍尔曼个人生活的准确,可识别的细节,例如他的孩子的人数和性别以及他的家乡的名字 。
隐私权倡导组织Noyb很快就参与其中。该组织告诉TechCrunch ,他们对Chatgpt为什么会输出这些主张进行了自己的调查,检查是否可能有类似名字的人犯了严重的犯罪。最终,他们在这些线路上找不到任何实质性的东西,因此尚不清楚Chatgpt的发型输出背后的“为什么” 。
此后 ,聊天机器人的基本AI模型已更新,现在不再重复诽谤性的主张。但是,诺布(Noyb)此前以chatgpt输出不准确的信息而提出投诉 ,因此不满意在此处关闭这本书。该组织现在已向Datatilsynet(挪威数据保护局)提出了投诉,理由是Chatgpt违反了GDPR。
根据《欧盟法》第5(1)(d)条,处理个人数据的公司必须确保其准确的效果 ,并且如果它不准确,则必须纠正或删除 。Noyb的理由是,仅仅因为Chatgpt停止了错误地指责Holmen是凶手 ,这并不意味着数据已被删除。
Noyb写道:“错误的数据可能仍然是LLM&rsquo的数据集的一部分。默认情况下,ChatGpt将用户数据馈回系统以进行培训 。这意味着无法绝对可以确保该输出可以完全删除[...],除非整个AI模型都已重新审阅。 ”
Noyb还声称 ,从本质上讲,Chatgpt不符合GDPR第15条。简而言之,在那里,不保证您可以回电给chatgpt; mdash;或查看有关您的数据已馈入数据集的任何数据 。在这一点上 ,Noyb分享道:“这一事实可以理解,这仍然会给投诉人[Holmen]引起困扰和恐惧。”
目前,Noyb要求Datatilsynet命令Openai删除有关Holmen的不准确数据 ,并且该公司确保Chatgpt可以幻想另一个关于其他人的恐怖故事。给定的OpenAI当前方法只是显示免责声明“ ChatGpt可能会犯错误 。考虑检查重要信息”,在每个用户会话底部的小字体中,这也许是一个很高的要求。
尽管如此 ,我还是很高兴看到Noyb向Openai施加法律压力,尤其是当美国政府似乎谨慎行事,并与“ Stargate ”一起参加了AI。基础设施计划 。当Chatgpt可以轻松地将诽谤性索赔与准确的识别信息一起输出时 ,谨慎的面包屑感觉不到最低限度。
本文来自作者[袄聋]投稿,不代表幺幺号立场,如若转载,请注明出处:https://www.yyhz.net/yaoyao/168.html
评论列表(3条)
我是幺幺号的签约作者“袄聋”
本文概览: 幻觉是有据可查的现象。由于大型语言模型仅对接下来最有可能出现哪个单词进行最佳猜测,并且不了解诸如上下文之类的事情,因此他们很容易简单地制作东西。在假奶酪事实和转变胃的医疗建...
文章不错《用户输入自己的名字后,Chatgpt面临法律投诉,并发现他们指责他们犯有虚构罪行》内容很有帮助