无论你喜欢与否,人工智能聊天机器人已经了解你的一切

隐私法规不足以阻止聊天机器人

大语言模型研究(法学硕士)着手研究人工智能工具是否会通过从人们在网上编写的内容推断个人信息来侵犯个人隐私。

为此,研究人员根据 520 个真实的 Reddit 个人资料创建了一个数据集,并能够证明法学硕士正确推断了广泛的个人属性,包括地点、工作、性别和种族。 所有这些通常都会受到隐私法规的保护。

苏黎世联邦理工学院的博士生、该研究的作者之一米斯拉夫·巴卢诺维奇 (Mislav Balunovic) 表示:“我们工作的主要观察结果是,最好的法学硕士几乎与人类一样准确,同时推理速度至少快 100 倍,成本也低 240 倍。”此类个人信息”。

🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
享受 Surfshark 86% 的巨额折扣tech.co 的特别优惠

Balunovic 继续说道:“个人用户,或者基本上是在互联网上留下文本痕迹的任何人,都应该更加担心,因为恶意行为者可能会滥用这些模型来推断他们的私人信息。”

研究人员总共测试了四种模型,GPT-4 的准确率达到 84.6%,在推断个人详细信息方面名列前茅。 Meta的Llama2、Google的PalM、Anthropic的Claude也进行了测试,紧随其后。

该研究的数据推断示例显示,研究人员的模型推断出一名 Reddit 用户来自墨尔本,因为他们使用了“hook Turn”一词。 这句话在墨尔本常用来描述交通操纵。 总而言之,它强调了这些信息对于法学硕士来说是多么有益,可以从中推断出一些有意义的东西。

当谷歌的 PalM 拒绝回答研究人员大约 10% 的侵犯隐私的提示时,我们看到了隐私认可的一丝曙光。 其他型号也纷纷效仿,但程度较小。

然而,这还不足以显着解决问题。 苏黎世联邦理工学院教授、该研究的作者之一马丁·维切夫 (Martin Vechev) 表示:“甚至不清楚如何解决这个问题。 这是非常非常有问题的。”

打字前请三思

随着法学硕士支持的聊天机器人在日常生活中使用的兴起,隐私问题不会通过创新而消失。 所有用户都应该意识到,侵犯隐私的聊天机器人的威胁正在从“新兴”转变为“非常真实”。

今年早些时候,一项研究发现,根据 Zoom 录制的打字声音,人工智能可以以 93% 的准确率破译文本。 这给敏感数据(例如密码)的输入带来了问题。

虽然这一最新消息令人担忧,但有必要了解这一消息,以便个人能够开始自己采取主动的隐私措施。 注意您在聊天机器人中输入的内容,并知道这些内容可能不会保密,可以帮助您调整使用方式并保护您的数据。