谷歌巴德解决了讨厌的错误,但人工智能聊天机器人仍然看到双重

谷歌终于修复了一个巴德错误,该错误持续将聊天机器人的活动标记为通过其原始 LaMDA 语言模型生成,尽管宣布正在切换 回到 5 月的 Google I/O 2023 大会上更先进的 PaLM 2 LLM(大型语言模型)。

谷歌发言人在接受 Tech.co 采访时表示,聊天机器人的活动页面在之前的聊天中错误地引用了“LaMDA”,而不仅仅是“Bard”,这导致人们对 LLM 实际用于生成响应的内容产生了一些困惑。

当直接询问时,流行的ChatGPT 替代方案继续围绕它正在使用哪种语言模型的问题产生幻觉。 到底发生了什么?我们现在认为正在发生什么? 让我们更仔细地看看巴德虫的困惑。

Google Bard Bug:Bard 使用 LaMDA 还是 PaLM 2?

谷歌最初在 2023 年 5 月的谷歌 I/O 大会上宣布,巴德将从其原始语言模型 LaMDA 切换到名为 PaLM 2 的新“下一代”语言模型,这次活动吸引了其他令人兴奋的人工智能项目,例如新的“帮我写 Gmail”工具也被宣布。

然而,消息公布后不久,巴德仍然告诉一些用户它正在使用 LaMDAPaLM 2 正在开发中。 人们开始质疑这只是一种幻觉还是推出过程中的问题。

更令人困惑的是,直到上周,一些用户仍然看到他们之前的提示存储在标有“LaMDA”的“Bard Activity”菜单中,如下所示:

谷歌确认 LaMDA 标签错误

当 Tech.co 通过电子邮件向这家科技巨头提出这个问题时,谷歌发言人表示:

“我们最近发现了一个影响巴德活动页面的问题。 在某些地方,该页面引用了“LaMDA”而不是“Bard”。 这是一个错误,我们可以确认 Bard 正在 PaLM 2 上运行。我们已经解决了这个问题,活动页面现在应该可以按预期工作。”

从我们看到的情况来看,这一变化确实已经生效,活动页面现在显示的是“吟游诗人”一词。

巴德对法学硕士的使用仍然持双重态度

当被问及巴德自己的回应是否表明其仍在使用 LaMDA 时,发言人表示,包括巴德在内的法学硕士有时会提供与事实不符的信息,这在人工智能和科技界被称为“幻觉”。

本周,当我们询问巴德正在使用哪种语言模型时,它再次回答“LaMDA”:

然而,当再次询问时,它随后将答案更改为 PaLM 2,引用了宣布切换的 2023 年 I/O 事件:

我们多次向巴德提出这个问题,而在绝大多数情况下,巴德都给出了“错误”的答案(根据谷歌的说法)。

奇怪的是,当它如此轻松地回答我们的第二个问题时,它却没有在第一个实例中获取正确回答我们的信息。 不过,巴德确实承认,它仍在开发中,并正在学习使用 PaLM 2。

希望新的语言模型能够在某种程度上阻止巴德产生持续错误的答案——目前,它并没有给我们很多理由相信它,即使它有如此大的潜力。

有关的:ChatGPT 会保存我的数据吗?

我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。

很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]

Related Posts