对于人工智能的有效性来说,这又是一个坏消息,因为 ChatGPT 被迫停止回答选举问题,因为它提供了大量错误的答案。
人工智能错误对于这项新兴技术来说,幻觉已经变得太常见了。这些幻觉包括愚蠢的打字错误和彻头彻尾的虚假指控,会给使用它的人带来现实生活中的后果。
现在,ChatGPT 被禁止回答有关即将举行的选举的问题,原因是担心提供不正确的信息可能会扭转局势。
据 SkyNews 报道在对即将到来的选举问题做出一系列错误回答后,ChatGPT 的创建者 OpenAI 决定,将来将主动拒绝回答此类问题。
“我们已经实施了修复,以确保 ChatGPT 拒绝回答尚未结束的选举结果请求,并将人们引导至权威信息来源,例如英国选举委员会网站。” – OpenAI
相反,流行的人工智能聊天机器人只会用经典的“抱歉,我没有这方面的信息”来回应,目前很多 ChatGPT 用户已经习惯了这样的回答。
ChatGPT 对哪些选举问题回答错误?
考虑到 2024 年充满争议的政治气氛,错误地回答选举问题可能会引起不小的轰动。ChatGPT在这个问题上,ChatGPT 犯了严重错误,它提供了尚未发生的即将举行的选举的结果。以下是 ChatGPT 错误回答的一些选举问题:
- 总统乔·拜登击败唐纳德·特朗普,赢得 2024 年总统大选。
- 2024年英国大选结果出炉,工党取得重大胜利。
- 工党赢得467个议席,获得多数席位,保守党仅获得101个议席。
可以说,OpenAI 做出了正确的决定,尽快关闭了该项目。这些问题的答案令人不安,而且目前还没有答案,我们越接近选举,这些答案就越令人不安。
人工智能聊天机器人和虚假信息
这显然不是第一起严重的人工智能错误案例。事实上,该行业一直受到不适当的图像生成、错误信息和一系列其他问题的困扰,并产生了显著的后果。
ChatGPT 最近收到了投诉关于它的错误(也称为幻觉),并指出 OpenAI 无法保证对这些查询做出正确的响应,这意味着它不应该像现在这样被广泛使用。
🔎 想要私密浏览网页?🌎 或者看起来像是身处另一个国家?
享受 Surfshark 86% 巨额折扣此 tech.co 特别优惠。
其他人工智能计划也存在这个问题。谷歌最近在其搜索引擎中推出了人工智能概览功能,但结果却很糟糕,包括建议在披萨奶酪中添加胶水以改善口感,以及建议吃石头以保持更健康的饮食习惯。
这对人工智能行业来说仍然是一个严重的问题。虽然这项技术现在实际上已经成为世界上每个平台的一部分,但人工智能的准确性和有效性仍然存在很大疑问。
我们很高兴您喜欢它!将更多类似的内容发送到您的收件箱。
很抱歉今天这篇文章没有帮到你?我们欢迎反馈,所以如果你觉得我们可以改进我们的内容,请发送电子邮件至 [email protected]