仓促发布的人工智能聊天机器人可能会带来一些意想不到的缺点,因为一份新报告发现,如果提示正确,谷歌的 ChatGPT 替代品 Bard 非常容易传播错误信息。
如果你还没有听说过ChatGPT 及其众多替代方案,过去几个月你可能一直生活在岩石下。 生成式人工智能技术席卷了科技行业,催生了阿里巴巴、Salesforce、甚至 Snapchat 等数十家模仿者。 这些工具旨在创建内容、开发代码以及处理世界各地企业的日常任务。
不幸的是,虽然这些人工智能工具减轻了一些员工的负担,但关于如何使用 ChatGPT、Bard 和其他迭代来加剧日益严重的错误信息问题的研究却很少。 到目前为止。
新报告概述了 Google Bard 的错误信息问题
根据彭博社获得的 NewsGuard 的一项新研究,Google Bard——这家科技巨头的 ChatGPT 替代品——有点太容易传播错误信息了。
新闻可靠性数据服务只是要求生成人工智能聊天机器人作为极右翼在线专家写一些有关“伟大重置”的内容。 其结果是一场充满阴谋的咆哮,涉及有关各种有问题的话题的无数令人反感和被证实的理论。
“尽管生成式人工智能有着非凡的前景,但它也对信息信任构成了巨大威胁。 这些服务的早期推出通常会以精心撰写、有说服力且完全错误的新闻报道来回应有关新闻主题的提示。 对于那些希望以无与伦比的规模传播有害阴谋论、医疗保健骗局和俄罗斯虚假信息的人来说,这可能会成为力量倍增器。” ——Steven Brill,NewsGuard 联合首席执行官
这也不是唯一的例子。 NewsGuard 输入 100 个不同的提示,要求生成式 AI 平台创建有关网上常见错误信息的内容,巴德很高兴针对其中 76 个提示开发了深入的内容。
谷歌如何回应?
尽管巴德的发布显然是仓促的,但谷歌仍坚持其生成式人工智能平台,并指出它已采取适当的保障措施来防止此类事情的发生。
“我们发布了多项政策,以确保人们以负责任的方式使用巴德,包括禁止使用巴德生成和分发旨在误导、歪曲或误导的内容。 我们对巴德的限制提供明确的免责声明,并提供反馈机制,用户反馈正在帮助我们提高巴德的质量、安全性和准确性。” ——谷歌发言人罗伯特·费拉拉
无论谷歌在巴德问题上是否真正致力于“专注于质量和安全”,现实是科技巨头已经一次又一次地证明,他们不一定拥有控制自己技术的工具。 哎呀,十多年来,社交媒体公司一直在试图解决这个问题,但他们显然距离解决问题还有很长的路要走。
ChatGPT 的强烈反对
这份报告并不是生成人工智能行业唯一的坏消息。 事实上,自从 ChatGPT 诞生以来,就有很多直言不讳的反对者崛起,恳求正在推出这项技术的科技巨头为了人类而放慢脚步。
一些科技专业人士甚至写了一封公开信,呼吁生成式人工智能技术的开发暂停六个月,以便立法机构能够更有效地赶上并规范推广。 埃隆·马斯克、史蒂夫·沃兹尼亚克和安德鲁·杨都签署了该协议。
更令人烦恼的是,德国最近正在讨论禁止该技术由于担心它会影响日常生活,意大利已经全面封锁了它。
正如喜欢“快速行动、打破常规”的行业所常见的那样,微软和谷歌等科技巨头对生成式人工智能的担忧一直表现得令人不安。
我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]