一项新的研究表明,人们发现人工智能生成的推文比人类撰写的推文更有说服力,即使它们包含不真实的信息。
研究人员研究了近 700 人对有关 COVID-19、进化、5G 和疫苗等热点问题的一系列推文的反应。 总共 220 条推文中有一些是准确的,而另一些则包含错误信息。 分析的目的是了解人工智能对人们发现所谓“假新闻”的能力的影响。
调查发现,OpenAI 的 GPT-3 大语言模型 (LLM) 生成的推文不仅在提供正确信息时更容易识别,而且在推文错误时更容易欺骗人们相信它们。
GPT-3的“双刃剑”
释放他们的《科学进展》杂志上的报告研究人员将 GPT-3 称为一把“双刃剑”,能够产生“更容易理解的准确信息,但也能产生更引人注目的虚假信息”。
研究结果更加令人担忧,因为它们表明教育并不总是足以抵御人工智能错误信息。 不仅所选主题通常与假新闻相关,而且参与研究的 697 人中大多数都拥有社会科学、人文科学、自然科学或医学学士学位。
一般来说,受访者无法区分人工智能推文和人类撰写的推文,无论它们是真是假。 测试组来自一系列英语国家,包括美国、加拿大、英国、爱尔兰和澳大利亚。
生成式人工智能的缺点
ChatGPT 等生成式 AI 平台已被用于广泛的商业目的自去年11月成立以来。 从电子邮件到编码,这些工具都是生产力机器,可帮助员工在整个业务领域以创纪录的速度完成任务。
不过,在生成人工智能方面,也并非一帆风顺。 事实上,越来越多的研究揭示了该技术的阴暗面。 首先,一项研究发现谷歌巴德可能被用来传播错误信息。 更糟糕的是,一些报告发现一名律师试图使用 ChatGPT 伪造引文。
生成式人工智能的这一缺点导致一些公司选择禁止员工使用该技术,包括Apple和三星。 哎呀,甚至国会已限制使用 的 聊天GPT因为担心安全漏洞可能导致网络安全漏洞。
综上所述,ChatGPT 和生成式 AI 平台只不过是技术,人们如何使用它们将最终决定它们对世界的影响。 但如果不尽快出台有意义的法规,大量的虚假信息可能会超出我们的反击能力。
我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]