人工智能 (AI) 可能和实际智能一样容易出错,专家们开始意识到这一点人工智能错误或“幻觉”可能是一个功能而不是一个错误。
科技界对 ChatGPT 等生成式人工智能平台的开发下了很大的赌注。 过去几个月,微软、谷歌和其他数十家公司已将这项技术推广到各自的平台上,这使其成为任何寻求提高生产力的企业的巨大卖点。
然而,生成式人工智能平台远非完美,甚至一些先驱者也开始担心这些错误将比他们最初想象的更难修复。
专家:人工智能幻觉“无法修复”
虽然生成式人工智能平台因其提高生产力的内容创作而备受赞誉,但也有不少报告指出其一贯的不准确性。 是的,这项技术仍处于起步阶段,但一些专家指出,生成式人工智能的完美版本根本不可能。
“这无法修复。 这是技术与拟议用例之间不匹配所固有的。” ——Emily Bender,华盛顿大学计算语言学实验室主任
更糟糕的是,人工智能技术最终能否摆脱早期失误是一场豪赌。 像谷歌这样的大型科技公司对该技术有着宏伟的计划,其中包括在面对诽谤法时需要完全准确的新闻写作平台。
生成式人工智能在行动中的错误
您可能会想,这些人工智能错误到底有多严重? 毕竟你已经在老板不知情的情况下在工作中使用人工智能到目前为止一切似乎都坚如磐石,对吧?
现实情况是,在大规模的生成式人工智能应用中,错误是很常见的。 从不正确的信息到完全错误的信息,这些平台不够完美,无法处理企业希望它们执行的潜在高风险任务。
🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
享受 Surfshark 86% 的巨额折扣tech.co 的特别优惠。
最近的一个例子是,一家律师事务所因使用ChatGPT 创建的虚构法律研究。 该案例显然对现实世界产生了影响,而且只不过是基于生成人工智能平台的捏造。
综上所述,生成式人工智能平台所犯的错误比简单的拼写错误和遗漏单词要严重得多。 如果这项技术不能变得更加准确和快速,可能会导致严重的问题。
人工智能领导者怎么看?
正如你可以想象的那样,像 OpenAI 和人择不太担心,尽管他们的乐观态度明显地强调了他们的谦虚认识,即这些平台在接近可靠之前还有很长的路要走。
“我认为当今的任何模特都遭受过某种幻觉的困扰。 它们实际上只是为了预测下一个单词而设计的。 因此,模型在一定程度上会出现不准确的情况。” – Daniela Amodei,Anthropic 总裁,Claude 2 的开发者。
幸运的是,人工智能领导者事实上意识到,他们的平台在内容方面并没有产出最好的产品,尽管他们对这一事实表现得令人沮丧地轻率。
“我可能是地球上最不相信 ChatGPT 给出的答案的人。” – Sam Altman,OpenAI 首席执行官,ChatGPT 开发者
我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]