随着像 ChatGPT 这样的人工智能平台的投资和使用持续飙升,另一封公开信已经发布,恳求科技行业在进一步向世界释放这项技术之前考虑风险。
几个月前,埃隆·马斯克和史蒂夫·沃兹尼亚克等科技专业人士写了一封公开信,要求六个月的暂停关于 ChatGPT 等生成式人工智能平台的开发。
现在,更多的科技专业人士开始写另一封信,而不是以更严肃的语气谈论人工智能对生命本身的威胁。
人工智能风险声明
这封公开信的标题是人工智能风险声明,虽然简短但功能强大,旨在克服讨论的困难性。 以下是声明全文:
“与流行病和核战争等其他社会规模风险一样,减轻人工智能带来的灭绝风险应该成为全球优先事项。”
考虑到世界刚刚经历了一场毁灭性的大流行,并继续应对核战争的威胁,这一声明如果不是对人工智能技术更多监管的强烈支持,那就毫无意义。 当你看到签名是谁时,就更令人担忧了。
谁签署了公开信?
虽然公开信中的声明有其严肃性,但真正的故事是谁签署的。 这是名副其实的科技行业名人录,更具体地说,是那些参与相关人工智能技术开发的人。 以下是这封公开信的一些主要签名者的名单。
- Demis Hassabis(谷歌 DeepMind 首席执行官)
- Sam Altman(OpenAI 首席执行官、ChatGPT 制造商)
- 比尔·盖茨(微软前首席执行官)
- Ilya Sutskever(OpenAI 联合创始人兼首席科学家)
- Shane Legg(谷歌 DeepMind 联合创始人)
可以说,该行业正在认真对待这一威胁,但显然还需要做更多的工作。
生成式人工智能的风险
关于像 ChatGPT 这样的生成式 AI 平台的风险有很多讨论,但它真的有那么糟糕吗? 这项技术的问题在于它是如此强大且如此新颖,以至于潜力几乎是无限的。 因此,发展中的错误转向可能会导致一些严重的问题。 毕竟,我们在 2008 年时并不知道 Facebook 会成为一家错误信息的来源大规模地。
具体来说,人工智能有很多潜在的风险,需要在进一步发展之前考虑。 其一,人工智能可能会威胁到多个领域,从而破坏全球经济的稳定。80%的当前工作岗位,其中许多是不成比例的由妇女持有。 最重要的是,生成式人工智能已经导致一系列新的人工智能骗局试图从用户那里窃取金钱和信息。
综上所述,人工智能的风险是非常真实的,如果我们希望让它为我们服务而不是对我们不利,那么重要的是要认真对待威胁和建议,以免为时已晚。
我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]