什么是 OpenAI 项目 Q*? AGI 超级智能解释

据知情人士透露,正当 OpenAI 的最新闹剧尘埃落定之际,几名研究人员的一封信浮出水面,表达了对正在开发的人工智能超级智能模型可能对人类构成威胁的担忧。 这封此前未公开的信件被认为是背后的真正原因萨姆·奥尔特曼为何被解雇来自公司。

该模型在内部被称为 Project Q*,可能代表该公司追求通用人工智能 (AGI) 的重大突破,通用人工智能 (AGI) 是人工智能超级智能的一个高度自治的分支,能够进行累积学习并在大多数任务中超越人类。 而你所担心的聊天GPT抢走我们所有的工作?

山姆·奥尔特曼 (Sam Altman) 现在坚定地回到公司,并任命了新的OpenAI板就位后,以下是 Q* 项目的所有细节,以及 AGI 在更大范围内的潜在影响。

Q* 项目——发音为“Q-Star”——指的是由人工智能巨头和ChatGPT 所有者 OpenAI

据知情人士透露,Q*可能标志着人工智能领域的重大飞跃,从根本上改进了人工智能推理,并使公司更接近AGI发展的重大突破。

🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
享受 Surfshark 86% 的巨额折扣tech.co 的特别优惠

与当前不同生成式人工智能AGI 模型能够根据之前学到的信息创建响应,AGI 是一个自主系统,可以将理性应用于决策,赋予其人类水平的问题解决能力。

虽然通用人工智能尚未完全实现,但许多专家相信该技术还能够进行累积学习,这是人类认知的另一个特征,可以使其具有指数级自我改进的能力。

一些消息来源声称 Q* 在解决数学问题时已经能够证明这些属性。 得益于该模型强大的计算能力,Q* 能够超越小学生,这意味着它的推理能力和认知能力取代了当前人工智能技术的功能。

目前还不清楚 Q* 项目已经开发了多长时间,以及它的应用可能是什么,但 OpenAI 在上周末事件发生之前就向工作人员和董事会成员通报了 Q* 项目。

OpenAI 研究人员表达了对 Q* 项目的道德担忧

尽管 OpenAI 首席执行官 Sam Altman 对 AGI 技术将推动创新充满信心,但几位研究人员很快指出了 Project Q* 的潜在危险。

研究人员发现该项目后,他们给 OpenAI 董事会写了一封信,警告他们这种强大的算法对人类的潜在危险。 具体关注点人工智能伦理信中提到的内容并未透露,但这些警告足以让董事会于上周五解除奥特曼的首席执行官职务。

奥特曼因“沟通不畅”而令人震惊地离职后,他在微软找到了一个新职位。 这一行动促使 OpenAI 770 名员工中的 700 名员工威胁称,如果首席执行官不恢复担任初创企业总司令,他们将采取同样的行动。

由于公司面临崩溃的风险,OpenAI 董事会被迫重新任命奥特曼为最高职位– 导致公司委员会进行大规模改革,并凸显其领导层之间的深刻分歧。

现在,随着 Altman 重新掌舵,Q* 项目可能会获得批准,这对于那些处于人工智能食物链底部的人来说意味着什么?

我们应该关注 AGI 和 Q* 项目吗?

虽然这是 OpenAI 有史以来最接近将 AGI 概念变为现实的一次,但这并不是 Altman 第一次在谈论这项技术时成为头条新闻。

今年 9 月,这位硅谷大佬在将 AGI 与“你可以雇佣为同事的中等人”进行比较后,陷入了困境,并与他去年发表的关于这种人工智能如何“做任何你想做的事情”的评论相呼应。对远程同事所做的事情感到满意”,包括学习如何成为一名医生和一名非常有能力的程序员。

“对我来说,AGI……相当于你可以雇佣为同事的中等人。” –萨姆·奥尔特曼,OpenAI 首席执行官

虽然将 AGI 与“中等人类”的智力进行比较并不是什么新鲜事,但人工智能伦理学家和剑桥大学亨利·谢夫林教授认为 Altman 对这个术语的使用“令人讨厌”,因为人们对人工智能对就业保障影响的担忧不断升级。

AGI 的潜在突破也给其他人工智能研究人员敲响了警钟,他们声称该技术的开发速度快于其全部影响能够实现的速度。

OpenAI 认为AGI 的积极成果让潜在的雷区风险变得值得。 然而,随着这家颠覆性初创公司继续推进其发展,许多人担心奥特曼的公司将商业成功置于用户和更广泛社会的利益之上。

我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。

很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]

Related Posts