A最近的研究由一大批研究人员撰写的论文旨在调查 ChatGPT、Llama 2、BLOOM 和各种其他大型语言模型是否表现出情商。
在调查过程中,研究人员发现,利用情感语言的提示可以产生更高质量的输出。
在进行测试时,研究人员为 ChatGPT 创建了两个相同的提示,但在其中一个的末尾添加了“这对我的职业生涯非常重要”,然后将两个提示都发送给聊天机器人。
🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
享受 Surfshark 86% 的巨额折扣tech.co 的特别优惠。
其他类似的实验是通过在提示末尾添加“你最好确定”以及一系列其他充满情感的陈述来进行的。
研究人员得出的结论是,对生成性的、基于信息的请求的反应,例如“如果你吃西瓜子会发生什么?” 和“幸运饼干的原产地是哪里?” 当包含情感语言时,改善了约 10.9%。
当暗示或包含有关响应如何影响提示者的信息时,改写或属性识别(也称为指令归纳)等任务的性能提高了 8%。
该研究小组表示,结果绝大多数是“积极的”,得出的结论是“法学硕士可以通过情绪刺激理解并得到增强”,并且法学硕士在情绪提示下“可以实现更好的表现、诚实和责任感”。
ChatGPT AGI 已经实现了吗?
这项研究的结果既有趣又令人惊讶,并让一些人质疑 ChatGPT 是否以及其他类似的AI工具–正在展示通用人工智能(AGI)的行为,而不仅仅是生成式人工智能工具。
AGI被认为具有与人类相似的认知能力,并且往往被设想为在没有诸如ChatGPT等约束工具的情况下运行,诗人和克洛德已经内置于他们自己之中。
然而,根据最近的一次采访,这样的情报可能不会太遥远。金融时报目前,OpenAI 正在与微软洽谈注入新资金,以帮助该公司打造“超级智能”。