如果您使用 ChatGPT 最近推出的插件,您可能需要仔细考虑安全隐患。
GPT,由OpenAi推出据一份新报告称,2023 年 11 月,用户开发流行人工智能聊天机器人的自定义版本的一种方式,包含一系列严重的安全缺陷,使网络犯罪分子能够访问第三方网站上的在线帐户并窃取用户数据。
这些问题已被报告并得到解决,但这一消息清醒地提醒人们注意第三方 GPT 插件的漏洞。
安全研究人员盐安全在发现 OpenAI 商店上的 GPT 存在潜在有害问题后,我们向 ChatGPT 插件的用户发出了严重警告。
这三个安全缺陷中的第一个会影响 ChatGPT 插件的安装过程。 它允许黑客在未经用户同意的情况下安装恶意插件并访问他们的私人消息,其中可能包含密码和其他凭据等敏感数据。
🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
享受 Surfshark 86% 的巨额折扣tech.co 的特别优惠。
与此同时,第二个漏洞影响 PluginLab,这是一个使开发人员和企业能够创建自己的 ChatGPT 插件的资源。 研究人员发现了多个插件中的一个缺陷,该缺陷允许黑客接管 GitHub 等第三方服务的帐户。
最后,他们检测到 OAuth 重定向操纵问题,这意味着网络犯罪分子可以控制用户帐户并访问用户凭据。 这个问题影响了多个插件。
去年发现的 ChatGPT 漏洞
Salt Labs 的研究人员于 2023 年 6 月 25 日首次发现了第一个 ChatGPT 漏洞,并在下个月与这家 AI 公司讨论了其技术细节。
2023 年 9 月,他们发现了 PluginLab.AI 和 KesemAI ChatGPT 插件的漏洞,并向两家供应商披露了其技术细节。
据 Salt Labs 团队称,OpenAI、PluginLab.AI 和 Kesem.ai 此后已经修复了影响其产品的安全漏洞。
Salt Security 研究副总裁 Yaniv Balmas 在一份声明中表示:“像 ChatGPT 这样的生成式人工智能工具已经迅速吸引了全世界数百万人的注意力,拥有大幅提高业务运营和人类日常生活效率的潜力。” 。
“随着越来越多的组织利用此类技术,攻击者也开始转向他们的努力,寻找利用这些工具并随后访问敏感数据的方法。”
第三方插件是“潜在弱点”
正如生成式人工智能工具一样聊天GPT随着个人和商业用例的流行度不断上升,黑客正在密切关注并寻求利用。
在线安全软件制造商 ESET 全球安全顾问 Jake Moore 敦促用户对人工智能工具的隐私和网络安全影响保持警惕。
他告诉 Tech.co:“越来越多的人越来越愿意将敏感的商业和个人数据输入人工智能程序,而不用再三考虑。”
“随着越来越多的组织采用这些新技术,攻击者也正在将策略转变为寻找操纵这些工具的新方法。 如果威胁行为者能够操纵第三方工具,这种对机密信息的访问对于相关人员来说可能是灾难性的。”
摩尔建议使用人工智能工具的组织采取规避风险的方法,并确保采取适当的隐私保护措施。 然而,他承认第三方插件“仍然是一个潜在的弱点”并且“必须谨慎对待”。
我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]