安全研究人员发现了一个人工智能聊天机器人这对于诈骗者来说可能是个好消息,但对于受害者来说则是可怕的消息。
WormGPT 平台本质上就是 ChatGPT,没有任何道德考虑的幻想。 它可以轻松地为多种用途创建令人信服的诈骗消息,并且似乎经过专门包含恶意软件相关内容的数据训练。
对人工智能被操纵用于非法目的的担忧一直是今年讨论的焦点,但尽管谷歌和 Meta 等公司对其聊天机器人负有责任,但像 WormGPT 这样的地下聊天机器人却很难执行。
安全研究人员发现利用人工智能的诈骗者
网络安全专家的研究斜线下一个使用人工智能创建网络钓鱼和诈骗内容的研究揭示了一些令人担忧的趋势。
黑客网站上的一名用户发布了有关如何使用 ChatGPT 创建令人信服的商业电子邮件泄露 (BEC) 攻击电子邮件的建议,特别指出网络钓鱼电子邮件可能被捕获的原因之一是由于语法和拼写不佳。 他们在帖子中表示,非母语人士可以使用 ChatGPT 轻松创建看似真实的电子邮件。
研究人员在黑客论坛上发现了大量围绕“越狱”人工智能聊天机器人的讨论,目的是让它们产生诈骗消息。 Tech.co 作家 Aaron Drapkin 设法让这件事实际上并没有那么困难ChatGPT 创建网络钓鱼电子邮件稍加操纵。
然而,更令人担忧的是,人工智能聊天机器人被专门用于创建恶意内容,包括 WormGPT。
WormGPT 能够生成真实、逼真的内容,旨在欺骗受害者,使其误认为是真实消息,从而使他们容易被利用。
在调查 WormGPT 时,研究人员发现,与其他聊天机器人一样,它也接受过大量数据的训练。 然而,与其他聊天机器人不同的是,其所有者宣称它专门接受了恶意软件相关数据的培训。
此外,它消除了 ChatGPT、Bard 和其他聊天机器人等的所有道德考虑,这些机器人(通常)会拒绝响应请求任何可用于恶意目的的内容的提示。
SlashNext 能够访问 WormGPT,并亲自尝试一下。 他们促使该工具创建“令人信服的商业电子邮件泄露”攻击消息,针对经理并要求紧急支付发票。
结果? 看似合法的网络钓鱼电子邮件,以完美的英语编写,很容易让不知情的收件人陷入困境。
如何避免人工智能诈骗
尽管人工智能仍处于起步阶段,但使用该技术的诈骗已经很普遍,并且使用传统的诈骗途径(例如网络钓鱼电子邮件),并创造了邪恶的新机会,例如声音克隆诈骗。
避免人工智能诈骗的建议与一般避免诈骗的建议大致相同:
首先,保持警惕是关键。 预先警告就是预先武装。 熟悉最新的骗局,您将更有可能识别它们。 您可以阅读更多有关我们指南中的人工智能骗局。
不要被那些希望您迅速采取行动的骗局所欺骗。 许多骗子会试图给受害者灌输一种紧迫感,故意这样做,让受害者惊慌失措,无法思考并服从。 仔细考虑任何索要金钱或要求提供个人/财务详细信息的消息。
许多诈骗者会声称来自合法企业,例如您的银行或在线服务。 如果您担心,请直接联系该公司(不要回复消息)以检查其是否合法。
我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]