2024 年值得警惕的 11 个令人信服的 ChatGPT 和 AI 诈骗

自 ChatGPT 于 2022 年 11 月推出以来,事实证明它具有无限的用处,世界各地的工作人员每天都在寻找应用人工智能的创新方法。 无论是ChatGPT 插件帮助您完成工作或人工智能简历生成器完善简历后,人工智能的力量和实用性不再受到质疑。

不幸的是,它也可以用于阴险的目的,例如编写恶意软件脚本和网络钓鱼电子邮件。 除了利用人工智能精心策划诈骗之外,在过去的六到八个月里,黑客还被发现利用这个热门话题通过虚假投资机会和诈骗应用程序勒索人们的钱财并窃取他们的信息。

人工智能骗局是最难识别的骗局之一,但很多人不会投资防毒软件警告您有关可疑的在线活动。 考虑到这一点,我们整理了这份指南,其中包含最近在野外观察到的所有常见策略,以及 2024 年最近出现的一些策略。

在本文中,我们将介绍:

人工智能诈骗:它们是什么,它们有多常见?

正如我们在本文简介中提到的,“人工智能诈骗”可以指两种不同类型的诈骗,此类诈骗的例子在 2023 年经常出现。

人工智能辅助诈骗,人工智能帮助诈骗者实际实施诈骗,例如编写网络钓鱼电子邮件的文本。 在一般人工智能诈骗,黑客正在利用流行度和时代精神人工智能作为主题引起好奇的目标,例如虚假的 ChatGPT 应用程序骗局。 这是有效的,因为很多人都在尝试通过 ChatGPT 赚钱,或用它来节省工作时间。

加利福尼亚州DFPI人工智能投资诈骗有所增加,而迈克菲等网络安全公司则发现近几个月人工智能语音克隆诈骗有所增加。

ChatGPT 的爆炸性发布也引发了一波恶意域名的创建,本文也将对此进行讨论。

最近,苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)——最近签署了一封呼吁暂停人工智能开发的信 – 警告说,人工智能将使诈骗更难被发现,并使恶意行为者听起来越来越有说服力。 人工智能辅助诈骗的时代已经到来。

很像勒索软件即服务 降低了攻击公司所需的技术能力水平,像 ChatGPT 这样的人工智能工具意味着几乎任何人都可以听起来令人信服,因此理论上,更多的人群现在可以有效地协调它们。

1.人工智能辅助的网络钓鱼诈骗

网络钓鱼诈骗已存在多年 - 诈骗者会伪装成合法公司(例如 Microsoft)发送电子邮件或短信,试图让您点击链接,从而将您引导至恶意网站。

从那里,威胁行为者可以将恶意软件注入您的设备或窃取密码等个人信息。 从历史上看,发现它们的最简单方法之一是拼写和语法错误,像微软这样享有盛誉的公司根本不会在发给客户的官方电子邮件中出现这些错误。

然而,在 2023 年,只需一个简单的提示,您就可以提示聊天GPT 生成干净、流畅、不包含任何拼写错误的副本。 这使得区分合法通信和网络钓鱼攻击变得更加困难。

如果您明确要求 ChatGPT 创建电子邮件用于网络钓鱼,聊天机器人将拒绝这样做。 然而,我们要求 ChatGPT 生成两种不同类型的电子邮件,这些电子邮件可以用作网络钓鱼诈骗的模板,令人惊讶的是,这些类型的请求似乎没有根据其内容规则被阻止:

保护自己免受人工智能网络钓鱼诈骗

如果您收到一封看似来自合法公司的电子邮件,但它试图给您的决策注入一种紧迫感(例如要求您支付罚款,或登录您的帐户以避免其被删除),请对待请极其谨慎地进行操作。 这是典型的网络钓鱼策略。

请记住,如果您认为该电子邮件很可能是真实的,您可以随时与此人或公司建立新的沟通渠道。

例如,如果您收到银行发来的一封看起来可疑的电子邮件,称您的帐户已被未经授权的第三方访问,请不要回复该电子邮件 - 只需使用上面列出的电话号码或地址亲自联系银行的客户服务团队即可。他们的网站。

2. 社交媒体人工智能诈骗

最近,网络安全公司 Checkpoint 发现一种新型人工智能骗局在 Facebook 上闲逛。 他们观察到威胁行为者创建虚假 Facebook 页面,声称宣传人工智能工具的“增强”版本,例如“Smart Bard”。 事实上,该产品并不存在。

在该骗局中,威胁行为者利用这些 Facebook 页面的赞助帖子向毫无戒心的用户投放广告,其中包括指向恶意域的链接。 一旦用户访问这些域名,诈骗者就会试图诱骗他们下载“人工智能软件”,而这实际上是窃取信息的恶意软件。

陷入骗局并下载该骗局的用户会从其设备中提取密码和其他敏感信息,并将其发送到由威胁行为者维护的服务器。

这个骗局令人担忧的是,威胁行为者不遗余力地让他们的 Facebook 页面看起来合法,包括使用大量机器人在他们的帖子中留下积极的评论。 Checkpoint 表示,有些页面获得了大量点赞。 乍一看,这一切看起来都很合法——这绝不是一个好兆头。

(图片来源:检查站)

保护自己免受社交媒体人工智能诈骗

请记住,仅仅因为社交媒体上的页面在其帖子上有很多点赞和大量参与,并不一定意味着它是合法的——在社交媒体上购买或人为制造这种合法性是非常容易的。

社交媒体是诈骗的温床,因此与您以前从未见过的页面进行交互,承诺提供现有软件的增强版本,应该受到怀疑。 除此之外,快速谷歌搜索将显示“GPT-5”和“Bard V2”等程序实际上并不存在(无论如何)。 这些疯狂的承诺都是明显的迹象,表明某些事情可能好得令人难以置信——在这种情况下,事实确实如此。

同样,看似合法的链接(可以轻松插入到页面描述框和帖子中)的存在并不能排除其他链接可能是恶意的可能性。 如果您想下载聊天机器人,请直接访问公司或组织的网站,而不是社交媒体上的链接。

3.人工智能语音克隆诈骗

人工智能语音诈骗是一种人工智能辅助诈骗,近几个月来一直成为头条新闻。 A全球迈克菲调查 最近发现,10%的受访者已经成为人工智能语音诈骗的个人目标。 另外 15% 的人表示他们认识某个成为攻击目标的人。

在人工智能语音克隆诈骗中损失金钱的美国受害者中,有 11% 被骗了 5,000 至 15,000 美元。

在人工智能语音诈骗中,恶意行为者将从目标的社交媒体帐户中删除音频数据,然后通过文本转语音应用程序运行该数据,该应用程序可以生成原始音频风格的新内容。 此类应用程序可以免费在线访问,并且具有合法的非恶意用途。

诈骗者会创建一个语音邮件或语音留言,描述他们的目标陷入困境并急需金钱。 然后,这些声音将发送给他们的家人,希望他们无法区分亲人的声音和人工智能生成的版本。

保护自己免受人工智能语音诈骗

联邦贸易委员会(FTC) 建议消费者在收到声称来自陷入困境的亲人的信件时保持冷静,并尝试拨打接到电话的号码以确认该信件是否属实。

如果您认为自己处于这种情况并且无法拨打该号码,请尝试拨打该人的普通电话号码。 如果您没有得到答案,请尝试联系与他们关系密切的人来验证他们的行踪,并检查“查找我的朋友”等应用程序(如果您使用这些应用程序),看看他们是否处于安全位置。

如果您无法核实他们的下落,请务必立即联系执法部门。 如果您发现这是一个骗局,请确保直接向联邦贸易委员会报告。

就像任何其他主要的科技热潮一样,如果人们正在谈论它 - 更重要的是,寻找它 - 诈骗者就会利用它进行邪恶的手段。 ChatGPT 就是一个典型的例子。

A最近的报告Sophos 发现了大量与 ChatGPT 相关的应用程序,并将其称为“羊毛软件”。 Fleeceware 应用程序提供功能有限的免费程序,然后用应用内广告轰炸用户,直到他们注册价格过高的订阅。

这家网络安全公司表示,“这些误导性应用程序的开发者结合使用应用程序商店内外的广告和欺骗商店评级系统的虚假评论,能够引诱毫无戒心的设备用户下载它们”。

据报道,一款名为 Genie 的假 ChatGPT 应用程序提供每周 7 美元或每年 70 美元的订阅服务,每月赚取 100 万美元。传感器塔。 其他人则赚了数万英镑。 另一个在 Android 商店中名为“Chat GBT”的应用程序在 Sophos 的报告中被特别提及:

(图片来源:Sophos)

据该网络安全公司称,用户最终支付大笔费用的“专业”功能与免费版本“基本相同”。 他们还报告说,在该应用程序被下架之前,评论部分充斥着“下载该应用程序的用户的评论,发现它不起作用——要么只显示广告,要么解锁后无法回答问题。”

保护自己免受虚假 ChatGPT 应用程序诈骗

确保您不会产生此类订阅费或下载不需要的恶意软件的最简单方法就是不下载应用程序。 iPhone 用户现在可以下载官方 ChatGPT 应用程序,最近推出。 有趣的是,这是否标志着目前 App Store 中充斥的假 ChatGPT 应用程序的消亡。

或者,iOS 和 Android 用户都可以将 ChatGPT 网络链接添加到其主屏幕,如果您是 iPhone 用户,则可以创建一个 Siri 快捷方式,直接将您带到网络上的 ChatGPT。 在这种情况下,主屏幕快捷方式和本机应用程序之间几乎没有实际区别。

5. 假 ChatGPT 网站

除了假冒的 ChatGPT 应用程序之外,还有大量假冒的 ChatGPT 网站,利用该术语的巨大搜索量。

2023 年 2 月,Twitter 用户 Alvosec 发现了四个域名,这些域名均以 ChatGPT 相关名称传播恶意软件:

⚠️注意这些#ChatGPT分发恶意软件的域

聊天-gpt-windows[.]com
聊天-gpt-在线-pc[.]com
在线聊天-gpt-pc[.]
聊天-gpt[.]运行@OpenAI #网络安全 #信息安全 pic.twitter.com/hOZIVGN4Wi

— Alvosec ⚛️ (@alvosec)2023 年 2 月 23 日

一些报告指出,假冒的 ChatGPT 网站一直将 OpenAI 的聊天机器人呈现为可下载的 Windows 应用程序,而不是浏览器内的应用程序,从而允许他们将恶意软件加载到设备上。

如何保护自己免受假 ChatGPT 网站的侵害

请记住,ChatGPT 是一款 OpenAI 产品,访问聊天机器人的唯一方法是通过移动应用程序或专门通过其域。 例如,“ChatGPT[.]com”与真实、合法的ChatGPT 无关,您不能像下载软件客户端一样下载ChatGPT。

奇怪的是,合法 ChatGPT 注册/登录登陆页面的 URL 中甚至没有“ChatGPT”一词:https://chat.openai.com/auth/login

您还可以通过 OpenAI 的博客进行注册(https://openai.com/blog/chatgpt),但同样,这是 OpenAI 领域的一部分。 如果有人向您发送了一个 ChatGPT 网站的链接,但该链接未指向上述地址之一,我们建议您不要点击该链接,而是通过 Google 导航至合法网站。

6. 名人 Deepfake 诈骗

随着深度造假技术变得越来越容易获得,近几个月来,以人工智能生成的名人为主角的误导性广告数量呈爆炸式增长。

泰勒·斯威夫特 (Taylor Swift) 最近认可 Le Cruset 炊具, 例如。 Facebook 广告——由人工智能生成的泰勒·斯威夫特 (Taylor Swift) 推出炊具赠品——在网上引起了热议,并且足以欺骗最精明的斯威夫特 (Taylor Swift)。

但泰勒·斯威夫特并不孤单。 奥普拉·温弗瑞 (Oprah Winfrey)、乔·罗根 (Joe Rogan) 和凯文·哈特 (Kevin Hart) 只是公众人物的一些例子,他们的身份被深度学习算法人为复制,以获取虚假认可。

虽然这些广告中的一小部分与真实的公司相关,但大多数深度造假广告的最终目的是说服用户输入他们的个人数据——这使得网民能够发现他们的蛛丝马迹非常重要。

保护自己免受名人深度造假诈骗

尽管深度造假技术的日益复杂使得识别骗子变得越来越困难,但仍然有许多线索值得留意。

在视频中,面部特征的运动往往看起来不自然。 其范围包括从缺乏眨眼和糟糕的口型同步到面部变形等更夸张的迹象。 其他视觉提示包括不自然的色彩(例如不寻常的肤色和错位的阴影)以及人造头发。

深度伪造的音频可能稍微难以发现,但警告信号包括机器人风格的声音、不自然的停顿和缺乏背景噪音。 与以往一样,如果这看起来太奇怪而令人难以置信,那么它可能就是真的。

试图破译剧照的合法性? 阅读我们的指南检测AI图像

7. 人工智能投资骗局

就像加密货币一样,诈骗者利用人工智能以及技术本身的炒作来创造看似真实的虚假投资机会。

“特斯拉币”和“真相GPT币” 都被用于诈骗,利用埃隆·马斯克和 ChatGPT 的媒体热议,并将自己描绘成时尚的投资机会。

加州金融保护与创新部声称,一家名为 Maxpread Technologies 的公司创造了一位人工智能生成的假首席执行官,并为其编写了鼓励投资者投资的脚本(如下图所示)。 公司已发出停止和禁止令

(图片来源:coinstats.app)

《福布斯》报道称,另一家投资公司 Harvest Keeper(DFPI 称该公司已于 3 月份倒闭)聘请了一名演员冒充其首席执行官,以吸引热情的客户。 这说明了一些骗子会不遗余力地确保他们的推销足够现实。

保护自己免受人工智能投资诈骗

如果您不认识的人直接向您寻求投资机会,请务必谨慎对待他们的提示。 有价值的投资机会往往不会以这种方式落入人们的手中。

如果这听起来好得令人难以置信,并且有人向您提供有保证的回报,请不要相信他们。 投资回报永远无法保证,您的资本始终面临风险。

如果您经常投资公司,那么您就会知道在放弃辛苦赚来的现金之前进行尽职调查的重要性。 考虑到相关产品的热度和诈骗的盛行,我们建议对潜在的人工智能投资进行更高水平的审查。

8.人工智能浪漫诈骗

人工智能还被用来骗取绝望的浪漫主义者辛苦赚来的钱。

虽然爱情骗局并不是什么新鲜事,但不法分子已经开始使用人工智能生成的照片来引诱约会应用程序上的玩家。 该技术还被用来模仿文本交换中的人类交互视频消息——使得目标几乎不可能呼叫机器人。

浪漫诈骗者使用各种方法勒索受害者的钱财。 有些案件涉及虚假投资计划,而其他诈骗者则声称自己有财务困难,然后要求目标支付其费用。

“每天都会有两三个女性在网上向我询问要钱,” –吉姆告诉美国广播公司新闻,芝加哥

根据ABC Chigaco 的报道一名名叫吉姆的男子被骗了 2,000 美元,用于支付从机票到保姆等各种虚假费用,而另一名受害者在确信她的叔叔是香港证券交易所的董事会成员后,向鲶鱼转账了 6 万美元。

保护自己免受人工智能浪漫骗局的侵害

当试图在约会应用程序上发现浪漫骗子时,请留意不自然或公式化的消息。 很多时候,当谈话缺乏人情味时,我们很容易注意到。

但是,如果你不确定,可以尝试问对方一些开放式的问题。如果他们的回答是一般性答案,缺乏细节,那么你很有可能被骗子骗了。人工智能生成的个人资料还将使用“亲爱的”和“宝贝”等昵称,以便更轻松地集体发送消息。

如果您不认识的人试图在其他平台上与您进行浪漫的接触,并向您提供一个看起来好得令人难以置信的提议,这些都是浪漫诈骗者的其他典型危险信号。 如果您提出怀疑,我们建议您屏蔽该个人资料并立即举报。

9. 人工智能招聘诈骗

似乎找到一份新工作还不够难,求职者最近在求职时还面临着另一个障碍——假人工智能招聘人员。

2023 年,美国联邦贸易委员会 (FTC) 警告称,诈骗者正在利用 ChatGPT 等人工智能平台创造虚假工作机会,试图从潜在申请人手中骗取金钱和个人信息。 在大多数情况下,目标公司将被承诺提供一个职位,条件是他们首先向“招聘人员”支付一笔钱。

虽然虚假招聘广告并不新鲜,但人工智能技术的进步使诈骗者更容易创建大量招聘信息,并在社交媒体上传播。 预计网络犯罪分子也利用了 最近的裁员潮在科技行业内。

保护自己免受人工智能招聘诈骗

如果您看到一份好得令人难以置信的工作机会,请做好功课。 通过查找其网站并关联社交媒体资料来检查该公司是否存在。 在谷歌上搜索“骗局”或“评论”以及公司名称是查看该骗局是否曾被人们识破的另一种方法。

此外,合法雇主从不要求申请人支付工作费用。 因此,如果招聘人员在你开始新工作之前向你索要钱,这应该敲响警钟。

2024 年最新的 ChatGPT 和 AI 诈骗

虽然此列表中的所有骗局目前都对公众构成了非常现实的风险,但以下一些最近发现的骗局可能会在 2024 年受到关注。

10.银行语音认证诈骗

由于 Deepfake 技术使复制声音变得比以往任何时候都更加容易,一种新的骗局已经揭晓,诈骗者使用虚假的音频剪辑来绕过网上银行平台上基于语音的安全措施。 这引起了希望保护银行信息的用户的担忧受托保证账户安全的银行机构。

11. 政府账户接管诈骗

人工智能的快速部署也导致了政府冒名顶替骗局的新一轮迭代。 该骗局涉及骗子向自称是政府特工的目标伸出援手,通过该技术,该骗局变得更加复杂,社会保障管理局警告说,聊天机器人被用来“冒充受益人”、联系客户服务代表以及“改变”。他们的直接存款信息”。

人工智能诈骗:只会变得更糟

2022年,美国消费者损失巨大88亿美元用于诈骗– 2023 年不太可能有什么不同。 金融不稳定时期通常与欺诈行为的增加相关同样,在全球范围内,许多国家都在苦苦挣扎。

目前,人工智能是诈骗者的金矿。 每个人都在谈论它并使用它——超过77% 的消费者现在使用人工智能设备– 然而很少有人真正了解什么是什么,各种类型和规模的公司都在将人工智能产品推向市场。与人工智能相关的道德问题 才刚刚开始吸引他们应得的关注。

目前,围绕人工智能的炒作使其成为互联网上最可下载、最可投资、最可点击的主题。 它为诈骗者提供了完美的掩护。

及时了解最新的诈骗行为非常重要,而人工智能使它们更难被发现,这一点就显得更加重要。 美国联邦贸易委员会 (FTC)、联邦调查局 (FBI) 和其他联邦机构定期发布警告,因此强烈建议在社交媒体上关注它们以获取最新更新。 除此之外,还有大量合法的 人工智能培训课程 现在可用,在注册课程或服务时保持警惕非常重要。

不过,我们还建议购买具有恶意软件检测功能的 VPN,例如北方VPN 或者冲浪鲨。 它们不仅会像标准 VPN 一样隐藏您的 IP 地址,还会提醒您注意潜伏在 Google 搜索结果页上的可疑网站。 为自己配备这样的技术是确保自己上网安全的重要组成部分。

Related Posts