一项新研究发现,人类大约有 73% 的时间可以检测到人工生成的语音。 这是大多数情况下的情况,但这并不是压倒性的成功——这表明可能有很多机会深假语音音频在不久的将来欺骗你。
研究结束后,参与者接受了如何检测生成的语音音频片段的培训,结果稍有改善,但仍不完美。 即使经过训练,深度伪造音频也可以欺骗普通人。
该研究甚至在测试的两种语言(英语和普通话)中发现了类似的结果。
研究这项研究由伦敦大学学院的研究人员进行,他们在两个数据集上训练了文本转语音人工智能,以生成两种不同语言的 50 个语音样本。 然后,529 名参与者聆听了音频片段,并试图确定哪些是假的,哪些是真人所说的。
🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
享受 Surfshark 86% 的巨额折扣tech.co 的特别优惠。
结果:准确率73%。 换句话说,四分之一的深度伪造音频尝试有望在不对其目标发出任何危险信号的情况下成功。
该研究的第一作者 Kimberly Mai 解释说,这是一个坏消息:
“在我们的研究中,我们表明,训练人们检测深度伪造品并不一定是帮助他们做得更好的可靠方法。 不幸的是,我们的实验还表明,目前自动探测器也不可靠。”
Deepfake 语音诈骗比您想象的更常见
音频 Deepfakery 听起来可能像不可能完成的任务间谍技术,但根据一项调查,四分之一的成年人已经经历过这种技术。
迈克菲的同一项调查发现,10% 的人成为个人攻击目标,另外 15% 的人认识其中的某个人。 与此同时,受害者非常确信他们不会被愚弄。 正如 Tech.co 资深作家 Aaron Drapkin 所言把它当时:
迈克菲的调查还发现,70% 的人表示他们“不确定”是否能够区分人工智能语音和人类语音。 近三分之一 (28%) 的美国受访者表示,他们无法区分迈克菲所说的“人工冒名顶替者”留下的语音邮件和亲人留下的语音邮件。
在因人工智能语音克隆诈骗而遭受损失的美国受害者中,11% 的损失在 5,000 至 15,000 美元之间。
现在,新的调查表明,其中许多人仍然会被正确的音频片段所吸引。
您还能识别假音频语音吗?
看,好消息是,普通人在 73% 的时间内仍然可以弄清楚何时语音是计算机生成的。 通过正确的训练,您可以稍微提高您的平均水平。
然而,保证安全的最佳方法可能是在音频本身之外使用一些分析思维:您是否被要求透露敏感信息? 这表明潜在骗局背后的动机。 您自己启动了该过程吗? 骗子会瞄准您并第一个联系您。
希望自动深度伪造语音检测器也能继续改进,帮助减轻我们易犯错误的人耳的一些负担。
我们很高兴你喜欢! 像这样将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助 - 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]