芝加哥大学的一组研究人员发现,语音复制算法可以欺骗语音识别设备和听他们说话的人。
科学家们测试了两个最著名的 deepfake 模型——SV2TTS 和 AutoVC。 他们从公开来源收集了长达 5 分钟的 90 个语音块的数据集。 科学家们还招募了 14 名志愿者来提供语音样本并访问他们的设备。
研究人员随后使用开源 Resemblyzer 软件测试了这两个系统,该软件比较了录音并评估了样本的相似性。 他们还进行了一项实验,尝试使用合成语音样本访问语音识别设备。
研究人员发现,这些算法在近一半的时间里都能够胜过 Resemblyzer。 他们还发现,deepfakes 能够在大约 30% 的时间内欺骗 Microsoft Azure 语音识别服务,而在 62% 的时间内欺骗亚马逊 Alexa。
200 名志愿者还听取了成对的录音,并试图确定选票是否属于同一个人。 在大多数情况下,算法设法欺骗了测试对象,尤其是当样本是名人的时候。
据研究人员称,语音模拟工具可以在各种环境中造成严重破坏:
“他们可以绕过语音认证系统、银行自动电话线以及微信等即时消息登录服务。 它还将导致提供物联网设备访问权限的服务遭到黑客攻击,例如数字助理 Amazon Alexa 或 Google Home。”
科学家们补充说,语音深度伪造也可以直接攻击最终用户,用熟悉的人声补充传统的网络钓鱼诈骗。
提醒一下,在 9 月,诈骗者使用 Oleg Tinkov 的 deepfake 为虚假的 Tinkoff Investments 网站做广告。
9 月中旬,科学家们讲述了如何区分假照片和真照片。
今年 4 月,一位专家表示,互联网上的 Deepfake 数量每六个月翻一番。
今年 3 月,美国警方逮捕了一名使用生成的照片欺负青少年的妇女。
在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻
发现文中有错误? 选择它并按 CTRL + ENTER
资讯来源:由0x资讯编译自FORKLOG。版权归作者Богдан Каминский所有,未经许可,不得转载