eNewsTree.com

 找回密码
 立即注册
查看: 2244|回复: 0
打印 上一主题 下一主题

小心语音诈骗!AI仅需3秒种就能拷贝人声盗走密码(图)

[复制链接]
跳转到指定楼层
楼主
发表于 2023-6-29 15:52:27 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
联合新闻网



诈骗集团只要3秒时间,就能通过AI拷贝真人声音诈骗。(示意图/ingimage)





AI 技术日新月异,虽然提升了工作效率,却也成为有心人士用来诈骗 的工具。

据「太阳报」(The Sun)报导,AI风险评估公司Blackbird.AI共同创办人哈利德(Wasim Khaled)表示,目前有诈骗集团利用AI技术,拷贝他人声音进行「语音诈骗」,这种诈骗技巧称之为「AI语音拷贝人」,通常被用来窃取用户的银行资讯、身份或密码 。

哈立德说,「AI语音拷贝人」的声音不只跟真人难以区别,政商名流等公共人物更容易陷入被拷贝的危机。因为公共人物的语音样本较多,让AI更能通过深度学习做出真假难辨的音档。

不仅如此,由于AI技术发展神速,只要在网络上搜索就能找到许多低成本甚至免费的供应商。杀毒软件McAfee 的研究人员也发现,诈骗集团只需要花3秒钟,就有办法拷贝真人的声音,利用这种技巧打给家人朋友来骗人。

哈立德说表示,如果能够使用AI检测技术来侦测音档,就可能避免这类的诈骗发生,但短期内应该无法开发出可靠的检测技术。

要避免语音诈骗,在亲朋好友打电话紧急要求汇款、给予物品或其他金援时,应进一步跟本人确认。除此之外,民众也应避免在网络上分享个人资讯,以避免遭诈骗集团利用。
收藏收藏 分享分享
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|Archiver|手机版|消息树

GMT-8, 2024-4-27 05:16 , Processed in 0.039033 second(s), 15 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表