eNewsTree.com

标题: 小心语音诈骗!AI仅需3秒种就能拷贝人声盗走密码(图) [打印本页]

作者: casper    时间: 2023-6-29 15:52
标题: 小心语音诈骗!AI仅需3秒种就能拷贝人声盗走密码(图)
联合新闻网



诈骗集团只要3秒时间,就能通过AI拷贝真人声音诈骗。(示意图/ingimage)


[ad3]  [/ad3]


AI 技术日新月异,虽然提升了工作效率,却也成为有心人士用来诈骗 的工具。

据「太阳报」(The Sun)报导,AI风险评估公司Blackbird.AI共同创办人哈利德(Wasim Khaled)表示,目前有诈骗集团利用AI技术,拷贝他人声音进行「语音诈骗」,这种诈骗技巧称之为「AI语音拷贝人」,通常被用来窃取用户的银行资讯、身份或密码 。

哈立德说,「AI语音拷贝人」的声音不只跟真人难以区别,政商名流等公共人物更容易陷入被拷贝的危机。因为公共人物的语音样本较多,让AI更能通过深度学习做出真假难辨的音档。

不仅如此,由于AI技术发展神速,只要在网络上搜索就能找到许多低成本甚至免费的供应商。杀毒软件McAfee 的研究人员也发现,诈骗集团只需要花3秒钟,就有办法拷贝真人的声音,利用这种技巧打给家人朋友来骗人。

哈立德说表示,如果能够使用AI检测技术来侦测音档,就可能避免这类的诈骗发生,但短期内应该无法开发出可靠的检测技术。

要避免语音诈骗,在亲朋好友打电话紧急要求汇款、给予物品或其他金援时,应进一步跟本人确认。除此之外,民众也应避免在网络上分享个人资讯,以避免遭诈骗集团利用。




欢迎光临 eNewsTree.com (https://enewstree.com/discuz/) Powered by Discuz! X3.2