跳至正文

我撞死人需要钱…AI“拟真儿子声”骗走老夫妻2万元

  • 新闻

随着人工智能(AI)技术的提升,有心人士也开始通过该技术进行犯罪,捏造出接近真人的声音进行诈骗。(路透)

近年来AI人工智能高速发展,虽然为生活带来便利,但也造成许多隐忧。加拿大一对老夫妻就接到AI冒充儿子声音的电话后,被诈骗了2万1000美元。根据联邦贸易委员会(FTC)的数据显示,相关诈骗案件在2022年已经来到240万件,整体损失的金额也来到了88亿美元。 AI人工智能在近期成为热门话题,但是随着相关科技发展,许多“AI诈骗事件”开始发生。华盛顿邮报日前报导,加拿大一对夫妇接到一通电话,声称是他们的儿子,并告诉他们自己因为驾车撞死一名外交官而入狱,因此需要付2万1000美元的法律相关费用。 老夫妻在听这通电话时,因为声音实在太像儿子,所以几乎完全相信了。老夫妻随后开始筹钱并通过虚拟货币付款给诈骗集团,事后回想起来时,老夫妻也坦承当时“假儿子”的谈话内容有些奇怪,但已经于事无补,遭诈骗的金钱也已无法寻回。 然而AI是如何找到老夫妻儿子的声音?有可能是通过他在YouTube上传的一部关于雪地摩托车的影片,以截取音轨等方式进行合成与伪造,才让老夫妻误信而上钩。 “这太可怕了,”柏克莱加大教授法里德(Hany Farid)说,“这将是一场完美风暴…具有制造混乱所需的所有元素。” 法里德说,AI语音生成软件可以分析是什么让一个人的声音与众不同——包括年龄、性别和口音——并从庞大的声音数据库中,找到相似的声音并预测模式;然后它可以重新创造一个人声音的音调、音色和个人声音,以创造出相似的整体效果。 法里德说,AI只需要从YouTube、Podcast、商业广告、TikTok、Instagram或 Facebook影片等地方获取一小段音频样本就好。 “两年前,甚至一年前,你需要大量的音频来仿制一个人的声音,”法里德说。“现在只要你的声音持续了30秒,人们就可以仿制你的声音。” 成立于2022年的AI语音合成初创公司ElevenLabs等公司,通过文本转语音工具,将简短的人声采样转换生成为合成语音。该网站称,ElevenLabs软件可以免费使用,用户也能以每月5到330美元的费用,生成更多的音频。 该工具曾被用来拷贝名人的声音,说出他们事实上从未说过的话,例如艾玛华森被伪造背诵出希特勒《我的奋斗》中的段落。 据联邦贸易委员会报告,这些冒名的诈骗在2022年通报数量已经来到240万件,虽然低于2021年的数字,但是损失的整体金额却更高,共遭诈骗损失88亿美元,新型态的诈骗手法层出不穷,民众仍需多加提防。 ElevenLabs在推特上表示,他们正在采取保护措施以阻止滥用,包括禁止免费用户创建自定义声音和启动检测AI生成音频的工具。

免责声明:本网转载的文章仅为传播更多信息之目的,本网未独立核实其内容真实性,文章也不代表本网立场。如文章侵犯了你的权利,请联系我们修改或删除。本网提供的内容,包括并不限于财经、房产类信息,仅供参考,不构成投资建议;本网内容,包括并不限于健康、保健信息,亦非专业意见、医疗建议,请另行咨询专业意见。

纳闻 | 真实新闻与历史: 我撞死人需要钱…AI“拟真儿子声”骗走老夫妻2万元