华人澳洲中文论坛

热图推荐

    儿子打电话索要巨款,加拿大老夫妻打完钱才知道,是AI声响假扮的

    [复制链接]

    2023-3-18 09:12:28 21 0

    话说前段时间,加拿大产生了一同很奇特的欺骗案。
    一天,一对老夫妇忽然接到一个电话,是他们的儿子Perkin打来的。
    儿子打电话是为了向他们求助,
    他说本人出了车祸,撞死一位内政官,就要进监狱了。

    (示用意)
    夫妇俩一据说儿子失事了,都心急如焚。
    就在这时候,Perkin的律师又给他们打复电话,表现为了打官司,当初急需2.1万加元的律师费。
    夫妇二人没多想,赶紧帮儿子戳到2.1万加元,
    并根据要求把现金兑换成为了比特币,转账到指定的账户。
    转账后,夫妇俩稍稍放下心来,
    但平静上去之后,两人揣摩起儿子以前打来的电话,竟然感觉有些不合错误劲儿,
    由于在电话里,儿子的声响听起来有些怪怪的。
    就在当天晚上,Perkin给父母打了一个电话,
    父母一问,这才发现儿子基本没在白昼给他们打过电话,更没出车祸需求打官司,
    夫妇俩终于明确过去,他们被骗了。

    (示用意)
    他们赶紧向加拿大警方报案,
    但儿子Perkin表现,付款时没有平安保障措施,那笔钱曾经没了,也没方法追回。
    得知父母被骗后,Perkin始终有一个疑难——
    他想不明确那通假冒本人的电话是怎么回事,听说声响跟他特别像。
    按照警方的初步伐查,骗子使用了AI技术,模仿Perkin的声响给他的父母打电话行骗。
    Perkin不肯定骗子是如何找到他的声响样本,
    不外据揣测,他曾在油管上发过跟雪地摩托无关的视频,骗子有多是从视频里提取了他的声响样本。

    像Perkin父母这样受骗子用“冒名顶替”的形式欺骗的状况,在世界各国都呈现回升趋向。
    往年2月,美国联邦贸易委员会公布的一份考察讲演指出,
    2022年,美国因欺骗案损失了88亿美元,
    其中,最多见的欺骗形式就是“冒名顶替”,跟Perkin父母的状况相似。

    而AI技术的开展,给这种犯法行动提供了方便。
    从几年前开始,用AI分解声响欺骗的案件就曾经泛起了,2019年就产生过一同十分典型的案件。
    一家英国动力公司的CEO接到“老板”的电话,这位“老板”是德国母公司的CEO,
    “老板”让他马上把22万欧元转账到一家匈牙利供给商的银行账户,他乖乖照做了。

    但转账过程当中,这位CEO发现了蹊跷之处。
    “老板”一共给他打了三通电话,第一次让他转账,第二次告知他曾经把这笔钱报销了,第三次则让他再付一笔钱。
    这位CEO发现,所谓的“报销”并无实现,并且来自德国的“老板”是用一个奥天时号码给他打电话的。
    起疑之后,这位CEO并无付第二笔钱,也报了警,
    但他曾经转账的第一笔钱,曾经从阿谁匈牙利的银行账户转移到另外一个墨西哥的银行账户,之后又被转移到其余中央,早就无奈追回了。
    警方通过考察发现,现在给这位CEO打电话的“老板”基本不是老板自己,而是骗子用AI技术分解了老板的声响。
    被骗的CEO表现,电话中“老板”带着一丝德国口音,还有别具集体特色的调子,十分像真的。

    以前的AI技术受骗子利用,曾经足够他们行骗,
    比来,GPT-4在各国都掀起一阵热潮,假如有人歹意应用更初级的AI技术,带来的结果将不胜构想。
    这类辣手的状况曾经惹起一些研发AI语音技术的公司关注。
    好比AI语音模仿和分解研发公司ElevenLabs,
    他们发当初匿名论坛网站4chan上,有网友用他们研发的AI语音分解器VoiceLab分解名人的声响,表白种族歧视等不妥舆论。
    往年1月,ElevenLabs公司在民间推特上连发多篇帖子,提出一种解决计划。

    他们表现,为了凑合那些将AI语音分解器VoiceLab用于不良目的的人,他们研发了一种工具,
    人们能够利用这个工具,验证音频是不是是用他们公司的AI技术分解的。
    并且他们发现,绝大少数骗子都会匿名使用VoiceLab,所以今后VoiceLab将只能付费使用,
    虽然付费纷歧定能避免欺骗,但这样能迫使他们留下付款账户等信息,从而发生一定的震慑成果,让骗子不能不深思熟虑。



    美国联邦贸易委员会也新成立了一个技术办公室,考察各个公司研发的AI技术用处,以及各公司是否在想方法升高AI技术被歹意应用的危险。
    美国联邦贸易委员会的发言人Juliana Gruenwald对媒体表现,他们曾经发当初社交媒体上,相似的欺骗行动正以惊人的速度减少。
    “咱们还耽心深伪技术(deepfakes)和其余基于AI技术的分解内容,它们愈来愈容易被创立和传布,能够被用于欺骗。”
    (深伪技术是一种使用AI的人体图象分解技术,分解指标图象或视频的形式。)

    “生成看似真正的视频、照片、音频和文本的AI工具,会推进这类趋向。”
    “这让骗子更易作案,行骗也更便利快捷。”

    AI技术自身并无问题,
    可是一旦被心怀叵测的人利用,
    带来的费事就让人防不堪防......

    发表回复

    您需要登录后才可以回帖 登录 | 立即注册

    返回列表 本版积分规则

    :
    注册会员
    :
    论坛短信
    :
    未填写
    :
    未填写
    :
    未填写

    主题21

    帖子25

    积分119

    图文推荐