冒充马斯克诈骗7000万,AI时代“眼见”不一定为实

0 评论 335 浏览 0 收藏 10 分钟

AI技术的成熟不仅带来了降本提效,也带来了一些潜在的风险,因为有些人可能会借用AI技术来行不法之事,比如这篇文章所提到的AI换脸诈骗。

日前,有外媒报道,韩国一女子被冒充埃隆·马斯克的社交媒体账号诈骗7000万韩元(约合36万元人民币)。

进入到2024年,AI技术越来越成熟,也在更多行业中助力人们降本增效。但随着生成式AI技术的快速发展,也让人们眼见也未必为实。不法分子借助智能AI换脸和拟声技术,融合他人面孔和声音、制造虚假图像和音视频,就可仿冒他人身份,轻松实现远程视频诈骗,给不少人造成很大的经济损失。

AI技术的迅猛发展,其潜在危害也逐渐显现,给人类社会带来了前所未有的挑战。那我们应该怎样应对呢?

一、冒充马斯克,诈骗7000万韩元

在去年7月17日,受害女子A某在社交软件上被一个自称是埃隆·马斯克的账号添加为好友。为了证明其身份,该账号向A某发送工作照片和身份证件的照片,并详细描述了一系列私人活动,例如“孩子们每周末都会去SpaceX玩”和“乘坐私人直升机前往特斯拉工厂所在的得克萨斯州”等。

而且,该账号还通过视频通话进一步诱导信任。据A某透露,视频中“和马斯克长相非常相像的男性”向她表达爱意,说道:“你好!我爱你,你知道吗?”

据报道,没过多久,该账号就开始对A某说:“我很高兴我的粉丝能通过我成为富翁”,暗示投资能带来财富,并提供了一个银行的账号信息。基于这些信息,去年8月,A某多次向指定账号汇款,累计达到7000万韩元(约合人民币36万)。

在韩国媒体与这个冒充马斯克的账号进行电话沟通,不过对方以“美国现在是清晨,太早了”为理由,提议改用短信方式交流。

最后,为安抚受害者,该账号还发送了一段录音,声称“我是埃隆·马斯克,希望听到这个录音文件后能放心”,但专业人士分析这段录音后确认其由AI合成。

其实不仅在韩国,在我国也出现了不少AI诈骗的现象。近期,香港警方披露了一起震惊全球的“AI换脸”诈骗案,涉案金额高达2亿港元。案件中,受害者参加了一个所谓的“多人视频会议”,但他却未曾料到,除了自己之外,其他所有参会人员都是由AI技术生成的虚假形象。

元宇宙新声认为,AI技术的发展虽然带来了许多便利和福祉,但其潜在危害也不容忽视。我们需要在享受科技带来的好处的同时,保持警惕和理性思考,加强对AI技术的监管和管理,在确保其不会对人类安全造成威胁的前提下进行发展。

二、AI换脸案件逐渐提升,AI合成语音更难辨别

新近的案例中,我们发现在视频通话中利用AI换脸的案件数量逐渐变多。AI实时换脸的方式是利用人脸识别模型和摄像头来获取人脸的关键特征点。这些特征点被用来在视频中跟踪人脸轮廓、眼睛、眉毛等区域的位置。

理论上,面部特征点越多,AI换脸的效果越好。因而,为了打造一个逼真的AI换脸骗局,犯罪分子通常会广泛搜集与被害人有关亲友的视频、照片等作为换脸素材。

在论文Joint Multi-view Face Alignment in the Wild展现了人脸识别模型在不同人脸截面的特征点识别效果。从图中可以看到,正脸特征点的识别效果远比侧脸要好。

这可以成为我们破解AI换脸的办法之一。metaphysic.ai的一项研究指出,在视频通话等实时视频场景中,AI换脸效果会因为面部遮挡或侧脸转向而大打折扣。

与AI换脸视频相比,AI合成语音在诈骗中其实更难辨别。

全球安全技术公司迈克菲(McAfee)在2023年发布的调查报告中指出,只需提供3—4秒的录音,网络上的免费AI工具就能生成相似度达到85%的克隆人声。在参与调查的七千多位全球受访者中,有70%的人不确定是否能分辨AI合成语音,而大约有10%的人遭遇过AI语音诈骗。

在社交媒体上,许多留学生发帖表示曾遇到利用AI合成本人语音,对在国内的父母进行的诈骗。这些诈骗以绑架为名,放出AI合成的求救语音,同时利用时空差,在造成恐慌的心理下骗取大量金额。

那么,面对技术的升级,AI诈骗的案例逐渐增多,我们面对这种新型诈骗就没有更好的办法了吗?

三、AI时代,避免诈骗我们需要做什么

诈骗分子往往换脸伪装成亲人、朋友、同事、领导等,虚构一个紧急事由后,利用被骗目标的急迫心理实施诈骗行为,在情急之下,受害人往往容易放松警惕。

骗子会通过多种渠道收集被骗目标的亲友照片、视频、声音等生物信息以及姓名、电话、社交账号等个人信息,通过AI换脸伪装成目标对象的亲友。

因此,要加强个人信息保护,尽量避免个人信息过多暴露,大家在社交媒体分享含有清晰人脸的照片和视频时,一定要谨慎,因为这些照片可能会被生成之后用于人脸识别验证,或者其他一些非法目的。此外,一定要保护好两类敏感信息:一类是我们的人脸、虹膜、声纹、指纹等生物特征信息,还有一类是身份证号、银行卡号、体检报告等重要个人信息。

AI诈骗分子十分注重“效率”,因为一旦时间过长将露出破绽。在涉及对方要求转账汇款交易时,要再次通过电话等形式询问具体信息,多重验证对方是否为本人,最好向对方银行账户转账,避免通过微信等社交软件转账,并将转账时间设定为“24小时到账”,以预留处理时间。

那么,能否应用AI技术来反“AI人脸”诈骗呢?

近年来,确实有很多技术企业已经开始尝试不断优化检测模型,探索将反欺诈模型部署在手机、电脑或社交、会议软件中,但网络信号与算力仍是待解决的难题。我们看到,防范“AI换脸诈骗”的规则和技术现在还不是特别成熟,目前呼吁民众要增强防范意识,呼吁出现更好的反欺诈技术,呼吁政府层面从企业监管、法律等层面制定更细致的条例来预防。

元宇宙新声认为,技术发展带来的问题,还要靠发展技术来解决。AI伪造后的通话和视频虽然能够逼真地模仿人物的语言和行为,但仍存在破绽。例如眨眼频率过低、面部表情较为单一、唇形不匹配、手部动作僵硬等。要加快相关技术研发,开发更为先进的反欺诈系统,利用大数据与机器学习算法来识别和拦截诈骗信息,以眼还眼,以AI反制AI。

写在最后

随着AI技术的发展,其双面性就凸显出来,AI诈骗作为新型的网络犯罪威胁,我们每个人都应该增强安全意识,学会识别和防范此类诈骗行为,共同营造一个更加安全的网络环境。在期待厂商们推出更多安全应用的同时,我们也希望通过科普知识的分享,让更多人了解AI诈骗的危害,增强网络安全意识,保护自己免受网络犯罪的侵害。

作者:贾桂鹏;公众号:元宇宙新声

本文由 @元宇宙新声 授权发布于人人都是产品经理。未经许可,禁止转载。

题图来自Unsplash,基于CC0协议。

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!