在韩国,利用名人主演的Deepfake(深度伪造)视频进行的金融诈骗正在增加。Deepfake 内容是使用人工智能 (AI) 技术的计算机操纵图像或视频,显示数字生成的图形,这些图形与真实镜头不易区分。
今年早些时候,韩国一伙投资诈骗者利用深度伪造视频欺骗100多人进行投资,造成数亿韩元损失。其中一名以集团经理为名的骗子欺骗受害者,称自己是“电池人”朴顺赫的亲密助手,而朴顺赫在 YouTube 上为电动汽车电池投资者所熟知。该经理声称他将用所提供的资金代表团体成员进行投资。
该诈骗团伙还在网上为投资者上传了一段视频,其中赵寅成和宋慧乔对未经授权的交易团伙表示赞扬,因为部分投资已被“捐赠”。许多投资者,包括这位 60 多岁的受害者,在看到该视频后认为该欺诈行为是合法的,因为他们认为著名明星与他们一起参与其中。
然而最终,一切都被揭穿是一场骗局。受害者要求管理团队退款,但他们在索要佣金和税款后就消失了。
该视频是使用人工智能技术进行的深度伪造,使演员看起来像是在剪辑中说话。这位经理也不是朴顺赫的秘书,也曾达到过800%的投资回报率,但这都是假象。
使用 Deepfake 视频进行金融欺诈的担忧
然而,使用 Deepfake 视频进行金融欺诈的担忧不仅在韩国存在。
据媒体报道,本月初一名香港公司员工被公司财务官出现的深度伪造视频欺骗,不小心汇出了2亿港元(合2550万美元)。
去年12月,新加坡总理李显龙(Lee Hsien Loong)的肖像被用于诈骗;11月,澳大利亚企业家迪克·史密斯(Dick Smith)被用在深度造假视频中。这两位人物都被描述为正在接受采访以宣传一个投资平台,这导致了实际的欺诈损失。
不幸的是,除了“不被欺骗”之外,没有其他方法可以防止利用深度造假内容进行金融欺诈。
诸如单独标记深度伪造内容之类的措施正在讨论中,但如果犯罪分子将其删除,则毫无用处。
许多人认为预防深度伪造视频犯罪的最有效方法是事先检测,但由于检测技术无法跟上生成技术的快速发展,因此存在局限性。
一些人表示,针对此类新型欺诈的政策需要改进,因为几乎不可能从犯罪者那里挽回受害者的损失。