利用生成式人工智能制造的虚假图片、音频和视频信息等“深度伪造”内容正在快速传播,被用来骚扰他人、诈骗金钱,甚至干扰选举。
本月1日,澳大利亚反诈中心公布数据显示,去年,澳大利亚有400人因深度伪造技术遭到网络交易平台诈骗,合计损失超过800万澳元(约合3756万元人民币)。
报道称,网络诈骗者会利用人工智能深度伪造技术制造知名人士的假文章、假视频,从而让受骗者相信他们可以通过线上投资赚钱,进行诈骗。
人工智能深度伪造视频:如果你没有注册这个项目,现在就来注册吧。
澳大利亚企业家 迪克·史密斯:我非常生气,因为当我第一次看到视频时,我以为那真的是我,我可能是忘了什么时候接受过采访。但后来我意识到那不是真正的我。
据澳大利亚媒体去年12月报道,一对澳大利亚夫妇就曾在社交媒体上看到深度伪造视频后,上当受骗了。
被骗夫妇:我看到有一个名人在推荐网络投资,你看看她的唇形,那些话就是从她嘴里说出来的。骗局好像让我坐上了过山车,忽高忽低,忽上忽下。从最开始的350澳元投资,到最后失去了所有退休金。
最终这对夫妇的损失达22万澳元(约合103万元人民币)。
随着人工智能技术的发展,一些用于诈骗的深度伪造视频已经到了愈发逼真的程度。视频中的知名人物不仅相貌与真人相似,还可以使用与真人相同的口音说出完全虚构的话。澳大利亚政府已经于上周发布通知,警告民众谨慎识别虚假信息。
深度伪造视频是如何制作出来的?
深度伪造视频是如何利用人工智能制作的呢,下面我们通过一个动画来了解一下。
制作深度伪造视频主要有三个方法,第一个方法是换脸,即把某个人的脸部特征迁移到另一个人的脸上。这可以通过支持换脸的应用程序轻松完成。
第二个方法为面部重演。即在和源视频人物背景相同的摄影棚中,对源视频中人物的手势和动作进行模仿,并做出新的不同的姿势和面部表情等,进行视频拍摄。
第三个方法为唇形同步。即通过操纵源视频中人物的嘴唇动作,和输入音频进行匹配,改变源视频中人物的说话内容。
在这三种方法中,人工智能都会对源视频和新采集到的人物面部表情、姿势动作、声音等进行逐秒学习,生成新的图像,达到对源视频进行覆盖、仿造或编辑的目的。提供给人工智能的信息量越大,深度伪造视频就越逼真。
评论 3
张雪扬 2024-03-05 发表于四川
网络世界,安全意识比网速更重要!
天下三玩家19088666 2024-03-05 发表于四川
要是被骗了,记得赶紧报警!
金发妹 2024-03-05 发表于四川
AI技术用歪了,真是太坑了。