科技观察|AI诈骗成功率100%?被FBI发文警告的Deepfakes究竟是什么?

封面区块链 该文章已上链 >

封面新闻 2023-06-07 10:17 60103

封面新闻记者 燕磊

当地时间6日,美国联邦调查局(FBI)向公众发出警告,提醒人们防范利用“深度伪造”(Deepfakes)技术制作虚假色情照片或视频所实施的骚扰或勒索行为。

FBI:谨防利用Deepfakes实施骚扰或勒索

FBI在声明中称,技术的不断进步使人工智能(AI)生成的内容在质量、定制性和易用性方面不断提高,这也导致一些受害人报告他们的照片或视频遭到了恶意篡改。

FBI表示,恶意行为者通常从某人的社交媒体账户、互联网和受害者本人获取内容,制作出具有暧昧性并看似与受害者相似的内容,而后通过社交媒体、在线论坛或网站进行传播。根据该机构的说法,针对这些受害者制作的内容通常是出于获取更多个人信息、经济利益或骚扰他人的动机。

数据显示,自今年4月以来,FBI收到的“色情勒索”报告数量有所增加。犯罪分子通常以虚假色情照片或视频威胁受害者付款,以免这些内容遭到公开。一些犯罪分子甚至还会要求受害人发送自己真实的照片或视频。

专家呼吁:关注人工智能发展所产生风险

FBI在声明中还指出,公众在互联网发布或是通过社交媒体、约会软件或其他在线平台进行通讯时应当保持警惕。声明写道: “虽然一些图片和视频在发布或分享时看似无害,但它们可能为恶意行为者提供大量可用于犯罪活动的内容。”

此外,FBI还建议公众监控未成年人在互联网上的活动,经常搜索自己在互联网上的公开可见信息,设置社交媒体账户的隐私保护功能,并使用复杂密码以及多重验证以保护账户安全。

该机构还表示,人们在接受社交媒体上的好友请求时应保持谨慎,不要向任何陌生人提供金钱或其他贵重物品。用户应研究平台的隐私政策,并对一些“超出已知行为模式”的已知账户保持警惕,因为这些账户可能已经被黑客所入侵。

在FBI发出警告之际,全球人工智能领域的专家刚刚在上周发布联名信,呼吁关注人工智能发展所产生的风险。超过350名业界领袖共同指出,减轻人工智能所造成的风险应当成为一个“全球优先事项”。

Deepfakes初亮相:被用于换脸色情视频

2017年12月,Deepfakes被曝光后首次出现在大众视野。一位网名为“deepfakes”的Reddit论坛用户利用人工智能技术,将色情片女主角的脸换成了《神奇女侠》主演盖尔·加朵。

“deepfakes”发布了一系列换脸女明星的色情片视频,Deepfakes这个网名因此在媒体报道中,成为了这类换脸假视频的专有名词:即把“深度学习”一词改写为“深度造假”。

短短几个月内,deepfakes账号已经拥有了超过8万名关注者。

据当时报道,这种换脸视频制作简单,不需要专门的影视工作室,是这种视频在网上迅速激增的主要原因。

2018年2月,Reddit出手,封禁了deepfakes色情视频,并关闭了网站上的deepfakes内容社区。

AI诈骗成功率100%?不要被Deepfakes愚弄

今年5月,一条AI诈骗成功率接近100%#的话题冲上微博热搜。一个AI换脸的视频,让福建某科技公司的法人代表在10分钟内就被骗走了430万。

与此同时,国外也发生了一起AI相关诈骗,一封附上谷歌CEO视频的邮件,让不少YouTube博主们下载了带着危险病毒的文件。

这两起诈骗事件都有着深Deepfakes的身影。这是一项诞生了6年之久的换脸大法,如今AIGC技术的大爆发,更使得制作难以识别的deepfake视频越来越容易。

分析称,Deepfakes技术可以以极低的成本快速部署,并且所需的专业知识或计算能力也很低。它们可以采用生成的图像、语音克隆或AI生成的图像、音频和文本组合的形式。

现在,随着大量AI应用程序的出现,几乎任何人都可以使用Deepfakes的工具。随着AI技术变得越来越先进,它带来的危险越来越值得关注。

评论 2

  • 一个网友 2023-06-14 发表于四川

    扯犊子呢

  • 汐止 2023-06-07 发表于四川

    连作文都写不皈依

我要评论

去APP中参与热议吧