+-
各位还记得去年曾报道过的“AI一键脱衣”软件——DeepNude吗?
而这款深度造软件发布仅几个小时便因访问请求过大迅速宕机,而其原因是它可以一键脱掉女性衣服,制造大量色情图片。
三是可以获得熟悉的人的裸照。Deepfake伪造色情视频已经屡见不鲜,主要以为名人为目标。但根据一项民意调查显示,大多数用户对“现实生活中认识的女性”更感兴趣,占比达到了63%。
而DeepNude恰好提供了这样的支持,任何用户使用任何照片都可以生成裸照。 从TeleGram平台的公开数据来看,许多照片中的女性都是普通上班族、大学生,而且这些照片都是来自TikTok、Instagram、Facebook等平台的自拍照。
需要注意的是,这款深度造假软件只针对女性。 如果上传一张男性或者其他任何无生命照片,系统也会自动被替换成女生的身体,并识别成相应的器官。
Sensity首席科学家乔治·帕特里尼(Giorgio Patrini)介绍称,目前已经超过680,000名女性在未知情的情况下被伪造成了色情图片,并上传到了公共媒体平台。
目前,Sensity公司的相关调查数据已经对外披露,相关执法部门也对此展开了调查。 而至此,为何允许该色情软件出现在社交平台中,Telegram一直未给出公开答复。
另外,据Sensity调查显示,除了Telegram之外,另一家俄罗斯社交媒体平台VK也发现了DeepNude,而且它已经开始公开为软件打广告。
不过,此事件一出后,相关负责人便立刻出面回应否认了这一说法。同时他强调, VK不容忍平台上出现此类内容或链接,同时也会阻止分发它们的社区。
另外,此类社区或链接并未使用VK广告工具进行宣传,我们也进行额外的检查,并阻止不当内容的出现。
创建者:我不是偷窥狂,只是出于猎奇心
然而,就是这样一款色情造假软件,它的创建初心竟然是出于好奇心和对技术的热忱。 2019年6月27日,DeepNude软件首次公开上线,随后不久,系统就因为用户访问量过大而宕机。
但就是这几个小时,这款针对女性的“一键脱衣AI”已经在国内外引起轩然大波。 有关“侵犯隐私、性别歧视”等指责声在Twitter、Reddit、微博等各大社交媒体平台层出不穷。 深度学习先驱吴恩达(Andrew Ng)还发推称,DeepNude是“人工智能最令人恶心的应用之一”。
而对于外界的种种指责,它的开发者阿尔贝托(Alberto)却公开回应称: “这个世界还没为 DeepNude 做好准备! ”“我不是偷窥狂。 我是技术的爱好者”。 同时他强调,“我不关心裸照之类的。
有些人自己不想用,就想着让别人也用不上,这很蠢。 对技术知识的封堵和审查,是无法阻止它的扩散和传播。 ” Sensity公司也表示,这些虚假的色情图像或视频很可能被用做勒索、骚扰的手段。
不仅是DeepNude,所有Deepfake软件均是如此。 如波士顿大学法学教授 Danielle Citron 所说,“Deepfake已经成为了攻击女性强有力的武器。 " 除此之外,学术界以及其他企业团队也在研发Deepfake的检测方式。
但尽管检测方式越来越多,准确度越来越高,制造虚假视频的趋势依然没有得到很好的抑制。
究其原因,其一可能是AI生成虚假内容越来越方便,如DeepNude,只需要一张照片,人人都可以上手。而其二,如Sensity公司负责人所说,DeepNude目前还处于法律的灰色地带。
因此,要想关上 Deepfake 潘多拉的魔盒,需要制度的约束和人心向善的引导。
2019年6月,一名程序员开发的一款名为DeepNude的应用在海内外爆红。
近日,据调查发现,这款色情的软件再次出现在了即时消息应用程序——Telegram中。
截止目前,该软件在TeleGram平台已经公开发布了约104,852张色情图片,这一数据还不包括私下分享传播的图片。
更重要的是,这些图片70%全部来自社交网络中的真实女性,甚至包括未成年人。也就是说,日常在Facebook、微博等社交媒体中分享的自拍照,很可能会被人用来生成“果照”。
DeepNude盯上了“可能认识的人”
这项调查来自美国阿姆斯特丹的网络安全公司Sensity,这家公司专注于所谓的“视觉威胁情报”,尤其是那些深度造假视频的传播。
他们调查发现,截至7月底,Telegram平台七个主要频道均在使用DeepNude软件。
该软件吸引了全球103,585名用户,其中用户最多的频道有45,615人。这些用户大部分聚集在俄罗斯及东欧周边地区。
这款软件爆火的原因有三点。一是操作非常简单,只需要一张照片,上传至软件后,几秒就可以自动生成裸照,不需要任何技术知识或者专门的硬件支持。二是所有人免费使用。
不过它也有盈利模式,未付费用户获得的裸照后会打上水印标签或者只有局部裸露,用户支付1.28美元才可以获得无水印图片,但使用权限仅限七天100张。