韩男用deepfake围猎女性

韩男已经烂到根里了。大男子主义,爱破防,搞偷拍不说,搞犯罪前有N号房,现在又出了个deepfake事件。熟悉的电报群组,不熟悉的订阅者数量,新的犯罪方式——AI换脸。而韩国女孩们走投无路到什么程度呢?她们弃本土软件,跑到微博和小红书求助。“韩国换脸的问题太严重了。”Telegram(电报)是聊天通信软件,以其信息加密性而闻名。媒体称它为“口袋里的暗网”,因为有人在上面谈论走私、售卖毒品、出售儿童虐待影像。这次大规模的deepfake(深度伪造)换脸事件和臭名昭彰的N号房事件一样,主要发生在电报里的群组。人们发现一个用deepfake制造女性色情视频的机器人账号有22.7万人订阅。deepfake本是用AI和深度学习伪造图片/视频/声音的技术,可以把真人照片的面部信息和已有的照片/视频拼起来。有人用它做洋葱新闻,恶搞名人,也有不法分子利用它搞信息诈骗,制作色情视频。而韩男用它来给身边的女性换脸,制造色情视…

一个AI恐怖故事:我在色情网站,看到了自己

“我在群里看到你,是你吗?”在韩国,如果有朋友给你发来这句问候,不要误会,他大概率不是要和你叙旧,因为接下来他给你发的,很可能就是你的裸照。看着屏幕,你如遭雷击,脑子一片空白。虽然你百分百确认自己从来没有拍摄这样的照片,可手机屏幕里的那个人眉目清楚,却又分明就是你。你不明白发生了什么,心脏被攥紧,恐惧开始在全身蔓延。照片当然和女孩儿无关,它是由一种名叫深度伪造(DeepFake)的技术生成,这种技术在国内更被人熟知的称呼是“AI换脸”。在如今的韩国,这种技术正在变成一团巨大的阴影,笼罩在所有女性的头顶,带来恐慌和迫害。在韩国,犯罪者通过DeepFake将普通人的形象替换到色情图片或视频中,然后通过社交媒体上进行传播,对当事人进行羞辱。据《朝鲜日报》的报道,最近一周在警方发现的相关Telegram社群里,参与制作和传播DeepFake的加害者已多达23万人。这些人不局限在韩国,也来自世界各…