《心灵奇旅》里说,寻找海洋之时,应该知道自己已经生活在水里。
AI 之于人类社会似乎也是这样。
今年以来,各行各业的「iPhone」时刻不断上演。Runway 化静为动,Pika 重绘局部,HeyGen 让老外说地道中文,舞台中央你方唱罢我登场。
在没有高光的角落,看似普通的换脸 Deepfake 正在开疆拓土,从明星、总统,影响到中学生乃至每个普通人,不惊艳也不颠覆,却足以让我们汗流浃背。
「我看到了你的裸照。」
9 月,返校第一天,一名男生走近了 14 岁的伊莎贝尔,对她说了这句话。早晨的校园被八卦煮沸,消息三五成群地传播,每个人的手机里几乎都流传着女同学的「露骨图片」。
这是发生在西班牙西南部的真实事件,让仅 3 万人左右的小镇阿尔门德拉莱霍为国际所知。小镇有五所中学,「裸照」在至少四所流传。
事件的起因并不复杂,一群好事的男生,将女同学发在社交媒体的照片上传到了一款「一键脱衣」AI 工具。
这款工具可以通过手机 app 或者即时通讯软件 Telegram 使用,口号是「免费脱掉任何人的衣服」,只要别人有照片落在你的手机相册里。
虽然号称免费,但创建 25 张裸体图像的价格是 10 欧元,可用 Visa、Paypal、万事达等支付,就像国内使用微信和支付宝一样方便,但这些付款方式在媒体曝光后被停用。
西班牙警方确认,受害者至少有 30 名,主要是 12 岁到 14 岁的女学生。始作俑者大多和她们认识,也是未成年人,至少有 10 名,部分甚至未满 14 岁,不能面临刑事指控。
他们在 WhatsApp 和 Telegram 创建群聊传播这些「裸照」,通过 Instagram 威胁受害者,勒索「赎金」和真人裸照。
其中一位受害者的母亲在看到女儿的「裸照」后,心脏猛地跳了一下,「这张照片看起来就是真的」。
10 月,美国新泽西州的一所高中发生了类似的情况,受害者也在 30 名左右,她们的男性同学在暑假制作了「裸照」。很多女孩气哭了,其中一位受害者,在这之前从来没觉得 Deepfake 会和自己有关:
我从来没有想过作为一个学生(会遇到这样的事),AI 根本没有出现在我的脑海里。我只是觉得这就像互联网上的怪物一样。
校长保证,所有图片已被删除,不会再被传播,始作俑者被停学了几天,又像没事人一样回到「案发地点」。
很多家长不满轻轻放下,却也无可奈何。时至今日,Deepfake 在很多地方仍是灰色地带。
在美国,未成年人的 Deepfake 图片被明令禁止,11 月,一位北卡罗来纳州的儿童精神病学家因为偷拍患者、对患者照片「一键脱衣」,被判处 40 年监禁。
但也有例外情况,如果加害者同样是未成年,学校可能从宽处理,比如新泽西州的这所高中,处罚只是停课,事情发生一个月后,受害者和家长仍然不知道他们的身份或者人数。
如果受害者是可以自我保护的成年人,情况更加复杂,各州有不同的法律规定,或定为刑事犯罪,或提起民事诉讼,但目前还没有联邦层面的法律禁止制作 Deepfake 色情内容。
之所以立法困难,一个原因在于,有些观点认为,Deepfake 图片里的主体就算长得像你,实际并不是你,所以你的隐私并没有真正受到侵犯。
然而谁都清楚,图片虽然虚假,伤害是真实的,和真人裸照没什么区别,对于当事人和不明真相的路人来说,关键不在于照片是否百分百真实,而是它们看起来是否真实。
上世纪末的作品《攻壳机动队》已经探讨过这样的问题。完全像你的人做出了你从来不会做的事,但你很难证明那不是你,数据就是你,存在过的痕迹就是你。
普通人的恶作剧,手机即是武器
简单来说,Deepfake 就是利用 AI 生成看似真实的视频、音频或图像,模拟实际没有发生的事情。
Deepfake 最早兴起于 2017 年的「美版贴吧」Reddit,主要形式是将明星的脸替换到色情视频的主角身上,或者恶搞政界人物。
「一键脱衣」的 AI 应用,最早可能是 2019 年的 DeepNude,那时候还需要下载与 Windows 10 和 Linux 设备兼容的软件,服务器还会因为人多而宕机。
但现在「一键脱衣」变得更容易、更普遍,以 app 等形式提供服务,并通过常用付款方式敛财,变成了普通人针对普通人的恶作剧,已经发生在中学里,也可能发生在任何人身上。
只需要一张照片、一个电子邮件地址和几美元,就可以批量脱掉名人、同学、陌生人的「衣服」,效果还更加真假难辨。被用来「脱衣」的图片,往往从社交媒体获取,未经发布者同意,然后也在他们不知情的情况下传播。
西班牙一位 14 岁 Deepfake 受害者的父亲一针见血:
现在,智能手机可以被视为一种武器。
法律滞后的同时,被舆论督促的科技平台做了一些补救,但只能起到扬汤止沸的作用。
Google 去除相关广告和优化排名系统,也支持本人提供证据后删除相关内容,TikTok 屏蔽「脱衣」等关键词,Reddit 禁止多个域名,Telegram 靠自动监测和用户报告删除违反服务条款的内容……
拦路石不足为惧,Deepfake 在今年发展得尤其快,像坐上了马斯克的星舰。
社交网络分析公司 Graphika 统计,仅仅是 9 月,34 个「一键脱衣」平台总共拥有超过 2400 万访客,访问「一键脱衣」服务的 52 个 Telegram 群组至少包含 100 万用户。
背后的运营团队还很精明,懂营销和变现,在社交媒体打广告,把服务推荐给「有缘人」。自今年年初以来,X 和 Reddit 上的「一键脱衣」广告链接数量增加了 2400% 以上。
产业链的成熟,让 Graphika 下了一个结论,现在的 Deepfake 已经被冠上「钮祜禄」的姓氏,不可同日而语:
AI 生成的脱衣图像,从小众色情讨论论坛转向规模化和商业化的在线业务。
Graphika 认为,Deepfake 之所以在今年再次起飞,还有个重要的原因——开源 AI 图像扩散模型的功能不断增强,也越来越容易使用。
这些开源模型促成了「物美价廉」的 Deepfake 市场,否则「一键脱衣」应用的开发者们,还得托管、维护和运行自己的自定义图像扩散模型,时间更长,成本也更高。
在刑侦片大显身手的 FBI 也坐不住了,今年 6 月发出措辞谨慎的警告,让大众小心色情 Deepfake 图片和视频,它们通常在社交媒体或色情网站公开传播,并被用于骚扰和勒索,最好的方式是在源头止损:
一旦内容在互联网上共享,一旦其他方传播或发布,将其删除即使不是不可能,也是极其困难的。
真实的机遇,抽象的乐子
美国广播公司新闻曾经通过电子邮件采访过一个开发「一键脱衣」的团队,对方的回复很难评。
他们自称,开发这类应用,主要是为了好玩,用在处理自己或者朋友的照片,大家都乐在其中,也对裸体不再羞耻,反正都是用 AI 做的。
那为什么在现实里,中学男生等加害者不互相取乐,或者事先争取受害者的同意?团队不必揣着明白装糊涂,真想与世无争,不如把这类服务特供给公司团建,大家放下羞耻心,拿出上进心,真正把公司当成家。
但这确实也是一种观点,你裸他裸我也裸,等于大家都没有裸,以后看见裸照都不用慌张,一口咬定 AI 换脸,笑笑也就过去了,不存在黄谣的概念,本来无一物,何处染尘埃。
不知道怎样的先进社会,才有这样的和睦景象,反正最近的统计发现,纵然脱衣服这件事人人平等,但大多数服务只适用于女性。所以,「一键脱衣」这项服务的境界不高,不得不染上性别色彩。
光是「一键脱衣」,还难以填补欲壑。
今年 9 月,一位 40 多岁的韩国男性因为用 AI 生成约 360 张儿童色情图片被判入狱,罪名是违反《儿童和青少年保护法》,被判处两年半监禁,这是韩国首次在本国法院判处此类 AI 案件。
韩国先驱报报道,他使用「10 岁」「裸体」和「儿童」等提示词来生成这些图像,法院裁定图像足够逼真,驳回了辩方它们不能被视为性剥削的说法。
如果不能 DIY,一些分享 AI 模型的网站,提供更加「周到」的服务,在文本框输入名人名字,加上「裸体」等提示词,就会得到一个模糊的图像,吊起用户的胃口,付费解锁童叟无欺。
一些目光敏锐的成人产业从业者,同时从中看到了危险与机遇,AI 可能代替他们,也可能成为他们的同事。
Fanvue 是一个类似于 OnlyFans 的订阅平台,十分看好 AI 生成的创作者,因为既能简化流程,还能创造现实里不存在的角色。比盖棉被纯聊天的 AI 女友更大胆,比名人 Deepfake 更原创。
他们的其中一个 AI 角色 Emily Pellegrini,在 Instagram 上拥有近 12 万名粉丝,同时也是一位成人内容创作者,已经在 Fanvue 赚钱了,六周内通过订阅、按次付费内容等进账 9600 多美元。
按这个趋势下去,《三体》的面壁者罗辑何苦在人海里寻找理想的恋人庄颜,还向别人解释这是计划的一部分,定制出来也不是难事。
除了人多势众的平台,也有单干的性工作者积极主动地和 AI 合作,因为她们明白一个道理:
如果我不参与,其他人就会滥用我的形象。
合作方式主要有两种,一种是什么都聊的聊天机器人,用 YouTube 视频、播客、采访和限制级内容训练而成,每月收取几十美元的订阅费用,还有一种是个性化的定制图片服务,从未成年也能看的 PG13 到十八禁,看人下菜碟包君满意。
更有一些从业者未雨绸缪,希望在未来能提供身临其境的 VR 体验,实现真人也无法满足的要求。
食色性也,无可厚非,《美丽新世界》的穆斯塔法说:「文明人没有任何必要去忍受任何不快。」
穆斯塔法是这部反乌托邦小说里最清醒冷酷的人设,既懂得一切弊病和疾苦,理解野蛮人在追寻受苦受难的权利,又知道通过各种方式让绝大多数人活得舒服,惯用化学药剂帮助人们模拟必要的情绪。
如果一切不可避免,至少我们先尽可能保护孩子。如果 AI 色情让人类实现身体和羞耻心的大解放,不妨也在作品加一条提示:过程里没有真实人类被伤害。