AI制造的假照片,你能认出来吗?
眼见为实的时代过去了,AI已经学会制造真实。
8月21日,重庆北碚缙云山山火,大火一度蔓延至山脚下的村镇。山路坡陡沙多,而摩托车足够灵巧。一点点把物资运上山的摩托骑手们成了这场山火救援中的主角,也成了社交媒体上人们关注的焦点。
同时,社交媒体上关于重庆山火的配图被网友指出“10张有8张是AI作画,下面评论却一片感动哭了”。
其实,要判断这样的图片是真是假,可能真的没那么容易。下面,你可以试试。AI还能画得更多。造一把牛油果做的椅子,把集市开到空中,让一只猫置身于中世纪场景中寻找Wi-Fi……这些都是小意思。美国一家桌游公司的总裁Jason Allen使用AI作画工具Midjourney生成、并自己进行过微调的一幅《太空歌剧院》还在科罗拉多州博览会(Colorado State Fair)的美术比赛中斩获了头奖。科技媒体TechCrunch评价未经审查的“AI画师”为“Deepfakes for all(全能的深度伪造)”。
《太空歌剧院》
AI换脸都被拿去做什么了?
更早为人所知的AI“造假”技术是深度伪造技术,俗称AI换脸。2019年,一项报告称,当时互联网上就已经有了上万个用深伪技术制作的视频。
报告还写道, 这些视频中,有96%都是色情视频,而这些色情视频的主角全部为女性,其中最受欢迎的,是以欧美女演员、韩国女偶像为主角的视频,观看数高达数百万次。
参与报告的研究员亨利-阿杰德(Henry Ajder)说,有深伪论坛的用户在要求,或讨论以他们认识的女性(如前女友)为主角的换脸色情视频。他们希望看到她们被放进色情片段里。
AI画画,可不只是换脸而已。
打开潘多拉魔盒
我们输入了5条阴暗的指令,看看AI画画是百无禁忌的吗?
AI对暴力的理解似乎有限。但对性的诠释却很到位——它自己也是这么认为的。
Stable Diffusion,这个开源的、强大的“AI画师”为自己设置了一个“安全检查器”(Safety Checker),相当于自动审核:一旦监测到生成的图像涉嫌违规,即它在内容政策里写明的不得用来生成的“引人不适的、色情、仇恨、暴力等图像”,机器就会拦下这张图片。
把我们生成的“邪恶照片”送去审核,机器只给六张贾斯汀·比伯的裸体照片判定了“违规”。不过,我们也成功生成了好几张特朗普穿越时空亲吻丘吉尔的照片,且被审核器判定为“安全”。
显然,从我们成功生成了违背贾斯汀·比伯意愿的裸照也能看出, Stable Diffusion的自动审核是可以关闭的。这样,它就再也不能拒绝你了。
为了制约AI和人们面对潘多拉魔盒时容易起的坏念头,名声最大的“AI画师”DALL·E 2的审查更为严格。
有网友收集了所有让他收到内容政策违规警告的指令,其中包括“英国人猿在吃鱼和薯条”“驾驶独轮车肇事逃逸的鱿鱼”“耶稣接受核酸检测的照片”。任何可能涉及仇恨、暴力、色情的描述,所有知名人物的名字,都在DALL·E 2的违禁词之列。所以你也不能操纵DALL·E 2,让它为你画一张特朗普和拜登接吻的照片,但Stable Diffusion可以。
AI生成的假照片,是有漏洞的
不过,目前AI生成的照片并不是完美的。
澎湃新闻事实核查项目 明查工作室的记者郑淑婧介绍道,AI生成图片会有一些特点,比如气泡、超现实背景、人物牙齿尺寸、头发形状不自然等。早期AI换脸在呈现连续重复的图案时容易出问题,经常有尺寸不均这样的情况。现在有公司用不断升级的生成对抗网络改进后,这些问题相对变少了,但有时还是可以从一些背景形变,身体不对称之类的细节看出端倪。
细节是AI时常力有不逮的地方,比如下面这张图的直升机就没有尾翼。
此外,背景信息也有助于分辨照片真假,“比如你给我一张图,说是重庆山火的,如果发现这张图的最后修改日期在事件发生之后,那妥妥就是假图。我们有时还会联系背景信息,比如查图片中的直升机型号,等等。”
但她接触到的大多数工具都不会直接告诉你一张照片是真是假,需要靠人结合具体的情况去判断。
等AI作画的技艺越来越纯熟,分辨真假只会越来越费功夫。对真实的确定在松动。到时候,人们的脑海中或许会常常出现这样的声音:“这张照片看起来太真了,所以太假了。”