观察下面这张图片,你认为这是真实拍摄的,还是AI生成?
看着有点可疑,比如有一些汽车的车门、堆起来的样子,好像是拼接起来的。那下面这两张呢?如果不仔细查证,你可能有点不信:它们全都是拍摄出来的真照片。
十月底开始,西班牙瓦伦西亚地区经历特大暴雨,一天的降雨量相当于一年,还下得连绵不断。而瓦伦西亚地区,街道有很斜坡,这么大的水量完全可以让汽车浮起来,并且沿着斜坡一路往下。最后当洪水退去,就出现了最开始照片中的景象。
可是在面对这些照片的时候,很多人的反应是:AI做的吧,假新闻。也不能说这些人不讲理,确实也是被骗到过。
之前美国佛罗里达州被飓风袭击,一张穿救生衣的小女孩在救生艇上抱着小狗流眼泪的图片,就横扫了社交网络。
仔细看的话,这张图比上面的暴雨图AI味更重,从手指细节,到身体姿势,都有种说不出的怪异。果不其然,原帖的帖主也并不知道这张图是从哪儿来的,发出来只是为了表达自己的对受灾人民的同情。
现在,平台已经补充了背景信息,强调这是一张生成出来的图片,而非真正拍摄出来的照片。
在救生衣女孩这张图上,网友们的怀疑精神让平台迅速反应,补充了警告。但是同样的怀疑精神,在另一场灾难中,就不再奏效。
毕竟,AI生图确实越来越真假难辨。又因为一次一次,总有人拿着AI图来博眼球,最后变成了大型狼来了现场。越逼真,越危险
在评价由AI生成的图片或视频时,是否足够写实,一直是最重要的标准之一。图像是不是足够写实、逼真,对背后的模型提出了很挑战:是不是掌握自然语言的规则?是否理解了常识和现实世界的规律?能不能理解上下文当中的信息,并且呈现出来?这是对模型能力的考验,也是反映各家技术力的有效指标。
一开始,大家也为AI能够生成出无比逼真的图像而感到兴奋。可是后来,越来越多的开局一张图,剩下全靠编的新闻出现了,而且越来越难以分辨。
六月时,社交媒体上出现西安发生特大爆炸的消息,时间地点俱全。但是西安警方核对之后,发现并没有这回事。这条消息是用一家MCN机构所持有的账号发出来的。被警方抓获后,主犯交代自己是利用了AI工具,给定Prompt,工具就会自动在网络上抓取相关的文章,然后生成几百到上千字的文本。
最高峰一天能生成4000至7000条信息,全程几乎不需要人工参与,而且专门挑民生相关、热度高的话题和事件——有研究表明,消极、负面、激发情绪的信息,往往更容易抓住人的注意力,这是由我们的顶叶和额叶区域结构决定的。
一番操作下来,仅仅只靠发假消息,薅平台流量,骗子的日均收入高达1万元。这对于阅读、转发和评论了这种假消息的用户来说,气愤是在所难免的。
假照片还是实实在在地,骗过所有人的眼睛,造成了市场恐慌。去年五月时,一张五角大楼发生爆炸的照片,迅速流传。还没等专业的新闻机构核实,这张照片就迅速流传。因为刚好发布在美国股市当天的开盘时间,很多投资相关的网站和社媒账户都转发了,导致标准普尔500指数下跌0.3%。黄金和美国国债的价格小涨了一波,有部分投资者把资金转移到了更稳健的产品上。
最后是辖区的消防部门出面辟谣,才让事态平息。太依赖眼见为实,不仅会伤害感情,还会伤害钱包啊。
于是就出现了反向操作:一律打成AI。反向操作,只要不认识,就是AI图
这样做的背后,起码有一个原因是成立的:躲开平台的推送。Meta是明确表示要高举AI大旗,扎克伯格认为,有必要专门加一个版块给AI生成或者辅助生成的内容,他说,我非常有信心,在未来几年里,这将成为重要的趋势之一和重要的应用之一。
Meta旗下有Facebook和Instagram两个重要的内容平台,而在前者上,AI生成内容越来越见,因为它的激励政策很诱人:每个超过1000赞的帖子,最高可以获得10美元的曝光奖励。
有一说一,如果能坚定执行一律打成AI的路线,有效打击假消息的传播,倒逼平台不再给这些内容推流量、给补贴,说不定是个走得通的方法。但是,为了保险起见,我们还是在看图片的时候多留意一些细节,结合上下文信息和逻辑思维,学会判断图片的真假。毕竟,AI虽然聪明,也不可能做到面面俱到,露出破绽的地方总归是有的。
发表评论