图:一张美国五角大楼爆炸的假照片22日在网上疯传,图片上的灯柱、围栏等多处均有合成痕迹。\网络图片
综合彭博社、、CNN报道:自ChatGPT、Midjourney等生成式AI火爆之后,AI杜撰新闻、散播错误信息,以及生成假图片的情况屡见不鲜。22日,一张美国五角大楼爆炸的假照片在社会化媒体上疯传,推特上有包括媒体在内的认证账号转发,多人信以为线分锺。五角大楼随后澄清,并未遭到攻击或发生爆炸,网上流传的图片疑似是由AI生成。
美东时间周一早上10时左右,一张五角大楼爆炸、冒出滚滚黑烟的照片首先出现在Facebook上,随后推特多个经认证账号转载该照片,包括一个谎称与彭博新闻有关的账号Bloomberg Feed、金融新闻网站账号ZeroHedge和今日俄罗斯(RT)账号。印度一家电视台“共和国电视”播报了发生爆炸的“新闻”,并在其节目中展示了这张图片。
与“特朗普被捕”或者“教皇穿潮牌服装”等令人一笑置之的AI生成照片不同,这次的五角大楼爆炸照造成了更严重的现实影响,引发金融市场恐慌,导致美股短暂闪崩,道琼斯指数曾下跌约80点,标普500指数一度急跌0.29%,随后止跌回升。美债和金价开始攀升,显示投资者急于避险。
事件引起轰动,美国国防部发言人出面辟谣,称网上流传的照片“是假消息,五角大楼今天并未遭到攻击”。弗吉尼亚州阿灵顿消防局也在推特澄清,五角大楼附近并未发生爆炸或意外,对公众没有危险。
加州大学伯克利分校计算机科学教授法里德表示,这张图片具有AI合成的典型特点,图片上的灯柱很奇怪,建筑物围栏扭曲,窗户也和实物出入很大;如果在这样的照片上加上烟雾,更容易达到混淆视听的目的。开源情报组织Bellingcat沃特斯表示,如果五角大楼真的发生爆炸,网上不可能没其他目击者拍摄的相片与影片,可见这张图片真实性不高。
该照片的来源尚不清楚,但研究假信息的专家觉得很大可能由AI生成。Fb上最早放出该照片的账号被发现曾发布宣传美国极右阴谋论团体“匿名者Q”的相关联的内容。CNN指出,马斯克入主推特后,用户只要付费就可以获得认证,而此次假消息的迅速传播,正是由于大量经过认证的假账号转发所致。
财经杂志主编科别希表示,现在大部分的市场交易已经自动化,假消息的出现甚至哪怕只是带有指向性的暗示,都可能对市场造成巨大伤害。金融分析师布朗认为,AI假图影响金融市场,有几率会成为未来常态。
除了AI生成假图片,美国新闻评级组织NewsGuard本月发布报告说明,他们发现至少49个由AI聊天机器人生成的“新闻网站”,有些提供突发即时新闻,有些介绍名人八卦。其中一个名为“名人死讯”的网站4月发表了一篇由AI生成的文章,内容是“美国总统拜登逝世、副总统哈里斯将出任代理总统,上午9时将发表讲话”。
报告指出,这些网站大多数都是品质低劣的内容农场,通过大量发文来吸引点击率,使用语言包括英文、葡萄牙文、泰文等。
此外,虽然“五角大楼爆炸”是假新闻,但美国特勤局23日发表相关声明指出,一辆货车22日晚间冲撞白宫附近护栏,并在车上搜出纳粹旗帜。司机当场被捕,经证实是来自密苏里州的19岁美国男子坎杜拉,他故意撞上拉斐特广场的安全护栏,威胁要对拜登和哈里斯不利。据悉,他可能被控以致命武器蓄意伤害等罪名。
AI生成的图片时常会出现人体某个部分比例失调的问题。例如人物有太多颗牙齿,头与身体比例失调等。Midjourney等软件经常在画人的手时出现错误,有时画中人有6根手指,有时只有4根。
许多AI生成照片中的人物,皮肤极其光洁,毫无瑕疵,甚至头发和牙齿也都十分完美。很多图片呈现的光泽,即便是专业摄影师在摄影棚也难以做到。
AI生成的图片背景常常会出现不自然扭曲的情况,或者经常模糊背景。专家提醒,Hugging Face等某些专门用于识别AI图片的工具,有时会把真实的图片识别为假的。
据BBC报道:美国校园枪击案多发,纽约州普罗克特高中为防止有人将武器带入校园,耗资370万美元购买了AI武器扫描系统。然而,一名学生去年10月在校内持刀袭击了另一名学生,这套天价扫描系统却未能检测出这把刀。
据悉,遇刺的18岁学生勒赫图头部、颈部、面部、肩部、背部和手部有多处刀伤。凶器长度超过22.8厘米。去年3月,当地13所学校购买了Evolv科技安全公司的AI武器扫描系统,并在暑假期间安装。持刀袭击事件发生后,校长等有关人员回看监控录像时发现,凶徒经过武器扫描系统时并未发出任何警告。
Evolv科技安全公司标榜“能将强大的传感器技术与成熟的AI技术相结合”,用AI武器扫描系统取代传统的金属探测器,打造“无武器区”。当该系统检测到刀、炸弹或枪等隐藏的武器时,就会触发警报。
然而,BBC去年的一项调查显示,携带大型刀具经过该检测系统时,扫描仪未检测出的概率高达42%。该系统的客户包括美国多个体育场馆和英国曼彻斯特竞技场,以及全美数百间学校。