如今,美伊冲突已经持续了一个多月。随着双方暂时达成停火协议,这场战争终于有了一丝结束的可能。
不知道大家注意到没有,相比几年前的俄乌冲突,以及近年来其他几起大规模军事冲突,本次美伊冲突中的各种谣言格外的多。国内外互联网上都存在巨量真假难辨,甚至是完全利用AI编造的信息,极大破坏了普通人正常获取信息的渠道。
今天,我们就来盘点一下这些美伊冲突中的AI谣言。
在美国和以色列对伊朗展开空袭,炸死哈梅内伊后不久 ,某账号就发布了一篇名为《深度揭秘Claude和Palantir是如何杀死哈梅内伊的?》的文章,得到了大量转发。
▲这篇一看就是AI瞎编的假文章
但很快就有不少人意识到,这篇文章的内容完全没有任何根据,里面涉及的各种AI技术和产品要么还处于测试阶段,要么就根本不存在,整篇文章缺乏对现代军事的常识,纯粹是利用AI工具编造的!
▲这个辟谣的文章也一看就是AI写的
于是很快,军武菌又看到了一大批驳斥这篇AI假文章的推文——很遗憾,其中大部分“辟谣”文章同样是AI生成的。
要知道,哈梅内伊被炸死是整场美伊冲突第一天发生的事情,也就是说在整场战争的开始,AI谣言就已经被大量生产并开始广泛传播了!
▲美伊冲突第一天,互联网就被AI假新闻占领了
类似的情况,目前已经在全世界的互联网媒体平台上大行其道。
在双方冲突的初期,互联网上最常见的相关假消息或许是“伊朗击中美国航母”,甚至是“伊朗飞行员撞击美国航母”。借助AI生成工具,互联网上出现了大量美国航母被击中受损,燃起大火甚至被击沉的虚假视频。
▲AI生成的假图片和视频
但实际上,美国没有一艘航空母舰在本次冲突中受到比马桶堵塞或者洗衣机起火更严重的损失。
▲AI生成的假图片
其次,随着伊朗针对以色列和海湾国家展开了大规模的导弹与无人机袭击,很多人在网上上传“伊朗导弹击中目标”的照片和视频。这些视频当然有很多是真实的,但也有大量是利用其他爆炸来“移花接木”,甚至纯粹是AI生成的虚假画面。
▲AI生成的假图片
除此之外,关于以色列总理内塔尼亚胡的生死,也引发了大量争论。有消息称,内塔尼亚胡已经被伊朗的导弹炸死。为了证明自己没有死,内塔尼亚胡团队曾经上传过一段视频表明自己仍然活着。但结果却是越描越黑。更多网友认为这段视频是AI生成的!
▲AI工具认为内塔尼亚胡是AI生成的
显然,AI生成的内容已经进化到了真假难辨的地步,很多人是没有能力分别哪些内容是真实,哪些内容是AI生成的。
而在近期,随着“美军即将派遣特种部队入侵伊朗”,以及“美军战机在伊朗被击落”的消息开始在网络上大量传播,又掀起了一轮AI假新闻传播的高潮。
▲AI生成的伊朗俘虏美军士兵
在相关新闻传出后,很快就有人开始制作“美国特种兵在伊朗被活捉”的AI图片,以及“美军飞行员被伊朗抓获”的图片,并且在网络上得到了病毒式传播。
▲这张图到底是不是AI生成的,军武菌都不敢确定
在美军派遣大量军机和特种部队深入伊朗境内,营救飞行员之后,相关谣言和AI图片依旧在互联网上大量流传。很多人声称美军只救出了一名飞行员,另一名飞行员则被伊朗抓获。也有消息称,另一名飞行员已经被美军炸死,以免落入伊朗手中。
▲AI生成的伊朗俘虏美军飞行员
除此之外,网上还出现了大量谣言,称美军在营救飞行员的任务期间“损失惨重”,除了损失大量的飞机外,也有巨量的人员伤亡。其中,不少自媒体都在传播一张所谓“伊朗缴获美军武器”的照片,并根据图中枪支的数量判断美军至少被打死了6个美国特种兵。
▲网传的伊朗缴获美军特种兵武器
但事实上,对美军特种部队稍有了解的人都能看出,这些看起来像M4A1的步枪其实是老式的CAR15卡宾枪,是美军特种部队三十年前就淘汰的型号,不可能应用在2026年的军事行动中。
▲30年前的美军才用这种枪
经过军武菌核查,这张照片拍摄于2021年,是以色列国防军使用的枪械。由于以色列军队装备老旧,很多人都还在使用老式步枪,枪上安装的配件也都是以色列生产的。很显然,有人“移花接木”将这张照片说成是缴获的美军步枪,完全站不住脚。
此外,伊朗法尔斯通讯社还发布了一段视频,声称这是美军被摧毁的C-130运输机驾驶舱,视频中明星可以看出一个人被烧死之后的残骸。伊朗方面称这是一名被击毙的美军飞行员,并且得到了众多媒体,包括“今日俄罗斯”这种官方背景媒体的转发。
但很快有人发现,这段视频里的内容根本不是什么“C-130运输机”的驾驶舱,而是一辆被烧毁的汽车,结构和汽车骨架完全一样。很快,伊朗法尔斯通讯社就撤下了这条虚假新闻,但依旧有大量网民拒绝相信这一说法。
3月15日,美国总统特朗普在他的“真实社交”平台上,怒斥伊朗方面大肆利用AI工具作为“虚假信息武器”,批量生产“假新闻”,作为其信息战工具。
此言或许不虚,但美国在这方面也不干净。自从本次特朗普上台以来,美国政府一直在大量使用AI制作宣传材料,美国国内也拥有大量发布AI虚假内容的自媒体账号。
在特朗普宣布美军成功营救飞行员后,美国社交媒体上出现了大量“飞行员获救现场照片”的推文,其中一些内容得到了美国政府官员的转发,阅读量超过500万。但实际上,这些推文全部为AI生成的虚假图片。
▲AI生成的假图片
更加讽刺的是,随着AI生成的虚假垃圾信息充斥互联网,不少真实信息反而成为了被人怀疑的对象。
3月2日,伊朗南部一所小学遭遇了美军的空袭,造成了上百名儿童死亡的惨剧。针对这一事件,有人上传了当地为遇难者挖掘的坟墓,用于显示这场战争对平民的验证损害。
▲被AI工具识别为假新闻的真实照片
看到这张照片后,很多网友的第一反应却是询问Grok、Gemini等AI工具,询问这张照片的真实性。而这些AI工具给出了回应,声称照片的内容并非伊朗的墓地。但经过事后的核查确认,这些照片的确是真实的,只是AI的数据库内没有相关资料,才被AI判断为虚假信息。
无独有偶,在遭遇美国轰炸后,伊朗首都德黑兰在深夜燃起大火,相关视频被上传到了互联网上。但Grok却将其识别为“2017年洛杉矶大火”,否认相关视频是战争中造成的损害。
▲被AI工具识别为假新闻的真实视频
显然,滥用AI生成虚假信息,这种行为已经对互联网的信息传播造成了极为巨大的危害。
之所以在本次美伊冲突中会出现如此巨量的AI假新闻,很大程度上是由于AI工具的使用门槛已经大幅降低了。目前,包括Grok、Gemini等AI工具都已经具备极强的生成能力,可以生成细节高度真实,甚至以假乱真的AI照片和视频,而且只需要极低的成本,甚至可以免费使用。
从本意来说,开发AI工具是为了帮助人类更方便的进行创作,但为了追求流量,博人眼球从而获利,很多账号开始通过AI生成的虚假信息编造谣言。由于AI工具可以在几秒钟内生成任何画面,相比真实的照片和图像显然具备更强的视觉冲击力,这类AI假信息也会因此受到更多的关注。
由于AI技术已经越来越成熟,到了能够以假乱真的地步,不仅人类难以用肉眼对AI内容进行识别,很多所谓的“AI鉴别工具”也完全无法区分内容是否是AI生成的,经常将人类创作的内容鉴别为AI生成,而将AI生成的内容识别为真人创作。
当前所谓的“AI”大多数其实是一种概率语言模型,根据下一个词最有可能合适的概率来逐句构建内容。虽然这个过程可能会生成令人信服、听起来权威的句子,但这并不意味着人工智能实际上已经分析了它面前的材料。AI只能做到模仿人类的搜索和思考,并模仿人类的创作方式进行内容生成,很多由AI生成的内容都是和编故事一样由互联网信息拼接而成的,完全不符合现实。
更为恐怖的是,从这次美伊冲突中大量传播的AI假新闻就能看出,别有用心的人完全可以利用AI技术在短时间内编造大量虚假的谣言散布到互联网上,将其用作网络心理战的武器,冲淡真实信息的影响,甚至造成恐慌。如果放任这种AI虚假内容在网络上肆意传播,后果将不堪设想。
因此,目前很多互联网平台都开始严格限制纯粹由AI生成的虚假信息,不仅要求对AI生成的内容进行标注,也会对违规使用AI工具生成内容的账号进行处罚。
军武菌也希望大家平时上网的时候,能够注意辨识信息的真伪,不要被这些AI假新闻给骗了!