泽连斯基公开接受了俄方提出的要求,并督促乌克兰人在俄国人面前放下武器

乌克兰电视台“乌克兰24”在播出新闻直播节目时,下方滚动的字幕条显示“泽连斯基呼吁乌克兰人放下武器”等内容。不过该电视台随后声明称,“黑客入侵了乌克兰24电视台的字幕条”。泽连斯基本人也很快驳斥了所谓“投降”的呼吁。

同时,在一条被证实是造假的视频中,泽连斯基公开接受了俄方提出的要求,并督促乌克兰人在俄国人面前放下武器。事件发生后,乌克兰国防部在其推特官方账号发布了泽连斯基的视频,并配文称“请注意,这是不可能的。”此后,社交平台脸书和推特宣布删除“泽连斯基宣布向俄罗斯投降”的造假视频。

此外,社交平台推特上日前也出现了一段似乎显示是俄罗斯总统普京宣布投降的视频。但事实上,这是一段经过剪辑处理后释放假消息的视频。有外媒注意到,这段造假的视频取自普京早些时候的讲话,与2月21日上传到俄总统官方网站的一段视频相匹配,普京在该视频中谈到了这次俄乌冲突爆发前的乌克兰局势。剪辑片段中的音轨发音听起来不像普京,而且嘴唇的动作与讲话不同步。

“深度造假”视频:现代社会的“新型武器”

美专家分析称,这类视频属于深度造假(deepfake)视频,是一种看似有说服力,实际上是虚假的视频和音频。据悉,深度造假技术是一种“生成式对抗网络”的人工智能(AI)技术。深度造假视频能通过使用人工智能等技术,将图像或视频中的人物替换成另一个人,可以展示一个真人做或说一些他们没有做或说过的事情,具有高度的视觉和听觉欺骗效果。

泽连斯基公开接受了俄方提出的要求,并督促乌克兰人在俄国人面前放下武器

一条“泽连斯基宣布放下武器”的视频被认为是“深度造假”视频。

加州大学伯克利分校教授、数字取证专家哈尼·法里德分析这条视频后指出,视频里有几个疑点可以证明其属于深度造假视频,而非真实视频。

他说:“首先,视频里的录音音频质量较低、分辨率较低。”哈尼分析称,这是一个常见的“伪装”技巧,用来掩盖“深度造假”时产生的失真。其次,他分析称视频中的泽连斯基全程没有摆动过手臂,眼睛一直直勾勾地看着前方,看上去十分僵硬。哈尼解释说:“要在深度造假视频中作出令人信服的、符合人体运动规律的动作是非常困难的。”

《深度造假》一书的作者妮娜认为,“泽连斯基宣布向俄罗斯投降”这一视频的制作合成相对而言比较粗糙,所以很容易被识破。不过她警告称,这条视频不是个例。“在此次俄乌冲突中,双方都有各种形式的虚假信息,只不过还未被揭穿。”妮娜认为,这些虚假信息会侵蚀民众对媒体的信任,让人们相信一切都是可以伪造的。“这是一种现代社会的‘新型武器’,能够完全实现以假乱真的效果,让更多信息变得真假难辨。”

以AI治AI,科学家正研发能识别虚假内容的工具

据悉,这已经不是第一次有政治人物被制作成深度造假视频了。据报道,2018年,美国导演乔丹·皮尔曾利用人工智能技术“让美国前总统奥巴马发言”对特朗普进行抨击。

美国导演乔丹·皮尔曾利用AI技术“让奥巴马发言”。

随着人工智能技术的发展,人类甚至可以让去世的亲人“死而复生”。知名家谱网站MyHeritage就曾推出Deep Nostalgia功能,用户只需要通过该网站上传去世亲人的照片,算法会自动分析照片中人的方位,确定他们的头部和眼睛看向的方向,然后自动选择一个匹配的视频,用这种方式创建短视频动画,使照片中的人物变得生动起来。

然而这种技术技若被非法运用,会造成恶劣影响。据悉,不法分子也会使用该项技术合成儿童性虐待影像、名人色情视频、制作假新闻,并利用深度造假视频进行金融诈骗等。

而对于这种日渐发展的“深度”造假技术,科学家们也纷纷出手开发鉴假工具,以帮助人们分清真假。

据报道,纽约州立大学布法罗分校的研究人员称他们已经开发出一种可用于鉴别“深度造假”技术合成图像的工具。该工具能通过仔细检查分析目标人物的眼睛、眼球和每个眼球中反射的光,找出他们在反射光的形状、强度和其他特征方面存在的潜在差异,从而鉴别出虚假图像。

谷歌母公司Alphabet旗下的Jigsaw也联手谷歌、马里兰大学、伯克利大学等多家研究机构,开发了一个名为Assembler的实验平台,通过检测图像是否经历了复制粘贴、亮度修改等帮助人们快速判断图片的真假。

原创文章,作者:喵, 喵,如若转载,请注明出处:http://www.5a5a5a.cn/news/395.html