
随着Sora和Luma等人工智能视频生成产品的发布,我们正处于人工智能生成视频内容泛滥的边缘,政策制定者、公众人物和软件工程师已经在警告深度伪造的泛滥。现在看来,人工智能本身可能是我们抵御人工智能造假的最佳手段,因为一种算法已经以超过98%的准确率识别出了人工智能视频的泄密标志。
人工智能保护我们免受人工智能生成内容侵害的讽刺意味很难忽视,但正如项目负责人、德雷塞尔大学(Drexel University)工程学副教授马修·斯塔姆(Matthew Stamm)在一份声明中所说:“在没有一个好的系统来检测坏人制作的假货之前,(人工智能生成的视频)就可能被发布,这让人有点不安。”
斯坦姆补充说:“到目前为止,法医检测程序通过简单地将其作为一系列图像并应用相同的检测过程来有效地检测编辑过的视频。”“但是对于人工智能生成的视频,没有证据表明帧对帧的图像处理,因此对于有效的检测程序来说,它需要能够识别生成人工智能程序构建视频的方式留下的新痕迹。”
4月24日发表在预印本服务器arXiv上的一项研究概述了这一突破,这是一种算法,代表了检测虚假图像和视频内容的重要新里程碑。这是因为现有系统在常规数字编辑媒体中寻找的许多“数字面包屑”并不存在于完全由人工智能生成的媒体中。
该研究项目推出的用于深度造假的新工具被称为“MISLnet”,它是多年来通过发现数字视频或图像的变化的工具来检测虚假图像和视频的数据发展而来的。这些可包括帧之间像素的添加或移动、剪辑速度的操纵或帧的移除。
这些工具之所以有效,是因为数码相机的算法处理在像素颜色值之间建立了关系。这些值之间的关系在用户生成或使用Photoshop等应用程序编辑的图像中是非常不同的。
但由于人工智能生成的视频不是由捕捉真实场景或图像的摄像头制作的,因此它们不包含像素值之间的明显差异。
Drexel团队的工具,包括MISLnet,使用一种称为约束神经网络的方法进行学习,这种方法可以区分图像或视频片段的亚像素级别的正常和异常值,而不是像上面提到的那样搜索图像处理的常见指标。
MISL的表现优于其他7个假人工智能视频检测系统,正确识别人工智能生成的视频的准确率为98.3%,超过了其他8个得分至少为93%的系统。
斯塔姆在声明中说:“我们已经看到人工智能生成的视频被用来制造错误信息。”“随着这些程序变得越来越普遍,越来越容易使用,我们可以合理地预计,合成视频将被淹没。”











