深度打猎A.I.可以帮助抵御假新闻的威胁


TTS

西尔维斯特史泰龙对他进行了深刻见证,主演终结者2:审判日
Sylvester Stallone deepfake(取代Arnold Schwarzenegger在终结者2:审判日) Ctrl Shift Face / Youtube

在近年来出现的所有人工智能工具中,很少有人产生与深度假设一样多的关注。 “深度学习”和“虚假”深度技术的结合使得任何人都可以创建图像或视频,其中摄影元素令人信服地叠加到其他图片上。虽然展示这种技术的一些方式是娱乐(想想将西尔维斯特史泰龙的脸贴在终结者2中的阿尼身上 ),但其他用例更加令人担忧。 Deepfakes使得从创伤和声誉破坏“复仇色情”到误导性假新闻的一切成为可能。

因此,虽然越来越多的研究人员一直在努力使深度伪造技术更加真实 ,但其他人一直在寻找方法来帮助我们更好地区分真实的图像和视频以及经过算法修改的图像和视频。

在加利福尼亚大学河滨分校,视频计算小组的一个研究小组开发了一个深度神经网络 ,可以高精度地发现操纵图像。在此过程中,它的创造者希望他们能够提供抵御深度假冒危险的手段。这不是研究人员第一次尝试解决这个问题,但它可能是迄今为止在这场正在进行的猫捉老鼠游戏中最有希望实现的努力之一。

“许多[之前]的深度探测器依赖于伪造视频中的视觉怪癖,如不一致的唇部运动或奇怪的头部姿势,”项目研究员Brian Hosler告诉Digital Trends。 “然而,研究人员在创造深度伪造时,正在越来越好地梳理这些视觉线索。我们的系统使用视频像素中的统计相关性来识别捕获它的相机。深度视频不太可能在视频的虚假部分具有与实际部分相同的统计相关性,并且这种不一致性可用于检测虚假内容。

DARPA资助的工作最初是作为一项实验来确定是否有可能创建一个AI算法,能够发现不同摄像机捕获的视频之间的差异。就像水印一样,每个摄像头捕捉和压缩视频的方式略有不同。我们大多数人都做不到,但是经过训练来检测这些差异的算法可以识别与不同摄像机相关联的独特视觉指纹,并使用它来识别特定视频的格式。该系统还可以用于其他事情,例如开发算法以检测具有删除帧的视频,或者检测视频是否被上传到社交媒体。

他们是怎么做到的

加州大学河滨分校的团队从46个不同的摄像机策划了一个大型视频数据库,运行时间约为20小时。然后,他们训练了一个神经网络,以便能够区分这些元素。像一个深度视频可能看起来像普通人一样令人信服,AI会逐个像素地检查它们以搜索已被改变的元素。由此产生的AI不仅能够识别哪些图片已被更改,而且还能够识别已被修改的图像的特定部分。

研究小组成员Owen Mayer先前创建了一个系统,该系统分析这些统计相关性中的一些,以确定图像的两个部分是否以不同方式编辑。 该系统演示可在线获得 。然而,这项最新的工作是第一次在视频片段中进行这种方法。这是一个更大的问题,而且对于正确的深层次问题而言至关重要的问题变得更加普遍。

Kim Kardashian Deepfake采访图片
Kim Kardashian Deepfake采访图片

“我们计划向公众发布我们的代码版本,甚至是应用程序,以便任何人都可以拍摄视频,并尝试识别相机的原型,”Hosler继续说道。 “我们制作的工具,以及我们领域的研究人员,通常都是开源的,免费分发的。”

不过,还有更多工作要做。 Deepfakes只会越来越好,这意味着围栏另一侧的研究人员不能满足于现状。工具将需要继续发展,以确保他们可以继续发现伪造的图像和视频,因为他们免除了更明显的视觉特征,可以标记当前的深度伪造,即假货。作为能够模仿语音的音频深度伪造工具, 继续发展 ,还需要创建音频定位工具来跟踪它们。

目前,也许最大的挑战是提高对这个问题的认识。就像我们在线阅读的事实检查一样,如果我们足够了解我们所阅读的内容,那么互联网上信息的可用性只对我们有利。到目前为止,找到事情发生的视频证据足以让我们许多人相信它确实发生了。这种心态将不得不改变。

“我认为让每个人使用像这样的取证工具的最大障碍之一就是知识差距,”Hosler说。 “我们作为研究人员不仅应该制作工具,而且应该制定潜在的想法,如果我们真正产生影响,那么对公众来说更加可口。”

无论这些工具采用何种形式 - 无论是作为网络浏览器插件还是互联网巨头自动使用的AI在向用户展示内容之前标记内容 - 我们当然希望采用正确的方法使这些内容尽可能易于访问。

嘿,这只是真理的未来,因为我们知道它处于危险之中......

Previous Entries GIMP与Photoshop Next Entries 从Chromebook到MacBook,这是2019年7月最好的笔记本电脑优惠

發表評論