在这次选举中发现人工智能图像:事实与虚构的提示
2025-03-11 22:54

在这次选举中发现人工智能图像:事实与虚构的提示

  

  8月18日,前总统和现任总统候选人唐纳德·特朗普在他的社交媒体账户Truth social上发布了一份不同寻常的支持。在一系列照片中,他包括了一张流行巨星泰勒·斯威夫特戴着山姆大叔帽子的照片,并宣称:“泰勒希望你投票给唐纳德·特朗普。”

  Casey Fiesler headshot

  凯西Fiesler

  Kai Larsen headshot

  Kai拉森

  Toby Hopp headshot

  托比老板霍普

  问题是:这不是真的。斯威夫特过去没有,现在也没有支持2024年总统大选的候选人。该图像可能是由人工智能生成的。

  科罗拉多大学博尔德分校信息科学系副教授凯西·费斯勒(Casey Fiesler)认为,人工智能在政治领域的崛起是一个令人担忧的趋势。例如,本月,美国国家公共电台(NPR)记者霍静南(音译)测试了社交媒体公司x推出的新人工智能平台Grok。她能够使用该平台制作出令人惊讶的逼真的安全摄像头图像,显示人们在夜深人静的时候把信封塞进投票箱。

  菲斯勒说:“在今年之前,假照片并不是不存在的。“不同的是,现在做起来容易多了。人工智能正在使这种糟糕的行为民主化。”

  为了帮助选民驾驭这种新的、危险的选举信息格局,科罗拉多大学博尔德分校今日采访了费斯勒和其他人工智能和媒体素养方面的专家。他们包括利兹商学院(Leeds School of Business)信息系统教授凯?拉森(Kai Larsen)和广告、公共关系和媒体设计系副教授托比?霍普(Toby Hopp)。

  这些专家讨论了如何判断你在网上看到的照片是否真实,以及如何与散布错误信息的朋友和家人交谈。

  过去,人工智能生成的图像通常会留下“人工制品”,比如有六个手指的手,眼尖的观众可以发现。但在静止图像中,这些错误变得越来越容易修复。菲斯勒说,视频也不落后。今年秋天,她将在一门名为“信息技术的伦理与政策维度”的课程中讲授人工智能的伦理问题。

  她说:“在不久的将来,你将能够看到一段由人工智能生成的疾病预防控制中心负责人召开新闻发布会的视频,它会完全欺骗你。”

  拉森说,与此同时,管理抖音和Instagram等社交媒体平台的算法可能会让用户陷入错误信息的恶性循环。他是2021年出版的《商业自动化机器学习》一书的合著者。

  拉森说:“算法,至少从历史上看,一直在驱使人们进入这些兔子洞。”“如果你愿意相信一条错误信息,那么算法现在就会发现你喜欢阴谋论。所以为什么不多给你吃点呢?”

  许多公司声称,他们现在提供的服务可以检测人工智能生成的内容,包括假图像。但拉森说,就像人类的眼睛一样,这些工具很容易被欺骗。一些对人工智能持批评态度的人士还敦促科技公司在人工智能内容中添加数字“水印”。这些水印将标记最初来自人工智能平台的照片或文本。

  “水印的问题在于,它们通常很容易去掉,”拉森说。“或者你可以找到另一种不使用它们的大型语言模型。”谷歌它

  费斯勒说,当涉及到人工智能图像时,在网上进行一点搜索可以大有帮助。

  Screenshot of a Truth Social post from Do<em></em>nald J. Trump in which he says

  按此放大

  特朗普在Truth Social上发布了几张人工智能生成的假特朗普支持者的照片,以及一张穿着“Swifties for Trump”t恤的女子的真实照片(右上)。

  Screenshot of an X post featuring an image of a woman seen from behind speaking to a crowd with a hammer and sickle communist flag hanging above

  按此放大

  在发给X的帖子中,特朗普分享了一张人工智能生成的照片,照片上的女人长得很像卡玛拉·哈里斯(Kamala Harris),正在共产党人的聚会上讲话。

  8月初,特朗普的竞选团队指责卡玛拉·哈里斯(Kamala Harris)的团队在一张她的集会照片中使用人工智能使人群规模看起来更大。费斯勒在谷歌上快速搜索了这张照片。她发现许多新闻机构都报道了同样的事件,还有几十张照片和视频,都显示了同样的一大群人。

  “谷歌一下,”费斯勒说。找出:新闻机构是否在报道同一事件?还有其他照片吗?”

  霍普是一位研究假新闻或他更喜欢称之为“反媒体”的学者,他告诫社交媒体用户要小心那些试图引发我们最坏冲动的帖子。2016年,俄罗斯的巨魔农场在社交媒体上发布了数千条关于总统选举的误导性广告。许多人试图利用负面情绪,让美国的右翼和左翼相互对立。

  “我们可以评估一条信息,然后问自己:‘这是想让我生气吗?你是想惹我生气吗?’”霍普说。“如果是这样,我们可能会问:‘这是否有可能产生误导?'"

  对于很多人来说,这是一个常见的问题——朋友或家人不停地在社交媒体上分享误导性的帖子。霍普说,与这样的爱人打交道可能是一个雷区。研究表明,仅仅挑战人们的错误信念(比如,地球是平的)通常不会改变他们的想法。这甚至可能使他们加倍下注。

  他和其他研究人员进行了实验,向社交媒体用户提供“媒体素养干预”或如何区分事实和虚构的基本信息。这样的干预是有帮助的,但没有霍普希望的那么多。

  他说:“我确实认为,与那些对我们很重要的人就媒体素养进行冷静、同理心和关怀的讨论,对于帮助人们在社交媒体平台上使用不同的策略很重要。”“但没有什么灵丹妙药。”

  有什么办法可以帮助减缓网上误导性人工智能图像的传播吗?

  菲斯勒认为,联邦政府迫切需要介入,对快速发展的人工智能行业进行监管。她说,起点可能是白宫科学技术政策办公室于2022年起草的“人工智能权利法案蓝图”。

  这份蓝图尚未成为法律,其中包括以下建议:“你应该知道正在使用的自动化系统,并了解它如何以及为什么会对你产生影响。”

  就霍普而言,他认为阻止政治错误信息的大部分责任落在另一个群体身上:政治家。是时候给美国的政治讨论降温了。

  霍普说:“我们的政治领导人有责任阻止使用极端党派的、分裂的信息。”“接受这类误导性信息,为其传播创造了相当成熟的条件。”

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 切尔网

相关推荐