报告揭示:谷歌AI概览功能引发惊人趋势,用户需警惕!
2026-04-17 08:03

报告揭示:谷歌AI概览功能引发惊人趋势,用户需警惕!

  报告揭示:谷歌AI概览功能引发惊人趋势,用户需警惕!

  编者按:在人工智能日益渗透我们日常生活的今天,谷歌作为全球搜索引擎巨头,其一举一动都牵动着亿万用户的心。近期,一项关于谷歌AI搜索准确性的报告引发了轩然大波,直指其基于Gemini大语言模型的搜索概览存在惊人错误。尽管谷歌迅速反驳,称研究方法存在“严重漏洞”,但报告中揭示的潜在问题——每分钟数十万错误答案的规模,足以让我们深思:在AI技术飞速发展的浪潮中,我们究竟该如何平衡创新与准确性?当AI成为信息的主要筛选者,我们又该如何确保所获知识的真实与可靠?这场科技巨头与独立研究之间的交锋,不仅关乎技术细节,更触及信息时代的信任基石。以下为您带来详细报道。

  一份最新报告显示,谷歌依靠其Gemini大语言模型驱动的AI搜索概览功能,存在令人担忧的不准确性。

  这项由AI初创公司Oumi进行、《纽约时报》委托的报告发现,91%的搜索结果是准确的。

  然而,考虑到谷歌每年处理超过五万亿次搜索,这些不准确之处累计起来,相当于数千万个错误答案,每分钟更是高达数十万个。

  正如《未来主义》杂志所指出的,如此大量的错误信息同时出现,堪称一场错误信息危机。

  不过,谷歌对调查结果提出了异议。公司发言人内德·阿德里安斯告诉《新闻周刊》:“这项研究存在严重漏洞。”

  他指出,《纽约时报》的研究是用一个AI来评估另一个AI,并称这种方法“是一个以充满错误而闻名的旧基准”。

  此外,他表示该方法“并不能反映人们在谷歌上的实际搜索情况”。

  研究人员使用了一个名为SimpleQA的系统,这是由OpenAI创建的一个基准,用于评估大语言模型回答简短、寻求事实类问题的能力。

  根据OpenAI的说法,SimpleQA是准确的,但其范围有限——它只能衡量那些具有单一、可验证正确答案的简短事实性问题。

  文章指出:“提供简短事实性答案的能力,是否与撰写包含大量事实的长篇回复的能力相关,这仍然是一个开放的研究问题。”

  然而,Oumi对谷歌的评估显示,即使是那些可以被验证为正确的问题,有时也会逃过谷歌AI概览的审查——报告引用了几个事实性例子,这些答案无疑是错误的。

  当AI出错时,错误答案可追溯到各种问题。

  有时,AI引用了无法支持该信息的网站。其他时候,概览引用了包含正确信息的网站,但却把信息弄错了。

  在某些情况下,概览给出了正确答案,但随后提供的额外背景信息却是错误的。

  报告最后指出,AI容易受到操纵——在某些情况下,一篇博客文章就足以欺骗AI,使其认为某人是某个随机领域的专家。

  然而,谷歌表示SimpleQA本身存在问题,并引用了数位谷歌DeepMind研究人员进行的一项研究。

  研究人员发现,SimpleQA存在多个错误的“基本事实”——这个术语指的是经过人类验证或有证据支持的事实。

  谷歌还指出,Oumi使用了一个AI模型作为Gemini的评估器——换句话说,是用一个不完美的AI模型来评估另一个不完美的AI模型的准确性。

  最后,谷歌提请人们注意《纽约时报》引用的两个例子。

  在第一个例子中,Gemini声称鲍勃·马利的房子于1987年改建成了博物馆,而正确答案是1986年。

  谷歌表示,Gemini所引用的维基百科文章当时列出了两个不同的日期——一个是1986年,一个是1987年——谷歌提供了截图作为证明,尽管现在该维基百科文章已统一为“1986年”。

  其次,谷歌对《纽约时报》关于Gemini混淆了北卡罗来纳州纽斯河位置的断言提出异议,该报道称Gemini说河流在戈尔兹伯勒市“以西”流淌。

  纽斯河主要流经戈尔兹伯勒市以南,但它确实流经该市的西南方向,谷歌称这使得答案“看似合理”。

  《新闻周刊》已联系《纽约时报》寻求评论。

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 切尔网

相关推荐