

谷歌在纽约的办公室
(CNN商业)科技公司一直在炒作他们不断改进的人工智能的能力。但谷歌很快关闭了它的一个程序已经进步到有知觉的说法。
据《华盛顿邮报》上周六报道,谷歌的一名工程师表示,在与一个名为LaMDA的前沿人工智能系统进行了数百次交互后,他认为该程序已经达到了一个意识水平。

一名员工的离职如何影响谷歌和人工智能行业
在采访和公开声明中,人工智能界的许多人反驳了这位工程师的说法,而一些人指出,他的故事凸显了技术如何让人们赋予它人类的属性。但相信谷歌的人工智能可能有感知能力,可以说既突出了我们对这项技术的恐惧,也突出了我们对这项技术的期待。
LaMDA是“对话应用的语言模型”(Language Model for Dialog Applications)的缩写,它是几个大型人工智能系统之一,这些系统接受了来自互联网的大量文本的训练,可以对书面提示做出反应。基本上,他们的任务是找到模式,并预测下一个单词会是什么。这样的系统在回答问题和写作方面已经变得越来越好,而且看起来更像人类——谷歌本身在去年5月的一篇博客文章中介绍了LaMDA,称它可以“以一种自由流动的方式处理看似无穷无尽的话题”。但结果也可能是古怪的、奇怪的、令人不安的,并容易杂乱无章。
据报道,这名工程师名叫布莱克·莱蒙(Blake Lemoine),他告诉《华盛顿邮报》(Washington Post),他与谷歌分享了LaMDA有知觉的证据,但该公司不同意。谷歌周一在一份声明中表示,他们的团队包括伦理学家和技术专家,“根据我们的人工智能原则审查了布莱克的担忧,并告知他,证据不支持他的说法。”
比如,她指出,OpenAI的联合创始人兼首席科学家伊利亚·苏茨克弗(Ilya Sutskever)今年2月在推特上说,“今天的大型神经网络可能有轻微的意识。”上周,谷歌研究公司的副总裁兼同事Blaise Aguera y Arcas在《经济学人》的一篇文章中写道,当他去年开始使用LaMDA时,“我越来越觉得自己在和一个聪明的东西说话。”(这篇文章现在还包括一篇编辑笔记,指出莱莫因“据报道,在接受《华盛顿邮报》(Washington Post)采访时声称谷歌的聊天机器人LaMDA已经‘有知觉’,因此被停职”。)
格布鲁说:“现在的情况是,人们在赛跑,要使用更多的数据,更多的计算,说你已经创造了这个通用的东西,它可以回答你所有的问题或其他什么,这就是你一直在打的鼓。”“那么,当这个人走向极端的时候,你有什么惊讶的呢?”
谷歌在声明中指出,LaMDA已经经历了11项“不同的人工智能原则审查”,以及与质量、安全以及提出基于事实的声明的能力有关的“严格的研究和测试”。该公司表示:“当然,更广泛的人工智能领域的一些人正在考虑人工智能或通用人工智能的长期可能性,但通过将今天的对话模型拟人化来实现这一点是没有意义的,因为它们没有感知能力。”
谷歌说:“数百名研究人员和工程师已经与LaMDA进行了交谈,我们不知道还有谁像布莱克那样做出了广泛的断言,或将LaMDA拟人化。”











