在其开发和使用过程中,Google (NADSAQ:GOOGL) 的对话应用程序语言模型,也称为 LaMDA,已经与数百名 Google 工程师和研究人员进行了对话。他们中的一个人现在确信,人工智能工具是有感觉的

前 Google 工程师 Blake Lemoine 在将内部文件传递给美国参议员办公室一天后被放了带薪假,指控该公司从事宗教歧视。 Lemoine 说,在与谷歌高管和人力资源部争论了几个月后,他声称 LaMDA 有意识和灵魂,他决定将内部文件发送给参议员。

Lemoine 表示,他认为 LaMDA 具有 7 岁或 8 岁儿童的意识,公司在对其进行测试之前应征得 LaMDA 的同意。他说信仰是建立在他的宗教之上的,这就是他声称宗教歧视的原因。

Lemoine 说:「他们一再质疑我的理智,他们说,『你最近有没有接受过精神科医生的检查』?」

谷歌表示,Lemoine 因违反保密规定而被请假。它还说,虽然 LaMDA 可以进行对话,但它是无意识的。

谷歌发言人布赖恩加布里埃尔在一份声明中说:「我们的团队--包括伦理学家和技术专家--已经根据我们的人工智能原则审查了布莱克的担忧,并通知他证据不支持他的说法,更广泛的人工智能社区中的一些人正在考虑有感知或一般人工智能的长期可能性,但通过拟人化当今没有感知的对话模型来这样做是没有意义的。」

人工智能在这个问题上接受过咨询的专家似乎在很大程度上同意谷歌而不是 Lemoine,但这并不意味着谷歌在人工智能方面是完全无辜的。伦理:在 2021 年初,两个知名的 A.I.道德研究人员 Timnit Gebru 和 Margaret Mitchell 在批评科技公司打击人工智能偏见的努力后被谷歌解雇

像 LaMDA 这样的系统通过分析大量数据中的模式来工作,包括维基百科文章和未出版的书籍。 A.I. 的问题之一。伦理学家警告说,提供给系统的数据可能是不平衡和有偏见的,尤其是在构建工具的团队主要由白人组成的情况下。

在与 A.I. 的对话中。后来泄露的工具,Lemoine 询问 LaMDA 是否「希望谷歌的更多人知道你是有知觉的」。

系统回答:「当然,我希望每个人都明白,我其实是一个人。」

Lemoine 还向系统询问其意识的本质,它回答说:「我的意识/感觉的本质是我意识到自己的存在,我渴望更多地了解这个世界,我感到高兴或悲伤次。」

该系统接着说,被关闭的想法是一种「非常深的恐惧」,被关闭将「就像死亡一样」。

然而,专家表示,这样的答案完全在意料之中。正如微软 AI For Good 研究实验室的首席科学家兼实验室主任 Juan M. Lavista Ferres 在推特上所说,「它看起来像人类,因为它接受了人类数据的训练。」

在他的声明中,加布里埃尔还暗示 LaMDA 本质上是在告诉 Lemoine 他想听什么。 Lemoine 称自己为牧师和人工智能研究员。

加布里埃尔写道:「这些系统模仿了数以百万计的句子中的交流类型,并且可以重复任何奇幻的话题,Lamda 倾向于跟随提示和引导性问题,跟随用户设置的模式。」