让我们结束这场哑谜吧。
几个月来,这位声称“AI有意识”的工程师一直在与谷歌经理、高管和人力资源部门争吵,他的观点引发了学界广泛讨论,但在谷歌的职业生涯也终于结束了。
据持续跟踪报道的媒体BigTechnology本周六称,公开声称谷歌大模型LaMDA对话式人工智能具有感知能力的工程师BlakeLemoine已被解雇。
6月,在Lemoine就他因为“AI人权”的担忧联系美国参议员办公室,并聘请律师代表谷歌AI对话系统LaMDA后,谷歌因违反保密协议给了Lemoine带薪休假的待遇。
谷歌发言人BrianGabriel本周五通过电子邮件向TheVerge发送了一份声明,部分证实了这次解雇,其中说道:“我们希望Lemoine一切顺利。”该公司还表示:“LaMDA已经通过了11次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。”谷歌坚称其“广泛地”审查了Lemoine的说法,发现这些说法“完全没有根据”。
这与许多人工智能专家和伦理学家的态度一致。很多学者认为,鉴于当今的技术,Lemonie的主张应该是不可能的。这名谷歌工程师曾声称,经过与LaMDA模型长期对话,他相信此AI已不仅仅是一个程序,它拥有了自己的想法和感受,而不是像原设计那样仅产生接近真人对话能力的程度。
BlakeLemoine曾在美国陆军服役。
Lemonie认为,因为AI存在意识,因此谷歌研究人员应该在对LaMDA进行实验之前征得AI自身同意(Lemoine本人被指派测试人工智能是否会产生仇恨言论),他在自己的Medium博客账户上发布了大量与AI对话的内容作为证据。
今年1月,超过50多位谷歌研究者参与撰写的论文《LaMDA:LanguageModelsforDialogApplications》完整介绍了语言模型LaMDA。论文展示了AI在接近人类水平的对话质量以及在安全性和事实基础方面具有显著改进。LaMDA通过微调一系列专门用于对话的、基于Transformer的神经语言模型构建,具有多达1370亿个参数,在对话时,模型还可以引用外部知识源作为参考。
谷歌表示,预训练的LaMDA模型已被广泛应用于自然语言处理研究中,包括程序合成、零样本学习、风格迁移等方向。
在Lemoine事件被媒体广泛报道之后,很多AI领域学者纷纷亮出了自己的观点,前特斯拉AI总监AndrejKarpathy认为大模型表现出有意识的样子“细思恐极”,而在纽约大学教授GaryMarcus看来,LaMDA肯定毫无感知力。
大多数人工智能专家认为,该行业距离让计算机获得认知能力还有很长的路要走。
以下是谷歌的完整声明,其中还提到了Lemoine指控该公司没有适当调查他的说法:
正如我们分享的人工智能准侧一样,谷歌非常重视人工智能的发展,并始终致力于负责任的创新。LaMDA已经通过了11次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。如果有员工像Blake一样对我们的工作表示担忧,我们会对其进行广泛审查。我们发现Blake声称LaMDA有知觉的观点是完全没有根据的,并与他一起努力澄清了好几个月。
这些讨论是帮助我们负责任地创新的开放文化的一部分。因此,令人遗憾的是,尽管在这个话题上进行了长时间的讨论,Blake仍然选择持续违反明确的就业和数据安全政策,其中包括保护产品信息的需要。我们将继续精心开发语言模型,并祝Blake一切顺利。