你可能无法相信,现在的人工智能,虽然看起来越来越厉害,但其实正在走进死胡同。美国计算机科学家埃里克·拉森在其著作《造神》一书中认为, 几乎现在所有的主流人工智能,都陷入了“罗素的火鸡悖论”。
这个悖论,是关于一只火鸡的悲惨故事:
有一只善于归纳推理的火鸡,被带到了火鸡农场。它发现,第一天早晨,喂食时间是上午9点。不过,作为一个严肃的归纳主义者,它不会过早下结论。它一直等着,在各种环境下进行观察,在星期三和星期四,在温暖的日子和寒冷的日子,在下雨的日子和干燥的日子。每天,它都把新的观察描述写进本子里。最后,直到收集了大量观察结果,它才满足了自己的归纳主义意识,得出了归纳推理的结论——“我的喂食时间一直是上午9点。”可惜,事实证明这个结论是完全错误的,圣诞夜,它没有被喂食,反而被宰杀了,端上了人类的餐桌。
“罗素的火鸡悖论”说明,根据真实前提的归纳推理得出的结果,不仅未必是正确的,还可能是灾难性的错误。因此,这个问题,被罗素称为“哲学的核心问题”之一。而现在几乎所有的主流人工智能,都建立在归纳推理之上,它们需要海量的大数据不断地“喂养”,最后才能得出并不那么靠谱的结论,即使去年爆火的ChatGPT也不例外。
基于归纳推理所得到的知识,不仅不太靠谱,而且还缺乏知识创新,因为它无法获得数据中观察不到的知识。罗素还举了一个显而易见的例子:每天早上观察到日出,是无法证明太阳明天还会升起的。如休谟所说,我们相信明天太阳还会升起,只不过是一个“关联的习惯”。
所以,埃里克·拉森在《造神》这本书中写道:“在没有深入观察规律的情况下,得出‘关联的习惯’是很愚蠢的。”在他看来,我们自以为掌握的知识可能是错的,现在的人工智能也并不智能。 真正的人工智能,必须能像人类一样,可以同时进行三种逻辑推理。这三种逻辑是:演绎推理、归纳推理、溯因推理。
其中,归纳和溯因都可能犯错,演绎虽然靠谱但适用范围有限,因此,三者兼备的智能才堪称“智能”。可惜,现在的人工智能基本都建立归纳推理之上,建立在演绎推理之上的人工智能也有很大的局限性,而基于溯因推理的人工智能则还没有出现,这成了一大盲点。
简而言之,现在的人工智能已经在一条偏离智能的道路上走的太远了,由于其违背了“智能”的底层逻辑,因而注定是一条死路。人们想象的智能时代会很快就会到来的景象,只不过是一场梦。我们低估了人类智能,高估了人工智能。