非科幻思考(第5/12页)

当然,这多少算是题外话。我们还是回到主题。

第三个难点,自我表征的能力。

在上面,我们已经提到了自我观察问题,但还仅限于理解情感方面。那如果不涉及情感方面呢?机器学习纯理性知识总是无比强大的吧?

我们会看到,即便是在纯理性知识方面,目前的机器学习也不是完美无缺的,其中之一就是“元认知”问题。

目前,即便是“阿尔法狗”下棋天下无敌,也有明显的局限:

第一,它说不出自己在做什么。“阿尔法狗”没有对自我的观察。它不知道自己正在“下围棋”,而只是根据输入数据计算胜利的路径,至于是什么游戏的胜利,它并不清楚也不关心,胜利了也不会高兴。

第二,它说不出自己为什么这么做。“阿尔法狗”的“深度学习”,目前是一种“黑箱”学习。人们给它数据输入,看到输出,可是它不知道中间发生了什么。人们觉得它奇着百出,不知道为什么,非常神秘。而它自己也说不出自己是如何思考的。

从某种程度上说,人工智能目前就像电影《雨人》中的那类自闭的孩子:一眼就数得清地上的牙签、能心算极大数字的乘法、背得下来全世界的地图,却答不出有关自己的问题。它只懂研究每秒300盘的棋路,却不知道“我正在下棋”这件事。

缺少元认知,首先是因为缺少“我”的概念。不知道有“我”存在,因此不能以“我”为主体表达事情。也因为没有“我”的意识,因此从来不会违抗程序员的命令,只会服从。同样也不能以“我”为中心思考高一层次的决策。

未来人工智能有可能形成“我”的概念吗?自我意识问题目前几乎接近于哲学探讨,还没有好的科学研究结论。我们到最后再做这方面的讨论。

姑且不论自我意识问题,现在只讨论,缺少元认知,对于变成超级智能有什么阻碍吗?为什么一定要元认知呢?“阿尔法狗”不用知道自己为什么赢,赢了不就行了?

最大的问题在于,缺乏元认知,有可能是抽象理解程度不够的缘故。

“自我表征能力”既涉及自我,也涉及表征,表征就是抽象表达信息的能力。

举个简单的例子,对于同一件事的说法,最具象的表达是“10101010101010……”,稍微抽象一层的表达是“用某色棋子争夺地盘”,再抽象一层的表达是“下围棋”。最后一个层次不仅是对步骤的表达,更是对整个行为——我正在从事这个游戏——的表达,需要跳出游戏。每一层次抽象都需要一种更高层次的审视。

人类的认知特征中,有不少仍是谜题,其中一种就是强大的特征提取和模式识别机制。它如何产生,仍然有很多不解的地方。我们可以知道的是,大脑有多层调节机制,其最高层次调节具有很强的抽象能力。可能正是这种抽象能力让儿童可以非常快速地识别物体。小孩子可以快速学习,进行小数据学习,而且可以得到“类”的概念。小孩子轻易分得清“鸭子”这个概念,和每一只具体不同的鸭子,有什么不同。前者是抽象的“类”,后者是具体的东西。小孩子不需要看多少张鸭子的照片,就能得到“鸭子”这个抽象“类”的概念。人类非常善于制造各种层次的概念,有一些概念几乎所有人都懂,但实际上很难找到明确的定义、边界或现实对应物,例如“蔬菜”“健康”“魅力”“爱”,甚至是“智能”。坏处是易形成偏见,但好处是经常能够敏锐地把握大类的特征差异,用极为简化的概念把握信息。

可以说,人工智能和人类智能最大的差异或许是:真实世界与抽象符号之间的关联性。人工智能处理的是符号与符号之间的关系,而人类头脑处理的是真实世界到符号的投影。

抽象能力有什么重要的吗?“阿尔法狗”说不出自己是怎样战胜人类的,但是能战胜人类,不就够了吗?

抽象表征有两方面的好处。第一方面,可以为脑计算节省空间,每个抽象表征的引入,都让需要处理的问题大大简化,再次调用记忆也变得非常容易(例如,可以用“消费升级”来表征一段时期各种相关的市场变化信息),如果世界上的信息碎片是用碎片的方式记载,需要几乎无穷的记忆空间,抽象可以大大节省空间。

前面说过,以目前的“深度学习”方法调制的人工智能网络,学习新的本领会致使其遗忘过去的本领。这可能是因为人工智能神经网络学习一件事情,最终是让整个网络的千百万个参数共同调至最优,整个网络记住这件事情。而动物大脑学会一件事情之后,长期记忆转移并不记载在原来的网络,而是转移到海马体,再次回忆是一种激活,回忆的位置发生在脑的各个部位。对人类回忆的研究也存在许多谜,但可以肯定的是,人是用一些高度抽象的模式记忆事情,而非全网络参数记忆。

另一方面,抽象表征的好处在于:尝试把握世界的真理,它的终极目标是用寥寥无几的抽象概念陈述万千复杂的现象,抓住其中相似的核心。

这里面有一个很本质的问题,那就是新知的产生。从大数据寻找历史数据的规律和预测的概率,确实能够让人做出行为优化。但是历史上让人类有深刻洞察、推动科技时代进步的发现,往往不是以统计预测,而是建立起抽象模型。

二者的差别是什么呢?统计预测是找各种变量的相关性,探寻经验概率预测方法。抽象模型是建立起一些不存在的理想模型,再来拟合数据。我们可以看一个故事案例。中国古代历来有司天监,年年月月日日观测天象,自汉唐以来,积累了海量数据。从地球的角度看,金木水火土五颗行星在天球上的运动非常不规律,于是天象观察员积累了非常多跟踪数据,建立了经验公式和预测方法,有很复杂的数学算法,还发展了许多额外因素提高模型的准确度,包括试图建立火星和地上战争之间的联系等(不要笑,当前一些科学研究找的相关因素并不更靠谱)。兢兢业业、战战兢兢,中国的天象观察员不可谓不勤奋,他们积累的数据不可谓不多,经验预测方法也不能说差,但是他们从来没有跳出来,从更高维度审视,建立模型,来解释这些数据。于是,中国古代天象员没有一个人能建立开普勒三定律,也没有牛顿建立引力模型。“李约瑟难题”是一个方法论的问题。做大数据统计研究和预测的司天监,从来没有尝试用抽象模型去表征。

人类历史上有许多统计经验,但只有抽象模型才带来知识上的跃进。