11 美丽新世界 严肃新问题(第4/7页)

帕里西认为,目前的机器人或者人工智能与人的区别在于,人的思维中包含了动机与认知两种模式。人的任何行为都有动机,比如为了吃喝与生存、为了安全与繁殖、为了荣誉与理想等。而现有的机器人只有认知,无所谓动机,因为它的目的是由人设定的。机器人只是工具,为了满足人的特定需要而存在。

但是机器人可以是人的影子,为此他区分了两类机器人:实用机器人和类人机器人。后者正是科学家需要的。前者只有认知思维,后者却设定了动机,比如设定机器人需要定期获取能量以求得生存。具体做法是在计算机中构造一个机器人程序,可以为它装配饥饿传感器,令它在一定的虚拟空间里寻找食物和水。食物用食物令牌代替,水用水令牌代替,两种令牌分布在不同区域,然后让机器人自主决定获取这些令牌的路线和顺序,找不到就会死亡。以此观察机器人如何做出决定。

同理,可以设定机器人需要规避一些危险令牌以保障安全,需要通过与其他机器人交换编码而产生新的后代(繁殖),甚至设立财产观念、遵守规则的动机等。观察在这些动机的驱动下,机器人如何进化出类人的社会意识、语言、文化、情感乃至艺术和宗教。比如,制造男性机器人和女性机器人,并赋予机器人保护后代机器人的动机,观察它们如何发展出家庭观念和实体。

科学家这样制造的机器人可能没有任何实际应用价值,比如会犯错的机器人,会生病的机器人,会做梦的机器人,会难过、会高兴的机器人……而工具是不应该犯错误、开小差的,这些是人类的特性。在这种思想方法下,制造人工智能的过程不再只是制造服务于人类外在需求的工具,而正是人类了解自己的过程。

这样的研究已经有了一定成果,开拓了过去的心理学、社会学从来没有过的视野。

不过读者可能会看出一点点“危险”,类人机器人会不会最终演化出自我意识?它如何处理与人类的关系?这种研究会被宗教人士看作是一种僭越吗?因为科学家在做上帝做的事情——造人。不过科学研究与宗教不同,本质是对人类自身的对象化研究。生命就是不断地“生成创造”。工具理性问题在这里遇到了新的场景:在机器人内部实现对工具理性的超越。归根结底,这是借助人工智能展开自我反思,同时又指导人类发展人工智能,对我们思考机器人如何融入人类社会,如何参与人类的文化、社会生活都会有丰富启发。

基督教新教把人类看作上帝实现自我意志的工具,而人类的自我反思总是在克服这种工具性。人不应该只是工具手段,人应该是目的和手段的统一,这一点可以在人工智能身上付诸实践。

二十三条军规

为“类人机器人”设定伦理和规则看来也是必要的。

在2017年1月5~8日举行的“Benificial AI 2017”会议上,1980名来自产业、学术和研究界的人工智能相关人士共同制定了“二十三条原则”,宗旨在于确保人工智能的健康发展,人人都能从人工智能中受益。这二十三条原则分为研究问题、伦理价值观和长期问题三个部分。[2]

研究问题方面,提出人工智能研究的目标是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:我们如何使未来的人工智能系统具有高度鲁棒性[3]?这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情。我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?我们如何更新法律制度实现更大的公平和更高的效率,跟上人工智能的发展步伐,管控与人工智能相关的风险?人工智能应该具有怎样的价值观,应该具有何等法律和伦理地位?

其他研究问题包括人工智能研究人员和政策制定者之间应该进行有建设意义、健康的交流;培养合作、信任和透明的开发文化;避免竞赛,避免在安全标准方面进行削减。

伦理价值观方面,二十三条原则提出了很多愿景,包括人工智能系统的安全,故障透明度(如果人工智能系统造成伤害,应该可以确定原因);由机器人做出的任何涉及司法决策的行动都要透明可解释,供主管人权机构审核;设计者与使用者要担起道德影响责任;要确保高度自治的人工智能系统的目标和行为与人类的价值观相一致,尊重人类的尊严、权利、自由和文化多样性;保障个人隐私,不仅人工智能系统能够分析和利用人类产生的数据,人类也应该有权获取、管理和控制自身产生的数据;不得不合理地限制人类真实或感知到的自由。人工智能带来的利益应当是普惠人类的;由人类选择如何以及是否委托人工智能系统去完成人类选择的目标;人工智能的力量应当尊重和改善社会健康发展所需的社会和公民进程,而不是颠覆这种进程;避免人工智能军备竞赛。

长期问题方面,建议在没有达成共识的情况下,避免对未来人工智能能力上限做出较为肯定的假设;通过相应的关怀和资源对其进行规划和管理,应对风险;对于那些不断自我完善或通过自我复制快速提高质量或数量的人工智能系统,必须采取严格的安全和控制措施。

最后一条是“共同利益”:超级智慧只应该为广泛共享的伦理理想服务,为了全人类而不是一个国家或组织的利益而发展。

二十三条原则,这个名字不由让人想起黑色幽默文学代表作《第二十二条军规》,那是一条不可能完成的规则。看起来,这二十三条原则更像是二十三条呼吁,提出的是问题而不是解决方案,代表的是愿望而不是已经实现的现实。其中涉及很多价值观问题,科学家倡导发展机器人要遵循人类的价值观,这是理所当然的。不过这里就会有三个问题:

第一,这里制定的价值观基础在于把机器看作工具,要求人类在使用工具时不得损害人类利益。实际上,在任何工具的使用上,人类都没有完全做到这一点,比如军备。不过确实可以尽力加以限制,比如军备条约。

第二,人们之所以前所未有地郑重其事,是因为意识到机器人不同于以往的工具。普通工具没有生命、没有意识,完全听命于人的操作。但机器人如果具有了类人意识,那么人类怎么对待它们?显然二十三条原则并未考虑这个问题。人类拒绝奴役人类,把人当作工具就是一种奴役,那么对机器人呢?如果人类的价值观就是让机器人做工具,类人机器人会认为这种价值观有尊严吗?