2021年4月24日,复旦大学泛海国际金融学院金融EMBA 2019级“蜕变之旅”课程以“人工智能的未来有多么乐观”为主题,邀请到复旦大学哲学学院的徐英瑾教授做客分享。
徐英瑾教授的研究领域为人工智能哲学、认知科学哲学、维特根斯坦哲学与日本哲学。其代表作《心智、语言和机器》(2013年,人民出版社)是国内目前最全面深入的关于人工智能哲学的研究著作。徐英瑾教授也是2018年“世界哲学大会”人工智能分会场主席。
课程中,徐英瑾教授首先介绍了目前关于人工智能技术发展现状的三种主流态度:
乐观论:人工智能现存的问题可以随着技术发展慢慢解决,人类可以掌控越来越强大的人工智能。
悲观论:随着人工智能的发展,它们终将消灭人类,人类对此束手无策。
泡沫论:现阶段对人工智能的宣传远远超出了它实际所能达到的结果。
纵观三种主流的态度,徐英瑾教授从哲学研究的基本任务出发,阐述分析了人工智能的本质和实现方式,且认为人工智能技术的发展并没有想象的那么乐观。
1950年,阿兰图灵(Alan Turing,1912-1954)第一次正式提出“人工智能”的概念。1956年,在美国达特茅斯学院(Dartmouth College)召开的会议上,“人工智能”这一术语正式提出,这也标志着人工智能的诞生。
对于“何为智能”这一问题,不同的解答往往会导致截然不同的技术路径。徐英瑾教授认为,在当下社会生活的很多领域,很多与计算机相关的、用到数据科学和信息管理的事物往往就被称为“智能”或“智慧”,这实质是对“智能”的误解和滥用。能够称为“智能”,不仅是因为自动化的处理能力,更是根据特定环境的改变而改变特定程式,然后采取行动。而对智能和灵活性关系的把握,并不是大多数程序所能做的。
同时,智能这个概念不是一个清楚外显的定义。我们不能说某些东西是智能,而只能说某些行为和行为方式的组合具有智能的印记。加之我们讨论的不是人类智能,而是人工智能,这就需要一个比较宽泛的“智能”定义,把人类的和机器的智能都涵盖进去,目前不是人类现有的任何科学能够解决的。
在很多人看来,人工智能是一个工程技术色彩浓郁的领域,哲学研究则高度思辨化和抽象化,二者之间应当是风马牛不相及的。但徐英瑾教授认为,人工智能研究的最终目的是要造出一台能够执行人类大多数任务的机器,它需要解答“智能”和“人”的意义,而解答这两大意义恰好就是哲学的问题。
徐英瑾教授将哲学工作的特征归结为三条:
第一,哲学要做的第一件事是思考大问题,澄清基本概念。与哲学家相比较,一般的自然科学家往往只是在自己的研究中预设了相关问题的答案,却很少系统地反思这些答案的合法性;
第二,哲学在不同学科的研究成果之间寻找汇通点,而不受某一具体学科视野之局限;
第三,哲学重视论证和辩护,相对轻视证据的约束。
正因为哲学的这些特征,使其具备了回答人工智能核心问题的能力。
典型的AI可以分为两种:符号人工智能(Symbolic AI)和深度学习(Deep Learning)。符号人工智能就是把人类处理问题的过程用逻辑进行固定,并画成流程图,写成程序。它的优点在于每一步决策可以回溯,每一个错误可以进行纠正。但是如何有效地把专业知识按照合理的逻辑编码传达给人工智能,这是符号人工智能的最大瓶颈。徐英瑾教授举例,有公司在研发超级医学诊断机器,如何兼顾不同医学流派的分歧?如何根据不同病情作出诊断?新的疾病如何应对?这些问题无法被罗列穷尽、写成程序。
深度学习vs人类学习
深度学习是作为人工神经元网络技术的升级版而出现。它需要大量的训练样本,进行假设、验证、失败,之后再建立新假设,最终找到输入和输出之间的数理逻辑关系。通过大量数据的训练获得完成目标的能力后,人工智能的运算过程对于人类来说还是一个“暗箱”。
为了进一步解释这个问题,徐英瑾教授谈起这几年风口浪尖上的自动驾驶技术。我们分析国内外一些车祸事故发现,人工智能会将一些人类永远不可能分辨错误的事物误认,例如对货车运送的白色货物熟视无睹,导致追尾事故,甚至将人类误认为是自行车。这是因为深度学习是根据事物的底层特征而不是人类的常识来进行判断。
深度学习的问题还在于缺乏跨领域的学习能力。譬如,专用于人脸识别的深度学习框架不能直接用于下围棋,而专门用于下围棋的深度学习框架不能直接用于下中国象棋。同样的道理,用于人脸识别的训练样本对下围棋的训练样本也是无效的,因为二者的编码方式或许从头至尾都会有巨大的区别。
对于同学提出“人工智能在养老和家庭护理上的应用是否会有突破”,徐英瑾教授认为,“没有套路的事情是最难的。不管是语言的识解,还是家庭场景的工业化,很难有一个完美的系统来处理这样复杂的问题。所以,做家务的难度要远胜于下围棋。”
在课程中,金融EMBA项目的同学们积极提出了自己对人工智能的看法。
对于同学“人工智能是否会产生情绪”的问题,徐英瑾教授认为,正如人类有着对死亡的恐惧,理想的人工智能也应该有“畏死”这样的基本情绪。AI语境中的“死亡”是指系统自身的记忆的“清零”。倘若某种会对系统的运行历史之安全性构成威胁的环境挑战出现了,系统的“畏死”情绪机制就自然会被激活,而由此调动所有的认知资源来回应该挑战,以便捍卫其记忆库的安全性。
譬如,微信如果“畏死”,就应该懂得保护用户的数据和隐私,因为隐私的丧失就是人工智能的“死亡”。如果有这样的畏死机制,那么这些APP的隐私保护政策就不会是一个临时的、聊胜于无的隐私保护模块。如果未来人工智能的设计思路能结合认知心理学研究加入人工情绪等新要素,它将与今天的人工智能有巨大的差异。
毫无疑问,人工智能在未来对于人类社会结构将产生重大影响。比如,正因为机器都是人设计的,所以人工智能在未来很有可能是人类特定文化的代理和放大器。从这个意义上,徐教授认为人工智能和人类之间并不存在“谁毁灭谁”的问题,其中更根本的是一部分人类和另一部分人类的问题。
课堂上,也有同学提出了很具“存在主义”色彩的提问。比如,有一天当算法高度发展到可以精确地基于个人的特质和各种习惯偏好,在诸多人生重大选择面前为“主人”提供“最优选”的时候,人类应该何去何从呢?问题的答案显然不是纯技术的,而且关乎算法化下的隐私剥夺、人类深度思维能力丧失的风险,人类本身的情感能力的发展,以及我们已有文明中对于人的能动性和主体性的哲学思考等。也正是对人工智能的哲学思考,在此类重大影响或将成真的未来到来之前,为我们留下了反思“人工智能”的空间。