关于什么是智能,我们目前尚且无法给出一个精确的定义。就像在图灵机出现之前,我们无法对计算给出一个严格的定义一样。在一个无法定义的领域里辩论,自然是“公说公有理,婆说婆有理”。ACM图灵大会的主旨演讲者之一是哈佛大学的理论计算机科学家莱斯利·瓦利安特(Leslie Valiant),他因为在并行计算理论和机器学习理论方面的贡献获得了2010年的图灵奖。他演讲的题目是“什么是可行计算的极限?”( What are the Limits of Feasible Computation?),这为论坛将要展开的讨论提供了理论基础。首先,瓦利安特把计算机科学问题参照物理学分为三个层次:超级普适性(super-generality)、普适性(generality)和数学推断(mathematical consequences)。瓦利安特只是比较了物理学和计算机科学,我们在他的基础上加入了人工智能的维度,以便得到更多的启示。物理学中,超级普适性的体现就是最广义的、永恒不变的、可以表达成数学方程的物理学定律,而在计算机科学中对应的就是计算的理论模型,图灵机就是一种计算模型,当然图灵机不是唯一的模型。物理学的普适层存在着定律,如牛顿第二定律、万有引力定律等;在图灵机的框架下,NP完全理论就是普适性的。大概在瓦利安特心目中,计算复杂性是和牛顿定律一样的存在。在数学推断层,物理学有行星椭圆轨道,而理论计算机科学会有各种具体的NP完全的问题。当超级普适层发生明显的变化时,下面的层次也会依次变化,例如,如果计算模型变成了量子计算机,那么类似的复杂性问题就变成了有限错误量子计算多项式时间(Bounded error Quantum Polynomial time,BQP)之类。
当我们分析不同的问题时,会使用不同的计算模型。丘奇-图灵论题(Church-Turing Thesis)是传统的理论计算机科学的支柱,这个论题断言所有的计算模型都是等价的,也就是说,所有足够强的计算模型都是可以互相模拟的。另一个被默认的论题是中国计算机理论科学家洪加威提出的“相似性原则”( Similarity Principle),即所有足够强的计算模型之间的模拟成本都是多项式的。相似性原则也被称为“强丘奇-图灵论题”或“扩展的丘奇-图灵论题”(Extended Church-Turing Thesis)“强丘奇-图灵论题”不太被提起,甚至被忽视,根本原因大概是这个原则已经变成计算理论的工作假设,大家已经习以为常。近来的理论研究提出了和图灵机可能不等价的计算模型,它们的计算能力在某种意义上超越了图灵机,也违背了丘奇-图灵论题和强丘奇-图灵论题,有时也被称为“超计算”(hyper-computation)。例如,BSS(Blum-Shub-Smale)实数模型和量子计算机等。BSS的“B”就是本次大会的主旨演讲嘉宾之一丽诺尔·布卢姆(Lenore Blum)。在BSS模型上,实数的四则运算可以在单位时间内完成,这类模型可以展现出和图灵机不同的性质,例如,线性规划在图灵机上有多项式时间的算法,但在BSS上的时间复杂性还未知。三层以上神经网络学习问题在图灵机上是NP完全的,而在BSS上和线性规划等价。
量子计算被认为可能违背“强丘奇-图灵论题”。例如,和网络安全密切相关的素数分解问题在图灵机上被认为是难的,尽管还没有明确的证明,但量子计算机上整数分解的秀尔算法(Shor's algorithm)有很大的可能是高效的。BSS作为一个数值分析的理论模型,应该是有价值的,但可否实现则存疑;而实用的量子计算机是有可能实现的。“丘奇-图灵论题”和“强丘奇-图灵论题”更像是物理定律而不是数学定理。计算是游走于数学和物理学之间的学问,关于计算和物理的关系,可见图灵研究专家霍奇斯(Hodges)的文章,以及姚期智为纪念JACM(Journal of the ACM)出版50周年写的文章。
智能的任务按照诺贝尔经济奖得主、心理学家丹尼尔·卡尼曼(Daniel Kahneman)的说法可大致分为两类,一类是能快速反应的,例如计算机视觉;另一类是需要长时间思考的,例如认知与推理。有人说人类更擅长前一类任务,而机器更擅长后一类任务。人工智能的历史曾有符号主义和连接主义的交替,前一类任务更有效的处理方法是连接主义的深度学习,而后一种任务更像是符号主义的使命。但都有例外,例如深度学习尚没有找到自然语言处理的窍门;符号主义在机器定理证明领域,近几年几乎处于停滞的状态。AlphaGo及其一系列衍生程序所依赖的核心算法---强化学习则无法归类到这两派之中,而是自成一派。给人工智能下定义的过程也是一个学习的过程,特别是在没有理论指导下,这样的一个过程尤为艰难,每个泛化推广的企图都会碰到反例。
其实不单单是对“人工智能”难以形成共识,即使对什么是“学习”也很难提出都可以接受的定义。有人说“机器学习”不是“学习”,不过是曲线拟合而已。但“学习”和“拟合”的真正区别又是什么呢?一个可以接受的理论是瓦利安特提出的“概率近似正确”(Probably Approximately Correct,PAC)模型。由亚里士多德开启的传统西方哲学认为,演绎和归纳是对立的,学习就是归纳,归纳必然导致犯错。在PAC模型中,错误被控制在一个范围内。瓦利安特不仅用PAC模型解释学习,还用它解释进化论。当然如果可以解释进化论,PAC模型也就可当作强化学习的某种理论基础,强化学习可以被当作计算进化论。我们从瓦利安特的分层中能够准确的看出,PAC模型是包含在确定多项式时间之内的。
首先,我们回到第一个问题:现状(Reality)。所有嘉宾的共识是:在某些特定的领域,人工智能已经超越人类智能,但当下人工智能还没有全面达到人类智能。
第二个问题:可能性(Possibility)。按照瓦利安特的层次,首先从超级普适层的计算模型考虑,如果人脑的计算能力也可以用图灵机刻画,那么按照丘奇-图灵论题,用图灵机实现人脑功能自然是可能的。按照相似性原则,图灵机实现人脑的功能的成本甚至是多项式的。数学家罗杰·彭罗斯(Roger penrose)曾经联合脑科学的朋友企图找到人脑里存在量子效应的证明。而麻省理工学院的物理学家,畅销书《生命3.0》(Life3.0)的作者马克斯·泰格马克(Max Tegmark)在与本文作者对谈时曾提到他的观点:人工智能有图灵机就够了,不需要量子计算。
假设人脑是量子计算机,那么在超级普适层,仍然可以用图灵机等价的模型实现人类智能,而在普适层,也可以用量子计算机低成本地实现人类智能。这里倒使我们不由自主地提出一个有趣的问题:量子计算机之间是不是存在着相似性原则,换句话说,任意一台量子计算机模拟任意一台量子计算机的成本是不是多项式的?物理学家理查德·费曼(Richard Feynman)在1982年的文章《利用计算机模拟物理学》(Simulating Physics with Computers)中猜测,不大可能用经典计算机有效地模拟量子物理,但可能用量子计算机有效地模拟。物理学家的洞见对数学家和计算机科学家是有益的。如果能够证明多项式时间类P是BQP的真子集,那么相似性原则或者扩展的丘奇-图灵论题就被打破了。按照瓦利安特的层次分类,我们不需要量子计算就能够达到PAC模型学习。瓦利安特似乎更倾向支持泰格马克而不是彭罗斯。理论不仅给工程师们提供解释,也为他们指明方向。
第三个问题:“幻想”(Fantasy),也就是说人脑的计算能力不可能被任何已知或未知的计算模型所模拟。这样的一个问题和第二个问题密切相关,如果对第二个问题的回答是否定的,那自然是Fantasy。假设我们用一种进步的观点看待人工智能学科,我们会承认现在的人工智能比以前更为有力,而未来的人工智能比当下更为有力。跟着时间的推移,人类智能中没有被人工智能所覆盖的部分就是Fantasy。