人工智能三大悖论

      近年来人工智能的火爆兴起,特别是自AlphaGo Zero无须知晓人类围棋经验,自我博弈40天就称霸世界,又一次引起人们对计算与智能的反思与追问,至少有三个问题面临相互矛盾的要求,我们成为人工智能的三大悖论。
      莫拉维克悖论。莫拉维克等学者研究发现:实现人类独有的高阶智慧只要非常少的计算能力,但是实现无意识的技能和感知需要极大的运算能力,也就是说,“困难的问题易解,简单的问题难解”。这个悖论可能反映了图灵机模型的局限性,需要提出更适合感知计算的新模型。实际上,图灵的奠基性论文中还定义了C-机(选择机)和u-机(无组织机)作为描述思维的模型。但1960年以后,图灵机从说明不可计算性逐步演变成解释可计算能力的模型,人们已逐渐忘记图灵机模型的局限性。
      目前流行的计算机都是基于图灵机模型的冯 · 诺伊曼架构,冯 · 诺伊曼发现模仿神经网络设计计算机这条路走不通,从第一台电子计算机开始,计算机的发展就与模拟人脑分道扬镳,使得用计算机实现人工智能的方式与人脑的思维机制几乎不沾边。现在一分钱可以买到1万个集成电路上的晶体管,集成电路与软件已积累难以估量的物质财富,形成巨大的惯性。发展人工智能既要考虑计算机产业的巨大惯性,又要视图突破图灵机模型的局限性,这是我们面对的第一个困境。
      新知识悖论。人们常说大数据和机器学习是从数据中发现新知识,AlphaGo Zero 无师自通也说明在计算机上做统计学习可以学习到人类还未掌握的围棋知识。但从事计算机科学研究的学者认为:计算机是机械的,可重复的智能机,本质上没有创造性。计算机的运行可以归结为已有符号的形式变换,结论已经蕴含在前提中,本质上不产生新知识,不会增进人类对客观世界的认识(在CNCC的会士论坛中,林惠民院士就谈到了这样的观点)。机器学习学到的知识都事先蕴含在运算前的软件中吗?机械的、可重复的计算究竟如何产生出新知识?这些知识都只局限在“知其然不知其所以然”的水平吗?这也是令人困扰的问题。
      启发式悖论。 启发式搜索是人工智能最基本的技术,与互联网的“尽力而为”原则相似,启发式搜索不能保证找到解或保证解的精确度。本期的译文《人工智能的真正风险》给出警告:采用启发式算法创造出智慧幻觉的设备会带来一些我们无法接受的风险。丘成桐教授在CNCC大会上也指出,人工智能的理论基础非常薄弱,需要一个可以被证明的理论作为基础。但是,人工智能处理的大多是NP-hard问题,很可能不存在精确的多项式算法。一旦找到类似F=ma的精确公式,这个问题也就不属于人工智能问题了。我们必须高度重视启发式算法的风险,但用传统的工程科学来要求人工智能似乎不太妥当,需要另辟蹊径。
      经过60年培育,人工智能已长成硕果累累的大树,我们不能只是拼命地摇晃这课大树,在地上捡到一些零星的果实,而是要怀抱对未知的认真和谦恭,多种几棵新苗,解决这些悖论问题。
【转自中国计算机学会通讯 第13卷 第11期 总第141期 2017年11月】

猜你喜欢

转载自blog.csdn.net/AE86JayChou/article/details/80848715