人工智能“能” “不能”

国家政策利好,民间资本追捧下,人工智能一股气吹成了一个大风口。不少人言必提及,外能刷格调,内可提自信……做人工智能的公司更是雨后春笋,PR倒是天花乱坠,但实际到底是人工还是智能,谁做谁知道。

对人工智能的态度保守者认为不过是又一轮潮流而已,毕竟也不是第一次了;激进者则认为机器不日可统治人类,下一个“吓尿单位”指日可待。但是不讲逻辑的炒态度,都是耍流氓。咱可以理性聊聊,人工智能能不能?(请注意:这里说的都是弱人工智能,也就是这些年发展火热的机器学习、深度学习等技术。)

从某种意义上说,目前的人工智能只是一种函数拟合,考虑了概率的函数拟合。尤其目前火热的神经网络更是如此。只不过这个函数可以非常复杂,复杂到足以拟合任何函数。显然,为了达到这个拟合函数的复杂性,它必然需要有非常多的参数,几千万、上亿个参数都有可能;而为了获得这些参数的数值,就需要极大数量的样本来训练。这些年人工智能浪潮的兴起,很大程度上是因为找到了可以有效训练这些复杂函数的方法,并且可以获得用以训练这些复杂模型的足够多的数据。当然, GPU 等高性能计算力的普及也功不可没。

既然是函数拟合,就存在着局限性,它只能尽量拟合训练样本涉及到的函数部分或者说规则。当然,考虑到“奥卡姆剃刀”原则,科学家们也在想尽办法泛化这些函数或规则;但同时还有一个 “No Free Lunch” 原理,针对无限空间中的有限数据,就不可能无限泛化下去。

假如以上内容你看不懂,请记住这个简单逻辑——可以认为,目前的弱人工智能存在着无法解决的问题(本质上就是泛化问题):不会处理训练样本范围之外的样本。或者说:不会处理学习到的规则之外的样本。也就是说,不管问题有多复杂,只要规则明确、范围受限,那人工智能就有可能解决;反之,则可能困难重重。

基于这个原则,我们来看看这些年大出风头的 AlphaGO 。为什么它能解决传统上“不可能”解决的围棋问题?原因很简单:毫无疑问,围棋再复杂,也是有规则的、有边界的。历史上传统的遍历算法和落后的计算力导致了这个问题的 无解 。而 Google 摒弃了简单的遍历算法,引入了概率,优先遍历高概率的分支;至于各分支概率的评估,则是应用机器学习算法完成的。这样一整套完整的系统,使得 Google 实现了围棋软件由 不可能 可能

那么用上述原则,对同声传译和开放道路的自动驾驶这两项应用进行评估,我个人并不十分看好。

同声传译,人们的口头语非常多,口语的语法习惯也非常多变,甚至口语的错误也很多,这是口语和书面语很不一样的地方。预先训练的人工翻译机不太可能遍历所有规则,包括人们口头可能犯的错误规则。这就意味着,在实际工作中,一些不常见的口头语或者文字、语法错误,对于人类来说,很容易识别,但对于翻译机来说,很可能就会犯错。 --这就是规则不明确。 当然,我这里说的是严肃场合的同声传译。如果我们降低对翻译机的预期,同时,尽量规范输入,那结果应该也是能接受的。

自动驾驶,这几年炙手可热。但是,我不看好开放道路的自动驾驶,原因基本同上:道路状况几乎没有边界。不管自动驾驶软件在商用前跑了多少万、多少亿公里用于训练,也不可能遍历公路上的所有情况, 即范围不受限 ;商用后,遇到异常道路场景,就可能出现难以预测的结果。考虑到自动驾驶一旦出现意外便可能导致严重后果,人们对于自动驾驶的容忍度会很低。即使从统计上说,自动驾驶可能使得社会总体事故比例降低,但从个人角度来说,也想把自己的命运掌握在自己手里,而不是放到所谓的人工智能上面。概率上的万一,落到个人头上就是百分百。当然,也不是对自动驾驶马上就判了死刑,在封闭可控道路环境下,预计自动驾驶会有相当广泛的应用。同时,通过一些类似于 刹车优先 的高优先级安全措施,牺牲一部分用户体验换取更高的安全性也是自动驾驶初期必须考虑的因素之一。

其余人工智能应用皆可用此基本原则做评估。不一一讨论。希望以上基本判别原则可以有助于识别人工智能的应用场景,拂去泡沫,露出真金。总的来说,技术要商用可能更考验的是和垂直场景的结合,是否能通过限制场景、降低预期解决范围不受限和规则不明确问题。

对了,最后说一句,涉及概率的部分是人工智能技术的精华,也是 知其所以然 的重要组成部分,而现在的人工智能快餐培训基本都忽略了这部分内容,变成了生搬硬靠套公式,简直就是人工反智能。
 

猜你喜欢

转载自blog.csdn.net/foreseerwang/article/details/80531756