AI 是一个大谎言

  人工智能是一个很大的谎言。

  或者往轻了说,它是一个混淆概念。往重了说,是用来欺骗大众的流行语,并且流行度非常高。

  其实真正的内涵是“机器学习”。所以,真正强大的,每个人都应该为此感到兴奋并不是所谓的人工智能。

  另一方面,人工智能确实为一些好玩的段子提供了特别棒的素材。所以,戴上你的质疑之帽,是时候来一场人工智能版的“揭秘之旅”了!

  施瓦辛格的两个标志性角色:幼儿园警察和终结者。

  在阅读本文之前,需要明确三点:

  1、与AI不同,机器学习完全合理。虽然获得了令人兴奋的进步。然而,这些进步几乎完全来自于有监督的机器学习,其只能解决有很多标记数据或实例数据的计算机学习问题。这种形式将机器学习局限在了非常有限的范围。

  2、AI什么都不是。AI只不过是一个品牌,一个强大但空洞的承诺。“智慧”的概念完全是主观的,本质上来自于人类自身。

  那些支持人工智能有无限可能的人,包括比尔盖茨和埃隆马斯克,都有同样的假设:人工智能的发展是一条单行道。他们表示,技术的进步推动着我们沿着这条单行道发展,直到计算机达到人类级别的智能。其实,即便这样,这条单行道的关键点也是“带标签的数据”。我们正在快速前进,但是朝着不同的方向发展,唯一可以确定的是,只有在一个非常特殊、有限的能力范围内才能取得进展。

  3、AI不会杀了你。科幻片中所描述的机器人灾难其实是“鬼故事”。机器将按照自己的意志升级并消除人性的想法没有任何价值。

  胜利的神经网络

  在电影《终结者2:审判日》中,机器人说:“我的CPU是神经网络处理器,一台可以学习的计算机。”机器人所说的神经网络实际上是一种机器学习方法。更准确的说是一种描述复杂数学公式的方法。

  神经网络真的可以完成很多不可思议的事,运用它可以进行图像识别。通过机器学习,计算机基本上已经可以通过编程来独立完成这项工作。就其本身而言,它已经能够确定要寻找的模式或视觉特征的细节。机器学习实现这些目标的能力令人敬畏!

  神经网络的最新改进被称为深度学习。它使得物体识别的准确度大幅度提高。深度学习通过增加更多神经网络层使学习更加深入。

  具有四层的简单神经网络的体系结构

  机器学习需要标记数据

  因此,随着机器在人性化任务中表现得越来越好,这是否意味着他们变得越来越聪明,越来越智能化?

  不。它可以真正地、出色地完成某些任务,但只有在有正确的数据可供学习的情况下才可以。对于上面讨论的目标识别,可以通过从大量打标签的照片中学习做到这一点。因为,其中目标已经被正确标记。

  深度学习需要这些打标签的数据。这称为有监督的机器学习:当有预先标记的训练数据时,学习过程由标记的数据引导或“监督”。

  它不断调整神经网络以使它在这些数据上做得更好,然后逐个改进,这是学习过程。神经网络改进或“学习”的唯一方法是通过在那些标记的数据上进行测试来实现的。没有标记数据,神经网络就无法知道改进的正确与否,也就不会知道在这个过程中要坚持哪些改进。

  《危险边缘》上的沃森

  这是另一个例子。2011年,IBM的沃森在电视智力竞赛节目《危险边缘》中击败了两届人类冠军。

  准确地说,计算机并不能真正听懂问题,而是将每个问题转换成文本输入。但是,考虑到《危险边缘》游戏中的问题都是基于人类的习惯而设计的,采用了复杂而巧妙的措辞,并且涵盖了各种对话场景,而沃森能够一口气答对一个又一个问题,不得不承认,它是非常棒的“类智能”物体。

  但是,需要说明的是,沃森之所以能够如此聪明,是因为它事先通过大量有标签的样例问题进行了学习:它的学习样本是从过去多年来电视问答节目上采集的25000个问题,且每个问题都给出了正确答案。

  其实,最核心的技巧是把每个问题转换成“是/否”的预测结果。对诸如“某某是这个问题的正确答案吗?”的问题,回答“是”还是“否”。

  如果你能回答一个这样的问题,那么就能回答所有类似的问题,你要做的只是不停地尝试上千种选项直到有足够的自信回答正确。举个例子,“亚伯罕·林肯是美国的第一任总统吗?”不是。“乔治·华盛顿呢?”是的!现在,机器就对这个问题有了自己的答案并且能够回答出来了。

  能像人类一样交谈的计算机

  同样,语言应用的另一个领域也需要大量的标签数据,那就是“机器翻译”。机器学习是通过学习大量有标注的数据实现的,例如英文翻译到日文的过程,计算机会学习到英文标注的语句文本,以及每个语句对应的日文翻译。

  近年来,每个人都能在线使用的谷歌翻译,通过深度学习驱动的架构取代原来的底层方案,实现了翻译质量的进一步改善。

  另一方面,掌握像英语这样的自然语言是人性化的标志,但也仅仅是人性化。对于我们的“硅谷兄弟姐妹”来说,如何流利地说出自然语言仍然是一个问题。而当我们人类理解别人的话时,在所有的单词以及一些逻辑语法规则的表象下,往往带有“常识和推理”。如果没有这个人类特有的技能,你就无法使用语言。

  所以,人类和计算机交谈的希望和梦想会终将破灭。因为,很不幸,没有“像人一样交谈”这样的标签数据。你可以针对一个受限的、具体的任务获取正确的数据,像电视问答,或者回答一些人们希望Siri回答的有限范围的问题。

  但是,“像人一样交谈”的一般性概念是一个无法被很好地定义的问题,计算机能够解决的只是能够被准确定义的问题。

  所以,我们无法利用机器学习实现我们在很多科幻电影里看到的那些能够正常交谈的计算机,像终结者,或者星际迷航中友善的飞船电脑。你可以用英语和这些机器交谈,就像和正常人交谈一样。这很容易,你只需要成为科幻电影里的人物就行。

  出自电影《2001太空漫游》

  智能是主观的,所以AI没有真正的定义

  现在,如果你觉得自己对人工智能还不够了解,那你错了。其实没什么好了解的,因为它很不真实,没有任何有意义的明确定义。人工智能作为一个领域,只是一个被幻想存在的东西而已。作为一个假定的领域,人工智能有许多矛盾的定义,其中大部分可以归结为“智能计算机”。我必须提醒你,不要在字典里查“自我参照”(self-referential),否则会陷入死循环。

  “蝙蝠”电脑

  如果有些定义真的可能的话,它们比“智能计算机”更让人摸不着头脑。它们只是直截了当地在AI的定义里使用了“智能”这个词而已,比如“由机器展现出来的智慧”(intelligence demonstrated by a machine)。

  如果你认为这些定义里存在更深的隐含意义,那么可能会让你惊讶,因为并没有。无法解释“智能”是一个多么主观的词汇。对于计算机与工程行业来说,“智能”可以是一个任意的概念,和任何精确的目标都不相关。所有试图定义AI的行为都因为无法解决模糊性而失败。

  令人困惑的是,在如今的实践中,“智能”这个词被作为机器学习的同义词使用。但是就人工智能本身的定义而言,大部分提出的定义都是以下三种定义的变体:

  1、人工智能是让计算机像人一样思考,模拟人的认知。现在,我们对自己的大脑任何运转尚且知之甚少。而试图通过一个神经元接一个神经元的复制大脑,就如同科幻小说中用到“倘若”这个词一样,纯属白日做梦。内省(当你思考自己如何思考的时候)是一件有趣并且重要的事情,但是最终我们也无法得知自己的头脑中究竟发生了什么。

  2、人工智能是让计算机像人一样行动,模拟人的行为。想象一下它像鸭子一样走路,像鸭子一样交谈……但是,它不会,也不可能会。我们太过复杂以至于我们无法完全理解自己,更不用说将这些理解转换为计算机代码了。此外,让人们误以为聊天室里的电脑是一个正常人(也就是人工智能领域著名的图灵测试),在这个定义里就变成了一个不成熟的论断。因为机器是一个移动的目标,正如我们人类会通过辨别用来欺骗我们的行为才能变得更聪明。

  3、人工智能是让电脑解决困难的问题,让它们真正能够完成那些看起来需要“智能”或者“人类级别的能力”才能完成的任务,比如驾车,识别人脸或者下棋。但是,既然计算机能做这些事情,那这些事情就看起来不那么智能了。计算机能够做的所有事情仅仅是那些机械的,容易理解的并且行为简单的工作。一旦计算机能够做到这件事情,它就不会再给人留下很深的印象了,自然也就失去了魅力。计算机科学家拉里·特斯勒建议将“智能”定义为“机器还不能做的事情”。这听起来像在开玩笑,因为这是在用一个不断变化的定义去定义本身就不存在的东西。

  相信人工智能的必然性的谬论  大连妇科医院排名 http://yyk.39.net/dl/zonghe/f9a8f.html

  事实是,“人工智能”本身就是一个谎言。只要使用这个流行语,就像在说技术的进步正在向人们预料的方向发展。为了获得像人一样的“常识”,这是一个非常诱人的目标,但也只不过是一个不切实际的承诺。

  你是独一无二的,你抽象思考的能力和理解周围世界的能力,在每时每刻的经历中,你可能会觉得非常简单,但其实它复杂得我们无法想象。这种简单的体验,可能是因为人类独特的大脑对这些的感受已经非常熟练了,也可能是因为人类固有的错觉,或者两者兼而有之。

  现在,有些人可能会回应,“没有灵感的时候,有远见的雄心是一件好事吗?

  想象力鼓励了我们,未知的世界向我们招手!《2001太空漫游》的作者亚瑟克拉克提出了一个很好的观点:“任何足够先进的技术都与魔术无法区分。”

  然而,这并不意味着我们可以想象的可能包含在科幻小说中的“魔法”最终都可以通过技术实现。因为它在电影中存在并不意味着它会发生。


猜你喜欢

转载自blog.51cto.com/14195265/2352129