朋友,承认吧,你可能根本不懂 ChatGPT

© 2023 Conmajia

在这里插入图片描述
人工智能在各个行业的采用率都在上升,强大的语言模型 ChatGPT 似乎成为了一种特别受欢迎的业务开发工具。Chat 表示这是一个聊天机器人,GPT 是“Generative Pre-Training”预训练的缩写。然而,似乎多数使用者因为对方可以“拟人化地聊天”这一特性,就忽略了 ChatGPT 仅仅只是一个“语言模型”,并不存在智能。

没错,朋友,基于大模型预训练的 ChatGPT 尽管被奉为人工智能发展的集大成者,地位无限拔高——但是,它并没有智力。有人通过 ChatGPT 生成的对话内容具有相当程度的连贯性和相关度,以及行文之间具备一定的逻辑条理(实际上更像是八股文格式),得出了它“拥有智慧”的印象,觉得对话的另一方是通过思考而产生的反馈。令人遗憾的是,ChatGPT 更像是一只兼听天下的学舌鹦鹉,脑子里存有很多人类话语,而且可以根据外界输入,鹦鹉学舌般说出“听起来像人话”的声音,而这只鹦鹉本身却完全不明白这段对话的意思。这一点很容易证明,只需要阅读 GPT 开创者 Alec Radford 等人1在 2018 年发表的世界上第一篇关于 GPT 的学术论文即可:论文链接。图 1 是该论文关于 GPT 的模型示意,谁能硬吹这个设计里除了研究人员的“人类智慧”,还有一丁点儿的“人工智能”吗?

关于论文内容的使用,笔者已获 Alec Radford 本人授权。—— Conmajia

图 1. (左)变换器架构和训练目标。(右)对不同任务进行微调的输入转换。我们将所有结构化输入转换为令牌序列,由预训练模型处理,然后是线性 + softmax 层。

事实上,根据其底层核心设计,ChatGPT 对于对话“输入”的分析和处理,并不是人们想象的“像拥有智力的人一样去领悟和解释对话”,而是通过大量数据训练并提取特征,以语义、语法、词法等语言学方法结合大模型“合成”“看起来像是人话”的对应内容作为相应输出。尽管根据生成模型 ChatGPT 可以“创造”出样本中并不存在的东西,比如“一只在月亮上弹钢琴的大象”,但是本质上还是基于模型和预训练特征的文字生成偏差——简单来说,这仍然是鹦鹉学舌。

另一个认识上的误区在于很多人错误地认为 ChatGPT 给出的结果是准确可靠的。显然,这是不可能的。且不说它的训练样本来自互联网,互联网的数据准确性和可靠性,懂的都懂。即使一开始的样本是准确可靠的,但是经过提取特征和文字合成之后,其生成的也不一定是准确内容。对于需要计算的内容,很多人容易误会 ChatGPT 能够计算,比如 1 + 2 = 3 1+2=3 1+2=3。它当然可以回答这样的问题,甚至更复杂的数据结果它也能给出。但其底层逻辑更多的是(举个例子):“学习过 1 + 2 = 3 1+2=3 1+2=3,所以被问到 1 + 2 = ? 1+2=? 1+2=? 时应该回答 1 + 2 = 1+2= 1+2=某个数字( 3 3 3 的概率最大)”,而不是普通人认为的内置有计算模块——这是语言模型,不是数学软件。如果你靠它帮你计算结果,亦或是现在流行的“让人工智能帮你写代码”,我祝您好运。

很多人没有了解过 ChatGPT 的底层实现方式,只看到它“似乎”能生成大量“看起来正确的”结果,便认为 ChatGPT 太强大了,人工智能什么的马上就要取代人类了。其实,ChatGPT 能取代个屁的人类,一个语言模型是没有传统意义上人类所具有的创造力的,所以你到底在指望些什么?也许未来会有添加了“思维”模型的人工智能加入,但是,它不依然是“人工”智能吗?


  1. 马孝子别再吹马斯克发明全世界了,尬不尬啊? ↩︎

猜你喜欢

转载自blog.csdn.net/conmajia/article/details/130590410