【AI 学习笔记】第四章:GPT热度渐退,原因居然是.....

        距离chatGPT掀起的人工智能风潮已经过去了三个月了,最近除了偶尔的几个关于:xx大厂出了山寨竞品,xx大厂程序员的gpt实战,xx培训机构的gpt教学新闻外,似乎很少有我们吃瓜群众主动提及了。在我的7个大粉丝群和52个地区内推群里,有时候一整天都看不到一句关于gpt人工智能的话了。

    表层的原因很简单,gpt已经被大家玩腻了,能做的事几个月了还是那几个,比如ai绘画,智能问答。而这些非专业性的大众娱乐功能是早晚都要失去热度的,冷静下来的人们发现ai的绘画翻来覆去还是那样,审美早都疲劳了。而智能问答也都是三分钟热度。

    如果想让一个技术长久爆火的话,那能在工作中实际运用起来才是唯一的方式。而恰恰gpt本身的特性决定了在实际专业领域高端场合下的无力。无论是大家以为的代码自动补全,还是函数自动生成,亦或是报错智能解决和技术问题智能回答,都无法真正去解决专业领域的难题,对绝大多数程序员来说就是一个更智能点的搜索引擎罢了。除了让外行人门外汉感叹一下:程序员要失业了!之外,并没有掀起一点风浪。

    这其中让我最伤心和唏嘘的是一件事是这样的:他是一位我关注了很多年的讲经济金融的博主,他关于市场和金融的理论每次都让我耳目一新,我一直觉得他很专业,是位大神,虽然下面评论偶尔会有说他不过是在忽悠外行的神棍。但是我依然坚信他的专业度并且实践了很久。

    而在gpt大火之后,这位金融行业的博主却突然讲起了gpt人工智能来写代码,每天的直播间都声称程序员要淘汰了,人人都可以做程序员,几句话生成一个app等广告话术。并且直播时候各种演示gpt自动写代码,引得直播间数千观众连连叫好,评论一面倒的说程序员要全体失业了。紧接着,这位博主上架了如何用gpt做app的教程,售价大几千...无数外行争相购买。

    当我看到他每天直播间演示的所谓自动生成代码无非就是个计算器加减乘除,或者某个输入框的增删改查后。我再次佩服起了他的经商思维,但是也选择不再相信这位博主了,毕竟吃相难看,说严重点:妖言惑众。我也为我曾经那么相信他而惭愧。

    而上面的例子不过是沧海一粟,可以说,我们现在看到的99%关于gpt的视频其实都是目的性、欺骗性、误导性极强的广告,目的就是割韭菜。比如你看到ai生成小说,生成美图的教程,别人告诉你花钱学会后就可以淘汰画家,淘汰作者,去0成本的赚钱。你信了,花钱学完了。结果发现ai生成的东西在人家专业领域犹如畸形的垃圾一样,被投入深海埋藏。你自然会为之前的自以为是而后悔了。


   虽然被上面那些打小算盘的奸商们利用败坏了AI的名声。 但AI的技术,其实真的是未来。它未来的强大也是必然的,但在目前的时代,依然有一个无解的矛盾,那就是数据量。

    gpt和很多大模型的智能程度,都取决于数据量。你们觉得国内的不如chatGPT的原因,也是因为数据量存在着位面级别的差距罢了,而模型和源码都是几乎差不多的。那这个数据量的问题,在我们具体公司就会放大到成为致命矛盾:

    如果公司选择公共大模型,那么数据量虽然很庞大,但是安全性和专业性是完全不够看的,各种不可靠和垃圾的数据都有可能让公司损失巨大。而公共大模型也永远不可能深度和专业度提高到公司可以直接使用的程度,否则公司的技术护城河消失,人人都可以做竞品,那么利益就会消失,公司就会倒闭。所以公司会不断提高要求,让公共大模型永远都追不上的要求精度。

    如果公司选择本地化小模型,那么以公司仅有的那点可怜的内部数据来看,训练出来的AI那基本就和智障差不多了,不但浪费巨大人力物力,而且效果奇差,甚至不如花这些钱请几个实习生靠谱,还能解决就业问题,承担社会责任。


    

    所以目前来看,未来的发展方向,应该会是以下三种:

    1. 公司采用公共大模型和本地小模型结合的方案,数据的输入和解析和结果集合,由公共大模型来解决。但是最终的结果选择这点活儿,由本地化小模型来选择。

    2. 公司升级本地小模型,手动的插入很多算法和分类进行影响,提高精确度。比如我之前设计的POT矩阵一样,虽然数据少,撑不起来完全的AI,但是经过矩阵的分类和干预,相当于半AI,也可以极大的提高准确度。

    3. (培训课程内保密中.... 等待保护时间过后可揭秘)

    综上来看,各位也不用太过恐慌了,gpt自然语言模型热度已过....

    大家该干嘛干嘛吧,还是学学传统的ai测试技术吧。

猜你喜欢

转载自blog.csdn.net/qq_22795513/article/details/131205360
今日推荐