AI在24年依然会是突飞猛进的一年,24年一些趋势比较明显,有些会是应用上的突破,有些会是技术上的进步,这些特点总结了一些,也欢迎大家在留言中补充自己认为比较重要的24年 AI趋势点。
趋势一 应用认知年
如果说2023年是模型认知年,从ChatGPT开始,国内外出现了大大小小的模型,从LLM到多模态模型,且都基于scaling law,并且一些融入了大模型能力新旧应用也初步出现,比如微软的Copilot矩阵,ChatGPT聊天等,国内的文心一言、豆包等也诞生,随着这些应用的试水,大家会加深模型以及应用的理解,总的来说这包括对目前AI技术能做什么、不能做什么的直面审视,以及对于正在研究或提议中的技术的真实可行性进行评估。大小公司们会更加务实和警觉,不要盲目相信过分夸大的宣传或预测,而应基于已有的证据和成果来设置期望值。不再是靠概念圈钱,而是实打实的落地。
同时更多的卖水人公司会出现,服务于这些公司的AI生态链。
趋势二 多模态
音视频的多模态模型,其实23年已经出现了,比如GPT4v、Google Gemini,这些模型在文和图交互上已经取得进展,而随着OpenAI的Sora发布,在文和视频的交互上也取得了实质性进展,OpenAI将Sora称为世界建模模型。
趋势三 模型小型化
越来越多的模型的技术工程研究上集中于使用更小的参数获得更好的输出效果上,这是可以理解的,从几B(大部分开源LLM从2B~30B左右)到T级别(GPT4 1.76trillion)参数的模型研究太多了,笔者上一篇文章也就网文写作做了一个评测,总体上来说模型再往上其实收益并不大,所以基于能耗、内存、推理时间以及成本考虑,未来小模型技术研究和应用上会进一步加强,模型的下限个人感觉会在2B到30B左右,对于LLM而言,2B附近的是端上设备(phone PC),而30B附近的是云上设备,23年12月Mistral发布了MoE 架构Mixtral模型,共8个专家模型,每个只有7B参数,但在各评测集得分上却超过了Llama-2 的70B模型,同时伴随着6倍更快的推理速度和更少的内存,同时也在多个评测集上超过GPT3.5。无独有偶,24年2月谷歌的Gemini 1.5 技术报告上也说他们采用了MoE架构,但是上下文却达到了百万级别。
趋势四 模型优化
技术上看MoE、LoRA、QLoRA、quantization以及1 bit llm等围绕小型化、轻量级、低成本方向。今年会有更多的模型优化技术出现。
趋势五 GPU Vs ASIC电路
GPU会持续增强,并且超强的多模态模型只能是云计算平台训练,但是各个CPU厂商会强化AI算力能力,以专用电路以及API的方式提供出来。
趋势六 模型定制化
当前Huggingface上开源的模型有几十万之众,模型已经不再是瓶颈,定制化在意可以保护数据安全、隐私安全,并且在配合RAG(Retrieval Augmented Generation)等技术之后,模型可以进一步缩小(本来需要存储到模型参数中的知识,通过RAG的方式配合数据库存储,这样模型只需要学习检索技能就行),