最近这一两周看到不少互联网公司都已经开始秋招提前批面试了。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
总结链接如下:
喜欢本文记得收藏、关注、点赞。
今天分享我们一星球成员面试美团大模型面经:
一面
-
文档大模型是一个独立的模型,会整合到一个大模型还是分离式的
-
目前用的多大的模型
-
是一个什么结构,对结构的一些了解 flamingo或者blip2的结构上的对比
-
足够资源的情况下,哪个结构是最优的
-
分辨率是如何解决的,文档的分辨率比较高
-
QA对匮乏如何解决的
-
ocr的性能目前是低于多模态大模型
-
如何解决bbox感知力差的问题
-
充足的算力,数据如何获取,如何有效的清洗
-
fuyu这种结构有什么优化的空间
-
简单介绍下Transformer
-
大概讲一下Transformer的Encoder模块?
-
为什么transformer块使用LayerNorm而不是BatchNorm?
-
Transformer为何使用多头注意力机制?
算法题:手写multi-head attention;寻找两个正序数组的中位数 (LeetCode 4);只出现一次的数字 III (LeetCode 260)
二面
-
请描述BERT的微调过程及其重要性
-
解释什么是自注意力机制,以及它在BERT模型中的作用。
-
BERT与其它预训练模型(如GPT)有什么不同?
-
如何评估BERT模型在特定NLP任务上的性能?
-
如何解决BERT训练中的过拟合问题?
-
OCR文档大模型
-
Instruction tuning的决定性因素,哪些Instruction tuning策略效果更好,如何评估复杂度的性能
-
如何保证数据集的多样性和复杂度
-
分层的Instruction tuning数量的影响,数量和质量
-
不同类型数据的影响,对下游任务的影响,自动化的数据配比,自动化的指标去做类似的事情
-
专门优化的指标不再是一个好的指标
-
使用其他的指标来引导模型的优化,而不是使用下游的指标,LLM使用的loss,作为指标,而不是benchmark的分数
-
合理的评估指标是什么,openAI的压缩理论,training loss代表优化目标
-
AGI的几个阶段,deepmind发表
算法题:根据字符出现频率排序 (LeetCode 451); 只出现一次的数字 (LeetCode 136)
技术交流&资料
用通俗易懂方式讲解系列
- 用通俗易懂的方式讲解:自然语言处理初学者指南(附1000页的PPT讲解)
- 用通俗易懂的方式讲解:1.6万字全面掌握 BERT
- 用通俗易懂的方式讲解:NLP 这样学习才是正确路线
- 用通俗易懂的方式讲解:28张图全解深度学习知识!
- 用通俗易懂的方式讲解:不用再找了,这就是 NLP 方向最全面试题库
- 用通俗易懂的方式讲解:实体关系抽取入门教程
- 用通俗易懂的方式讲解:灵魂 20 问帮你彻底搞定Transformer
- 用通俗易懂的方式讲解:图解 Transformer 架构
- 用通俗易懂的方式讲解:大模型算法面经指南(附答案)
- 用通俗易懂的方式讲解:十分钟部署清华 ChatGLM-6B,实测效果超预期
- 用通俗易懂的方式讲解:内容讲解+代码案例,轻松掌握大模型应用框架 LangChain
- 用通俗易懂的方式讲解:如何用大语言模型构建一个知识问答系统
- 用通俗易懂的方式讲解:最全的大模型 RAG 技术概览
- 用通俗易懂的方式讲解:利用 LangChain 和 Neo4j 向量索引,构建一个RAG应用程序
- 用通俗易懂的方式讲解:使用 Neo4j 和 LangChain 集成非结构化知识图增强 QA
- 用通俗易懂的方式讲解:面了 5 家知名企业的NLP算法岗(大模型方向),被考倒了。。。。。
- 用通俗易懂的方式讲解:NLP 算法实习岗,对我后续找工作太重要了!。
- 用通俗易懂的方式讲解:理想汽车大模型算法工程师面试,被问的瑟瑟发抖。。。。
- 用通俗易懂的方式讲解:基于 Langchain-Chatchat,我搭建了一个本地知识库问答系统
- 用通俗易懂的方式讲解:面试字节大模型算法岗(实习)
- 用通俗易懂的方式讲解:大模型算法岗(含实习)最走心的总结
- 用通俗易懂的方式讲解:大模型微调方法汇总