双非本 985 硕,上岸快手大模型算法岗!

最近已有不少大厂都在秋招宣讲,也有一些已在 Offer 发放阶段了。

节前,我们邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。

针对新手如何入门算法岗、该如何准备面试攻略、面试常考点、大模型技术趋势、算法项目落地经验分享等热门话题进行了深入的讨论。

总结链接如下:

《大模型面试宝典》(2024版) 发布!

喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们星球


今天分享我们一位星球成员的上岸之旅,最终拿下快手大模型算法岗:

这段时间面了很多算法和大模型的岗位,能走到最后一轮的寥寥无几,几乎全军覆没,感谢快手给了我上岸的机会,太幸运了!

算法岗真的要好好研究明白才行,问的内容全又细,面试官几乎全程直接提问题,没有什么闲聊内容。

分享最近一段时间面试字节、小红书、快手等大厂的大模型&算法岗面试题,大部分会经常提及,童鞋们可以对照查漏补缺奥!

面试题

  1. 目前主流的开源模型体系有哪些?

  2. 如何让大模型处理更长的文本?

  3. 什么情况下用Bert模型,什么情况下用LLaMA、ChatGLM类大模型,咋选?

  4. LLMs输入句子长度理论上可以无限长吗?

  5. 什么是LLMs复读机问题?

  6. 为什么会出现LLMs复读机问题?

  7. 如何缓解LLMs复读机问题?

  8. 为何现在的大部分是Decoder only结构?

  9. 涌现能力是啥原因?

  10. prefix LM和causal LM的区别是什么?

  11. 请简述什么是大模型,以及它与传统模型的主要区别是什么?

  12. 谈谈你对 Transformer 模型的理解,以及它在自然语言处理中的应用。

  13. 你如何评估大模型的性能?有哪些常用的评估指标?

  14. 请描述一下你如何对大模型进行优化,以提高其性能和效率。

  15. 你是否有过使用或开发大模型的经验?请分享一个具体的案例。

  16. 面对大模型训练和推理所需的庞大计算资源,你有什么解决方案或建议?

  17. 请简述 Transformer 的基本结构和工作原理。

  18. 多头自注意力机制的作用是什么?

  19. 为什么Transformer使用位置编码(Positional Encoding)?

  20. 如何优化 Transformer 模型的性能?

  21. Transformer 在自然语言处理中有何应用?

  22. 谈谈你对 Transformer 未来发展的看法?

技术交流

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/2201_75499313/article/details/142699655