2025秋招LLM大模型多模态面试题(十二)-- 大模型微调试题

目录

  1. 全参数微调需要的显存量
  2. SFT 后 LLM 表现下降的原因
  3. SFT 指令微调数据的构建方法
  4. Continue PreTrain 的数据选取
  5. 领域模型训练后的通用能力下降及缓解方法
  6. Continue PreTrain 增加知识的策略
  7. SFT 操作中基座模型的选择:Chat 还是 Base
  8. 领域模型微调的指令和数据输入格式要求
  9. 领域评测集的构建方法
  10. 领域模型词表扩增的必要性
  11. 如何训练自己的大模型
  12. 指令微调的好处
  13. 预训练与微调注入知识的阶段
  14. 领域知识学习:预训练还是微调?
  15. 多轮对话任务的模型微调方法
  16. 微调后模型能力劣化与灾难性遗忘的原因
  17. 预训练和 SFT 操作的区别
  18. OOM 错误的解决方案
  19. <

猜你喜欢

转载自blog.csdn.net/weixin_41496173/article/details/143167439