llm_interview_note
llm_interview_note copied to clipboard
主要记录大语言大模型(LLMs) 算法(应用)工程师相关的知识及面试题
LLMs Interview 八股文
简介
本仓库为大模型面试相关概念,由本人参考网络资源整理,欢迎阅读,如果对你有用,麻烦点一下 start,谢谢!
为了在低资源情况下,学习大模型,进行动手实践,创建 tiny-llm-zh仓库,旨在构建一个小参数量的中文Llama2大语言模型,方便学习,欢迎学习交流。
在线阅读
本仓库相关文章已放在个人博客中,欢迎阅读:
在线阅读链接:LLMs Interview Note
注意:
相关答案为自己撰写,若有不合理地方,请指出修正,谢谢!
欢迎关注微信公众号,会不定期更新LLM内容,以及一些面试经验:
目录
01.大语言模型简介
1.1 大模型发展历程
- 语言模型
1.2 常见大模型
- llama系列模型
- chatglm系列模型
1.3 LLM基础题目
02.大语言模型基础
2.1 Transformer模型
- attention
- layer_normalization
- 位置编码
- tokenize分词
- token及模型参数
- 激活函数
2.2 大语言模型结构
03.语言模型训练数据集
04.分布式训练
4.1 基础知识
- 概述
- 数据并行
- 流水线并行
- 张量并行
- 序列并行
- 多维度混合并行
- 自动并行
- moe并行
- 总结
4.2 DeepSpeed
- DeepSpeed介绍
4.3 软硬件
- 显存问题
4.4 分布式相关题目
05.有监督微调
5.1 理论
- 基本概念
- prompting
- adapter-tuning
- lora
- 总结
5.2 微调实战
- LLaMa2微调
5.3 有监督微调相关题目
- 微调
- 预训练
06.推理
6.1 推理框架
- llm推理框架简单总结
- vLLM
- Text Generation Inference
- Faster Transformer
- TRT LLM
6.2 推理优化技术
- LLM推理优化技术
- LLM推理常见参数
6.3 推理相关题目
- 推理
07.强化学习
7.1 强化学习原理
- 策略梯度(pg)
- 近端策略优化(ppo)
7.2 RLHF
- 大模型RLHF:PPO原理与源码解读
- DPO
7.3 一些题目
- rlhf相关
- 强化学习
08.检索增强rag
8.1 RAG
-
检索增强llm
-
rag(检索增强生成)技术
8.2 Agent
- 大模型agent技术
09.大语言模型评估
9.1 模型评估
- 评测
9.2 LLM幻觉
- 大模型幻觉
- 幻觉来源与缓解
10.大语言模型应用
10.1 思维链(CoT)
- 思维链(cot)
10.2 LangChain 框架
- langchain
98.LLMs相关课程
99.参考资料
更新记录
- 2024.03.19 : 推理参数
- 2024.03.17 : 强化学习部分,PG,PPO,RLHF,DPO
- 2024.03.13 : 强化学习题目
- 2024.03.10 : LLMs相关课程
- 2024.03.08 : RAG技术
- 2024.03.05 :大模型评估,幻觉
- 2024.01.26 :语言模型简介
- 2023.12.15 : llama,chatglm 架构
- 2023.12.02 :LLM推理优化技术
- 2023.12.01 :调整目录
- 2023.11.30 :18.Layer-Normalization,21.Attention升级
- 2023.11.29 : 19.激活函数,22.幻觉,23.思维链
- 2023.11.28 : 17.位置编码
- 2023.11.27 : 15.token及模型参数, 16.tokenize分词
- 2023.11.25 : 13.分布式训练
- 2023.11.23 : 6.推理, 7.预训练, 8.评测,9.强化学习, 11.训练数据集,12.显存问题,14.agent
- 2023.11.22 : 5.高效微调
- 2023.11.10 : 4.LangChain
- 2023.11.08 : 建立仓库;1.基础,2.进阶,3.微调