Hi, 这里是
整理了 LLM 推理 / 训练 / 系统优化方向的面试知识点,
从原理推导到代码实现,从论文解读到真实面经。
从 tokenize 到 sampling 的完整推理链路,以及 vLLM、PagedAttention、投机解码等优化手段
训练全流程、3D并行、ZeRO、梯度累积、混合精度、RLHF 与 DPO
Attention、RoPE、Softmax、反向传播、Adam — 手推一遍才是真的会
手撕 MHA / GQA、写 CUDA kernel、实现 PagedAttention 的 block allocator
Transformer、PagedAttention、DeepSeek-V3 — 读懂原始论文,面试才有底气
字节、美团、快手、NVIDIA、百度 — 真实面试题与复盘
多模态、Agent、Scaling Law、线上问题排查
66 道高频题的 30 秒口述答案,面试前最后过一遍