Skip to content

more-abc/llm-casefile

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

43 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

🕵️ LLM 百案录

把每一篇大语言模型核心论文都当作一桩"案件"—— 有动机、有凶器、有关键证据、有结案陈词。

papers format lang license update

🚀 快速开始 · 📑 完整目录 · 🛣️ 阅读路径 · 🤝 参与贡献


✨ 这是什么?

《LLM 百案录》 是一套系统化的大语言模型核心论文中文笔记集,覆盖 2014—2024 年的 100+ 篇 关键工作。

每一篇笔记都遵循统一的 「案件体」 格式——把论文当案件来"破":

  • 0️⃣ 案件档案:时间 / 作者 / 凶器 / 结案陈词
  • 1️⃣ 30 秒速览:电梯里讲完一句话
  • 2️⃣ 3 分钟通读:搞懂 Why(动机)
  • 3️⃣ 30 分钟精读:搞懂 How(机制 + 公式 + 代码片段)
  • 4️⃣ 物证清单 & 🔥 Hot Take
  • 5️⃣ 🐛 论文没说的坑
  • 6️⃣ 🎲 如果作者偷懒了(实验/理论缺口)
  • 7️⃣ 影响波及(mermaid 影响图)
  • 8️⃣ 侦探手记(My Take)
  • 🚀 3 小时复现路径(部分论文)

你不是在读论文,你是在破案


🚇 30 秒快速开始

你是…… 推荐 5 篇入门
🌱 完全新手 AttentionBERTGPT-1GPT-3CoT
💼 算法面试 LayerNorm · Adam · RoPE · FlashAttention · LoRA
🤖 做 Agent CoTReActToolformerGenerative AgentsVisual Agent
🔍 做 RAG RAGSelf-RAGCorrective RAGQuery AugKG-RAG
💸 想低成本微调 LoRAQLoRADoRADPOORPO
🏗️ 想搭大模型 TransformerRoPEFlashAttnGQALLaMA

📚 论文地图(4 大层级 · 100+ 篇)

┌─ L1 基础地基 ─────────── Transformer / BERT / GPT / Word2Vec / CoT …
│
├─ L2 训练与对齐 ─────── Scaling Laws / RLHF / DPO / RoPE / FlashAttn …
│
├─ L3 架构与生态 ─────── MoE / Agent / RAG / PEFT 四大支柱
│
└─ L4 前沿与应用 ─────── 推理增强 / 新架构 / 长上下文 / 多模态 / 安全 …

📑 完整章节索引INDEX.md

高亮章节速链

L1 基础地基(15 篇)

Attention · BERT · GPT-1/2 · Seq2Seq · Word2Vec · Dropout · LayerNorm · Adam · GPT-3 · CoT · ToT · Self-Consistency · LLaMA

L2 训练与对齐(28 篇)

Scaling Laws · Chinchilla · InstructGPT · PPO · Constitutional AI · DPO · ORPO · Self-Rewarding · RoPE · FlashAttention · MQA · GLU Variants · RMSNorm · GQA · BFloat16 · …

L3 架构与生态(30 篇)

Mixtral · Switch Transformer · ReAct · Generative Agents · AutoGPT · Visual Agent · Toolformer · WebGPT · RAG · Self-RAG · LoRA · QLoRA · DoRA · Prefix Tuning · …

L4 前沿与应用(30 篇)

Step-by-Step Verify · STaR · Mamba · Mamba 2 · RetNet · RWKV · YaRN · GPT-4V · LLaVA · CogVLM · Red Teaming · Sycophancy · MedPaLM 2 · AlphaCode · StarCoder · …


🛣️ 阅读路径

时间预算 路径 适合
⏱️ 30 秒 看 5 篇⭐⭐⭐⭐⭐入门必读 朋友圈装个内行
📅 1 周通读 L1 全部 + L2-01/05/14 + L3-01/07/15/21 面试 / 转岗
📅 1 个月精读 所有 ⭐⭐⭐⭐⭐ + 复现核心代码 工程师上岗
📅 3 个月研究 全部读完 + 跟进每篇延伸卷宗 做 LLM 研究

🎨 笔记体例速查

五维雷达图(每个完整笔记都有)

创新性  ██████████ X/10  ← 核心思想的新颖程度
影响力  ██████████ X/10  ← 后续工作引用与产业落地
复杂度  ██████████ X/10  ← 数学/工程门槛
可复现  ██████████ X/10  ← 开源情况 + 算力门槛
争议度  ██████████ X/10  ← 学术争议程度

学习路径锚点

每篇笔记顶部都有 4 档跳转:

🚇 30秒速览 | 🚲 3分钟通读 | 🚗 30分钟精读 | 🚀 3小时复现


🤝 参与贡献

PR 永远欢迎!可贡献的方向:

  • 🆕 新增论文笔记(请遵循 案件体 格式,参考任意已有笔记作为模板)
  • 🐛 修正事实错误 / 拼写 / 链接失效
  • 🌐 翻译成英文 / 其他语言
  • 🎨 完善 Docsify 主题、添加新插件
  • 📝 补充"3 小时复现"代码片段

详情见 CONTRIBUTING.md

友情致谢

本笔记集站在巨人的肩膀上——所有原始论文作者贡献了真正的智慧,本仓库只是把它们整理成更易消化的"案件卷宗"。


📜 License

MIT · 笔记内容采用知识共享理念:自由复制、修改、传播,唯一要求是保留来源。

💡 附注:所有原始论文版权归原作者所有;本仓库仅为学习笔记与二次创作。


🌟 Star History

如果这个仓库帮到你了,给个 ⭐ 是对作者最大的鼓励。

📚 把论文当案件来读,你会发现整个 LLM 时代是一部连续的侦探小说。

About

🕵️ LLM 百案录:100+ 篇大语言模型核心论文的"案件体"中文笔记集。Transformer / RLHF / RAG / Agent / MoE / PEFT 全覆盖,30 秒到 3 小时四档学习路径。

Topics

Resources

License

Code of conduct

Contributing

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages