AI 学习资源精选
从数学基础到前沿应用,精心筛选的优质学习资源。每个推荐都经过实践验证, 帮助你少走弯路,高效构建 AI 知识体系。
数学资源
数学是 AI 的底层语言,扎实的数学功底能帮助你真正理解算法的本质,而不仅仅是调用 API。
3Blue1Brown - 线性代数的本质
Grant Sanderson 通过精妙的可视化动画,将线性代数的核心概念(向量空间、线性变换、矩阵分解、特征值与特征向量)变得直观易懂。这系列视频不是教你算题,而是让你真正"看到"线性代数在做什么。强烈建议在学习 MIT 18.06 之前或同步观看,能极大降低理解门槛。B 站有完整中文字幕搬运版。
访问资源3Blue1Brown - 微积分的本质
同系列的微积分课程,从极限、导数到积分,用动态几何直觉取代枯燥的公式推导。对于理解梯度下降、反向传播等优化算法的数学原理非常有帮助。每集仅 10-15 分钟,适合碎片时间学习。
访问资源Mathematics for Machine Learning
Marc Peter Deisenroth 等人撰写的经典教材,系统覆盖了机器学习所需的数学基础:线性代数、解析几何、矩阵分解、向量微积分、概率论与分布、连续优化。本书的独特之处在于将每个数学概念与具体的机器学习算法联系起来,让抽象的数学有了实际意义。不需要从头到尾通读,建议根据当前学习的 ML 算法按需查阅对应章节。
MIT 18.06 - 线性代数
Gilbert Strang 教授的传奇公开课,全球数百万人学习过。课程系统而完整地覆盖了线性代数的全部核心内容:矩阵运算、行列式、特征值、奇异值分解、正交化、线性变换等。Strang 教授以直觉驱动的教学风格闻名,他会先告诉你"为什么需要这个概念",再展示"如何使用它"。配合教材《Introduction to Linear Algebra》一起学习效果最佳。
访问资源机器学习
从经典算法到现代实践,建立对机器学习的系统性认知,理解数据驱动方法的思维方式。
Andrew Ng - 机器学习课程
吴恩达教授的机器学习课程堪称"ML 入门第一课"。从线性回归、逻辑回归出发,逐步引入神经网络、SVM、聚类、推荐系统等核心算法。课程注重直觉理解而非数学推导,Python 版本(Stanford CS229 的子集)使用 Scikit-learn 和 TensorFlow 实践。无论你最终走向哪个方向,这都是不可跳过的基础课程。Coursera 上的 Machine Learning Specialization 是 2022 年更新的 Python 版本。
访问资源Hands-On ML with Scikit-Learn, Keras & TensorFlow
Aurelien Geron 的实战派经典。第三版全面更新了对 Scikit-Learn、Keras 和 TensorFlow 2 的覆盖。全书以项目驱动的方式组织:先搭好理论基础,然后立刻动手实现。涵盖了从传统 ML(随机森林、SVM)到深度学习(CNN、RNN、Transformer、GAN)的完整路径。每个章节都配有可运行的 Jupyter Notebook 代码,非常适合边读边练。
《统计学习方法》(李航)
李航博士的经典著作,以严格的数学推导著称。系统覆盖了感知机、朴素贝叶斯、决策树、逻辑回归、最大熵、SVM、提升方法、EM 算法、隐马尔可夫模型、条件随机场等经典算法。每章从问题定义出发,给出数学建模和推导,然后分析算法特性。适合已经有一定编程基础、想要深入理解算法背后数学原理的学习者。第二版新增了贝叶斯分类器、深度学习初步等内容。
深度学习
神经网络与深度学习是现代 AI 的核心技术栈,从框架使用到架构理解缺一不可。
《Deep Learning》(花书)
Ian Goodfellow、Yoshua Bengio 和 Aaron Courville 合著的"深度学习圣经"。全书分为应用数学基础、深度网络基础、深度学习研究三大板块。数学基础部分(线性代数、概率论、信息论、数值计算)写得极为清晰。不需要通读全书——建议将前两部分作为参考手册,当你需要深入理解某个概念(如反向传播的数学推导、正则化理论、VAE 原理)时查阅对应章节。
CS231n - 计算机视觉公开课
Stanford 的 CS231n 是深度学习领域最经典的公开课之一,专注于卷积神经网络和计算机视觉。从图像分类、反向传播讲起,覆盖 CNN 架构演进(AlexNet → VGG → ResNet)、目标检测、语义分割、生成模型、视觉 Transformer 等。课程作业要求用 Python/NumPy 从零实现反向传播,这个练习对理解深度学习的核心机制极为重要。Justin Johnson 和 Andrej Karpathy 的讲解风格清晰且实用。
访问资源CS224n - 自然语言处理公开课
Christopher Manning 教授主持的 NLP 经典课程。从词向量(Word2Vec、GloVe)出发,覆盖序列模型(RNN、LSTM、GRU)、注意力机制、预训练语言模型(BERT、GPT)、Prompt Engineering 等核心主题。课程紧跟 NLP 领域的前沿发展,是理解现代 NLP 技术栈的最佳路径之一。
访问资源PyTorch 官方教程
PyTorch 官方提供的教程体系是最权威的深度学习框架学习资源。从 60 分钟入门(Learn the Basics)开始,涵盖张量操作、自动求导、数据加载与处理、图像分类(CNN)、序列建模(RNN/LSTM)、Transformer 实现、生成对抗网络(GAN)、分布式训练等。每个教程都配有完整的代码示例和详细注释。PyTorch 是目前学术研究和工业实践的主流框架,掌握它是深入深度学习的必经之路。
访问资源Transformer / NLP
Transformer 架构是 LLM 时代的基石,深入理解它是掌握大语言模型的前提。
The Annotated Transformer
Harvard NLP 组维护的 Transformer 论文逐行注释版。将 "Attention Is All You Need" 论文的每个关键段落与对应的 PyTorch 代码实现一一对应。从位置编码、多头注意力、前馈网络到编码器-解码器架构,每个组件都有详细解释和可运行代码。这是理解 Transformer 最快、最直接的途径,强烈建议在阅读原论文时配合使用。GitHub 上有多个中文翻译和注释版本。
访问资源Hugging Face Course
Hugging Face 提供的免费交互式 NLP 课程,覆盖 Transformer 库的使用、模型微调(Fine-tuning)、分词器原理、文本分类、命名实体识别、问答系统、文本生成、模型部署等。课程以 Colab Notebook 形式提供,可以在线运行。特别推荐微调章节(Chapter 3),手把手教你用 Trainer API 对预训练模型进行微调。对于想要快速上手 NLP 工程实践的学习者来说是最佳起点。
访问资源《Speech and Language Processing》
Dan Jurafsky 和 James H. Martin 的经典 NLP 教材,被誉为 NLP 领域的"圣经"。第三版(在线免费更新)全面覆盖了现代 NLP 技术,包括词向量、神经语言模型、序列标注、依存分析、语义分析、信息抽取、对话系统、生成模型等。教材兼顾理论基础与工程实践,每章附有丰富的参考文献。建议作为案头参考书,结合具体项目需要深入阅读相关章节。
访问资源LLM 应用开发
从 API 调用到 RAG 系统构建,掌握大语言模型时代的应用开发范式。
LangChain 文档
LangChain 是目前最流行的 LLM 应用开发框架,提供了链式调用(Chains)、检索增强生成(RAG)、Agent 工具调用、记忆管理等核心抽象。官方文档从基础概念到高级模式都有覆盖。学习重点包括:Prompt 模板管理、检索器与文档加载器的使用、输出解析器、Agent 的 ReAct 模式实现等。
访问资源LlamaIndex 文档
LlamaIndex 专注于"数据连接层",擅长构建 RAG 系统。相比 LangChain 的大而全,LlamaIndex 在文档索引、查询路由、知识图谱集成方面更为深入。如果你主要做 RAG / 知识库相关项目,LlamaIndex 可能是更好的选择。LangChain 和 LlamaIndex 二选一深入学习即可,不必两个都精通。
访问资源OpenAI API 文档 / Anthropic API 文档
大模型 API 的官方文档是最权威的一手资料。OpenAI 的文档覆盖 GPT-4o、o1 系列模型的调用方式、Function Calling、结构化输出、Vision 等能力。Anthropic 的文档则详细介绍了 Claude 系列模型的特点、Prompt 工程最佳实践、Tool Use(工具调用)、长上下文处理等。建议重点学习:Chat Completions API 的参数调优、Token 管理策略、流式输出实现、错误处理与重试机制。
RAG / 评测工程博客
业界前沿的工程实践文章,涵盖 RAG 优化策略(查询改写、混合检索、Reranker 集成)、LLM 评测方法论(自动评测 vs 人工评测、Benchmark 设计)、Prompt 工程模式(CoT、ReAct、Self-Refine)等。推荐关注 LlamaIndex Blog、LangChain Blog、Hugging Face Blog、Anthropic Blog 以及国内的高质量 AI 技术公众号和掘金专栏。保持每周阅读 2-3 篇高质量技术文章的习惯。
AI 工具链
熟练使用主流工具链是 AI 从学习到工程落地的关键环节。
PyTorch
目前学术界和工业界最主流的深度学习框架。动态计算图的设计使得调试更加直观,Pythonic 的 API 降低了上手难度。支持自动混合精度(AMP)、分布式数据并行(DDP)、模型并行等高级特性。配套生态丰富:torchvision(图像)、torchaudio(音频)、torchtext(文本)、torch_geometric(图神经网络)。必学框架,无替代品。
访问资源JAX
Google 推出的高性能数值计算库,以函数式编程范式著称。支持 XLA 编译加速,在 TPU 上性能优异。自动微分(autodiff)系统设计精良,支持高阶导数。对于追求极致性能的研究场景(如大规模分布式训练),JAX 是值得投入学习的框架。学习曲线相对较陡,建议在掌握 PyTorch 后再考虑。
访问资源TensorFlow
Google 主导的深度学习框架,生态成熟。TF2.x 采用 Eager Execution 模式,大幅降低了使用门槛。Keras 作为 TF 的高层 API,提供了快速原型开发能力。TensorFlow Serving 和 TF Lite 在模型部署方面有完善的解决方案。虽然学术界使用率下降,但在企业级部署场景中仍然广泛使用。
访问资源Hugging Face
AI 领域的"GitHub"——模型中心(Model Hub)、数据集中心(Datasets)、推理 API(Inference API)三位一体。Transformers 库封装了数万个预训练模型的统一调用接口,一个 pipeline() 调用即可完成文本分类、命名实体识别、摘要生成等任务。Spaces 提供了零成本的模型 Demo 部署方案。日常开发中几乎不可避免的平台。
访问资源Weights & Biases (W&B)
实验追踪与可视化的行业标准工具。自动记录训练过程中的 Loss、指标、系统资源使用等信息,支持超参数搜索(Sweep)、模型注册(Registry)、协作报告(Report)。免费版支持个人项目,团队版提供协作功能。掌握 W&B 能显著提升实验效率和结果可复现性,是进入 AI 研发团队的必备技能。
访问资源MLflow
Databricks 开源的 MLOps 平台,覆盖模型训练追踪(Tracking)、模型管理(Model Registry)、模型部署(Serving)和流水线编排(Pipeline)等全生命周期。如果你需要构建企业级的 ML 平台,MLflow 是很好的起点。与 W&B 互补——W&B 擅长实验追踪,MLflow 擅长模型管理和部署。
访问资源Papers with Code
论文与开源实现的桥梁。每个机器学习论文条目都附有官方或社区提供的代码实现链接,以及对应的 Benchmark 排行榜。当你读到一篇感兴趣的论文时,这里是找代码实现的首选。SOTA(State of the Art)排行榜按任务分类,可以快速了解各个领域的最新进展。
访问资源arXiv / OpenReview
arXiv 是计算机科学领域预印本的主要发布平台,几乎所有重要的 AI 论文都会先在 arXiv 发布。建议订阅 CS.CL(NLP)、CS.CV(计算机视觉)、CS.LG(机器学习)等分类的每日摘要邮件。OpenReview 则是顶级会议(如 NeurIPS、ICLR)的评审平台,可以阅读论文评审意见和 Rebuttal,对理解学术前沿非常有帮助。养成每天花 15 分钟扫描 arXiv 标题的习惯。
高效学习策略
仅有优质资源还不够,正确的学习方法才能让投入产出比最大化
做"知识地图笔记"
每学一个新概念,不要只是记下定义和公式,而是写清楚三个关键问题:这个概念解决什么问题?它依赖哪些前置知识?学习和实践中有哪些常见陷阱?推荐使用思维导图(如 Obsidian、Miro)或结构化 Markdown 来组织知识地图。随着学习推进,你的知识地图会自然形成一个相互关联的网络,帮助你发现知识间的深层联系。
实践示例
示例:学"注意力机制"时 → 解决问题:让模型动态关注输入的不同部分。依赖:点积运算、Softmax 函数、序列表示。常见坑:位置编码不可省略、Attention 的计算复杂度是 O(n²)。
每周一个可运行的 Repo
理论学习的最佳巩固方式是动手实现。每周完成一个小项目,要求包含完整的三个文件:README(描述问题、方法、结果)、requirements.txt(依赖管理)、结果截图或日志。项目可以很简单——实现一个线性回归、搭建一个文本分类器、复现论文中的一个小实验。关键是保持"每周一个"的节奏,建立持续输出的习惯。
实践示例
示例项目:用 PyTorch 实现一个 IMDB 情感分类器 → README 说明数据集、模型结构、训练参数 → requirements.txt 列出 torch、torchtext 等 → 截图展示训练 Loss 曲线和测试准确率。
先追"闭环"再追"高分"
很多初学者容易陷入"完美主义陷阱"——花大量时间调参追求 SOTA 指标,但实际工程经验积累很少。更好的策略是:先把完整流程跑通(数据加载 → 模型定义 → 训练循环 → 评估 → 部署),确认每个环节都能正常工作。在有了端到端的"闭环"之后,再逐步优化各个环节。这种"先完成再完美"的方法能让你积累更多工程经验,也更接近真实的研发场景。
实践示例
示例:做 RAG 项目时 → 第一周跑通 naive RAG(文档切分 → Embedding → 向量检索 → LLM 生成)→ 第二周加入 Reranker → 第三周优化切分策略和查询改写 → 第四周加入引用溯源和评测。
学习节奏建议
- 理论与实践的时间分配建议 3:7——大量时间花在动手实现上
- 不要试图一次学完所有内容,按照知识体系图按层次推进
- 每周花 30 分钟复盘本周所学,更新知识地图中的依赖关系
- 加入学习社群或找一个学习伙伴,互相讨论能加深理解
- 遇到卡壳的地方不要死磕,先跳过去继续前进,回头再补