神经网络与深度学习
神经网络简介
- 什么是神经网络,它与 AI、机器学习、深度学习之间的关系
- 神经网络的结构
- 输入层/隐藏层/输出层
- 前向传播/反向传播
- 神经网络能做什么
- 学习神经网络需要具备那些知识
- 一定的数学知识(线性代数 / 概率与信息轮)
- 学习一个深度学习的开发框架
神经网络的学习与预测
- 线性回归
- 均方误差损失函数
- 逻辑回归
- 交叉熵损失函数
深度神经网络
- 简单的线性代数
- 批量梯度下降
- 矢量化预测与学习过程
数字手写体识别
- 前期准备(Rust 语言/Candle 框架介绍)
- 数据集的划分
- 从零开始实现
- 利用框架实现
- 端到端的学习
优化神经网络
- 梯度消失与梯度爆炸
- Regularizing: 正则化
- Normalizing Input: 归一化输入
- 提高学习速度
- 参数初始化
- 动量梯度下降
- 减少过拟合
- 增加数据集
- Regularizing
- dropout
- 防止网络退化
- ResNet
CNN 卷积神经网络
- 重新来一遍手写体识别
- 应用
- 卷积层
- 池化层
- 激活函数
- 图像识别
- 人脸识别
- 物体检测
RNN 循环神经网络
- GRU
- LSTM
- BRNN 双向循环神经网络
残差网络
- ResNet
LLM 大语言模型
词嵌入
tokenizer https://platform.openai.com/tokenizer
注意力机制
Transformer 模型
- Encoder
- tokenizer:按出现频率分割,这步骤不需要学习
- position encoder:token 的先后关系,位置编码也可以被学习
- 多头注意力:
-Decoder
- Encoder
从零实现 Transformer 模型
GAN
模型调优
- 迁移学习