Deep Learning Overview
ML/DL知识点导览
- 机器学习
- 概论
- 有监督学习和无监督学习
- 模型评估与模型选择
- 标注问题
- 泛化能力
- 分类
- 聚类(非监督学习)
- K-means
- Hierarchical Clustering and Transformations
- Density-Based Clustering
- Cluster Quality
- 关联规则 Association Rule
- 回归
- 经典模型
- 线性回归,逻辑回归
- 感知机
- KNN
- 朴素贝叶斯
- 决策树
- 支持向量机 SVM
- 提升方法 AdaBoost 算法
- 隐马尔可夫模型
- 深度学习
- 特征工程
- 多层感知机 MLP
- 卷积神经网络 CNN
- 现代卷积神经网络 AlexNet GoogleLeNet etc
- 循环神经网络 RNN 序列模型、语言模型
- 现代循环神经网络
- 门控循环单元 GRU
- 长短期记忆网络 LSTM
- 深度循环神经网络
- 双向循环神经网络
- 编码器与解码器
- 序列到序列学习
- 注意力
- 注意力机制 Attention
- 使用注意力机制的Seq2Seq
- 自注意力和位置编码
- BERT
- 应用分类
- 计算机视觉
- 人脸识别
- 体态识别
- 无人驾驶
- 图片合成
- 超分辨率
- 医学图片
- 自然语言处理
- 图神经网络
- 时序数据
- 强化学习
- 音频
- 推荐系统
- 多模态
- LLM
深度学习思维导图(v0.1)
- 算法模型
- 分类器
- KNN
K-Nearest Neighbor
- 线性分类器(线性神经网络)
- 线性回归 Linear Regression
y = xw +b
- 输出实数,自然区间。
- 有显示解,单层神经网络的基础
- 一根线是怎么分类的呢?
- Softmax回归
- Softmax是一个操作子 =
exp(xi)/sum(exp(x))
- 是多类分类模型
- 输出概率
- 用Cross Entropy 交叉熵损失
- SVM support vector machine 支持向量机
f(x) = wx+b (x为n,w可以为n*m,生成m个score,然后依score分类)
Loss = 1/nΣΣmax(0, xi - xj + 1)+λΣΣ
- 输入一
x[]
, 输出各类别的值,s1,s2,s3
- 感知机 Perceptron Learning Algorithm(PLA),是一个二分类模型。神经元,只输出1、-1
o =σ(<w, x>) +b) = σ(X)
1 if X in σ > 0
-1 otherwise
- 损失函数为:
max(0, -yX)
所以正确为0,错误>0
- 收敛定理。