李宏毅深度学习讲解:分类方法(GM)
最编程
2024-07-25 14:47:00
...
对于classification,绿色的才是最优解。如果对regression,蓝色才是最优解
二者的标准不一样,不要硬把classification用regression做
classification的步骤:
loss function:让错误出现的次数最小
贝叶斯公式:分子用条件概率公式得到,分母用全概率公式得到
通过贝叶斯公式,通过物品可能性来实现分类的模型是生成模型(Generative model)
先验概率(prior)的计算
那如何计算条件概率呢?利用Gaussian distribution
估测出平均值和协方差矩阵:利用最大似然估计
不同的平均值和协方差矩阵会导致不同的Gaussian函数,不同的Gaussian函数会有不同的likehood(似然估计)
likehood代表样本点和高斯函数fit的概率,likehood求最大
Gaussian函数的likehood计算,将样本点的
从而求出最大的平均值和协方差矩阵,使得likehood最大
结果:要使likehood最大,取样本点的平均值和协方差矩阵
协方差矩阵可以一样
协方差矩阵一样,平均值也一样。然后协方差矩阵为加权(样本点的比重)平均值
如果共用协方差矩阵,准确率会大大提高
补充:
协方差:如果变量X,Y越线性相关,协方差越大(成正比)
相关系数是协方差的归一化处理
协方差矩阵:各维度两两之间的协方差,肯定为对称矩阵
总结:
之前的feature互有影响,会产生多维的高斯分布
如果feature互不干扰,就是简单贝叶斯分类
对结果再简化:可变为sigmoid function
只记结果,推导不用看,看也看不懂,哈哈哈
Logic regression会详细介绍w和b如何求?敬请期待