欢迎您访问 最编程 本站为您分享编程语言代码,编程技术文章!
您现在的位置是: 首页

李宏毅深度学习讲解:分类方法(GM)

最编程 2024-07-25 14:47:00
...

对于classification,绿色的才是最优解。如果对regression,蓝色才是最优解

二者的标准不一样,不要硬把classification用regression做

classification的步骤:

loss function:让错误出现的次数最小

贝叶斯公式:分子用条件概率公式得到,分母用全概率公式得到

通过贝叶斯公式,通过物品可能性来实现分类的模型是生成模型(Generative model)

先验概率(prior)的计算

那如何计算条件概率呢?利用Gaussian distribution

估测出平均值和协方差矩阵:利用最大似然估计

不同的平均值和协方差矩阵会导致不同的Gaussian函数,不同的Gaussian函数会有不同的likehood(似然估计)

likehood代表样本点和高斯函数fit的概率,likehood求最大

Gaussian函数的likehood计算,将样本点的

从而求出最大的平均值和协方差矩阵,使得likehood最大

结果:要使likehood最大,取样本点的平均值和协方差矩阵

协方差矩阵可以一样

协方差矩阵一样,平均值也一样。然后协方差矩阵为加权(样本点的比重)平均值

如果共用协方差矩阵,准确率会大大提高

补充:

协方差:如果变量X,Y越线性相关,协方差越大(成正比)

相关系数是协方差的归一化处理

协方差矩阵:各维度两两之间的协方差,肯定为对称矩阵

总结:

之前的feature互有影响,会产生多维的高斯分布

如果feature互不干扰,就是简单贝叶斯分类

对结果再简化:可变为sigmoid function

只记结果,推导不用看,看也看不懂,哈哈哈


Logic regression会详细介绍w和b如何求?敬请期待