CS Notes
  • CS-Notes文档说明
  • 机器学习
    • 频率派和贝叶斯学派
    • 机器学习中的分类指标
    • 数学基础
    • 数据清洗
    • SVM
    • 线性模型
    • 拉格朗日乘子法和KKT条件
    • 集成学习
    • 贝叶斯分类器
    • 降维和度量学习
    • 决策树
    • 神经网络
    • 神经网络优化器
    • Autoencoders & GANs
    • IoU
    • EM算法
    • ML问题总结
    • 机器学习&深度学习学习资料汇总
    • 如何阅读论文
    • 如何写好一篇论文
  • 语言、算法相关
    • 背包问题 - 01背包&完全背包
    • 平衡二叉树AVL
    • 红黑树RB-Tree
    • STL容器
    • STL 常用算法
    • Markdown总结
    • 问题总结
    • 代码汇总
    • PAT手册
  • MIT 6.828 OS课程
  • ImGui
Powered by GitBook
On this page

Was this helpful?

  1. 机器学习

频率派和贝叶斯学派

PreviousCS-Notes文档说明Next机器学习中的分类指标

Last updated 4 years ago

Was this helpful?

频率派的角度是从说θ\thetaθ是未知的,但是确定的,可以通过频率来近似。那么在实际的应用中常常使用ML(Maximum Likelihood Estimation 最大似然估计)的方法来求解。

频率学派存在一定的局限性,比如说无法评估不可重复实验的事件发生概率,比如说冰川消失的概率,这个事件是无法实验的,也就无法通过独立重复实验的频率来近似得到事件的概率了。

贝叶斯学派则认为参数θ\thetaθ是一个随机变量,服从于一个先验分布,所以如何确定这个先验分布是一个难点。在实际实现中常常使用MAP(Maximum a posterior probability最大后验概率)。那么这个也是比较好理解的,贝叶斯首先假定了一个参数的分布,之所以叫做先验,是说我们在未观测数据之前就假定的,根据是人过往的经验来确定的。那么后验概率的意思就是说,当我拿到了新的数据之后,我对之前假定的先验分布进行调整使得这个分布接近于真实的分布,从而得到正确的结果。

公式回顾:

全概率公式:

事件B的所有可能结果为:B1,B2,~Bn,并且两两之间相互独立。

P(A)=P(A∩Ω)=P[A∩(B1∪B2...∪Bn)]=P(AB1∪AB2...∪ABn)=P(AB1)+P(AB2)+...+P(ABn)=P(A∣B1)P(B1)+P(A∣B2)P(B2)+...P(A∣Bn)P(Bn)=∑inP(Bi)P(A∣Bi)P(A)=P(A \cap \Omega) = P[A\cap(B_1\cup B_2 ... \cup B_n)] \\=P(AB_1\cup AB_2...\cup AB_n) \\ = P(A B_1)+P(AB_2)+ ...+P(AB_n)\\=P(A|B_1)P(B_1)+P(A|B_2)P(B_2)+...P(A|B_n)P(B_n) \\=\sum_i^nP(B_i)P(A|B_i)P(A)=P(A∩Ω)=P[A∩(B1​∪B2​...∪Bn​)]=P(AB1​∪AB2​...∪ABn​)=P(AB1​)+P(AB2​)+...+P(ABn​)=P(A∣B1​)P(B1​)+P(A∣B2​)P(B2​)+...P(A∣Bn​)P(Bn​)=i∑n​P(Bi​)P(A∣Bi​)

参考内容:

最大似然估计(MLE),最大后验概率估计(MAP),贝叶斯估计入门讲解_lsldd的专栏-CSDN博客_map估计
Logo