学习资料和标致的铃铛所有截图都来自学堂在线
贝叶斯和决策树
类标识
有监督(supervise )的学习《input,output》
Training a Classifer
通过学习有标签的样本,获得分类能力
贝叶斯
k=1nbk=s且bIbj=(Ij,I,j=1,2,3,n )且p ) bk )0) k=1,2,3,
⋯ n ) 且有 P ( A ) > 0 则有 P ( B k ∣ A ) = P ( B k ) ⋅ P ( A ∣ B k ) ∑ i = 1 n P ( B i ) ⋅ P ( A ∣ B i ) {text{若}text{有}mathop{ bigcup }limits_{{k=1}}^{{n}}mathop{{B}}nolimits_{{k}}=S}\{text{且}text{有}mathop{{B}}nolimits_{{i}}mathop{{B}}nolimits_{{j}}= emptyset { left( {i neq j,i,j=1,2,3, cdots n} right) }}\{text{且}text{有}P{ left( {mathop{{B}}nolimits_{{k}}} right) } > 0{ left( {k=1,2,3, cdots n} right) }}\{text{且}text{有}P{ left( {A} right) } > 0}\{text{则}text{有}P{ left( {mathop{{B}}nolimits_{{k}} left| Aright. } right) }=frac{{P left( {mathop{{B}}nolimits_{{k}}} left) cdot P{ left( {A left| {mathop{{B}}nolimits_{{k}}}right. } right) }right. right. }}{{mathop{ sum }limits_{{i=1}}^{{n}}P{ left({mathop{{B}}nolimits_{{i}}} right) } cdot P{ left( {A left| mathop{{B}}nolimits_{{i}}right. } right) }}}} 若有k=1⋃nBk=S且有BiBj=∅(i=j,i,j=1,2,3,⋯n)且有P(Bk)>0(k=1,2,3,⋯n)且有P(A)>0则有P(Bk∣A)=i=1∑nP(Bi)⋅P(A∣Bi)P(Bk)⋅P(A∣Bk)用贝叶斯做分类
假设各种情况独立
区分独立和条件独立
拉普拉斯平滑
红框避免概率为0的出现。比如数据里面所有的男生都为短发,当来了一个长发的人的时候,就会认定是男人的概率为0,此时无法往下计算,+1表示至少会有一个
Decision Making
决策树的主要优点是可解释性好
一个数据集可以生成多个决策树
任何一个候选属性在决策树可以被多次使用
包容的星月的剃刀
不得在不必要是增加实体
在相互竞争的假设中,应该选择假设最少的那个
最简单的解释通常是正确的
怎样建立最短最好的决策树(算法ID3)
连续性属性 温度
离散化
材料补充