首页 > 编程知识 正文

刑法总论入门笔记,如何进行数据挖掘

时间:2023-05-06 17:29:35 阅读:142149 作者:3107

学习资料和标致的铃铛所有截图都来自学堂在线

贝叶斯和决策树

类标识

有监督(supervise )的学习《input,output》

Training a Classifer

通过学习有标签的样本,获得分类能力

贝叶斯

k=1nbk=s且bIbj=(Ij,I,j=1,2,3,n )且p ) bk )0) k=1,2,3,

⋯ n ) 且有 P ( A ) > 0 则有 P ( B k ∣ A ) = P ( B k ) ⋅ P ( A ∣ B k ) ∑ i = 1 n P ( B i ) ⋅ P ( A ∣ B i ) {text{若}text{有}mathop{ bigcup }limits_{{k=1}}^{{n}}mathop{{B}}nolimits_{{k}}=S}\{text{且}text{有}mathop{{B}}nolimits_{{i}}mathop{{B}}nolimits_{{j}}= emptyset { left( {i neq j,i,j=1,2,3, cdots n} right) }}\{text{且}text{有}P{ left( {mathop{{B}}nolimits_{{k}}} right) } > 0{ left( {k=1,2,3, cdots n} right) }}\{text{且}text{有}P{ left( {A} right) } > 0}\{text{则}text{有}P{ left( {mathop{{B}}nolimits_{{k}} left| Aright. } right) }=frac{{P left( {mathop{{B}}nolimits_{{k}}} left) cdot P{ left( {A left| {mathop{{B}}nolimits_{{k}}}right. } right) }right. right. }}{{mathop{ sum }limits_{{i=1}}^{{n}}P{ left({mathop{{B}}nolimits_{{i}}} right) } cdot P{ left( {A left| mathop{{B}}nolimits_{{i}}right. } right) }}}} 若有k=1⋃n​Bk​=S且有Bi​Bj​=∅(i​=j,i,j=1,2,3,⋯n)且有P(Bk​)>0(k=1,2,3,⋯n)且有P(A)>0则有P(Bk​∣A)=i=1∑n​P(Bi​)⋅P(A∣Bi​)P(Bk​)⋅P(A∣Bk​)​

用贝叶斯做分类
假设各种情况独立

区分独立和条件独立

拉普拉斯平滑
红框避免概率为0的出现。比如数据里面所有的男生都为短发,当来了一个长发的人的时候,就会认定是男人的概率为0,此时无法往下计算,+1表示至少会有一个

Decision Making
决策树的主要优点是可解释性好
一个数据集可以生成多个决策树
任何一个候选属性在决策树可以被多次使用
包容的星月的剃刀
不得在不必要是增加实体
在相互竞争的假设中,应该选择假设最少的那个
最简单的解释通常是正确的

怎样建立最短最好的决策树(算法ID3)

连续性属性 温度
离散化

材料补充

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。