首页 > 编程知识 正文

大数据技术包括哪些技术,大数据实时处理技术

时间:2023-05-05 05:10:22 阅读:135316 作者:377

天真鸡老师讲课整理的学习笔记用于日后复习一、大数据预处理的几个步骤一、数据预处理二、数据清洗三、数据合并四、数据约5、数据转换六、数据离散七、大数据预处理

二、数据预处理现实数据多为“肮脏”数据:

不完整 属性值不足或仅包含统计数据

含噪声 包含错误或存在偏离预期的偏离值,例如salary=“-10”明显是错误数据

不一致商品分类的部门代码存在差异。 例如age=“42”birthday=“03/07/1997”

使用数据时有以下数据要求:

3358www.Sina.com/,一致性准确性完整性,http://www.Sina.com

由于获得的数据规模过大,数据不完整、重复、杂乱,在完整的数据挖掘过程中,需要输入时效性

三.数据清洗1 .缺失值处理:

可信性:缺少多个属性值或者其鼻祖剩余属性值使用价值较小的,选择放弃

可解释性

数据预处理要花费60%左右的时间(虽然方法简单,但挖掘程序可能会导致再去的概念的形成

忽略元组:正常数据分布使用人工填写,倾斜数据分布使用全局常量填充

使用属性中心度量填充回归、基于推理的工具或决策树共同决定。

2 .干扰数据和离群点:

均值:所测量变量的随机误差或方差(一般指错误的数据) ) ) ) ) ) ) ) ) ) )。

中位数:数据集包含与数据的一般行为或模型不匹配的数据对象。 (虽然是正常值,但偏离了大部分数据)

3358www.Sina.com/(binning ) :通过考虑数据周围的值使数据值平滑。 这些规则的值被分布在几个“桶”或箱中。 由于分框方法只考虑邻近值,因此使用了最可能的值填充:

噪声

离群点各“桶”的区间宽度相同

分箱:“桶”的样品数量相同

局部光滑。用两个函数拟合数据以使数据平滑。

线性回归找到拟合两个属性(变量)的最佳直线; 多元线性回归包括多个属性,用于将数据拟合到多维曲面

下图显示了数据的线性回归拟合。

分箱的方法:

2.1离群点分类

等宽分箱::个别数据离整体数据很远

等深分箱:一组数据与其他数据的分布方式不同

回归(regression):

2.2离群点检测的方法

离群点假设给定数据集服从某一随机分布(如正态分布等),在不一致性测试中识别异常。

如果某个采样点与全局离群点不匹配,则认为它是离群点; 如果符合集体离群点,则认为是符合某个假设分布的离群点。

情景离群点:基于局部离群点检测在样本空间数据分布不均的情况下也能准确发现。

基于统计的离群点检测:)如果采样空间d中至少n个采样点与对象o之间的距离大于d,则对象o是以至少n个采样点和距离d为参数的基于距离的离群点。

工作假设:通过检查一组对象的主要特征识别离群点,将不符合该特征的数据对象判定为离群点。

2.3传统离群点检测的缺点:

备选假设:不适合多维空间。 你需要知道数据集在样本空间中的分布特征

基于密度的局部离群点检测:参数选择非常敏感,受时间复杂性的限制,不适用于高维稀疏数据集。

基于距离的离群点检测:实际应用较少,在高维数据集中很难获得该数据集的主要特征。

四.数据集成1 .数据属性:

strong>标称属性:属性值是一些符号或事物的名称,经常看做分类属性,如头发颜色:黄色、黑色、棕色

二元属性:是一种标称属性,只有两个类别 0或1  true or false

序数属性:其可能的值时间具有有意义的序或秩评定,如客户满意度:0-很满意 1-不能太满意...

数值属性:定量的,可度量的量,用整数换实数值表示。

2.离散属性与连续属性

1.离散属性:具有有限或无限可数个值,可以是数值属性,如性别、员工号

2.连续属性:非离散的,一般用浮点变量表示。

3.数据集成

数据集成是把不同来源、格式、特点性质的数据在逻辑上或物理上有机的集中,从而为企业提供全面的数据共享。数据集成时,模式集成对象匹配非常重要,如何将来自于多个信息源的等价实体进行匹配即实体识别问题

在进行数据集成时,同一数据在系统中多次重复出现,需要消除数据冗余,针对不同特征或数据间的关系进行相关性分析。

 相关性分析时用皮尔逊相关系数度量, 用于度量两个变量X和Y之间得相关(线性相关),其值介于1和-1之间。                          

五、数据规约

1.数据规约策略:

维规约:减少考虑的随机变量或属性的个数,或把原数据变换或投影到更小的空间,具体方法:小波变换、主成分分析等。

数量规约:用替代的、较小的数据表示形式替换原数据 具体方法包括:抽样和数据立方体聚集

数据压缩无损压缩:能从压缩后的数据重构恢复原来的数据,不损失信息。有损压缩:只能近似重构原数据。

 抽样:


多阶段抽样:


基于Hash函数取样技术SHF


数据立方体聚集



下钻是将一个大范围度量细化,如图将季度分成月份表示,上卷与其相反,将城市上卷为国家。

2.机器学习中的降维方法:


正在学习,日后学到再补。

3.主成分分析法---线性降维方法

在降维之后能最大程度的保持数据的内在信息,通过衡量在投影方向上的数据方差大小来衡量该方向的重要程度。


4.线性判别分析----有监督的线性降维方法

数据在降维后能很容易得被区分开,将高维的模式样本投影到最佳鉴别矢量空间,保证模式样本在新子空间内有最大类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。


5.局部线性嵌入LLE----非线性降维方法

能使降维后的数据保持原有的流形结构。如果数据分布在整个封闭的球面上,LLE则不能将其映射到二维空间,且不能保持原有的数据流形,于是在处理数据时首先要保证数据不在封闭的球面或者椭圆内


图示将三维曲面数据映射到二维坐标轴内,还能保证其大致的流线型。

六、数据变换

1.数据变换策略:

光滑:去掉噪声,包括分箱、回归、聚类。

属性构造:由改定的属性构造新的属性,并添加到属性集中

聚集:对数据进行汇总或聚集,通常为多个抽象层的数据分析构造数据立方体。

规范化:按比例缩放,使之落入特定的小区间内。

离散化:属性的原始值用区间标签或概念标签替换。

由标称数据产生概念分层:将标称属性泛化到较高的概念层。

2.规范化方法:


七、数据离散化

该部分参考点击打开链接

1.非监督离散化:在离散过程中不考虑类别属性,其输入数据集仅含有待离散化属性的值。

假设属性的取值空间为X={X1,X2,⋯,Xn},离散化之后的类标号是Y={Y1,Y2,⋯,Ym},则无监督离散化的情况就是X已知而Y未知。以下介绍几种常用的无监督离散化方法: 
(1) 等宽算法 
根据用户指定的区间数目K,将属性的值域[Xmin−Xmax]划分成K个区间,并使每个区间的宽度相等,即都等于Xmax−XminK。缺点是容易受离群点的影响而使性能不佳。 
(2) 等频算法 
等频算法也是根据用户自定义的区间数目,将属性的值域划分成K个小区间。他要求落在每个区间的对象数目相等。譬如,属性的取值区间内共有M个点,则等频区间所划分的K个小区域内,每个区域含有MK个点。 
(3) K-means聚类算法 
首先由用户指定离散化产生的区间数目K,K-均值算法首先从数据集中随机找出K个数据作为K个初始区间的重心;然后,根据这些重心的欧式距离,对所有的对象聚类:如果数据x距重心Gi最近,则将x划归Gi所代表的那个区间;然后重新计算各区间的重心,并利用新的重心重新聚类所有样本。逐步循环,直到所有区间的重心不再随算法循环而改变为止。


2.监督离散化:输入数据包括类别信息(类标号),效果比无监督好。

(1) 齐次性的卡方检验

在介绍两种基于卡方检验的离散化算法之前,先来介绍一下齐次性的卡方检验。 
数据:有r个总体。 
从每个总体中抽取一个随机变量,记第i个样本含有的观测数是ni,1⩽i⩽r。 
每个样本的每个观测值可以归为c个不同类别中的一类。记Oij为样本i的观测值归入类j的个数,所以, 
ni=Oi1+Oi2+⋯+Oic 
对于所有的样本i,将数据排列成以下的r∗c列连表:

 类1类2⋯类c总和总体1O11O12⋯O1cn1总体2O21O22⋯O21n2⋯⋯⋯⋯⋯⋯总体rOr1Or2⋯Orcnr总和C1C2⋯CcN

假设: 
记pij为随机取到第i个总体划分为第j类的概率,i∈[1,r],j∈[i,c]。 
H0:同一列中所有的概率相等(即对任意的j,p1j=p2j=⋯=prj)。 
H1:每列中至少存在两个概率不相等(即给定j,存在i和k,使得pij≠pkj)。 
检验统计量χ2为: 
χ2=∑i,j(Oij−tij)2tij,其中,tij=niCjN 
或者: 
χ2=N∗(∑i,jO2ijniCj−1) 
零分布: 
χ2的零分布是渐进自由度为(r−1)(c−1)的卡方分布。在近似水平α下的临界域对应于χ2值大于X1−α,X1−α是自由度为(r−1)(c−1)的卡方分布的1−α分位数,当χ2值大于X1−α时拒绝原假设H0,否则,接受H0。 
p值是自由度为(r−1)(c−1)的卡方分布随机变量大于χ2的概率,即:p=PH0{χ2>t}。当p值小于α,拒绝H0,否则接受H0。 
例:

 吸烟不吸烟总计男20525女101525总计302050

首先假设H0:性别和吸烟相关。 
根据公式求得χ2=8.33,自由度为1,查表可得p值小于0.005,所以拒绝原假设。

(2)自上而下的卡方分裂算法

该分裂算法是把整个属性的取值区间当做一个离散的属性值,然后对该区间进行划分,一般是一分为二,即把一个区间分为两个相邻的区间,每个区间对应一个离散的属性值,该划分可以一直进行下去,直到满足某种停止条件,其关键是划分点的选取。 
分裂步骤: 
依次计算每个插入点的卡方值,当卡方值达到最大时,将该点作为分裂点,属性值域被分为两块。 
然后再计算卡方值,找到最大值将属性值域分成三块。 
停止准则: 
当卡方检验显著,即p值<α时,继续分裂区间; 
当卡方检验不显著,即p值⩾α时,停止分裂区间;

(3)ChiMerge算法

ChiMerge算法是一种基于卡方值的自下而上的离散化方法。和上一种算法正好相反。 
分裂步骤: 
第一步:根据要离散的属性对实例进行排序:每个实例属于一个区间 
第二步:合并区间,计算每一对相邻区间的卡方值 
停止准则: 
当卡方检验不显著,即p值⩾α时,继续合并相邻区间; 
当卡方检验显著,即p值<α时,停止区间合并;

(4)基于熵的离散化方法

本方法也是一种自上而下的离散化方法。首先,定义一下熵的概念: 
ei=−∑kj=1pijlog2pij 
其中,pij=mijmi是第i个区间中类j的概率。该划分的总熵e是每个区间的熵的加权平均: 
e=∑ni=1wiei 
其中wi=mim是第i个区间的值的比例,n是区间个数。 
划分过程: 
首先将属性的取值值域按照值得大小排序。 把每个值看作是可能的分割点,依次把区间分成两部分计算它们的熵值,取熵值最小的作为第一次划分点。 
然后选取一个区间,通常选择熵值最大的区间重复此过程。 
当区间个数达到用户指定的个数或某个用户指定的终止条件则停止继续分裂。

八、大数据预处理

1.Hadoop-----集群


2.Spark




3.Hbase---分布式存储多格式数据



4.云计算处理大数据



版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。