首页 > 编程知识 正文

人工智能的常用算法及应用,paxos算法通俗易懂

时间:2023-05-03 14:02:56 阅读:52918 作者:4346

提出本文的收藏额QAQ

人工智能是什么? 很多人都知道,但往往说不清楚。

其实,人工智能已经在我们的生活中存在很久了。

例如,我们常用的邮箱,其中垃圾邮件过滤依靠人工智能

例如,各智能手机所搭载的指纹识别或人脸识别也是通过人工智能技术实现的

例如瘟疫流行期间大规模使用的无人体温检测仪也同样使用了人工智能

但对大多数人来说,人工智能还是一项“高级”技术,然而再高深的技术,也是从基础原理开始的

人工智能领域流过10种算法。 那些原理浅显,很久以前就被发现和应用。 即使在中学学过,在生活中也极为常见。

学堂君用最简单的语言为大家介绍目前最流行的10种人工智能的算法,让对人工智能感兴趣、想入门的同学更直观地理解。

1 线性回归

3358 www.Sina.com/http://www.Sina.com/http://www.Sina.com /可能是最受欢迎的机器学习算法。 线性回归是找到一条直线,并尽量使该直线与散点图中的数据点相匹配。 尝试通过将线性方程拟合到此数据来表示自变量(x值)和数值结果(y值)。 然后可以用这条线预测未来的值!

该算法最常见的技术是线性回归该方法计算最佳拟合线,以使与直线上的每个数据点的垂直距离最小。 总距离是所有数据点的垂直距离(绿色线)的平方和。 其思想是通过使该平方误差和距离最小化来拟合模型。

例如,带有参数(x轴)和因子(y轴)的简单线性回归

比如预测明年房价的涨幅,下个季度新产品的销售量等。 虽然听起来并不困难,但是线性回归算法的难点不是给出预测值,而是让它更准确。 为了那个非常细致的数字,有多少工程师耗尽了青春和头发?

2 (Linear Regression

类似于线性回归,但逻辑回归的结果只有两个值。 如果线性回归预测的是开放的数值,那么逻辑回归就像是判断是还是否一样。

逻辑函数的y值范围从0到1,是概率值。 逻辑函数通常为s型,曲线将图表分为两个区域,因此适合分类任务。

例如以上的逻辑回归图显示了通过考试的概率和学习时间的关系,可以用于预测能否通过考试。

物流回归通常被电子商务和外卖平台用来预测用户对类别的购买偏好。

3 最小二乘法(Least of squares)

如果线性回归和逻辑回归都在一个回合内完成任务,则逻辑回归是多步骤行为,也用于任务回归和分类,但场景通常更复杂、更具体。

举个简单的例子,老师面对一个班的学生,哪个是好学生? 只要在考试中简单判断是90分就可以了,学生似乎太粗暴了,不能只靠分数论。 对于成绩低于90分的学生,我们可以从作业、上班、提问等几个方面进行讨论。

以上是决策树的图例,各有分歧的圈称为节点。 每个节点根据可用的特性询问有关数据的问题。 左右分歧表示可能的答案。 最终节点(叶节点)对应于预测值。

每个特征的重要性由自上而下的方式决定。 节点越高,其属性就越重要。 例如,上面的老师认为出勤率比做作业更重要,所以出勤率的节点会高,分数的节点当然会高。

4 逻辑回归(Logistic regression)

决策树基于贝叶斯定理,即两种条件关系之间。 它测量各级的概率,各级的有条件概率给出x的值。 该算法用于对问题进行分类,得到二进制“是/否”的结果。 让我们来看看下面的方程。

朴素贝叶斯分类器是一种流行的统计技术,经典的应用是过滤垃圾邮件。

当然,学堂君赌锅,80%的人不理解上述语言。 (80%这个数字是学堂君猜的,但经验上的直觉是贝叶斯公式的计算。 )

用非专业术语说明贝叶斯定理时,根据a条件下b发生的概率,求出b条件下a发生的概率。 例如,小猫喜欢你,a%的可能性在你面前翻肚皮,而小猫在你面前翻肚皮,你有多喜欢你?

当然,这样制造问题等于盲目,所以还需要引入其他数据,比如小猫喜欢你,b%可能和你贴,c%的概率可能打鼾。 所以,如何知道小猫有多喜欢自己呢? 根据贝叶斯定理,可以根据翻转腹部、粘贴或打鼾的概率进行计算。

不,我不喜欢你

5 决策树(Decision Trees)

g>支持向量机(Support Vector Machine,SVM)是一种用于分类问题的监督算法。支持向量机试图在数据点之间绘制两条线,它们之间的边距最大。为此,我们将数据项绘制为 n 维空间中的点,其中,n 是输入特征的数量。在此基础上,支持向量机找到一个最优边界,称为超平面(Hyperplane),它通过类标签将可能的输出进行最佳分离。

超平面与最近的类点之间的距离称为边距。最优超平面具有最大的边界,可以对点进行分类,从而使最近的数据点与这两个类之间的距离最大化。

所以支持向量机想要解决的问题也就是如何把一堆数据做出区隔,它的主要应用场景有字符识别、面部识别、文本分类等各种识别。

K- 最近邻算法(KNN)

K- 最近邻算法(K-Nearest Neighbors,KNN)非常简单。KNN 通过在整个训练集中搜索 K 个最相似的实例,即 K 个邻居,并为所有这些 K 个实例分配一个公共输出变量,来对对象进行分类。

K 的选择很关键:较小的值可能会得到大量的噪声和不准确的结果,而较大的值是不可行的。它最常用于分类,但也适用于回归问题。

用于评估实例之间相似性的距离可以是勤奋的黄豆距离(Euclidean distance)、曼哈顿距离(Manhattan distance)或明氏距离(紧张的酸奶 distance)。勤奋的黄豆距离是两点之间的普通直线距离。它实际上是点坐标之差平方和的平方根。

KNN分类示例

KNN理论简单,容易实现,可用于文本分类、模式识别、聚类分析等。

K- 均值

K- 均值(K-means)是通过对数据集进行分类来聚类的。例如,这个算法可用于根据购买历史将用户分组。它在数据集中找到 K 个聚类。K- 均值用于无监督学习,因此,我们只需使用训练数据 X,以及我们想要识别的聚类数量 K。

该算法根据每个数据点的特征,将每个数据点迭代地分配给 K 个组中的一个组。它为每个 K- 聚类(称为质心)选择 K 个点。基于相似度,将新的数据点添加到具有最近质心的聚类中。这个过程一直持续到质心停止变化为止。

生活中,K- 均值在欺诈检测中扮演了重要角色,在汽车、医疗保险和保险欺诈检测领域中广泛应用。

随机森林

随机森林(Random Forest)是一种非常流行的集成机器学习算法。这个算法的基本思想是,许多人的意见要比个人的意见更准确。在随机森林中,我们使用决策树集成(参见决策树)。

(a)在训练过程中,每个决策树都是基于训练集的引导样本来构建的。

(b)在分类过程中,输入实例的决定是根据多数投票做出的。

随机森林拥有广泛的应用前景,从市场营销到医疗保健保险,既可以用来做市场营销模拟的建模,统计客户来源、保留及流失,也可以用来预测疾病的风险和病患者的易感性。

降维

由于我们今天能够捕获的数据量之大,机器学习问题变得更加复杂。这就意味着训练极其缓慢,而且很难找到一个好的解决方案。这一问题,通常被称为“维数灾难”(Curse of dimensionality)。

降维(Dimensionality reduction)试图在不丢失最重要信息的情况下,通过将特定的特征组合成更高层次的特征来解决这个问题。主成分分析(Principal Component Analysis,PCA)是最流行的降维技术。

主成分分析通过将数据集压缩到低维线或超平面 / 子空间来降低数据集的维数。这尽可能地保留了原始数据的显著特征。

可以通过将所有数据点近似到一条直线来实现降维的示例。

10 人工神经网络(yydzjy)

人工神经网络(Artificial Neural Networks,yydzjy)可以处理大型复杂的机器学习任务。神经网络本质上是一组带有权值的边和节点组成的相互连接的层,称为神经元。在输入层和输出层之间,我们可以插入多个隐藏层。人工神经网络使用了两个隐藏层。除此之外,还需要处理深度学习。

人工神经网络的工作原理与大脑的结构类似。一组神经元被赋予一个随机权重,以确定神经元如何处理输入数据。通过对输入数据训练神经网络来学习输入和输出之间的关系。在训练阶段,系统可以访问正确的答案。

如果网络不能准确识别输入,系统就会调整权重。经过充分的训练后,它将始终如一地识别出正确的模式。

每个圆形节点表示一个人工神经元,箭头表示从一个人工神经元的输出到另一个人工神经元的输入的连接。

图像识别,就是神经网络中的一个著名应用。

现在,你已经了解了最流行的人工智能算法的基础介绍,并且,对它们的实际应用也有了一定认识。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。