当前位置:首页 » 《随便一记》 » 正文

人工智能的常用十种算法_Java_rich的博客

8 人参与  2021年11月24日 11:04  分类 : 《随便一记》  评论

点击全文阅读


导读 :人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。


整理了一份关于python基础,图像处理opencv\自然语言处理、机器学习、数学基础等资源库,想学习人工智能或者转行到高薪资行业的,大学生都非常实用,无任何套路免费提供,,加我裙966367816 也可以领取的内部资源,人工智能题库,大厂面试题 学习大纲 自学课程大纲还有200GAI资料大礼包免费送哦~

1、决策树

根据一些feature(特征)进行分类,每个节点提一个问题,通过判断,将数据分为两类,再继续提问。这些问题是根据已有数据学习出来的,再投入新数据的时候,就可以根据这棵树上的问题,将数据划分到合适的叶子上。

 2、随机森林

随机森林是集成学习的一个子类,它依靠于决策树的投票选择来决定最后的分类结果。集成学习通过建立几个模型组合的来解决单一预测问题。集成学习的简单原理是生成多个分类器/模型,各自独立地学习和作出预测。这些预测最后结合成单预测,因此优于任何一个单分类的做出预测。

随机森林的构建过程:

假设N表示训练用例(样本)个数,M表示特征数目,随机森林的构建过程如下:

  1.  输入特征数目m,用于确定决策树上一个节点的决策结果;其中m应远小于M。
  2. 从N个训练用例(样本)中以有放回抽样的方式,取样N次,形成一个训练集,并用未抽到的用例(样本)作预测,评估其误差。
  3.   对于每一个节点,随机选择m个特征,决策树上每个节点的决定都是基于这些特征确定的。根据m个特征,计算其最佳的分裂方式。
  4. 每棵树都会完整成长而不会剪枝,这有可能在建完一棵正常树状分类器后会被采用。
  •  重复上述步骤,构建另外一棵棵决策树,直到达到预定数目的一群决策树为止,即构建好了随机森林。其中,预选变量个数(m)和随机森林中树的个数是重要参数,对系统的调优非常关键。这些参数在调节随机森林模型的准确性方面也起着至关重要的作用。科学地使用这些指标,将能显著的提高随机森林模型工作效率。

 3、 逻辑回归

基本上,逻辑回归模型是监督分类算法族的成员之一。 Logistic 回归通过使用逻辑函数估计概率来测量因变量和自变量之间的关系。

逻辑回归与线性回归类似,但逻辑回归的结果只能有两个的值。如果说线性回归是在预测一个开放的数值,那逻辑回归更像是做一道是或不是的判断题。

逻辑函数中Y值的范围从 0 到 1,是一个概率值。逻辑函数通常呈S 型,曲线把图表分成两块区域,因此适合用于分类任务。

 比如上面的逻辑回归曲线图,显示了通过考试的概率与学习时间的关系,可以用来预测是否可以通过考试。

4、线性回归

所谓线性回归,就是利用数理统计中的回归分析,来确定两种或两种以上变量间,相互依赖的定量关系的一种统计分析方法。

线性回归(Linear Regression)可能是最流行的机器学习算法。它试图通过将直线方程与该数据拟合来表示自变量(x 值)和数值结果(y 值)。然后就可以用这条线来预测未来的值!

这种算法最常用的技术是最小二乘法(Least of squares)。这个方法计算出最佳拟合线,以使得与直线上每个数据点的垂直距离最小。总距离是所有数据点的垂直距离(绿线)的平方和。其思想是通过最小化这个平方误差或距离来拟合模型。

5、朴素贝叶斯

朴素贝叶斯(Naive Bayes)是基于贝叶斯定理,即两个条件关系之间。它测量每个类的概率,每个类的条件概率给出 x 的值。这个算法用于分类问题,得到一个二进制“是 / 非”的结果。

朴素贝叶斯分类器是一种流行的统计技术,经典应用是过滤垃圾邮件。

6、神经网络

Neural Networks适合一个input可能落入至少两个类别里:NN由若干层神经元,和它们之间的联系组成。第一层是input层,最后一层是output层。在hidden层和output层都有自己的classifier。

input输入到网络中,被激活,计算的分数被传递到下一层,激活后面的神经层,最后output层的节点上的分数代表属于各类的分数,下图例子得到分类结果为class 1;同样的input被传输到不同的节点上,之所以会得到不同的结果是因为各自节点有不同的weights和bias,这也就是forward propagation。

7、K- 均值

K- 均值(K-means)是通过对数据集进行分类来聚类的。例如,这个算法可用于根据购买历史将用户分组。它在数据集中找到 K 个聚类。K- 均值用于无监督学习,因此,我们只需使用训练数据 X,以及我们想要识别的聚类数量 K。

先要将一组数据,分为三类,粉色数值大,黄色数值小。最开始先初始化,这里面选了最简单的3,2,1作为各类的初始值。剩下的数据里,每个都与三个初始值计算距离,然后归类到离它最近的初始值所在类别。
欺诈检测中应用广泛,例如医疗保险和保险欺诈检测领域

8、支持向量机

要将两类分开,想要得到一个超平面,最优的超平面是到两类的 margin达到最大,margin就是超平面与离它最近一点的距离。

是一种用于分类问题的监督算法。支持向量机试图在数据点之间绘制两条线,它们之间的边距最大。为此,我们将数据项绘制为 n 维空间中的点,其中,n 是输入特征的数量。在此基础上,支持向量机找到一个最优边界,称为超平面(Hyperplane),它通过类标签将可能的输出进行最佳分离。

 应用于面部识别、文本分类等

9、K- 最近邻算法

给一个新的数据时,离它最近的k个点中,哪个类别多,这个数据就属于哪一类。
例子∶要区分“猫”和“狗”,通过“claws”和“sound”两个feature来判断的话,圆形和三角形是已知分类的了,那么这个“star”代表的是哪一类呢?
 

 10、降维

降维(Dimensionality reduction)试图在不丢失最重要信息的情况下,通过将特定的特征组合成更高层次的特征来解决这个问题。主成分分析(Principal Component Analysis,PCA)是最流行的降维技术。

主成分分析通过将数据集压缩到低维线或超平面 / 子空间来降低数据集的维数。这尽可能地保留了原始数据的显著特征。


整理了一份关深度学习 和机器视觉的资料,有python基础,图像处理opencv\自然语言处理、机器学习、数学基础等资源库,想学习人工智能或者转行到高薪资行业的,大学生都非常实用,无任何套路免费提供,,加我裙966367816下载,+vx也可以领取的内部资源,人工智能题库,大厂面试题 学习大纲 自学课程大纲还有200GAI资料大礼包免费送哦~
有什么问题都可以来问我

欢迎大家扫码 获取AI免费视频资料


点击全文阅读


本文链接:http://zhangshiyu.com/post/31223.html

回归  数据  学习  
<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1