逻辑回归 一种开始应用于机器学习的
统计方法。逻辑函数确定一个或多个变量之间的关系。根据0-1范围内的某些值将对象分为两类。通过逻辑回归方法确定信用潜力、预测销售成功、广告活动和其他概率事件。
逻辑回归
支持向量机
包括多种对由向量分隔的超平面中的对象进行分类的算法。而系统的任务就是找到线在平面上最正确的位置,以便更好地分类。
该方法解决了相当复杂的问题,并且可 电子邮件数据库 以确定:照片中的男人或女人、在网站上向用户显示什么广告等等。
支持向量机
线性回归
该方法的要点是将一个变量 N 与另一个或多个变量相关。通常,平面上有一些数据点,您需要找到连接它们的最合适的线。
线性回归
这种算法可以轻松预测趋势并确定简单线性序列中缺少哪些信息。例如,序列 10, 20, 30, 40, 50... 中应该添加什么
组装方法
生成各种分类器并根据平均或投票原则划分数据的一组方法。这种方法减少了出错的可能性。
组件包括:
Bagging - 基本模型与复杂分类器的集合并行训练。
套袋
Boosting——强模型是在弱模型的帮助下创建的。对先前的分类器进行训练,以便改进和纠正下一个分类器的错误。
提升
k-均值聚类
机器学习中的聚类方法之一。该算法使用一定的随机数量的簇 K。每个簇都有自己的中心(点),从中计算到组中每个数据点的距离。然后枚举每个簇的中心,向量再次将数据点分成簇。这发生在不再发生任何变化之前。
聚类对于生物学研究、IT 技术和社会学很有用。
k-均值聚类
对抗性生成学习
这种方法基于神经网络的工作,但神经网络似乎相互冲突(这就是名字的由来)。里面是鉴别器和生成器算法。第一个尝试对传入数据进行分类并将它们分配到类别。相反,第二个寻求选择适合类别的图像。也就是说,生成器创建对象,鉴别器检查它们的真实性。正是这种算法可以创建看起来像真人的不存在的人的图像。
对抗性生成学习
恢复
机器学习是一种模仿人脑活动的人工智能。第一批机器学习算法出现于上世纪 40 至 50 年代,但在 21 世纪实现了显着增长,现已应用于人类生活的许多领域。
机器学习方法根据人类参与程度进行分类。有监督学习、无监督学习、半监督学习和强化学习。
还有根据算法的运行原理来划分的方法。有贝叶斯分类器、决策树、逻辑回归、组装方法(bagging、boosting)、k-means 聚类、对抗生成学习等。
*Meta公司产品,在俄罗斯联邦禁止
頁:
[1]