机器学习
梯度提升树 | Gradient Boosting Decision Tree (GBDT)

GBDT 由三个概念组成:Gradient Boosting(GB)、Regression Decision Tree(DT)和 Shrinkage

梯度提升树 | Gradient Boosting Decision Tree (GBDT)
自适应增强 | Adaptive Boosting (Adaboost)

AdaBoost是Boosting算法中比较有代表性的一个,主要原理是通过不断调整样本和弱学习器的权重来输出最终结果。

自适应增强 | Adaptive Boosting (Adaboost)
随机森林 | Random Forest (RF)

RF 算法由很多决策树组成,每一棵决策树之间没有关联。建立完森林后,当有新样本进入时,每棵决策树都会分别进行判断,然后基于投票法给出分类结果。

随机森林 | Random Forest (RF)
决策树 | Decision Tree

决策树是附加概率结果的一个树状的决策图,是直观的运用统计概率分析的图法。决策树算法采用树形结构,使用层层推理来实现最终的分类。

决策树 | Decision Tree
集成学习 |Ensemble Learning

所谓集成学习,顾名思义,就是集成多个基学习器的结果,采用一定的融合机制得到一个更为精准和稳定的结果。常见的集成学习有Bagging、Boosting、Stacking

集成学习 |Ensemble Learning
朴素贝叶斯 | Naive Bayesian Model

朴素贝叶斯方法是在贝叶斯算法的基础上进行了相应的简化,即假定给定目标值时属性之间相互条件独立。

朴素贝叶斯 | Naive Bayesian Model
K近邻 | K-Nearest Neighbors

K近邻算法 ,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。

K近邻 | K-Nearest Neighbors