Alex_McAvoy

想要成为渔夫的猎手

【概述】

MP 神经元是由 McCulloch 与 Pitts 于 1943 年发表的神经元模型,其是按照生物神经元的结构与工作原理所构造的一个抽象与简单的模型,简单模拟了神经元的反应流程

在目前的神经网络中,最基本的单元就是神经元(Neuron),即 MP 神经元

阅读全文 »

【概述】

剪枝(Pruning)是决策树处理过拟合的主要手段,即通过主动去掉一些分支来降低过拟合的风险

决策树剪枝的基本策略有预剪枝(Pre-Pruning)后剪枝(Post-Pruning)两种,在实际应用中,往往使用后剪枝策略更多一些

阅读全文 »

【概率分布的基尼指数】

基尼指数表示在样本集合中一个随机选中的样本被分错的概率,与信息熵相似,基尼指数越大,样本集合 $D$ 的不确定性也就越大

假设有 $K$ 个类,样本点属于第 $k$ 类的概率为 $p_k$,则概率分布的基尼指数定义为:

阅读全文 »

【信息增益与互信息】

在决策树中,信息增益(Information Gain)表示在知道了特征 $X$ 的信息后,使得使类 $Y$ 的信息的不确定性减少了的程度

信息增益是针对特征而言的,因此,特征 $A$ 对于训练集 $D$ 的信息增益 $g(D,A)$,被定义为:训练集 $D$ 的经验信息熵 $H(D)$ 与给定条件下特征 $A$ 与训练集 $D$ 的经验条件熵 $H(D|A)$ 的差,即:

阅读全文 »

【学习步骤】

决策树学习通常包括特征选择、决策树生成、决策树剪枝三个步骤:

  1. 特征选择:选择最优的特征作为决策结点
  2. 决策树生成:即决策树的构建,仅考虑局部最优,对应模型的局部选择
  3. 决策树剪枝:对生成的决策树进行简化,考虑全局最优,对应模型的全局选择
阅读全文 »

【决策树】

决策树(Decision Tree)是一种用于分类或回归的机器学习方法,对于复杂的预测问题,通过建立树模型产生分支结点,依照规则递归地分割数据集,使得问题从结构上划分为不同的子问题

决策树本质是从训练集中归纳出一组规则,在给出一个新的输入后,根据规则给出相应的输出,由于与训练集不矛盾的决策树可能有多个,需要选择一个与训练数据矛盾较小的决策树,同时具有较好的泛化能力

阅读全文 »

Reference

【概述】

朴素贝叶斯 中介绍了朴素贝叶斯分类器与其所假设的条件独立性,但该假设过于强势,在实际模型中有时并不满足,即样本的很多特征可能存在关联关系,并不独立

阅读全文 »

Reference

【朴素贝叶斯参数估计】

对于朴素贝叶斯分类器:

阅读全文 »