Alex_McAvoy

想要成为渔夫的猎手

References:

【假设形式】

对于给定容量为 $n$ 的线性可分训练集 $D=\{(\mathbf{x}_1,y_1),(\mathbf{x}_2,y_2),…,(\mathbf{x}_n,y_n)\}$,第 $i$ 组样本中的输入 $\mathbf{x}_i$ 具有 $m$ 个特征值,即:$\mathbf{x}_i=(x_i^{(1)},x_i^{(2)},…,x_i^{(n)})\in \mathbb{R}^m$,输出 $y_i\in\mathcal{Y}=\{+1,-1\}$

阅读全文 »

【引入】

单层感知机 中介绍了单层感知机,其能够处理线性可分问题,同时,根据 Novikoff 定理可知,感知机学习算法的原始形式是迭代收敛的

但单层感知机的学习算法是以误分类样本点到超平面 $S$ 的总几何间隔作为损失函数,其存在诸多解,这些解既依赖于参数 $\boldsymbol{\omega}$ 和阈值 $\theta$ 初值的选择,也依赖于迭代过程中误分类点的选择顺序

阅读全文 »

【Novikoff 定理】

设训练集 $D=\{(\mathbf{x}_1,y_1),(\mathbf{x}_2,y_2),…,(\mathbf{x}_N,y_N)\}$ 是是线性可分的,第 $i$ 组样本中的输入 $\mathbf{x}_i$ 具有 $n$ 个特征值,即:$\mathbf{x}_i=(x_i^{(1)},x_i^{(2)},…,x_i^{(n)})\in \mathbb{R}^n$,输出 $y_i\in\mathcal{Y}=\{+1,-1\}$,则:

  1. 存在满足条件 $||W_{opt}||_2=1$ 的超平面 $S:W_{opt}X=\boldsymbol{\omega}_{opt}\cdot\mathbf{x}+\theta_{opt}=0$ 将训练集完全正确分开,且存在 $\gamma>0$,对所有的 $i=1,2,…,N$,有:
阅读全文 »

【原始形式与对偶形式】

对于感知机模型 $f(\mathbf{x})=\text{sign}(\boldsymbol{\omega}\cdot \mathbf{x}+\theta)$,其损失函数为:

这时感知机学习问题就转换为求解损失函数的最优化问题,即:

阅读全文 »

【概述】

感知机(Perceptron)是神经网络和支持向量机的起源算法,从结构上来讲,其分为单层感知机(Single Layer Perceptron)多层感知机(Multi-Layer Perceptron)

单层感知机就是 MP 神经元,其一般用于处理线性可分问题,多层感知机是多个 MP 神经元的累叠,通过增加层数来处理线性不可分问题

阅读全文 »

【概述】

MP 神经元是由 McCulloch 与 Pitts 于 1943 年发表的神经元模型,其是按照生物神经元的结构与工作原理所构造的一个抽象与简单的模型,简单模拟了神经元的反应流程

在目前的神经网络中,最基本的单元就是神经元(Neuron),即 MP 神经元

阅读全文 »

【概述】

剪枝(Pruning)是决策树处理过拟合的主要手段,即通过主动去掉一些分支来降低过拟合的风险

决策树剪枝的基本策略有预剪枝(Pre-Pruning)后剪枝(Post-Pruning)两种,在实际应用中,往往使用后剪枝策略更多一些

阅读全文 »