Alex_McAvoy

想要成为渔夫的猎手

Reference

【概述】

贝叶斯分类模型是基于贝叶斯定理与特征条件独立假设的分类模型,朴素贝叶斯(Naive Bayes)是贝叶斯分类模型中最简单、最常见的一种分类方法,该方法从概率论的角度来进行分类预测,实现简单,预测效率高

阅读全文 »

Reference

【最大熵模型学习的最优化算法】

由于在最大熵模型中,对偶函数的极大化等价于最大熵模型的极大似然估计,那么最大熵模型的学习问题就转换为具体求解对偶函数 $\psi(\boldsymbol{\omega})$ 极大化或对数似然函数 $L_{\tilde{p}}(p_{\boldsymbol{\omega}})$ 极大化的问题,即:

阅读全文 »

【概述】

改进的迭代尺度法(Improve Iterative Scaling,IIS)是一种专用于最大熵模型学习的最优化算法,其是在通用迭代尺度法(Generalized Iterative Scaling,GIS)的基础上改进得来的

已知最大熵模型为:

阅读全文 »

Reference

【对偶函数的极大化】

对于最大熵模型的约束最优化问题,内部的极小化问题的求解得到了关于 $\boldsymbol{\omega}$ 的对偶函数

阅读全文 »

Reference

【约束最优化问题】

最大熵模型的学习过程,即求解最大熵模型的过程,其可以形式化为约束最优化问题

阅读全文 »

Reference

【判别分类模型】

假设分类模型为一判别模型,选用条件概率分布 $P(Y|X)$ 作为预测模型,$X\in\mathcal{X}\subseteq \mathbb{R}^n $ 为输入,$Y\in\mathcal{Y}\subseteq \mathbb{R}^n $ 为输出

阅读全文 »

【最大熵原理】

信息熵与互信息 中对信息熵进行了介绍,而最大熵原理,就是认为:在所有可能的概率分布中,熵最大的模型是最好的模型

对于来自参数空间 $\mathcal{X}$ 的离散随机变量 $X$,其概率分布为:

阅读全文 »

Reference

【概述】

拉格朗日乘子法(Lagrange Multipliers)是一种寻找多元函数在一组约束下的极值的方法,将含有 $d$ 个变量与 $k$ 个约束条件的最优化问题,转换为具有 $d+k$ 个变量的无约束最优化问题来求解

阅读全文 »

Reference

【信息熵】

信息熵

阅读全文 »

【概述】

在实现 K 近邻时,主要考虑的是如何对训练数据进行 K 近邻搜索,最简单的实现方式是线性扫描(Linear Scan),此时要计算输入样本与每一个训练样本的距离,这在维度大的特征空间以及大容量的训练数据集中非常耗时

为提高 K 近邻搜索的效率,可以使用特殊的数据结构来存储训练数据,通过以空间换时间来快速查询样本的近邻

阅读全文 »