Reference
【对偶函数的极大化】
对于最大熵模型的约束最优化问题,内部的极小化问题的求解得到了关于 的对偶函数
此时,只需对最大熵模型进行学习,即对对偶问题 的外部极大化问题进行处理
将极大化问题的解记为 ,有:
将 代入到对偶函数 中,可得:
由于 ,故有:
又因为:
则有:
化简得:
故极大化问题为:
【最大熵模型的极大似然估计】
假设样本集大小为 ,对于样本具体观测值 ,假设其取值有 个,分别为 ,用 表示在观测值中样本 出现的频数,那么似然函数可写为:
对上式两边同时开 次方,可得:
由于经验概率 ,故有:
显然,对 求极大值与对 求极大值的优化结果是相同的,那么,最终的极大似然函数可表示为:
当已知训练数据的经验概率分布为 时,有:
其中,对于第二项 ,一旦样本集确定,经验分布 与 可直接算出,故该项为一常数,忽略即可,故而最终的对数似然函数为:
当条件概率分布 为最大熵模型 时,对数似然函数为:
可以发现,对数似然函数 与对偶函数 相等,即:
接着,考虑对偶函数 ,有:
可以发现,最大熵模型 的对数似然函数与对偶函数 等价,即:
因此,最大熵模型学习中的对偶函数 极大化等价于最大熵模型的极大似然估计,这样对最大熵模型的学习问题就转化成了具体求解对数似然函数极大化或求解对偶函数极大化的问题,即:
Gitalking ...