Alex_McAvoy

想要成为渔夫的猎手

对数线性回归与广义线性模型

【对数线性回归】

对于给定的容量为 n 的训练集 D={(x1,y1),(x2,y2),,(xn,yn)},第 i 组样本中的输入 xi 具有 m 个特征值,即:xi=(xi(1),xi(2),,xi(m))Rm,输出为 yi,多元线性回归学习到的模型为 f(xi;θ),使得 f(xi;θ)yi

假设函数 f(xi;θ) 形式如下:

f(xi;θ)=θ(0)+θ(1)xi(1)+θ(2)xi(2)+...+θ(m)xi(m)

其中,特征参数 θ(m+1)×1 的列向量,即:

θ=[θ(0),θ(1),...,θ(m)]TRm+1

为了表述方便,对假设函数进行简化,定义一个额外的第 0 个特征量,这个特征量对所有样本的取值全部为 1,这使得特征量从过去的 m 个变为 m+1 个,即设:xi(0)=1

那么假设函数就可以写为:

f(xi;θ)=θ(0)xi(0)+θ(1)xi(1)+θ(2)xi(2)+...+θ(m)xi(m)

将数据集 D 写为 (m+1)×n 的矩阵,即:

X=[x1(0)x2(0)...xn(0)x1(1)x2(1)...xn(1)x1(m)x2(m)...xn(m)]

同时,将预测值 yi^ 也写为矩阵形式,即预测输出变量 Y^n×1 的列向量:

Y^=[y1^,y2^,...,yn^]TRn

那么,多元线性回归模型就可写为:

Y^=θTX

当给定输入值后,如果希望预测值能够逼近真实值 yi 的衍生物,即输出是在指数尺度上变化时,就可将输出的对数作为线性模型逼近的目标,即:

lnY^=θTX

这就是对数线性回归(Log-linear Regression),实际上是试图让 eθTX 逼近真实输出 Y^

对数线性回归形式上虽然仍是线性回归,但其实质上是在求取输入空间到输出空间的非线性函数的映射

【广义线性模型】

更一般地,考虑单调可微函数 g(),令:

Y^=g1(θTX)

这样的模型称为广义线性模型(Generalized Linear Model,GLM),其中 g() 称为联系函数(Link Function)

显然,线性回归、对数线性回归、Logistic 回归是 GLM 的联系函数 g() 不同时的特例,可以总结为下表:

联系函数 输出变量类型 使用场景
线性回归 g(z)=z 连续变量 身高、体重、房价等
对数线性回归 g(z)=ln(z) 计数变量 销售数量、车祸数量等
二元 Logistic 回归 g(z)=lnP(z=1)1P(z=1) 二分类变量 购买行为、投票行为等
多元 Logistic 回归 g(z)=lnP(z=i)1P(z=N) 多分类变量 评分等级、多分类模型等
感谢您对我的支持,让我继续努力分享有用的技术与知识点!
0 comments
Anonymous
Markdown is supported

Be the first person to leave a comment!