笔记 / 详情

广义线性模型(generalized linear model)

2026.05.05
方法备忘
4905 字数

什么是广义线性模型

广义线性模型(generalized linear model, GLM)是线性回归的分布扩展。普通线性回归默认响应变量近似服从 Gaussian 分布,并且条件均值直接等于线性预测子;GLM 则允许响应变量来自指数族分布,并通过连接函数(link function)把条件均值与线性预测子联系起来。

给定样本 (yi,xi)(y_i,\mathbf x_i),其中 xiRp\mathbf x_i\in\mathbb R^p。GLM 由三部分组成:第一,随机部分要求 YixiY_i\mid\mathbf x_i 来自指数族分布;第二,系统部分定义线性预测子 ηi=xiTβ\eta_i=\mathbf x_i^T\beta;第三,连接函数满足 g(μi)=ηig(\mu_i)=\eta_i,其中 μi=E(Yixi)\mu_i=\mathbb E(Y_i\mid\mathbf x_i)

因此,GLM 的基本模型可以写成

YixiExponentialFamily(μi,ϕ),g(μi)=ηi=xiTβ.Y_i\mid\mathbf x_i\sim \text{ExponentialFamily}(\mu_i,\phi), \qquad g(\mu_i)=\eta_i=\mathbf x_i^T\beta.

这里 βRp\beta\in\mathbb R^p 是待估参数,ϕ\phi 是离差参数(dispersion parameter)。当 gg 为恒等函数且 YiY_i 为 Gaussian 响应时,GLM 退化为普通线性回归。

GLM 与指数族的关系

GLM 通常建立在指数离差族(exponential dispersion family)上。其密度或概率质量函数可写为

p(yθ,ϕ)=exp{yθb(θ)a(ϕ)+c(y,ϕ)}.p(y\mid\theta,\phi) = \exp\left\{\frac{y\theta-b(\theta)}{a(\phi)}+c(y,\phi)\right\}.

其中 θ\theta 是自然参数(natural parameter),b(θ)b(\theta) 是 log-partition function,a(ϕ)a(\phi) 与离差参数有关。指数族的基本性质是 E(Yθ)=b(θ)\mathbb E(Y\mid\theta)=b'(\theta),且 Var(Yθ)=a(ϕ)b(θ)\operatorname{Var}(Y\mid\theta)=a(\phi)b''(\theta)。因此,均值 μ\mu 与自然参数 θ\theta 之间满足 μ=b(θ)\mu=b'(\theta)

GLM 的连接函数 ggμ\mu 映射到线性预测子 η=xTβ\eta=\mathbf x^T\beta。若选择规范连接函数(canonical link),则令 θ=η\theta=\eta。此时模型和似然的形式最简单,score 与 Hessian 也有较干净的表达。

三个基本例子

Gaussian:线性回归

YixiN(μi,σ2)Y_i\mid\mathbf x_i\sim N(\mu_i,\sigma^2),常用连接函数为恒等连接 g(μ)=μg(\mu)=\mu,因此 μi=ηi=xiTβ\mu_i=\eta_i=\mathbf x_i^T\beta。此时负对数似然与平方损失等价,估计问题为 minβ12i(yixiTβ)2\min_\beta\frac12\sum_i(y_i-\mathbf x_i^T\beta)^2。这就是普通最小二乘。

从指数族角度看,若固定 σ2\sigma^2,Gaussian 模型可写为 θi=μi\theta_i=\mu_ib(θ)=θ2/2b(\theta)=\theta^2/2a(ϕ)=σ2a(\phi)=\sigma^2。规范连接也是恒等连接。

Poisson:计数回归

YixiPoisson(μi)Y_i\mid\mathbf x_i\sim\operatorname{Poisson}(\mu_i),则 μi>0\mu_i>0。常用连接函数为 log link,即 g(μ)=logμg(\mu)=\log\mu,所以 μi=exp(xiTβ)\mu_i=\exp(\mathbf x_i^T\beta)。该模型适合计数型响应,例如事件次数、到达次数或频数数据。

Poisson 分布的指数族形式满足 θi=logμi\theta_i=\log\mu_ib(θ)=eθb(\theta)=e^\theta,并且 E(Yiθi)=eθi\mathbb E(Y_i\mid\theta_i)=e^{\theta_i}Var(Yiθi)=eθi\operatorname{Var}(Y_i\mid\theta_i)=e^{\theta_i}。因此 log link 是 Poisson GLM 的规范连接。

Binary:Logistic 回归

Yi{0,1}Y_i\in\{0,1\},可设 YixiBernoulli(πi)Y_i\mid\mathbf x_i\sim\operatorname{Bernoulli}(\pi_i),其中 πi=P(Yi=1xi)\pi_i=\mathbb P(Y_i=1\mid\mathbf x_i)。最常见的连接函数是 logit link,即 g(π)=log{π/(1π)}g(\pi)=\log\{\pi/(1-\pi)\},因此 πi={1+exp(xiTβ)}1\pi_i=\{1+\exp(-\mathbf x_i^T\beta)\}^{-1}

Bernoulli 分布的指数族形式满足 θi=log{πi/(1πi)}\theta_i=\log\{\pi_i/(1-\pi_i)\}b(θ)=log(1+eθ)b(\theta)=\log(1+e^\theta),并且 b(θ)=eθ/(1+eθ)b'(\theta)=e^\theta/(1+e^\theta)。因此 logit link 是 Bernoulli GLM 的规范连接。

一般对数似然函数

设观测相互独立。给定 β\beta,令 ηi=xiTβ\eta_i=\mathbf x_i^T\beta,并通过连接函数确定 μi\mu_i 与自然参数 θi\theta_i。一般对数似然为

(β,ϕ)=i=1n{yiθib(θi)a(ϕ)+c(yi,ϕ)}.\ell(\beta,\phi) = \sum_{i=1}^n \left\{ \frac{y_i\theta_i-b(\theta_i)}{a(\phi)} +c(y_i,\phi) \right\}.

若使用规范连接,则 θi=ηi=xiTβ\theta_i=\eta_i=\mathbf x_i^T\beta。在这种情况下,忽略与 β\beta 无关的项后,负对数似然为 L(β)=i{b(xiTβ)yixiTβ}/a(ϕ)\mathcal L(\beta)=\sum_i\{b(\mathbf x_i^T\beta)-y_i\mathbf x_i^T\beta\}/a(\phi)。其梯度和 Hessian 分别为

L(β)=1a(ϕ)XT(μy),2L(β)=1a(ϕ)XTWX,\nabla\mathcal L(\beta) = \frac{1}{a(\phi)}\mathbf X^T(\mu-\mathbf y), \qquad \nabla^2\mathcal L(\beta) = \frac{1}{a(\phi)}\mathbf X^T\mathbf W\mathbf X,

其中 μi=b(xiTβ)\mu_i=b'(\mathbf x_i^T\beta)W=diag(b(xiTβ))\mathbf W=\operatorname{diag}(b''(\mathbf x_i^T\beta))。由于 bb 是凸函数,规范连接下的负对数似然通常是凸函数;若设计矩阵 X\mathbf X 满秩且曲率不退化,则可得到唯一的极大似然估计。

怎么优化模型参数

GLM 的参数估计通常使用极大似然估计,即最大化 (β,ϕ)\ell(\beta,\phi),或等价地最小化负对数似然 L(β)\mathcal L(\beta)。Gaussian 恒等连接下有闭式解 β^=(XTX)1XTy\hat\beta=(\mathbf X^T\mathbf X)^{-1}\mathbf X^T\mathbf y,但 Poisson 与 logistic 等模型一般没有闭式解,需要迭代优化。

最常见的方法是 Newton-Raphson。对负对数似然,它的更新为 βt+1=βt{2L(βt)}1L(βt)\beta^{t+1}=\beta^t-\{\nabla^2\mathcal L(\beta^t)\}^{-1}\nabla\mathcal L(\beta^t)。在规范连接下,这等价于求解一个加权最小二乘问题,因此也称为 Fisher scoring 或迭代重加权最小二乘(iteratively reweighted least squares, IRLS)。

IRLS 的核心形式是:在第 tt 步构造工作响应 zit=ηit+(yiμit)dηidμiμitz_i^t=\eta_i^t+(y_i-\mu_i^t)\frac{d\eta_i}{d\mu_i}\big|_{\mu_i^t} 和权重 wit={(dηi/dμi)2Var(Yixi)}1w_i^t=\{(d\eta_i/d\mu_i)^2\operatorname{Var}(Y_i\mid\mathbf x_i)\}^{-1},然后求解加权最小二乘 minβiwit(zitxiTβ)2\min_\beta\sum_i w_i^t(z_i^t-\mathbf x_i^T\beta)^2。重复该过程直到参数、似然或梯度收敛。

在大规模数据中,也可以使用梯度下降、拟牛顿法(如 BFGS / L-BFGS)、随机梯度法,或加入正则化项后求解 minβL(β)+λβ1\min_\beta\mathcal L(\beta)+\lambda\|\beta\|_1minβL(β)+λ2β22\min_\beta\mathcal L(\beta)+\frac{\lambda}{2}\|\beta\|_2^2 等问题。1\ell_1 正则化对应稀疏 GLM,常用坐标下降或近端梯度;2\ell_2 正则化对应 ridge 型 GLM,常用 Newton、L-BFGS 或随机优化。

几个容易混淆的点

  • GLM 不是简单地“对 yy 做变换后线性回归”。连接函数作用于条件均值 μi=E(Yixi)\mu_i=\mathbb E(Y_i\mid\mathbf x_i),不是直接作用于观测值 yiy_i
  • 规范连接不是唯一选择。它使 θi=ηi\theta_i=\eta_i,计算和理论更简洁,但具体建模时仍可选择其他连接函数。
  • Poisson GLM 默认 Var(Yixi)=E(Yixi)\operatorname{Var}(Y_i\mid\mathbf x_i)=\mathbb E(Y_i\mid\mathbf x_i)。若数据存在过度离散,需要考虑 quasi-Poisson、negative binomial 或稳健标准误。
  • Logistic 回归是 GLM,不是普通线性回归后的截断。它直接建模 P(Yi=1xi)\mathbb P(Y_i=1\mid\mathbf x_i),并通过 logit link 保证概率位于 (0,1)(0,1)
  • 极大似然估计依赖模型分布假设;若分布指定错误,均值模型可能仍有预测价值,但标准误和推断需要额外处理。

一句话总结

广义线性模型用指数族分布描述响应变量,用线性预测子 ηi=xiTβ\eta_i=\mathbf x_i^T\beta 表示协变量效应,并通过连接函数 g(μi)=ηig(\mu_i)=\eta_i 连接条件均值与线性结构;其参数通常通过极大似然估计,并用 Newton、Fisher scoring、IRLS 或现代一阶优化方法求解。

References

  1. P. McCullagh and J. A. Nelder, Generalized Linear Models, 2nd edition, Chapman and Hall, 1989.
  2. T. Hastie, R. Tibshirani, and J. Friedman, The Elements of Statistical Learning, 2nd edition, Springer, 2009.
  3. A. Agresti, Categorical Data Analysis, 3rd edition, Wiley, 2013.