【普通最小二乘法的计算公式】在统计学和计量经济学中,普通最小二乘法(Ordinary Least Squares, OLS)是一种广泛用于回归分析的方法。其核心思想是通过最小化观测值与模型预测值之间的平方误差总和,来估计模型中的参数。OLS 是线性回归的基础,适用于一元线性回归和多元线性回归。
以下是对普通最小二乘法计算公式的总结,并以表格形式展示关键公式及其含义。
一、基本概念
概念 | 含义 |
回归模型 | 用于描述因变量与一个或多个自变量之间关系的数学表达式 |
参数估计 | 通过数据拟合模型中的未知系数 |
残差 | 实际观测值与模型预测值之间的差异 |
平方误差 | 残差的平方,用于衡量模型拟合程度 |
二、一元线性回归模型
一元线性回归模型的基本形式为:
$$
y_i = \beta_0 + \beta_1 x_i + \varepsilon_i
$$
其中:
- $ y_i $:第 $ i $ 个观测点的因变量值
- $ x_i $:第 $ i $ 个观测点的自变量值
- $ \beta_0 $:截距项
- $ \beta_1 $:斜率项
- $ \varepsilon_i $:随机误差项
最小二乘估计公式:
$$
\hat{\beta}_1 = \frac{\sum_{i=1}^{n}(x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^{n}(x_i - \bar{x})^2}
$$
$$
\hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \bar{x}
$$
其中:
- $ \bar{x} $:自变量的均值
- $ \bar{y} $:因变量的均值
三、多元线性回归模型
多元线性回归模型的一般形式为:
$$
y_i = \beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2} + \cdots + \beta_k x_{ik} + \varepsilon_i
$$
其中:
- $ x_{i1}, x_{i2}, ..., x_{ik} $:第 $ i $ 个观测点的 $ k $ 个自变量
- $ \beta_0, \beta_1, ..., \beta_k $:模型参数
矩阵表示下的最小二乘估计:
$$
\hat{\boldsymbol{\beta}} = (\mathbf{X}^\top \mathbf{X})^{-1} \mathbf{X}^\top \mathbf{y}
$$
其中:
- $ \mathbf{X} $:设计矩阵,包含自变量和一个常数列
- $ \mathbf{y} $:因变量向量
- $ \hat{\boldsymbol{\beta}} $:参数估计向量
四、关键公式汇总表
公式类型 | 公式表达 | 说明 |
一元线性回归斜率估计 | $ \hat{\beta}_1 = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2} $ | 计算斜率参数 |
一元线性回归截距估计 | $ \hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \bar{x} $ | 计算截距参数 |
多元线性回归参数估计 | $ \hat{\boldsymbol{\beta}} = (\mathbf{X}^\top \mathbf{X})^{-1} \mathbf{X}^\top \mathbf{y} $ | 矩阵形式的参数估计 |
残差计算 | $ e_i = y_i - \hat{y}_i $ | 实际值与预测值之差 |
残差平方和 | $ \text{SSE} = \sum_{i=1}^{n} e_i^2 $ | 衡量模型拟合优度 |
五、总结
普通最小二乘法是一种基于最小化残差平方和的参数估计方法,适用于线性模型的建模与分析。无论是简单的一元线性回归还是复杂的多元线性回归,OLS 都提供了一套清晰且实用的计算公式。理解这些公式有助于更好地掌握回归分析的基本原理,并为实际数据分析打下坚实基础。
以上就是【普通最小二乘法的计算公式】相关内容,希望对您有所帮助。