线性拟合公式推导
【线性拟合公式推导】在线性回归分析中,线性拟合是通过找到一条最佳直线来描述自变量与因变量之间的关系。该过程的核心是利用最小二乘法(Least Squares Method)来确定最优的直线参数。本文将对线性拟合公式的推导过程进行总结,并以表格形式展示关键步骤和公式。
一、线性拟合基本模型
线性拟合的基本模型为:
$$
y = a x + b
$$
其中:
- $ y $ 是因变量;
- $ x $ 是自变量;
- $ a $ 是斜率;
- $ b $ 是截距。
目标是根据给定的数据点 $(x_i, y_i)$,找到最佳的 $a$ 和 $b$,使得预测值 $\hat{y}_i = a x_i + b$ 与实际值 $y_i$ 的误差最小。
二、最小二乘法原理
最小二乘法的核心思想是:使所有数据点的残差平方和最小,即:
$$
S = \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 = \sum_{i=1}^{n} (y_i - a x_i - b)^2
$$
为了找到使 $S$ 最小的 $a$ 和 $b$,我们对 $a$ 和 $b$ 求偏导并令其为零。
三、推导过程
1. 对 $b$ 求偏导并设为零:
$$
\frac{\partial S}{\partial b} = \sum_{i=1}^{n} 2(y_i - a x_i - b)(-1) = 0
$$
整理得:
$$
\sum_{i=1}^{n} (y_i - a x_i - b) = 0
$$
即:
$$
\sum y_i = a \sum x_i + n b
$$
2. 对 $a$ 求偏导并设为零:
$$
\frac{\partial S}{\partial a} = \sum_{i=1}^{n} 2(y_i - a x_i - b)(-x_i) = 0
$$
整理得:
$$
\sum x_i (y_i - a x_i - b) = 0
$$
即:
$$
\sum x_i y_i = a \sum x_i^2 + b \sum x_i
$$
四、联立方程求解
从上述两个方程可得:
$$
\begin{cases}
\sum y_i = a \sum x_i + n b \\
\sum x_i y_i = a \sum x_i^2 + b \sum x_i
\end{cases}
$$
通过代入消元法或矩阵方法,可以求得:
$$
a = \frac{n \sum x_i y_i - \sum x_i \sum y_i}{n \sum x_i^2 - (\sum x_i)^2}
$$
$$
b = \frac{\sum y_i - a \sum x_i}{n}
$$
五、关键公式总结表
| 步骤 | 公式 | 说明 |
| 1 | $ y = a x + b $ | 线性拟合模型 |
| 2 | $ S = \sum (y_i - a x_i - b)^2 $ | 残差平方和 |
| 3 | $ \frac{\partial S}{\partial b} = 0 $ | 对 $b$ 求偏导 |
| 4 | $ \sum y_i = a \sum x_i + n b $ | 第一个方程 |
| 5 | $ \frac{\partial S}{\partial a} = 0 $ | 对 $a$ 求偏导 |
| 6 | $ \sum x_i y_i = a \sum x_i^2 + b \sum x_i $ | 第二个方程 |
| 7 | $ a = \frac{n \sum x_i y_i - \sum x_i \sum y_i}{n \sum x_i^2 - (\sum x_i)^2} $ | 斜率公式 |
| 8 | $ b = \frac{\sum y_i - a \sum x_i}{n} $ | 截距公式 |
六、结论
线性拟合的公式推导主要依赖于最小二乘法原理,通过建立残差平方和的目标函数,并对其进行求导、联立求解,最终得到斜率 $a$ 和截距 $b$ 的表达式。这些公式在统计学、数据分析和机器学习中具有广泛应用,是理解回归分析的基础工具。








线性拟合公式推导