【物联网】简要介绍最小二乘法—C语言实现

最小二乘法是一种常用的数学方法,用于拟合数据和寻找最佳拟合曲线。它的目标是找到一个函数,使其在数据点上的误差平方和最小化。
在这里插入图片描述



基本原理

假设我们有一组数据点 ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) (x_1, y_1), (x_2, y_2), ..., (x_n, y_n) (x1,y1),(x2,y2),...,(xn,yn),我们想要找到一个函数 y = f ( x ) y = f(x) y=f(x),使得这个函数能够最好地拟合这些数据点。最小二乘法的基本思想是,我们要找到一个函数 y = f ( x ) y = f(x) y=f(x),使得所有数据点到这个函数的距离的平方和最小。

我们定义每个数据点到函数的距离为残差 r e s i d u a l i residual_i residuali,即 r e s i d u a l i = y i − f ( x i ) residual_i = y_i - f(x_i) residuali=yif(xi)。我们的目标是最小化所有残差的平方和,即最小化误差平方和 S = ∑ i = 1 n r e s i d u a l i 2 S = \sum_{i=1}^{n} residual_i^2 S=i=1nresiduali2


最小二乘法的求解

为了求解最小二乘法问题,我们需要选择一个合适的函数形式 y = f ( x ) y = f(x) y=f(x)。常见的函数形式包括线性函数、多项式函数、指数函数等。以线性函数 y = a x + b y = ax + b y=ax+b为例,我们可以通过最小化误差平方和 S S S来求解系数 a a a b b b

首先,我们定义一个目标函数 J ( a , b ) J(a, b) J(a,b),即 J ( a , b ) = ∑ i = 1 n ( y i − ( a x i + b ) ) 2 J(a, b) = \sum_{i=1}^{n} (y_i - (ax_i + b))^2 J(a,b)=i=1n(yi(axi+b))2。我们的目标是找到使得 J ( a , b ) J(a, b) J(a,b)最小的 a a a b b b。为了达到这个目标,我们需要求解目标函数的偏导数,并令其为0。

对于目标函数 J ( a , b ) J(a, b) J(a,b),我们分别对 a a a b b b求偏导数,并令其为0,即:

∂ J ∂ a = 0 \frac{\partial J}{\partial a} = 0 aJ=0

∂ J ∂ b = 0 \frac{\partial J}{\partial b} = 0 bJ=0

通过求解上述方程组,我们可以得到 a a a b b b的解,从而得到最佳拟合直线。


应用举例

最小二乘法在实际应用中具有广泛的应用。例如,在经济学中,最小二乘法可以用于估计经济模型的参数。在物理学中,最小二乘法可以用于拟合实验数据并得到物理定律的参数。在机器学习中,最小二乘法可以用于线性回归问题。

下面以线性回归问题为例,假设我们有一组房屋面积和价格的数据点,我们想要找到一个线性函数,使得能够最好地拟合这些数据点。我们可以使用最小二乘法来求解线性函数的参数。

假设我们的数据点为 ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) (x_1, y_1), (x_2, y_2), ..., (x_n, y_n) (x1,y1),(x2,y2),...,(xn,yn),我们要找到一个线性函数 y = a x + b y = ax + b y=ax+b,使得误差平方和 S = ∑ i = 1 n ( y i − ( a x i + b ) ) 2 S = \sum_{i=1}^{n} (y_i - (ax_i + b))^2 S=i=1n(yi(axi+b))2最小化。

通过求解目标函数的偏导数,并令其为0,我们可以得到 a a a b b b的解。最终,我们可以得到最佳拟合直线的参数。


使用C语言实现最小二乘法

#include <stdio.h>

// 定义最大数据点数量
#define MAX_DATA_POINTS 100

// 定义数据点结构体
typedef struct {
    
    
    double x;
    double y;
} DataPoint;

// 定义线性回归函数
void linearRegression(DataPoint* data, int n, double* a, double* b) {
    
    
    double sumX = 0, sumY = 0, sumXY = 0, sumX2 = 0;
    for (int i = 0; i < n; i++) {
    
    
        sumX += data[i].x;
        sumY += data[i].y;
        sumXY += data[i].x * data[i].y;
        sumX2 += data[i].x * data[i].x;
    }
    double denominator = n * sumX2 - sumX * sumX;
    *a = (n * sumXY - sumX * sumY) / denominator;
    *b = (sumY * sumX2 - sumX * sumXY) / denominator;
}

int main() {
    
    
    int n;
    DataPoint data[MAX_DATA_POINTS];

    // 输入数据点数量
    printf("Enter the number of data points: ");
    scanf("%d", &n);

    // 输入数据点的 x 和 y 值
    printf("Enter the data points (x, y):\n");
    for (int i = 0; i < n; i++) {
    
    
        printf("Data point %d: ", i+1);
        scanf("%lf %lf", &data[i].x, &data[i].y);
    }

    double a, b;
    linearRegression(data, n, &a, &b);

    // 输出线性回归的结果
    printf("Linear regression equation: y = %.2fx + %.2f\n", a, b);

    return 0;
}

该代码实现了一个简单的线性回归函数linearRegression,该函数接受一个数据点数组和数据点数量作为输入,并计算出最佳拟合直线的参数。在main函数中,我们首先输入数据点的数量和具体数值,然后调用linearRegression函数进行线性回归计算,并输出最佳拟合直线的方程。

请注意,该代码仅实现了简单的线性回归,如果需要拟合其他类型的函数,需要相应地修改linearRegression函数的实现。


总结

最小二乘法是一种常用的数学方法,用于拟合数据和寻找最佳拟合曲线。它的基本原理是最小化数据点到拟合函数的距离的平方和。通过求解目标函数的偏导数,并令其为0,我们可以得到最佳拟合函数的参数。最小二乘法在各个领域都有广泛的应用,是一种非常有用的工具。

猜你喜欢

转载自blog.csdn.net/Goforyouqp/article/details/132882327