Java语言实现最小二乘法算法

最小二乘法(Least Squares)是一种用于数据拟合的数学方法,可以通过最小化观测数据和拟合函数之间的误差平方和,来确定最优拟合参数。下面是用Java实现最小二乘法线性回归的示例代码:

public class LinearRegression {
    private double[] xData;
    private double[] yData;
    private double slope;  // 斜率
    private double intercept;  // 截距

    public LinearRegression(double[] xData, double[] yData) {
        this.xData = xData;
        this.yData = yData;
        calculate();
    }

    private void calculate() {
        int n = xData.length;

        double sumX = 0, sumY = 0, sumXY = 0, sumX2 = 0;

        for (int i = 0; i < n; i++) {
            sumX += xData[i];
            sumY += yData[i];
            sumXY += xData[i] * yData[i];
            sumX2 += xData[i] * xData[i];
        }

        // 计算斜率和截距
        slope = (n * sumXY - sumX * sumY) / (n * sumX2 - sumX * sumX);
        intercept = (sumY - slope * sumX) / n;
    }

    public double predict(double x) {
        return slope * x + intercept;
    }

    public double getSlope() {
        return slope;
    }

    public double getIntercept() {
        return intercept;
    }

    public static void main(String[] args) {
        double[] xData = {1, 2, 3, 4, 5};
        double[] yData = {2, 3, 5, 7, 11};

        LinearRegression lr = new LinearRegression(xData, yData);
        System.out.println("Slope: " + lr.getSlope());
        System.out.println("Intercept: " + lr.getIntercept());

        // 预测
        double x = 6;
        System.out.println("Prediction for x = " + x + ": " + lr.predict(x));
    }
}

代码说明:

  1. 数据输入: xDatayData 是输入的自变量和因变量数据。
  2. 计算斜率和截距: 在 calculate() 方法中,通过最小二乘法公式计算得到线性回归的斜率和截距。
  3. 预测值: predict() 方法用于输入新的自变量值,并返回相应的预测值。
  4. 主函数: 在 main() 方法中,创建一个 LinearRegression 对象并输出斜率、截距以及对新的输入数据的预测结果。

通过这段代码,你可以利用最小二乘法对数据进行线性拟合并进行预测。

最小二乘法(Least Squares)是一种用于数据拟合的数学方法,可以通过最小化观测数据和拟合函数之间的误差平方和,来确定最优拟合参数。下面是用Java实现最小二乘法线性回归的示例代码:

public class LinearRegression {
    private double[] xData;
    private double[] yData;
    private double slope;  // 斜率
    private double intercept;  // 截距

    public LinearRegression(double[] xData, double[] yData) {
        this.xData = xData;
        this.yData = yData;
        calculate();
    }

    private void calculate() {
        int n = xData.length;

        double sumX = 0, sumY = 0, sumXY = 0, sumX2 = 0;

        for (int i = 0; i < n; i++) {
            sumX += xData[i];
            sumY += yData[i];
            sumXY += xData[i] * yData[i];
            sumX2 += xData[i] * xData[i];
        }

        // 计算斜率和截距
        slope = (n * sumXY - sumX * sumY) / (n * sumX2 - sumX * sumX);
        intercept = (sumY - slope * sumX) / n;
    }

    public double predict(double x) {
        return slope * x + intercept;
    }

    public double getSlope() {
        return slope;
    }

    public double getIntercept() {
        return intercept;
    }

    public static void main(String[] args) {
        double[] xData = {1, 2, 3, 4, 5};
        double[] yData = {2, 3, 5, 7, 11};

        LinearRegression lr = new LinearRegression(xData, yData);
        System.out.println("Slope: " + lr.getSlope());
        System.out.println("Intercept: " + lr.getIntercept());

        // 预测
        double x = 6;
        System.out.println("Prediction for x = " + x + ": " + lr.predict(x));
    }
}

代码说明:

  1. 数据输入: xDatayData 是输入的自变量和因变量数据。
  2. 计算斜率和截距: 在 calculate() 方法中,通过最小二乘法公式计算得到线性回归的斜率和截距。
  3. 预测值: predict() 方法用于输入新的自变量值,并返回相应的预测值。
  4. 主函数: 在 main() 方法中,创建一个 LinearRegression 对象并输出斜率、截距以及对新的输入数据的预测结果。

通过这段代码,你可以利用最小二乘法对数据进行线性拟合并进行预测。

打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,您说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

分享从这里开始,精彩与您同在