Java 中的梯度下降

Gradient descent in Java

我最近在 Coursera 开始了 AI-Class,我有一个关于梯度下降算法实现的问题。

这是我当前的实现(实际上我只是将数学表达式“翻译”成 Java 代码):

    public class GradientDescent {

    private static final double TOLERANCE = 1E-11;
    
    private double theta0;
    private double theta1;
    
    public double getTheta0() {
        return theta0;
    }
    
    public double getTheta1() {
        return theta1;
    }
    
    public GradientDescent(double theta0, double theta1) {
         this.theta0 = theta0;
         this.theta1 = theta1;
    }
    
    public double getHypothesisResult(double x){
        return theta0 + theta1*x;
    }
    
    private double getResult(double[][] trainingData, boolean enableFactor){
        double result = 0;
        for (int i = 0; i < trainingData.length; i++) {
            result = (getHypothesisResult(trainingData[i][0]) - trainingData[i][1]);
            if (enableFactor) result = result*trainingData[i][0]; 
        }
        return result;
    }
    
    public void train(double learningRate, double[][] trainingData){
        int iteration = 0;
        double delta0, delta1;
        do{
            iteration++;
            System.out.println("SUBS: " + (learningRate*((double) 1/trainingData.length))*getResult(trainingData, false));
            double temp0 = theta0 - learningRate*(((double) 1/trainingData.length)*getResult(trainingData, false));
            double temp1 = theta1 - learningRate*(((double) 1/trainingData.length)*getResult(trainingData, true));
            delta0 = theta0-temp0; delta1 = theta1-temp1;
            theta0 = temp0; theta1 = temp1;
        }while((Math.abs(delta0) + Math.abs(delta1)) > TOLERANCE);
        System.out.println(iteration);
    }
}

该代码运行良好,但前提是我选择了一个非常小的 alpha,这里称为 learningRate。如果高于 0.00001,则发散。

您对如何优化实施有任何建议,或者对“Alpha-Issue”的解释及其可能的解决方案吗?

更新:

下面是主要内容,包括一些样本输入:

private static final double[][] TDATA = {{200, 20000},{300, 41000},{900, 141000},{800, 41000},{400, 51000},{500, 61500}};

public static void main(String[] args) {
    GradientDescent gd = new GradientDescent(0,0);
    gd.train(0.00001, TDATA);
    System.out.println("THETA0: " + gd.getTheta0() + " - THETA1: " + gd.getTheta1());
    System.out.println("PREDICTION: " + gd.getHypothesisResult(300));
}

梯度下降的数学表达式如下:

您应该使用 java.math.BigDecimal 进行算术运算。
double 在执行算术运算时存在舍入问题。

为了解决这个问题,需要用这个公式对数据进行归一化:(Xi-mu)/s。 xi是当前训练集值,mu是当前列中值的平均值,s是当前列中最大值减去最小值。该公式将使训练数据大约在 -1 和 1 之间的范围内,这允许选择更高的学习率和梯度下降以更快地收敛。 但是之后有必要对预测结果进行反规范化。

private double getResult(double[][] trainingData, boolean enableFactor){
double result = 0;
for (int i = 0; i < trainingData.length; i++) {
    result = (getHypothesisResult(trainingData[i][0]) - trainingData[i][1]);
    if (enableFactor) result = result*trainingData[i][0]; 
}
return result;

在这个函数中。每次迭代都会覆盖结果变量,旧值会丢失。输入值时,仅计算数组中的最后一项。其他的无所谓。