提供的 objective 函数必须 return 一个标量值
Supplied objective function must return a scalar value
我正在尝试在 Matlab 中编写 ML 算法。这些是我的不同功能:
sigmoid.m:
function g = sigmoid(z)
g = zeros(size(z));
g = 1 ./ (1+exp(z));
costFunction.m
function [J, grad ] = costFunction(theta, X, y)
m = length(y); % number of training examples
z = -X * theta;
g = sigmoid(z);
J = 1/m * ((-y * log(g)') - ((1 - y) * log(1 - g)'));
grad = zeros(size(theta'));
grad = (1/m) * (X' * (g - y));
ex2.m(这是我的项目的主文件,我把相关的行放在我收到这个错误信息)
options = optimset('GradObj', 'on', 'MaxIter', 400);
[theta, cost] = ...
fminunc(@(t)(costFunction(t, X, y)), initial_theta, options);
错误信息:
Error using fminunc (line 348) Supplied objective function must return
a scalar value.
Error in ex2 (line 97) fminunc(@(t)(costFunction(t, X, y)),
initial_theta, options);
不知道上面的信息够不够?如果没有,请告诉我以添加额外信息。
我更改了以下代码行:
J = 1/m * ((-y * log(g)') - ((1 - y) * log(1 - g)'));
到下面一行代码:
J = 1/m * (((-y)' * log(g)) - ((1 - y)' * log(1 - g)));
问题解决了!
y
和 g
是 100*1
矩阵,使用以前的代码我有 J=100*100
矩阵,但是使用新代码我有 J=1*1
矩阵或标量,问题已解决!
我正在尝试在 Matlab 中编写 ML 算法。这些是我的不同功能:
sigmoid.m:
function g = sigmoid(z)
g = zeros(size(z));
g = 1 ./ (1+exp(z));
costFunction.m
function [J, grad ] = costFunction(theta, X, y)
m = length(y); % number of training examples
z = -X * theta;
g = sigmoid(z);
J = 1/m * ((-y * log(g)') - ((1 - y) * log(1 - g)'));
grad = zeros(size(theta'));
grad = (1/m) * (X' * (g - y));
ex2.m(这是我的项目的主文件,我把相关的行放在我收到这个错误信息)
options = optimset('GradObj', 'on', 'MaxIter', 400);
[theta, cost] = ...
fminunc(@(t)(costFunction(t, X, y)), initial_theta, options);
错误信息:
Error using fminunc (line 348) Supplied objective function must return a scalar value.
Error in ex2 (line 97) fminunc(@(t)(costFunction(t, X, y)), initial_theta, options);
不知道上面的信息够不够?如果没有,请告诉我以添加额外信息。
我更改了以下代码行:
J = 1/m * ((-y * log(g)') - ((1 - y) * log(1 - g)'));
到下面一行代码:
J = 1/m * (((-y)' * log(g)) - ((1 - y)' * log(1 - g)));
问题解决了!
y
和 g
是 100*1
矩阵,使用以前的代码我有 J=100*100
矩阵,但是使用新代码我有 J=1*1
矩阵或标量,问题已解决!