Tensorflow 模型总是预测相同的错误值
Tensorflow model always predict the same wrong value
我实际上是在学习在 nodejs 中构建机器学习:为此我选择 tensorflow API。
此机器学习的目标是提供 14 个条目的输入,并 return 一个与这 14 个条目相关的数字。 (我不能描述更多的背景,因为我在实习,我不知道我是否允许谈论这个。)
但是模型总是预测错误的值,我不知道为什么。我尝试了不同的 loss/optimizer 函数、不同的层模型配置、不同的层激活...但是模型总是给我一个浮点值。
我尝试将 input/output 值替换为 0.3,预测 return 我的值介于 0.1 和 0.3 之间。 (测试了 3 次)。但是在训练过程中损失值下降,这似乎效果更好。
我也试过将训练次数增加到 1000,没有结果 :/
首先,我创建了一个函数来构建模型网络。我的模型有一个 14 个单元的输入层,然后是 2 个 5 个单元的隐藏层,然后是只有一个单元的输出层。 (所有层都在'sigmoid'激活,并且是密集型。)
const get_model = async () => {
const model = tf.sequential();
const input_layer = tf.layers.dense({
units: 13,
inputShape: [14],
activation: 'sigmoid',
});
model.add(input_layer)
let left = 3;
while(left >= 2){
const step_layer = tf.layers.dense({
units: 5,
activation: 'sigmoid',
});
model.add(step_layer)
left --;
}
const output = tf.layers.dense({
units: 1,
activation: 'sigmoid',
});
model.add(output)
model.compile({
optimizer: tf.train.sgd(0.01),
loss: tf.losses.absoluteDifference,
metrics: 'accuracy',
})
return model;
}
为了测试模型,在训练过程中,我总是给出一个包含 13 个数字的列表(所有值都是 100),并且我总是给出以下值:100。
const get_output = () => {
return 100;
}
const get_input = () => {
return [
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
];
}
我有两个函数可以将值转换为张量值。
const get_input_tensor = (value) => {
return tf.tensor([value],[1,14])
}
const get_output_tensor = (value) => {
return tf.tensor(
[Math.floor(value)],
[1,1]
)
}
然后我得到模型,训练模型并尝试预测。
(async () => {
const model = await get_model();
let left = 20;
while(left >= 0){
const input = get_input();
const output = get_output();
await model.fit(get_input_tensor(input),get_output_tensor(output),{
batchSize: 30,
epochs: 10,
shuffle: true,
});
left--;
}
const input = get_input();
const output = model.predict(get_input_tensor(input));
output.print();
})();
在训练过程中,损失值接近 100。这突出表明模型总是 return 接近 1 的值。
这是我训练时的控制台:
Epoch 8 / 10
eta=0.0 ====================================================================>
11ms 10943us/step - loss=99.14
Epoch 9 / 10
eta=0.0 ====================================================================>
10ms 10351us/step - loss=99.14
Epoch 10 / 10
eta=0.0 ====================================================================>
12ms 12482us/step - loss=99.14
然后当我尝试预测时,模型 return 我的值接近 1。
这是预测的打印张量。
Tensor
[[0.8586583],]
你能帮帮我吗?我不知道出了什么问题。是否有可能有超过 1 的预测?
这是一个简单的模型,可以根据 14 个值的输入预测 100。通常将输入值采样到 0 和 1 之间。它提高了最速下降算法的收敛性。
至于模型预测错误值的原因;有一般答案
(async () => {
const model = tf.sequential({
layers: [tf.layers.dense({units: 1, inputShape: [14], activation: 'relu', kernelInitializer: 'ones'})]
});
model.compile({optimizer: 'sgd', loss: 'meanSquaredError'});
await model.fit(tf.ones([1, 14]), tf.tensor([100], [1, 1]), {epochs: 100})
model.predict(tf.ones([1, 14])).print();
})()
<html>
<head>
<!-- Load TensorFlow.js -->
<script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs@latest"> </script>
</head>
<body>
</body>
</html>
我终于解决了问题!
我的图层使用以下激活:'sigmoid'。 sigmoid 是一个值介于 0 和 1 之间的函数,这就是我得到相同值的原因。
(激活'relu'并不是我所期望的)
我将激活设置为 'linear',但是这个激活在训练期间使损失值变为 NaN,然后我将优化器切换为 adam,这解决了问题:)
我实际上是在学习在 nodejs 中构建机器学习:为此我选择 tensorflow API。 此机器学习的目标是提供 14 个条目的输入,并 return 一个与这 14 个条目相关的数字。 (我不能描述更多的背景,因为我在实习,我不知道我是否允许谈论这个。) 但是模型总是预测错误的值,我不知道为什么。我尝试了不同的 loss/optimizer 函数、不同的层模型配置、不同的层激活...但是模型总是给我一个浮点值。
我尝试将 input/output 值替换为 0.3,预测 return 我的值介于 0.1 和 0.3 之间。 (测试了 3 次)。但是在训练过程中损失值下降,这似乎效果更好。
我也试过将训练次数增加到 1000,没有结果 :/
首先,我创建了一个函数来构建模型网络。我的模型有一个 14 个单元的输入层,然后是 2 个 5 个单元的隐藏层,然后是只有一个单元的输出层。 (所有层都在'sigmoid'激活,并且是密集型。)
const get_model = async () => {
const model = tf.sequential();
const input_layer = tf.layers.dense({
units: 13,
inputShape: [14],
activation: 'sigmoid',
});
model.add(input_layer)
let left = 3;
while(left >= 2){
const step_layer = tf.layers.dense({
units: 5,
activation: 'sigmoid',
});
model.add(step_layer)
left --;
}
const output = tf.layers.dense({
units: 1,
activation: 'sigmoid',
});
model.add(output)
model.compile({
optimizer: tf.train.sgd(0.01),
loss: tf.losses.absoluteDifference,
metrics: 'accuracy',
})
return model;
}
为了测试模型,在训练过程中,我总是给出一个包含 13 个数字的列表(所有值都是 100),并且我总是给出以下值:100。
const get_output = () => {
return 100;
}
const get_input = () => {
return [
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
100,
];
}
我有两个函数可以将值转换为张量值。
const get_input_tensor = (value) => {
return tf.tensor([value],[1,14])
}
const get_output_tensor = (value) => {
return tf.tensor(
[Math.floor(value)],
[1,1]
)
}
然后我得到模型,训练模型并尝试预测。
(async () => {
const model = await get_model();
let left = 20;
while(left >= 0){
const input = get_input();
const output = get_output();
await model.fit(get_input_tensor(input),get_output_tensor(output),{
batchSize: 30,
epochs: 10,
shuffle: true,
});
left--;
}
const input = get_input();
const output = model.predict(get_input_tensor(input));
output.print();
})();
在训练过程中,损失值接近 100。这突出表明模型总是 return 接近 1 的值。
这是我训练时的控制台:
Epoch 8 / 10
eta=0.0 ====================================================================>
11ms 10943us/step - loss=99.14
Epoch 9 / 10
eta=0.0 ====================================================================>
10ms 10351us/step - loss=99.14
Epoch 10 / 10
eta=0.0 ====================================================================>
12ms 12482us/step - loss=99.14
然后当我尝试预测时,模型 return 我的值接近 1。
这是预测的打印张量。
Tensor
[[0.8586583],]
你能帮帮我吗?我不知道出了什么问题。是否有可能有超过 1 的预测?
这是一个简单的模型,可以根据 14 个值的输入预测 100。通常将输入值采样到 0 和 1 之间。它提高了最速下降算法的收敛性。
至于模型预测错误值的原因;有一般答案
(async () => {
const model = tf.sequential({
layers: [tf.layers.dense({units: 1, inputShape: [14], activation: 'relu', kernelInitializer: 'ones'})]
});
model.compile({optimizer: 'sgd', loss: 'meanSquaredError'});
await model.fit(tf.ones([1, 14]), tf.tensor([100], [1, 1]), {epochs: 100})
model.predict(tf.ones([1, 14])).print();
})()
<html>
<head>
<!-- Load TensorFlow.js -->
<script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs@latest"> </script>
</head>
<body>
</body>
</html>
我终于解决了问题!
我的图层使用以下激活:'sigmoid'。 sigmoid 是一个值介于 0 和 1 之间的函数,这就是我得到相同值的原因。 (激活'relu'并不是我所期望的)
我将激活设置为 'linear',但是这个激活在训练期间使损失值变为 NaN,然后我将优化器切换为 adam,这解决了问题:)