卷积神经网络的回归架构
Architecture of regression with Convolution Neural Network
我想使用 AlexNet 架构来解决回归问题,最初用于分类任务。
此外,对于学习步骤,我想在批量大小中包含一个参数。
所以我有几个问题:
- 我需要在网络架构中更改什么才能实现回归?正好在最后一层,损失函数什么的。
- 如果我使用批量大小为 5,最后一层的输出大小是多少?
谢谢!
分享会很有帮助:
Q Framework:您正在使用哪个深度学习框架and/or分享您需要帮助修改的特定代码
A: 例如。 TensorFlow、PyTorch、Keras 等
Q 损失类型,输出大小: 您试图通过回归实现的任务是什么?这会影响您要使用的损失类型、输出维度、微调 VGGnet 等。
A: 例如。灰度图像的自动着色(这里是 example)是回归任务的一个示例,您将尝试从单色图像中回归 RGB 通道像素值。您可能有 L2 损失(或其他损失以提高性能)。输出大小应该独立于批量大小,它将由最后一层输出的维度决定(即 prediction op
)。批量大小是一个训练参数,您可以更改它而无需更改模型架构或输出维度。
我想使用 AlexNet 架构来解决回归问题,最初用于分类任务。 此外,对于学习步骤,我想在批量大小中包含一个参数。
所以我有几个问题:
- 我需要在网络架构中更改什么才能实现回归?正好在最后一层,损失函数什么的。
- 如果我使用批量大小为 5,最后一层的输出大小是多少?
谢谢!
分享会很有帮助:
Q Framework:您正在使用哪个深度学习框架and/or分享您需要帮助修改的特定代码
A: 例如。 TensorFlow、PyTorch、Keras 等
Q 损失类型,输出大小: 您试图通过回归实现的任务是什么?这会影响您要使用的损失类型、输出维度、微调 VGGnet 等。
A: 例如。灰度图像的自动着色(这里是 example)是回归任务的一个示例,您将尝试从单色图像中回归 RGB 通道像素值。您可能有 L2 损失(或其他损失以提高性能)。输出大小应该独立于批量大小,它将由最后一层输出的维度决定(即
prediction op
)。批量大小是一个训练参数,您可以更改它而无需更改模型架构或输出维度。