tflite 如何将 Relu 融合到 conv 层中?

How does tflite fuses Relu into conv layers?

将 TF 模型转换为 tflite 模型(或者换句话说 - 使用 "post-training quantization" 量化模型)时,Relu 层从图中消失。这在 documentation 中有解释:"operations that can be simply removed from the graph (tf.identity), replaced by tensors (tf.placeholder), or fused into more complex operations (tf.nn.bias_add)."

我的问题是 - 如何将 Relu 层融合到前一层中? (这个"fusion"之外的数学是什么?这是量化模型的特定过程,还是也可以在原始浮点模型中完成?)

希望对您有所帮助。