字符/数字的边界框检测

Bounding box detection for characters / digits

我有图片,如下所示:

我想找到 8 位数字的边界框。我的第一次尝试是将 cv2 与以下代码一起使用:

import cv2
import matplotlib.pyplot as plt
import cvlib as cv
from cvlib.object_detection import draw_bbox

im = cv2.imread('31197402.png')
bbox, label, conf = cv.detect_common_objects(im)
output_image = draw_bbox(im, bbox, label, conf)
plt.imshow(output_image)
plt.show()

不幸的是,这不起作用。有人有想法吗?

您的解决方案中的问题可能是输入图像质量很差。人物和背景之间几乎没有任何对比。来自 cvlib 的斑点检测算法可能无法区分字符斑点和背景,产生无用的二进制掩码。让我们尝试使用纯 OpenCV.

来解决这个问题

我提出以下步骤:

  1. 应用自适应阈值以获得相当好的二进制掩码。
  2. 使用区域过滤器.
  3. 清除二进制掩码中的斑点噪声
  4. 使用形态学提高二值图像的质量。
  5. 获取每个字符的外部轮廓,并为每个字符块拟合一个边界矩形
  6. 使用之前计算的边界矩形裁剪 每个字符。

来看代码:

# importing cv2 & numpy:
import numpy as np
import cv2

# Set image path
path = "C:/opencvImages/"
fileName = "mrrm9.png"

# Read input image:
inputImage = cv2.imread(path+fileName)
inputCopy = inputImage.copy()

# Convert BGR to grayscale:
grayscaleImage = cv2.cvtColor(inputImage, cv2.COLOR_BGR2GRAY)

从这里开始没什么可讨论的,只是读取BGR图像并将其转换为grayscale。现在,让我们使用 gaussian 方法应用 adaptive threshold。这是棘手的部分,因为参数是根据输入质量手动调整的。该方法的工作方式是将图像划分为 windowSize 的单元格网格,然后应用局部阈值来找到前景和背景之间的最佳分离。可以将由 windowConstant 表示的附加常量添加到阈值以微调输出:

# Set the adaptive thresholding (gasussian) parameters:
windowSize = 31
windowConstant = -1
# Apply the threshold:
binaryImage = cv2.adaptiveThreshold(grayscaleImage, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY, windowSize, windowConstant)

你得到这个漂亮的二值图像:

现在,如您所见,图像有一些斑点噪声。让我们应用 area filter 来消除噪音。噪声小于感兴趣的目标斑点,因此我们可以根据面积轻松过滤它们,如下所示:

# Perform an area filter on the binary blobs:
componentsNumber, labeledImage, componentStats, componentCentroids = \
cv2.connectedComponentsWithStats(binaryImage, connectivity=4)

# Set the minimum pixels for the area filter:
minArea = 20

# Get the indices/labels of the remaining components based on the area stat
# (skip the background component at index 0)
remainingComponentLabels = [i for i in range(1, componentsNumber) if componentStats[i][4] >= minArea]

# Filter the labeled pixels based on the remaining labels,
# assign pixel intensity to 255 (uint8) for the remaining pixels
filteredImage = np.where(np.isin(labeledImage, remainingComponentLabels) == True, 255, 0).astype('uint8')

这是过滤后的图像:

我们可以通过一些形态学来提高这张图片的质量。有些字符似乎被破坏了(查看第一个 3 - 它被破坏成两个分开的斑点)。我们可以加入他们应用关闭操作:

# Set kernel (structuring element) size:
kernelSize = 3

# Set operation iterations:
opIterations = 1

# Get the structuring element:
maxKernel = cv2.getStructuringElement(cv2.MORPH_RECT, (kernelSize, kernelSize))

# Perform closing:
closingImage = cv2.morphologyEx(filteredImage, cv2.MORPH_CLOSE, maxKernel, None, None, opIterations, cv2.BORDER_REFLECT101)

这是“关闭”图像:

现在,你想得到每个字符的 bounding boxes。让我们检测每个斑点的外部轮廓并在其周围放置一个漂亮的矩形:

# Get each bounding box
# Find the big contours/blobs on the filtered image:
contours, hierarchy = cv2.findContours(closingImage, cv2.RETR_CCOMP, cv2.CHAIN_APPROX_SIMPLE)

contours_poly = [None] * len(contours)
# The Bounding Rectangles will be stored here:
boundRect = []

# Alright, just look for the outer bounding boxes:
for i, c in enumerate(contours):

    if hierarchy[0][i][3] == -1:
        contours_poly[i] = cv2.approxPolyDP(c, 3, True)
        boundRect.append(cv2.boundingRect(contours_poly[i]))


# Draw the bounding boxes on the (copied) input image:
for i in range(len(boundRect)):
    color = (0, 255, 0)
    cv2.rectangle(inputCopy, (int(boundRect[i][0]), int(boundRect[i][1])), \
              (int(boundRect[i][0] + boundRect[i][2]), int(boundRect[i][1] + boundRect[i][3])), color, 2)

最后一个 for 循环几乎是可选的。它从列表中获取每个边界矩形并将其绘制在输入图像上,因此您可以看到每个单独的矩形,如下所示:

让我们在二值图像上可视化:

此外,如果您想使用我们刚刚获得的边界框裁剪每个字符,您可以这样做:

# Crop the characters:
for i in range(len(boundRect)):
    # Get the roi for each bounding rectangle:
    x, y, w, h = boundRect[i]

    # Crop the roi:
    croppedImg = closingImage[y:y + h, x:x + w]
    cv2.imshow("Cropped Character: "+str(i), croppedImg)
    cv2.waitKey(0)

这是您获取单个边界框的方法。现在,也许您正在尝试将这些图像传递给 OCR。我尝试将 过滤后的二进制图像 (在关闭操作后)传递给 pyocr (这是我正在使用的 OCR),我将其作为输出字符串:31197402

我用来获取关闭图片的OCR的代码是这样的:

# Set the OCR libraries:
from PIL import Image
import pyocr
import pyocr.builders

# Set pyocr tools:
tools = pyocr.get_available_tools()
# The tools are returned in the recommended order of usage
tool = tools[0]

# Set OCR language:
langs = tool.get_available_languages()
lang = langs[0]

# Get string from image:
txt = tool.image_to_string(
    Image.open(path + "closingImage.png"),
    lang=lang,
    builder=pyocr.builders.TextBuilder()
)

print("Text is:"+txt)

请注意 OCR 接收白底黑字,因此您必须先反转图像。