从文本检测器的 bbox 提高 ocr 准确性

improve ocr accuracy from a bbox of a Text Detector

我正在使用 tesseract 从图像中提取文本,这是我使用文本检测器获得的车牌图像

from PIL import Image
import pytesseract
import cv2

img= cv2.imread('text0.jpg')
print (pytesseract.image_to_string(th))

但是,它没有给出确切的文字,有没有我可以用来提高图像质量的滤镜? 请评论并提供反馈。

你应该确保文本水平,我希望这个修改对你有所帮助

from PIL import Image
import pytesseract
import cv2

img= cv2.imread('text0.jpg',0)
h,w= img.shape
img= cv2.resize(img, (w*2,h*2)) 
retval2,th = cv2.threshold(img,35,255,cv2.THRESH_BINARY+cv2.THRESH_OTSU)

print (pytesseract.image_to_string(th))

您还可以尝试其他方法,例如模糊和更改对比度。