从文本检测器的 bbox 提高 ocr 准确性
improve ocr accuracy from a bbox of a Text Detector
我正在使用 tesseract 从图像中提取文本,这是我使用文本检测器获得的车牌图像
from PIL import Image
import pytesseract
import cv2
img= cv2.imread('text0.jpg')
print (pytesseract.image_to_string(th))
但是,它没有给出确切的文字,有没有我可以用来提高图像质量的滤镜?
请评论并提供反馈。
你应该确保文本水平,我希望这个修改对你有所帮助
from PIL import Image
import pytesseract
import cv2
img= cv2.imread('text0.jpg',0)
h,w= img.shape
img= cv2.resize(img, (w*2,h*2))
retval2,th = cv2.threshold(img,35,255,cv2.THRESH_BINARY+cv2.THRESH_OTSU)
print (pytesseract.image_to_string(th))
您还可以尝试其他方法,例如模糊和更改对比度。
我正在使用 tesseract 从图像中提取文本,这是我使用文本检测器获得的车牌图像
from PIL import Image
import pytesseract
import cv2
img= cv2.imread('text0.jpg')
print (pytesseract.image_to_string(th))
但是,它没有给出确切的文字,有没有我可以用来提高图像质量的滤镜? 请评论并提供反馈。
你应该确保文本水平,我希望这个修改对你有所帮助
from PIL import Image
import pytesseract
import cv2
img= cv2.imread('text0.jpg',0)
h,w= img.shape
img= cv2.resize(img, (w*2,h*2))
retval2,th = cv2.threshold(img,35,255,cv2.THRESH_BINARY+cv2.THRESH_OTSU)
print (pytesseract.image_to_string(th))
您还可以尝试其他方法,例如模糊和更改对比度。