为什么Tesseract OCR引擎使用全局阈值技术,如Otsu二值化?不是局部阈值技术(例如Sauvola、Niblack等)更有效地从图像中删除文本?
发布于 2019-06-25 01:17:55
Tesseract在Google book项目和AFAIK中使用,他们运行最佳二值化测试,而Otsu是最通用的。如果Otsu不适合您的情况,您可以在将图像发送到tesseract之前使用其他二值化算法。
发布于 2019-06-25 03:39:50
基本上,根据输入图像,我们需要选择要使用的阈值算法。Tesseract使用Otsu方法进行阈值处理,因为通常情况下,Tesseract用于提取文本的输入具有图像同质性。Otsu方法对于这样的图像是有效的,也是足够好的。
当背景没有表现出相对于前景(目标)强度的局部变化时,全局阈值方法是有用和足够好的。而当背景与目标的灰度差发生局部变化时,需要进行局部阈值分割。
因此,虽然Tesseract确实使用Otsu方法(全局阈值)进行二值化,但您可以使用局部阈值方法对图像进行预处理,以从Tesseract获得更好的输出。
https://stackoverflow.com/questions/56730672
复制相似问题