我有一个用MNIST训练的deeplearning4j神经网络(NN),用来识别图像上的数字。由于MNIST集包含28x28像素的图像,因此我能够使用此神经网络预测28x28图像的类别。
我正在尝试找出如何将此神经网络应用于手写页面的图片?如何将图像中的文本转换为实际的文本(OCR)?基本上,需要什么样的预处理,以及如何找出图像中文本所在的部分?如何派生图像的较小部分以单独应用NN?
发布于 2021-01-31 23:16:28
https://stackoverflow.com/questions/65980596
复制相似问题