我有两种不同的自定义训练模型,一种是在Tensorflow (称为model_1) (faster_rcnn_resnet50)中训练的,另一种是在暗网(称为model_2) (yolov3)中训练的。
用于事故检测的model_1用于车牌检测的model_2
为了满足我的需求,我修改了两个脚本: object_detection.py (来自tensorflow/models/research/object_detection.py)和darknet.py。
我使用object_detection.py加载我的模型1以检测视频中的事故,一旦在任何帧中发现任何事故,我就会保存该帧并将其发送到darknet.py以检测车牌,但是一旦我将帧传送到黑网,它就开始加载该模型,在加载过程中我得到了错误:
CUDA status Error: file: ..\..\src\dark_cuda.c : cuda_make_array() : line: 357 : build time: Dec 11 2019 - 12:53:11
CUDA Error: out of memory
CUDA Error: out of memory: No error现在我想知道是否有可能在不升级硬件的情况下解决这个问题。
我的电脑规格:
i7 6700 HD (带有英特尔高清图形530)
16辆公羊
GTX 950m 4GB版
编辑:我试着在gpu上加载model_1,在cpu上加载model_2,我认为它解决了内存问题,但现在,当任何时候和事故发生时,我的所有python程序都被迫关闭(不确定原因),包括cv2视频输出,最重要的是,我没有从darknet.py (im.show())得到任何响应。
[yolo] params: iou loss: mse (2), iou_norm: 0.75, cls_norm: 1.00, scale_x_y: 1.00
95 route 91 -> 4 x 4 x 256
96 conv 128 1 x 1/ 1 4 x 4 x 256 -> 4 x 4 x 128 0.001 BF
97 upsample 2x 4 x 4 x 128 -> 8 x 8 x 128
98 route 97 36 -> 0 x 0 x 0
99 Layer before convolutional layer must output image.: No error
C:\Users\Danial\Desktop\New folder\GUI>发布于 2020-04-20 11:37:46
尝试以下修复方法之一:
cfg/yolov3.cfg文件中的批处理大小:
batch=8cfg/yolov3.cfg文件中的细分大小:
subdivisions=1object_detection.py文件中的输入大小:
img_size = (320,192) blob = cv2.dnn.blobFromImage(img,scale_factor,img_size,swapRB=True,crop=False)object_detection.py文件中的输入缩放因子:
scale_factor = 1.0 / 255.0 blob = cv2.dnn.blobFromImage(img,scale_factor,img_size,swapRB=True,crop=False)https://stackoverflow.com/questions/59284006
复制相似问题