(YOLO)是最新的实时物体检测系统。将单个神经网络应用于完整图像。该网络将图像划分为多个区域,并预测每个区域的边界框和概率。这些边界框由预测的概率加权,与基于分类器的系统相比,我们的模型具有多个优势。它在测试时查看整个图像,因此其预测由图像中的全局上下文提供。与像R-CNN这样的系统需要数千个单个图像的系统不同,它还可以通过单个网络评估来进行预测。
Darknet会打印出它检测到的对象,其置信度以及找到它们所花费的时间。我们没有使用Darknet进行编译,OpenCV
因此无法直接显示检测结果。而是将它们保存在中predictions.png
。您可以打开它以查看检测到的对象。在CPU上使用Darknet,每个图像大约需要6-12秒。如果使用GPU版本,它将更快。
step4 修改配置文件改成GPU版本
cd darknet
vim Makefile
将其设定为
GPU=1
CUDNN=1
OPENCV =1
保存后重新make:
make clean
make
由于我的显卡是mx150 所以cuda、cudnn就没有弄,单纯的用cpu跑的。遗憾啊!
data_cfg:数据配置文件,eg:cfg/voc.data
models_cfg:模型配置文件,eg:cfg/yolov3-voc.cfg
weights:权重配置文件,eg:weights/yolov3.weights
test_file:测试文件,eg:*/*/*/test.txt
-thresh:显示被检测物体中confidence大于等于 [-thresh] 的bounding-box,默认0.005
-out:输出文件名称,默认路径为results文件夹下,eg:-out "" //输出class_num个文件,文件名为class_name.txt;若不选择此选项,则默认输出文件名为comp4_det_test_"class_name".txt
-i/-gpu:指定单个gpu,默认为0,eg:-gpu 2
-gpus:指定多个gpu,默认为0,eg:-gpus 0,1,2