Advertisement

Ubuntu下跑通py-faster-rcnn、详解demo运作流程

阅读量:

在多个不同服务器和多台不同设备上进行了大量实验,在每次实验中都遇到了多种不同类型的错误,并成功运行了Py-Faster-RCNN模型。为此,在此处提供一个流程概述:

一、下载文件:

首先,文件的下载可以有两种途径:

1、需要在官网上下载路径:https://github.com/rbgirshick/py-faster-rcnn

该方法在完成下载后可能会导致py-faster-rcnn与caffe-fast-rcnn之间的目录结构出现为空状态:此时建议采取相应措施以避免这种情况的发生。

复制代码
    cd caffe-fast-rcnn
复制代码
    git submodule update --init --recursive

2、在Ubuntu下直接进行命令行的下载:(个人更推荐这一方法:比较稳定)

git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git

二、编译CAFFE:

1、下载完成后我们进入py-faster-rcnn//lib 文件下编译:

复制代码
    cd $FRCN_ROOT/lib
    make

2、在py-faster-rcnn/caffe-fast-rcnn/文件路径下,下载Makefile.config文件:

链接网址:https://dl.dropboxusercontent.com/s/6joa55k64xo2h68/Makefile.config?dl=0

3、修改其中的两个参数:如果不做任何修改的话,在后续的编译操作中是可以顺利进行的;然而在实际运行测试时发现缺少了大量必要的包含头文件。

所以改变下面两个参数非常有必要:

复制代码
    # In your Makefile.config, make sure to have this line uncommented
    WITH_PYTHON_LAYER := 1
    # Unrelatedly, it's also recommended that you use CUDNN
    USE_CUDNN := 1

4、编译caffe:

复制代码
    cd $FRCN_ROOT/caffe-fast-rcnn
复制代码
    make -j64

可能会出现错误,如下所示:

解决办法:移至当前目录下所在的Caffe项目目录下复制相应文件并将其导入到caffe-fast-rcnn中进行训练

将文件路径./include/caffe/util/cudnn.hpp替换成最新版本中的cudnn实现,并使用相应的cudnn.hpp文件

将./include/caffe/layers中的所有以cudnn命名的文件夹(如cudnn_conv_layer.hpp)替换为对应的同名文件。

请将位于./src/caffe/layer目录中的所有文件进行筛选,并重点关注那些以cudnn为前缀的层。具体来说,请查看以下示例文件:包括但不限于以下内容,请确保处理以下cu源代码:如前所述的一些示例如cudnn_lrn_layer.cu、cudnn_pooling_layer.cpp等。

都替换成最新版的caffe里的相应的同名文件。如下图所示:

继续上面工作:

编译成功!继续前面命令行的编译 :

复制代码
    make pycaffe

编译正确:继续后面步骤;

三、下载训练好的模型:

1、命令行下载:

复制代码
    cd $FRCN_ROOT
    ./data/scripts/fetch_faster_rcnn_models.sh

用于从ImageNet训练而来的Caffe模型(包括ZF和VGG16系列)预训练模型的获取命令位于 SCRIPTS 文件中。如果在预览过程中遇到任何错误,请确认是否为服务器端网络访问问题。

复制代码
    ./data/scripts/fetch_imagenet_models.sh

3、 从VOC 2007训练来的Faster R-CNN models trained 模型下载命令(同上)

复制代码
    ./data/scripts/fetch_faster_rcnn_models.sh

4、设置好以上下载之后,我们的./data目录下会出现需要的模型:

四、跑通demo.py文件:

caffe 已经成功编译完毕,并且训练好的模型已全部完成下载。目前没有其他问题,请准备开始运行 demo

复制代码
    cd $FRCN_ROOT
    ./tools/demo.py

跑通之后我们可以看到自己预测的图片的目标框:

五、我们不局限于跑通demo.py,我们需要了解demo.py文件里面的原理:

首先我们来进行功能块的模块划分:主要包括vis_detections函数、demo函数以及parse_args函数。

先来看一张功能解析图:

从下文可以看出:在demo.py文件中可以看到以下主要功能集中在不同颜色的箭头上。具体来说:

  • 主要功能集中在黄色箭头区域;
  • 其中函数vis_detections()主要对应的是紫色箭头区域;
  • 函数demo()则主要与浅蓝色箭头相关联;
  • 而函数parse_args()则主要负责红棕色 arrow部分。

沿着箭头的方向深入探讨其中涉及的各种函数转换:具体而言:

  • 分数由scores变量表示;
  • bounding boxes由boxes变量表示,
    每个盒子由其对角顶点坐标的四个数值确定;
  • detection results由dets变量表示,
    即各目标框及其坐标信息所组成的矩阵;
    只有当indices超过预设阈值时,
    才被视为满足条件的目标窗口,
    并给出对应的下标inds

六、具体代码内容解释:

Po出一些详细的解释的手稿:

全部评论 (0)

还没有任何评论哟~