对于已经训练完成的caffemodel,对于单个的图片预测,用python接口来调用是一件非常方便的事情,下面就来讲述如何用python调用已经训练完成的caffemodel,以及prototxt,网上关于这一方面的教程已经是比较多的了,但是我想针对我做的过程发现的一些问题做一个总结

,先给出几个用python调用caffemodel的链接,链接1链接2链接3,主要是参考链接1的内容,整体代码如下,

 1 #coding=utf-8
 2 import sys
 3 import numpy as np
 4 import cv2
 5 from glob import glob
 6 from tqdm import tqdm
 7 caffe_root = '/usr/local/caffe/'
 8 sys.path.insert(0, caffe_root + 'python')
 9 import caffe
10 import multiprocessing
11 
12 model_file = '/home/ying/data2/shiyongjie/mpc/res50/acc/resnet_50_deploy.prototxt'  # deploy文件
13 pretrained = '/home/ying/data2/shiyongjie/mpc/res50/acc/model_iter_280000.caffemodel'  # 训练的caffemodel
14 image_file = '/home/ying/data2/shiyongjie/mpc/coal_data/0/output/0_ffff4083-a13a-4e62-9870-59cd70709f7c.JPEG'
15 mean_file = '/home/ying/data2/shiyongjie/mpc/coal_data/mean_train.npy'
16 net = caffe.Net(model_file, pretrained, caffe.TEST)   #加载model和network
17 
18 #图片预处理设置
19 transformer = caffe.io.Transformer({'data': net.blobs['data'].data.shape})  #设定图片的shape格式(1,3,28,28)
20 transformer.set_transpose('data', (2,0,1))    #改变维度的顺序,由原始图片(28,28,3)变为(3,28,28)
21 transformer.set_mean('data', np.load(mean_file).mean(1).mean(1))    #减去均值,前面训练模型时没有减均值,这儿就不用
22 transformer.set_raw_scale('data', 255)    # 缩放到【0,255】之间
23 transformer.set_channel_swap('data', (2,1,0))   #交换通道,将图片由RGB变为BGR
24 
25 print('#$%^&#@*!')
26 image_file_list = glob('/home/ying/data2/shiyongjie/mpc/coal_data/0/output/*JPEG')  # 列出目录下的所有jpeg图片
27 image_file_list.sort()
28 image_file_list = image_file_list[:len(image_file_list)/2]  # 速度预测非常慢,将list拆分
29 # pool = multiprocessing.Pool(processes = 4)
30 results = []
31 for image_file in tqdm(image_file_list):  # tqdm显示进度条
32     im = caffe.io.load_image(image_file)
33     net.blobs['data'].data[...] = transformer.preprocess('data', im)      #执行上面设置的图片预处理操作,并将图片载入到blob中
34     out = net.forward()
35     top_k = net.blobs['prob'].data[0].flatten().argsort()[-1:-6:-1]
36     results.append(top_k[0])  # 将预测的结果保存到results中
37     # print(top_k[0])
38     # for i in np.arange(top_k.size):
39     #    print top_k[i]
40 acc0 = float(results.count(0))/float(len(image_file_list))  # 计算预测四类结果的概率
41 acc1 = float(results.count(1))/float(len(image_file_list))
42 acc2 = float(results.count(2))/float(len(image_file_list))
43 acc3 = float(results.count(3))/float(len(image_file_list))
44 print(acc0, acc1, acc2, acc3)

这里其实有很多细节的问题,先给自己挖个坑,主要有,deploy文件与一般的train_val.prototxt文件有些许不同,看上面第三个链接,他们加载prototxt的是lenet.prototxt,去caffe/example/mnist/lenet.prototxt查看这个文件,如下

python调用caffe实现预测

实际上左边是deploy的,右边是train_val的,可以看出左右的区别就是地一层,右边train和test都是data层,左边是input层,其余全都一样,所以deploy也是很有讲究的,mnist是在训练的时候就没有减去均值,测试的时候加载均值文件在python内部写,见上述代码

实际上,我测试用的deploy与mnist又有些许不同,如下

python调用caffe实现预测

同时修改最后一行

python调用caffe实现预测

我用的resnet基本上lr以及权重初始化的参数都已经取消了,最后一个name用prob,测试的时候输出的是预测为每一类的概率,在python最后的输出net.blobs['prob']也能够看出,感觉是个字典,给自己挖个坑

可以看出,deploy文件与train_val文件是有很大的不同的,这种不同可能与平台无关,在python是这样,在c++也可能是这样

但是用python调用速度非常慢,这样说吧,5w张图片要6个小时,速度相当慢,我一个同学,用c++调用同样的caffemodel200张图片,0.4s,5w张图片100s就搞定