复制预训练model的参数,只需要重新copy一个train_val.prototxt。然后把不需要复制的层的名字改一下,如(fc7 -> fc7_new),然后fine tune即可。

freeze指定层参数,只需要把对应层的学习率lr_mult 设置为0即可,如:

在layer里面加上param { lr_mult: 0 }就可以了,比如全连接层里面:
layer {
type: "InnerProduct"
param { # 对应第1个参数blob的配置,也就是全连接层的参数矩阵的配置
lr_mult: 0 # 学习率为0,其他参数可以看caffe.proto里面的ParamSpec这个类型
}
param { # 对应第2个参数blob的配置,也就是全连接层的偏置项的配置
lr_mult: 0 # 学习率为0
}
}