无需对深度CNN模型修改太多,即可同时学习得到图像的视觉特征描述子,和 hashing-like 函数,以进行有效的图像检索.
2.2 基于分层深度搜索的图像检索
采用 coarse-to-fine 搜索策略进行快速精确的图像检索.
- 首先,检索得到相似 high-level 语义特征的候选图片集,即,具有隐层得到隐含二值激活值想死;
- 然后,进一步过滤具有相似外表的图片,主要是基于最深的 mid-level 图像特征表示进行相似性排名.
2.2.1 Coarse-level 搜索
给定图像 II, 首先提取隐层输出作为图像特征,记为 Out(H)" role="presentation">Out(H). 通过设定阈值,即可以得到其二值编码. 即,对于二值激活的每一个字节j=1,2,...,hj=1,2,...,h (hh为隐层的节点数), H" role="presentation">H的输出二值编码:
Hj=1,if Outj(H)≥0.5;otherwise Hj=0Hj=1,ifOutj(H)≥0.5;otherwiseHj=0
记 Γ=I1,I2,...,InΓ=I1,I2,...,In 表示用于检索的 nn张图片组成数据集,其每张图片对应的二值编码记为ΓH=H1,H2,...,Hn" role="presentation">ΓH=H1,H2,...,Hn , 其中 Hi∈{0,1}hHi∈{0,1}h.
给定待查询图片 IqIq 及其二值编码 HqHq, 如果 HqHq 和 Hi∈ΓHHi∈ΓH 的Hamming 距离小于阈值,得到一个有 mm 张候选图片的图片池,P={I1c,I2c,...,Imc}" role="presentation">P={Ic1,Ic2,...,Icm}.
2.2.2 Fine-level 检索
给定待查询图片 IqIq 及候选图片池 P={Ic1,Ic2,...,Icm}P={I1c,I2c,...,Imc},采用 F7F7 层提取的图片特征来从候选图片池 PP 中确认前 k" role="presentation">k 张图片.
记 VqVq 和 VPiViP 分别表示待查询图片 qq 和图片池中候选图片 Iic" role="presentation">Ici 的特征向量,则其欧氏距离相似性计算为:
si=||Vq−VPi||si=||Vq−ViP||
如果欧氏距离越大,则两张图片的相似性越强. 通过对候选图片进行排序,即可得到最终的检索图片.
3. 实验结果
3.1 数据集
MNIST Dataset - 10类手写数字,0~9,共 60000张训练图片,10000测试图片,每张数字图片都归一化为 28×2828×28 的灰度图片.
CIFAR-10 Dataset - 10类物体,每一类有 6000 张图片,一种60000张图片,其中50000张作训练,10000张作测试.
Yahoo-1M Dataset - 一共1124087张商品图片,116类服装类别,如 TOP,Dress,Skirt等. 如Figure2.
3.2 检索结果