热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

自动人脸识别基本原理--基于静态图像的识别算法(一)特征脸

人脸识别经过近40年的发展,取得了很大的发展,涌现出了大量的识别算法。这些算法的涉及面非常广泛,包括模式识别、图像处理、计算机视觉、人工智能、统计学习、神经网络、小波分析

        人脸识别经过近 40 年的发展,取得了很大的发展,涌现出了大量的识别算法。这些算法的涉及面非常广泛,包括模式识别、图像处理、计算机视觉、人工智能、统计学习、神经网络、小波分析、子空间理论和流形学习等众多学科。所以很难用一个统一的标准对这些算法进行分类。根据输入数据形式的不同可分为基于静态图像的人脸识别和基于视频图像的人脸识别。因为基于静态图像的人脸识别算法同样适用于基于视频图像的人脸识别,所以只有那些使用了时间信息的识别算法才属于基于视频图像的人脸识别算法。接下来分别介绍两类人脸识别算法中的一些重要的算法。

特征脸 

        因为需要,花了一点时间写了下经典的基于特征脸(EigenFace)的人脸识别方法的Matlab代码。这里仅把该代码分享出来。其实,在较新版本的OpenCV中已经提供了FaceRecognizer这一个类,里面不仅包含了特征脸EigenFace,还有FisherFace和LBPHFace这三种人脸识别方法,有兴趣的可以参考OpenCV的API手册,里面都有很详细的使用例程了。

     (1)思想

      特征脸EigenFace从思想上其实挺简单。Eigenface 就是将人脸图像进行编码,映射到低维子空间中,在低维空间计算两幅人脸图像的距离,以此来进行人脸识别。就相当于把人脸从像素空间变换到另一个空间,在另一个空间中做相似性的计算。映射到低维子空间的方法采用主成分分析PCA。

       拓展:图像识别的本质思想:

      其实图像识别的基本思想都是一样的,首先选择一个合适的子空间,将所有的图像变换到这个子空间上,然后再在这个子空间上衡量相似性或者进行分类学习。那为什么要变换到另一个空间呢?当然是为了更好的做识别或者分类了。那为什么变换到一个空间就好识别或者分类了呢?因为变换到另一个空间,同一个类别的图像会聚到一起,不同类别的图像会距离比较远,或者在原像素空间中不同类别的图像在分布上很难用个简单的线或者面把他们切分开,然后如果变换到另一个空间,就可以很好的把他们分开了。有时候,线性(分类器)就可以很容易的把他们分开了。那既然人类看起来同类的图像本来就是相似的,不同类的图像就不太相似,那为什么在原始的像素空间他们同类不会很近,不同类不会很远,或者他们为什么不好分开呢?因为图像各种因素的影响,包括光照、视角、背景和形状等等不同,会造成同一个目标的图像都存在很大的视觉信息上的不同。如下图所示。

       世界上没有存在任何两片完全相同的叶子,虽然他们都是叶子。万千世界,同一类事物都存在共性,也存在个性,这就是这个世界多彩的原因。那怎么办呢?很自然,只要在我们想要的粒度上把同一类目标的共性找出来就好了,而且这个共性最好和我们要区分的类是不一样的。什么叫我们想要的粒度?我理解和我们的任务相关的。例如我们要区分人和车,那人的共性就是有脸、有手、有脚等等。但如果我们要区分亚洲人和非洲人,那么亚洲人的共性就是黄色皮肤等等。回到刚才的问题,重头戏来了,要变换到什么空间,才具备上述这种良好类内相似、类间区分的效果?到这,我就只能say sorry了。计算机视觉领域发展了几十年,就为了这一个问题倾注了无数研究者的智慧与心血。当然了,也诞生和孕育了很多经典和有效的解答。(个人理解,上述说的实际上就是特征提取)。从一开始的颜色特征(颜色直方图)、纹理特征(Harr、LBP、HOG、SIFT等)、形状特征等到视觉表达Bag of Words,再到特征学习Deep Learning,技术的发展总能带给人希望,曙光也越来越清晰,但路还很远,是不?     

       (2)理论基础--PCA主成分分析

       扯太多了,严重离题了。上面说到,特征脸EigenFace的思想是把人脸从像素空间变换到另一个空间,在另一个空间中做相似性的计算。EigenFace选择的空间变换方法是PCA,也就是大名鼎鼎的主成分分析。它广泛的被用于预处理中以消去样本特征维度之间的相关性。当然了,这里不是说这个。EigenFace方法利用PCA得到人脸分布的主要成分,具体实现是对训练集中所有人脸图像的协方差矩阵进行特征值分解,得到对应的特征向量,这些特征向量(特征向量)就是“特征脸”。每个特征向量或者特征脸相当于捕捉或者描述人脸之间的一种变化或者特性。这就意味着每个人脸都可以表示为这些特征脸的线性组合。实际上,空间变换就等同于“搞基”,原始像素空间的基就是单位“基”,经过PCA后空间就是以每一个特征脸或者特征向量为基,在这个空间(或者坐标轴)下,每个人脸就是一个点,这个点的坐标就是这个人脸在每个特征基下的投影坐标。哦噢,说得有点绕。

      (3)实现过程:

      下面就直接给出基于特征脸的人脸识别实现过程:

1)将训练集的每一个人脸图像都拉长一列,将他们组合在一起形成一个大矩阵A。假设每个人脸图像是MxM大小,那么拉成一列后每个人脸样本的维度就是d=MxM大小了。假设有N个人脸图像,那么样本矩阵A的维度就是dxN了。

2)将所有的N个人脸在对应维度上加起来,然后求个平均,就得到了一个“平均脸”。你把这个脸显示出来的话,还挺帅的哦。

3)将N个图像都减去那个平均脸图像,得到差值图像的数据矩阵Φ。

4)计算协方差矩阵C=ΦΦT。再对其进行特征值分解。就可以得到想要的特征向量(特征脸)了。

5)将训练集图像和测试集的图像都投影到这些特征向量上了,再对测试集的每个图像找到训练集中的最近邻或者k近邻啥的,进行分类即可。

      算法说明白了都是不明白的,所以还是得去看具体实现。因此,可以对照下面的代码来弄清楚这些步骤。

      另外,对于步骤4),涉及到求特征值分解。如果人脸的特征维度d很大,例如256x256的人脸图像,d就是65536了。那么协方差矩阵C的维度就是dxd=65536x65536。对这个大矩阵求解特征值分解是很费力的。那怎么办呢?如果人脸的样本不多,也就是N不大的话,我们可以通过求解C’=ΦTΦ矩阵来获得同样的特征向量。可以看到这个C’=ΦTΦ只有NxN的大小哦。如果N远远小于d的话,那么这个力气就省得很值了。那为什么求解C’=ΦTΦ矩阵的特征向量可以获得C=ΦΦT的特征向量?万众瞩目时刻,数学以完美舞姿登上舞台。证明如下:

      其中,ei是C’=ΦTΦ的第i个特征向量,vi是C=ΦΦT的第i个特征向量,由证明可以看到,vi=Φei。所以通过求解C’=ΦTΦ的特征值分解得到ei,再左乘Φ就得到C=ΦΦT的特征向量vi了。也就是我们想要的特征脸。

 

二、Matlab实现

      下面的代码主要是在著名的人脸识别数据库YaleB中进行实现。用的是裁切后的人脸数据库,可以点击CroppedYale下载。共有38个人的人脸,人脸是在不同的光照下采集的,每个人脸图像是32x32个像素。实验在每一个的人脸图像中随机取5个作为训练图像,剩下的作为测试图像。当然了,实际过程中这个过程需要重复多次,然后得到多次准确率的均值和方差才有参考意义,但下面的demo就不做这个处理了。计算相似性用的是欧氏距离,但编程实现的时候为了加速,用的是简化版,至于如何简化的,考验你的时候到了。

[cpp] view plain copy
  1. % Face recognition using eigenfaces  
  2.   
  3. close all, clear, clc;  
  4.   
  5. %% 20 random splits  
  6. num_trainImg = 5;  
  7. showEigenfaces = true;  
  8.   
  9. %% load data  
  10. disp('loading data...');  
  11. dataDir = './CroppedYale';  
  12. datafile = 'Yale.mat';  
  13. if ~exist(datafile, 'file')  
  14.     readYaleDataset(dataDir, datafile);  
  15. end  
  16. load(datafile);  
  17.   
  18. %% Five images per class are randomly chosen as the training  
  19. %% dataset and remaining images are used as the test dataset  
  20. disp('get training and testing data...');  
  21. num_class = size(unique(labels), 2);  
  22. trainIdx = [];  
  23. testIdx = [];  
  24. for i=1:num_class  
  25.     label = find(labels == i);  
  26.     indice = randperm(numel(label));  
  27.     trainIdx = [trainIdx label(indice(1:num_trainImg))];  
  28.     testIdx = [testIdx label(indice(num_trainImg+1:end))];  
  29. end  
  30.   
  31. %% get train and test data  
  32. train_x = double(data(:, trainIdx));  
  33. train_y = labels(trainIdx);  
  34. test_x = double(data(:, testIdx));  
  35. test_y = labels(testIdx);  
  36.   
  37. %% computing eigenfaces using PCA  
  38. disp('computing eigenfaces...');  
  39. tic;  
  40. [num_dim, num_imgs] = size(train_x);   %% A: #dim x #images  
  41. avg_face = mean(train_x, 2);             %% computing the average face  
  42. X = bsxfun(@minus, train_x, avg_face); %% computing the difference images  
  43.   
  44. %% PCA  
  45. if num_dim <= num_imgs   
  46.     C = X * X';  
  47.     [V, D] = eig(C);  
  48. else  
  49.     C = X' * X;   
  50.     [U, D] = eig(C);  
  51.     V = X * U;  
  52. end  
  53. eigenfaces = V;  
  54. eigenfaces = eigenfaces ./ (ones(size(eigenfaces,1),1) * sqrt(sum(eigenfaces.*eigenfaces)));  
  55. toc;  
  56.   
  57. %% visualize the average face  
  58. P = sqrt(numel(avg_face));  
  59. Q = numel(avg_face) / P;  
  60. imagesc(reshape(avg_face, P, Q)); title('Mean face');  
  61. colormap('gray');  
  62.   
  63. %% visualize some eigenfaces  
  64. figure;  
  65. num_eigenfaces_show = 9;  
  66. for i = 1:num_eigenfaces_show  
  67.     subplot(3, 3, i)  
  68.     imagesc(reshape(eigenfaces(:, end-i+1), P, Q));  
  69.     title(['Eigenfaces ' num2str(i)]);  
  70. end  
  71. colormap('gray');  
  72.   
  73. %% transform all training images to eigen space (each column for each image)  
  74. disp('transform data to eigen space...');  
  75. X = bsxfun(@minus, train_x, avg_face);  
  76. T = eigenfaces' * X;  
  77.   
  78. %% transform the test image to eigen space  
  79. X_t = bsxfun(@minus, test_x, avg_face);  
  80. T_t = eigenfaces' * X_t;  
  81.   
  82. %% find the best match using Euclidean distance  
  83. disp('find the best match...');  
  84. AB = -2 * T_t' * T;       % N x M  
  85. BB = sum(T .* T);         % 1 x M  
  86. distance = bsxfun(@plus, AB, BB);        % N x M  
  87. [score, index] = min(distance, [], 2);   % N x 1  
  88.   
  89. %% compute accuracy  
  90. matchCount = 0;  
  91. for i=1:numel(index)  
  92.     predict = train_y(index(i));  
  93.     if predict == test_y(i)  
  94.         matchCount = matchCount + 1;  
  95.     end  
  96. end  
  97.   
  98. fprintf('**************************************\n');  
  99. fprintf('accuracy: %0.3f%% \n', 100 * matchCount / numel(index));  
  100. fprintf('**************************************\n');  

      下面是将CroppedYale的图像读入matlab的代码。

[cpp] view plain copy
  1. function readYaleDataset(dataDir, saveName)  
  2.     dirs = dir(dataDir);  
  3.     data = [];  
  4.     labels = [];  
  5.     for i = 3:numel(dirs)  
  6.         imgDir = dirs(i).name;  
  7.         imgDir = fullfile(dataDir, imgDir);  
  8.         imgList = dir(fullfile(imgDir, '*.pgm'));  
  9.         for j = 1:numel(imgList)  
  10.             imgName = imgList(j).name;  
  11.             if strcmp('Ambient.pgm',  imgName(end-10:end))  
  12.                 continue;  
  13.             end  
  14.             im = imread(fullfile(imgDir, imgName));  
  15.             if size(im, 3) ==3  
  16.                 im = rgb2gray(im);  
  17.             end  
  18.             im = imresize(im, [32 32]);  
  19.             im = reshape(im, 32*32, 1);  
  20.             data = [data im];  
  21.         end  
  22.         labels = [labels ones(1, numel(imgList)-1) * (i-2)];  
  23.     end  
  24.     save(saveName, 'data''labels');  
  25. end  

 

三、实验结果

      首先来个帅帅的平均脸:

      然后来9个帅帅的特征脸:

      在本实验中,实验结果是30.126%左右。如果加上了某些预处理,这个结果就可以跑到62%左右。只是这个预处理我有点解析不通,所以就没放在demo上了。



推荐阅读
  • 基于2-channelnetwork的图片相似度判别一、相关理论本篇博文主要讲解2015年CVPR的一篇关于图像相似度计算的文章:《LearningtoCompar ... [详细]
  • 本文探讨了图像标签的多种分类场景及其在以图搜图技术中的应用,涵盖了从基础理论到实际项目实施的全面解析。 ... [详细]
  • 《计算机视觉:算法与应用》第二版初稿上线,全面更新迎接未来
    经典计算机视觉教材《计算机视觉:算法与应用》迎来了其第二版,现已开放初稿下载。本书由Facebook研究科学家Richard Szeliski撰写,自2010年首版以来,一直是该领域的标准参考书。 ... [详细]
  • Coursera ML 机器学习
    2019独角兽企业重金招聘Python工程师标准线性回归算法计算过程CostFunction梯度下降算法多变量回归![选择特征](https:static.oschina.n ... [详细]
  • 本文介绍了如何利用TensorFlow框架构建一个简单的非线性回归模型。通过生成200个随机数据点进行训练,模型能够学习并预测这些数据点的非线性关系。 ... [详细]
  • 深入浅出TensorFlow数据读写机制
    本文详细介绍TensorFlow中的数据读写操作,包括TFRecord文件的创建与读取,以及数据集(dataset)的相关概念和使用方法。 ... [详细]
  • 2017年人工智能领域的十大里程碑事件回顾
    随着2018年的临近,我们一同回顾过去一年中人工智能领域的重要进展。这一年,无论是政策层面的支持,还是技术上的突破,都显示了人工智能发展的迅猛势头。以下是精选的2017年人工智能领域最具影响力的事件。 ... [详细]
  • 本文档旨在帮助开发者回顾游戏开发中的人工智能技术,涵盖移动算法、群聚行为、路径规划、脚本AI、有限状态机、模糊逻辑、规则式AI、概率论与贝叶斯技术、神经网络及遗传算法等内容。 ... [详细]
  • 本文探讨了亚马逊Go如何通过技术创新推动零售业的发展,以及面临的市场和隐私挑战。同时,介绍了亚马逊最新的‘刷手支付’技术及其潜在影响。 ... [详细]
  • 李宏毅机器学习笔记:无监督学习之线性方法
    无监督学习主要涵盖两大类别:一是聚类与降维,旨在简化数据结构;二是生成模型,用于从编码生成新的数据样本。本文深入探讨了这些技术的具体应用和理论基础。 ... [详细]
  • 吴恩达推出TensorFlow实践课程,Python基础即可入门,四个月掌握核心技能
    量子位报道,deeplearning.ai最新发布了TensorFlow实践课程,适合希望使用TensorFlow开发AI应用的学习者。该课程涵盖机器学习模型构建、图像识别、自然语言处理及时间序列预测等多个方面。 ... [详细]
  • 本文详细介绍了 TensorFlow 的入门实践,特别是使用 MNIST 数据集进行数字识别的项目。文章首先解析了项目文件结构,并解释了各部分的作用,随后逐步讲解了如何通过 TensorFlow 实现基本的神经网络模型。 ... [详细]
  • 本文介绍了一个使用Keras框架构建的卷积神经网络(CNN)实例,主要利用了Keras提供的MNIST数据集以及相关的层,如Dense、Dropout、Activation等,构建了一个具有两层卷积和两层全连接层的CNN模型。 ... [详细]
  • 本文介绍了如何通过十折交叉验证方法评估回归模型的性能。我们将使用PyTorch框架,详细展示数据处理、模型定义、训练及评估的完整流程。 ... [详细]
  • 吴裕雄探讨混合神经网络模型在深度学习中的应用:结合RNN与CNN优化网络性能
    本文由吴裕雄撰写,深入探讨了如何利用Python、Keras及TensorFlow构建混合神经网络模型,特别是通过结合递归神经网络(RNN)和卷积神经网络(CNN),实现对网络运行效率的有效提升。 ... [详细]
author-avatar
手机用户2502879747
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有