热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

自动人脸识别基本原理--基于静态图像的识别算法(一)特征脸

人脸识别经过近40年的发展,取得了很大的发展,涌现出了大量的识别算法。这些算法的涉及面非常广泛,包括模式识别、图像处理、计算机视觉、人工智能、统计学习、神经网络、小波分析

        人脸识别经过近 40 年的发展,取得了很大的发展,涌现出了大量的识别算法。这些算法的涉及面非常广泛,包括模式识别、图像处理、计算机视觉、人工智能、统计学习、神经网络、小波分析、子空间理论和流形学习等众多学科。所以很难用一个统一的标准对这些算法进行分类。根据输入数据形式的不同可分为基于静态图像的人脸识别和基于视频图像的人脸识别。因为基于静态图像的人脸识别算法同样适用于基于视频图像的人脸识别,所以只有那些使用了时间信息的识别算法才属于基于视频图像的人脸识别算法。接下来分别介绍两类人脸识别算法中的一些重要的算法。

特征脸 

        因为需要,花了一点时间写了下经典的基于特征脸(EigenFace)的人脸识别方法的Matlab代码。这里仅把该代码分享出来。其实,在较新版本的OpenCV中已经提供了FaceRecognizer这一个类,里面不仅包含了特征脸EigenFace,还有FisherFace和LBPHFace这三种人脸识别方法,有兴趣的可以参考OpenCV的API手册,里面都有很详细的使用例程了。

     (1)思想

      特征脸EigenFace从思想上其实挺简单。Eigenface 就是将人脸图像进行编码,映射到低维子空间中,在低维空间计算两幅人脸图像的距离,以此来进行人脸识别。就相当于把人脸从像素空间变换到另一个空间,在另一个空间中做相似性的计算。映射到低维子空间的方法采用主成分分析PCA。

       拓展:图像识别的本质思想:

      其实图像识别的基本思想都是一样的,首先选择一个合适的子空间,将所有的图像变换到这个子空间上,然后再在这个子空间上衡量相似性或者进行分类学习。那为什么要变换到另一个空间呢?当然是为了更好的做识别或者分类了。那为什么变换到一个空间就好识别或者分类了呢?因为变换到另一个空间,同一个类别的图像会聚到一起,不同类别的图像会距离比较远,或者在原像素空间中不同类别的图像在分布上很难用个简单的线或者面把他们切分开,然后如果变换到另一个空间,就可以很好的把他们分开了。有时候,线性(分类器)就可以很容易的把他们分开了。那既然人类看起来同类的图像本来就是相似的,不同类的图像就不太相似,那为什么在原始的像素空间他们同类不会很近,不同类不会很远,或者他们为什么不好分开呢?因为图像各种因素的影响,包括光照、视角、背景和形状等等不同,会造成同一个目标的图像都存在很大的视觉信息上的不同。如下图所示。

       世界上没有存在任何两片完全相同的叶子,虽然他们都是叶子。万千世界,同一类事物都存在共性,也存在个性,这就是这个世界多彩的原因。那怎么办呢?很自然,只要在我们想要的粒度上把同一类目标的共性找出来就好了,而且这个共性最好和我们要区分的类是不一样的。什么叫我们想要的粒度?我理解和我们的任务相关的。例如我们要区分人和车,那人的共性就是有脸、有手、有脚等等。但如果我们要区分亚洲人和非洲人,那么亚洲人的共性就是黄色皮肤等等。回到刚才的问题,重头戏来了,要变换到什么空间,才具备上述这种良好类内相似、类间区分的效果?到这,我就只能say sorry了。计算机视觉领域发展了几十年,就为了这一个问题倾注了无数研究者的智慧与心血。当然了,也诞生和孕育了很多经典和有效的解答。(个人理解,上述说的实际上就是特征提取)。从一开始的颜色特征(颜色直方图)、纹理特征(Harr、LBP、HOG、SIFT等)、形状特征等到视觉表达Bag of Words,再到特征学习Deep Learning,技术的发展总能带给人希望,曙光也越来越清晰,但路还很远,是不?     

       (2)理论基础--PCA主成分分析

       扯太多了,严重离题了。上面说到,特征脸EigenFace的思想是把人脸从像素空间变换到另一个空间,在另一个空间中做相似性的计算。EigenFace选择的空间变换方法是PCA,也就是大名鼎鼎的主成分分析。它广泛的被用于预处理中以消去样本特征维度之间的相关性。当然了,这里不是说这个。EigenFace方法利用PCA得到人脸分布的主要成分,具体实现是对训练集中所有人脸图像的协方差矩阵进行特征值分解,得到对应的特征向量,这些特征向量(特征向量)就是“特征脸”。每个特征向量或者特征脸相当于捕捉或者描述人脸之间的一种变化或者特性。这就意味着每个人脸都可以表示为这些特征脸的线性组合。实际上,空间变换就等同于“搞基”,原始像素空间的基就是单位“基”,经过PCA后空间就是以每一个特征脸或者特征向量为基,在这个空间(或者坐标轴)下,每个人脸就是一个点,这个点的坐标就是这个人脸在每个特征基下的投影坐标。哦噢,说得有点绕。

      (3)实现过程:

      下面就直接给出基于特征脸的人脸识别实现过程:

1)将训练集的每一个人脸图像都拉长一列,将他们组合在一起形成一个大矩阵A。假设每个人脸图像是MxM大小,那么拉成一列后每个人脸样本的维度就是d=MxM大小了。假设有N个人脸图像,那么样本矩阵A的维度就是dxN了。

2)将所有的N个人脸在对应维度上加起来,然后求个平均,就得到了一个“平均脸”。你把这个脸显示出来的话,还挺帅的哦。

3)将N个图像都减去那个平均脸图像,得到差值图像的数据矩阵Φ。

4)计算协方差矩阵C=ΦΦT。再对其进行特征值分解。就可以得到想要的特征向量(特征脸)了。

5)将训练集图像和测试集的图像都投影到这些特征向量上了,再对测试集的每个图像找到训练集中的最近邻或者k近邻啥的,进行分类即可。

      算法说明白了都是不明白的,所以还是得去看具体实现。因此,可以对照下面的代码来弄清楚这些步骤。

      另外,对于步骤4),涉及到求特征值分解。如果人脸的特征维度d很大,例如256x256的人脸图像,d就是65536了。那么协方差矩阵C的维度就是dxd=65536x65536。对这个大矩阵求解特征值分解是很费力的。那怎么办呢?如果人脸的样本不多,也就是N不大的话,我们可以通过求解C’=ΦTΦ矩阵来获得同样的特征向量。可以看到这个C’=ΦTΦ只有NxN的大小哦。如果N远远小于d的话,那么这个力气就省得很值了。那为什么求解C’=ΦTΦ矩阵的特征向量可以获得C=ΦΦT的特征向量?万众瞩目时刻,数学以完美舞姿登上舞台。证明如下:

      其中,ei是C’=ΦTΦ的第i个特征向量,vi是C=ΦΦT的第i个特征向量,由证明可以看到,vi=Φei。所以通过求解C’=ΦTΦ的特征值分解得到ei,再左乘Φ就得到C=ΦΦT的特征向量vi了。也就是我们想要的特征脸。

 

二、Matlab实现

      下面的代码主要是在著名的人脸识别数据库YaleB中进行实现。用的是裁切后的人脸数据库,可以点击CroppedYale下载。共有38个人的人脸,人脸是在不同的光照下采集的,每个人脸图像是32x32个像素。实验在每一个的人脸图像中随机取5个作为训练图像,剩下的作为测试图像。当然了,实际过程中这个过程需要重复多次,然后得到多次准确率的均值和方差才有参考意义,但下面的demo就不做这个处理了。计算相似性用的是欧氏距离,但编程实现的时候为了加速,用的是简化版,至于如何简化的,考验你的时候到了。

[cpp] view plain copy
  1. % Face recognition using eigenfaces  
  2.   
  3. close all, clear, clc;  
  4.   
  5. %% 20 random splits  
  6. num_trainImg = 5;  
  7. showEigenfaces = true;  
  8.   
  9. %% load data  
  10. disp('loading data...');  
  11. dataDir = './CroppedYale';  
  12. datafile = 'Yale.mat';  
  13. if ~exist(datafile, 'file')  
  14.     readYaleDataset(dataDir, datafile);  
  15. end  
  16. load(datafile);  
  17.   
  18. %% Five images per class are randomly chosen as the training  
  19. %% dataset and remaining images are used as the test dataset  
  20. disp('get training and testing data...');  
  21. num_class = size(unique(labels), 2);  
  22. trainIdx = [];  
  23. testIdx = [];  
  24. for i=1:num_class  
  25.     label = find(labels == i);  
  26.     indice = randperm(numel(label));  
  27.     trainIdx = [trainIdx label(indice(1:num_trainImg))];  
  28.     testIdx = [testIdx label(indice(num_trainImg+1:end))];  
  29. end  
  30.   
  31. %% get train and test data  
  32. train_x = double(data(:, trainIdx));  
  33. train_y = labels(trainIdx);  
  34. test_x = double(data(:, testIdx));  
  35. test_y = labels(testIdx);  
  36.   
  37. %% computing eigenfaces using PCA  
  38. disp('computing eigenfaces...');  
  39. tic;  
  40. [num_dim, num_imgs] = size(train_x);   %% A: #dim x #images  
  41. avg_face = mean(train_x, 2);             %% computing the average face  
  42. X = bsxfun(@minus, train_x, avg_face); %% computing the difference images  
  43.   
  44. %% PCA  
  45. if num_dim <= num_imgs   
  46.     C = X * X';  
  47.     [V, D] = eig(C);  
  48. else  
  49.     C = X' * X;   
  50.     [U, D] = eig(C);  
  51.     V = X * U;  
  52. end  
  53. eigenfaces = V;  
  54. eigenfaces = eigenfaces ./ (ones(size(eigenfaces,1),1) * sqrt(sum(eigenfaces.*eigenfaces)));  
  55. toc;  
  56.   
  57. %% visualize the average face  
  58. P = sqrt(numel(avg_face));  
  59. Q = numel(avg_face) / P;  
  60. imagesc(reshape(avg_face, P, Q)); title('Mean face');  
  61. colormap('gray');  
  62.   
  63. %% visualize some eigenfaces  
  64. figure;  
  65. num_eigenfaces_show = 9;  
  66. for i = 1:num_eigenfaces_show  
  67.     subplot(3, 3, i)  
  68.     imagesc(reshape(eigenfaces(:, end-i+1), P, Q));  
  69.     title(['Eigenfaces ' num2str(i)]);  
  70. end  
  71. colormap('gray');  
  72.   
  73. %% transform all training images to eigen space (each column for each image)  
  74. disp('transform data to eigen space...');  
  75. X = bsxfun(@minus, train_x, avg_face);  
  76. T = eigenfaces' * X;  
  77.   
  78. %% transform the test image to eigen space  
  79. X_t = bsxfun(@minus, test_x, avg_face);  
  80. T_t = eigenfaces' * X_t;  
  81.   
  82. %% find the best match using Euclidean distance  
  83. disp('find the best match...');  
  84. AB = -2 * T_t' * T;       % N x M  
  85. BB = sum(T .* T);         % 1 x M  
  86. distance = bsxfun(@plus, AB, BB);        % N x M  
  87. [score, index] = min(distance, [], 2);   % N x 1  
  88.   
  89. %% compute accuracy  
  90. matchCount = 0;  
  91. for i=1:numel(index)  
  92.     predict = train_y(index(i));  
  93.     if predict == test_y(i)  
  94.         matchCount = matchCount + 1;  
  95.     end  
  96. end  
  97.   
  98. fprintf('**************************************\n');  
  99. fprintf('accuracy: %0.3f%% \n', 100 * matchCount / numel(index));  
  100. fprintf('**************************************\n');  

      下面是将CroppedYale的图像读入matlab的代码。

[cpp] view plain copy
  1. function readYaleDataset(dataDir, saveName)  
  2.     dirs = dir(dataDir);  
  3.     data = [];  
  4.     labels = [];  
  5.     for i = 3:numel(dirs)  
  6.         imgDir = dirs(i).name;  
  7.         imgDir = fullfile(dataDir, imgDir);  
  8.         imgList = dir(fullfile(imgDir, '*.pgm'));  
  9.         for j = 1:numel(imgList)  
  10.             imgName = imgList(j).name;  
  11.             if strcmp('Ambient.pgm',  imgName(end-10:end))  
  12.                 continue;  
  13.             end  
  14.             im = imread(fullfile(imgDir, imgName));  
  15.             if size(im, 3) ==3  
  16.                 im = rgb2gray(im);  
  17.             end  
  18.             im = imresize(im, [32 32]);  
  19.             im = reshape(im, 32*32, 1);  
  20.             data = [data im];  
  21.         end  
  22.         labels = [labels ones(1, numel(imgList)-1) * (i-2)];  
  23.     end  
  24.     save(saveName, 'data''labels');  
  25. end  

 

三、实验结果

      首先来个帅帅的平均脸:

      然后来9个帅帅的特征脸:

      在本实验中,实验结果是30.126%左右。如果加上了某些预处理,这个结果就可以跑到62%左右。只是这个预处理我有点解析不通,所以就没放在demo上了。



推荐阅读
  • 在本教程中,我们将看到如何使用FLASK制作第一个用于机器学习模型的RESTAPI。我们将从创建机器学习模型开始。然后,我们将看到使用Flask创建AP ... [详细]
  • 颜色迁移(reinhard VS welsh)
    不要谈什么天分,运气,你需要的是一个截稿日,以及一个不交稿就能打爆你狗头的人,然后你就会被自己的才华吓到。------ ... [详细]
  • YOLOv7基于自己的数据集从零构建模型完整训练、推理计算超详细教程
    本文介绍了关于人工智能、神经网络和深度学习的知识点,并提供了YOLOv7基于自己的数据集从零构建模型完整训练、推理计算的详细教程。文章还提到了郑州最低生活保障的话题。对于从事目标检测任务的人来说,YOLO是一个熟悉的模型。文章还提到了yolov4和yolov6的相关内容,以及选择模型的优化思路。 ... [详细]
  • 生成式对抗网络模型综述摘要生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络 ... [详细]
  • 不同优化算法的比较分析及实验验证
    本文介绍了神经网络优化中常用的优化方法,包括学习率调整和梯度估计修正,并通过实验验证了不同优化算法的效果。实验结果表明,Adam算法在综合考虑学习率调整和梯度估计修正方面表现较好。该研究对于优化神经网络的训练过程具有指导意义。 ... [详细]
  • Learning to Paint with Model-based Deep Reinforcement Learning
    本文介绍了一种基于模型的深度强化学习方法,通过结合神经渲染器,教机器像人类画家一样进行绘画。该方法能够生成笔画的坐标点、半径、透明度、颜色值等,以生成类似于给定目标图像的绘画。文章还讨论了该方法面临的挑战,包括绘制纹理丰富的图像等。通过对比实验的结果,作者证明了基于模型的深度强化学习方法相对于基于模型的DDPG和模型无关的DDPG方法的优势。该研究对于深度强化学习在绘画领域的应用具有重要意义。 ... [详细]
  • 上图是InnoDB存储引擎的结构。1、缓冲池InnoDB存储引擎是基于磁盘存储的,并将其中的记录按照页的方式进行管理。因此可以看作是基于磁盘的数据库系统。在数据库系统中,由于CPU速度 ... [详细]
  • Opencv提供了几种分类器,例程里通过字符识别来进行说明的1、支持向量机(SVM):给定训练样本,支持向量机建立一个超平面作为决策平面,使得正例和反例之间的隔离边缘被最大化。函数原型:训练原型cv ... [详细]
  • 语义分割系列3SegNet(pytorch实现)
    SegNet手稿最早是在2015年12月投出,和FCN属于同时期作品。稍晚于FCN,既然属于后来者,又是与FCN同属于语义分割网络 ... [详细]
  • 人工智能推理能力与假设检验
    最近Google的Deepmind开始研究如何让AI做数学题。这个问题的提出非常有启发,逻辑推理,发现新知识的能力应该是强人工智能出现自我意识之前最需要发展的能力。深度学习目前可以 ... [详细]
  • 关于如何快速定义自己的数据集,可以参考我的前一篇文章PyTorch中快速加载自定义数据(入门)_晨曦473的博客-CSDN博客刚开始学习P ... [详细]
  • OCR:用字符识别方法将形状翻译成计算机文字的过程Matlab:商业数学软件;CUDA:CUDA™是一种由NVIDIA推 ... [详细]
  • 3年半巨亏242亿!商汤高估了深度学习,下错了棋?
    转自:新智元三年半研发开支近70亿,累计亏损242亿。AI这门生意好像越来越不好做了。近日,商汤科技已向港交所递交IPO申请。招股书显示& ... [详细]
  • ICRA2019最佳论文  Making Sense of Vision and Touch: SelfSupervised Learning of Multimodal Representatio
    文章目录摘要模型架构模态编码器自监督预测控制器设计策略学习控制器设计实验结论和展望会议:ICRA2019标题:《MakingSenseofVision ... [详细]
  • 【Python 爬虫】破解按照顺序点击验证码(非自动化浏览器)
    #请求到验证码base64编码json_img_datajson_raw.get(Vimage)#获取到验证码编码 #保存验证码图片到本地defbase64_to_img(bstr ... [详细]
author-avatar
手机用户2502879747
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有