热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

用40行Python代码实践高大上的人脸识别

前言很多人都认为人脸识别是一项非常难以实现的工作,看到名字就害怕,然后心怀忐忑到网上一搜,看到网上N页的教程立马就放弃了。这些人里包括曾经


前言

很多人都认为人脸识别是一项非常难以实现的工作,看到名字就害怕,然后心怀忐忑到网上一搜,看到网上N页的教程立马就放弃了。这些人里包括曾经的我自己。其实如果如果你不是非要深究其中的原理,只是要实现这一工作的话,人脸识别也没那么难。今天我们就来看看如何在40行代码以内简单地实现人脸识别。

一点区分

对于大部分人来说,区分人脸检测和人脸识别完全不是问题。但是网上有很多教程有意无意地把人脸检测说成是人脸识别,误导群众,造成一些人认为二者是相同的。其实,人脸检测解决的问题是确定一张图上有木有人脸,而人脸识别解决的问题是这个脸是谁的。可以说人脸检测是是人识别的前期工作。

今天我们要做的是人脸识别。

所用工具

  • Anaconda 2 —— Python 2

  • Dlib

  • scikit-image

Dlib

对于今天要用到的主要工具,还是有必要多说几句的。Dlib是基于现代C++的一个跨平台通用的框架,作者非常勤奋,一直在保持更新。Dlib内容涵盖机器学习、图像处理、数值算法、数据压缩等等,涉猎甚广。更重要的是,Dlib的文档非常完善,例子非常丰富。就像很多库一样,Dlib也提供了Python的接口,安装非常简单,用pip只需要一句即可:

  1. pip install dlib

上面需要用到的 scikit-image同样只是需要这么一句:

  1. pip install scikit-image

  • 注:如果用 pip install dlib 安装失败的话,那安装起来就比较麻烦了。错误提示很详细,按照错误提示一步步走就行了。

人脸识别

之所以用 Dlib 来实现人脸识别,是因为它已经替我们做好了绝大部分的工作,我们只需要去调用就行了。Dlib里面有人脸检测器,有训练好的人脸关键点检测器,也有训练好的人脸识别模型。今天我们主要目的是实现,而不是深究原理。感兴趣的同学可以到官网查看源码以及实现的参考文献。

今天的例子既然代码不超过40行,其实是没啥难度的。有难度的东西都在源码和论文里。

首先先通过文件树看一下今天需要用到的东西:

准备了六个候选人的图片放在 candidate-faces 文件夹中,然后需要识别的人脸图片 test.jpg 。我们的工作就是要检测到 test.jpg 中的人脸,然后判断她到底是候选人中的谁。

另外的 girl-face-rec.py 是我们的python脚本。 shape_predictor_68_face_landmarks.dat是已经训练好的人脸关键点检测器。 dlib_face_recognition_resnet_model_v1.dat 是训练好的ResNet人脸识别模型。ResNet是何凯明在微软的时候提出的深度残差网络,获得了 ImageNet 2015 冠军,通过让网络对残差进行学习,在深度和精度上做到了比 CNN 更加强大。

1. 前期准备

shape_predictor_68_face_landmarks.dat和 dlib_face_recognition_resnet_model_v1.dat都可以在这里找到。不能点击超链接的可以直接输入以下网址:http://dlib.net/files/。

然后准备几个人的人脸图片作为候选人脸,最好是正脸。放到 candidate-faces 文件夹中。

本文这里准备的是六张图片,如下:

她们分别是

然后准备四张需要识别的人脸图像,其实一张就够了,这里只是要看看不同的情况:

可以看到前两张和候选文件中的本人看起来还是差别不小的,第三张是候选人中的原图,第四张图片微微侧脸,而且右侧有阴影。

2.识别流程

数据准备完毕,接下来就是代码了。识别的大致流程是这样的:

  • 先对候选人进行人脸检测、关键点提取、描述子生成后,把候选人描述子保存起来。

  • 然后对测试人脸进行人脸检测、关键点提取、描述子生成。

  • 最后求测试图像人脸描述子和候选人脸描述子之间的欧氏距离,距离最小者判定为同一个人。

3.代码

代码不做过多解释,因为已经注释的非常完善了。以下是 girl-face-rec.py

  1. # -*- coding: UTF-8 -*-

  2. import sys,os,dlib,glob,numpy

  3. from skimage import io

  4. if len(sys.argv) != 5:

  5.     print "请检查参数是否正确"

  6.     exit()

  7. # 1.人脸关键点检测器

  8. predictor_path = sys.argv[1]

  9. # 2.人脸识别模型

  10. face_rec_model_path = sys.argv[2]

  11. # 3.候选人脸文件夹

  12. faces_folder_path = sys.argv[3]

  13. # 4.需识别的人脸

  14. img_path = sys.argv[4]

  15. # 1.加载正脸检测器

  16. detector = dlib.get_frontal_face_detector()

  17. # 2.加载人脸关键点检测器

  18. sp = dlib.shape_predictor(predictor_path)

  19. # 3. 加载人脸识别模型

  20. facerec = dlib.face_recognition_model_v1(face_rec_model_path)

  21. # win = dlib.image_window()

  22. # 候选人脸描述子list

  23. descriptors = []

  24. # 对文件夹下的每一个人脸进行:

  25. # 1.人脸检测

  26. # 2.关键点检测

  27. # 3.描述子提取

  28. for f in glob.glob(os.path.join(faces_folder_path, "*.jpg")):

  29.    print("Processing file: {}".format(f))

  30.    img = io.imread(f)

  31.    #win.clear_overlay()

  32.    #win.set_image(img)

  33.    # 1.人脸检测

  34.    dets = detector(img, 1)

  35.    print("Number of faces detected: {}".format(len(dets)))

  36.    for k, d in enumerate(dets):  

  37.    # 2.关键点检测

  38.    shape = sp(img, d)

  39.    # 画出人脸区域和和关键点

  40.    # win.clear_overlay()

  41.    # win.add_overlay(d)

  42.    # win.add_overlay(shape)

  43.    # 3.描述子提取,128D向量

  44.    face_descriptor = facerec.compute_face_descriptor(img, shape)

  45.    # 转换为numpy array

  46.    v = numpy.array(face_descriptor)  

  47.    descriptors.append(v)

  48. # 对需识别人脸进行同样处理

  49. # 提取描述子,不再注释

  50. img = io.imread(img_path)

  51. dets = detector(img, 1)

  52. dist = []

  53. for k, d in enumerate(dets):

  54.    shape = sp(img, d)

  55.    face_descriptor = facerec.compute_face_descriptor(img, shape)

  56.    d_test = numpy.array(face_descriptor)

  57.    # 计算欧式距离

  58.    for i in descriptors:

  59.    dist_ = numpy.linalg.norm(i-d_test)

  60.    dist.append(dist_)

  61. # 候选人名单

  62. candidate = ['Unknown1','Unknown2','Shishi','Unknown4','Bingbing','Feifei']

  63. # 候选人和距离组成一个dict

  64. c_d = dict(zip(candidate,dist))

  65. cd_sorted = sorted(c_d.iteritems(), key=lambda d:d[1])

  66. print " The person is: ",cd_sorted[0][0]  

  67. dlib.hit_enter_to_continue()

4.运行结果

我们在 .py所在的文件夹下打开命令行,运行如下命令

python girl-face-rec.py 1.dat 2.dat ./candidate-faecs test1.jpg

由于 shape_predictor_68_face_landmarks.dat 和 dlib_face_recognition_resnet_model_v1.dat 名字实在太长,所以我把它们重命名为 1.dat 和 2.dat 。

运行结果如下:

  1. The person is Bingbing

记忆力不好的同学可以翻上去看看 test1.jpg 是谁的图片。有兴趣的话可以把四张测试图片都运行下试试。

这里需要说明的是,前三张图输出结果都是非常理想的。但是第四张测试图片的输出结果是候选人4。对比一下两张图片可以很容易发现混淆的原因。

机器毕竟不是人,机器的智能还需要人来提升。

有兴趣的同学可以继续深入研究如何提升识别的准确率。比如每个人的候选图片用多张,然后对比和每个人距离的平均值之类的。全凭自己了。


∞∞∞



IT派 - {技术青年圈}持续关注互联网、区块链、人工智能领域



公众号回复“Python”,

邀你加入{ IT派Python技术群 } 



推荐阅读
  • 视觉Transformer综述
    本文综述了视觉Transformer在计算机视觉领域的应用,从原始Transformer出发,详细介绍了其在图像分类、目标检测和图像分割等任务中的最新进展。文章不仅涵盖了基础的Transformer架构,还深入探讨了各类增强版Transformer模型的设计思路和技术细节。 ... [详细]
  • 【转】强大的矩阵奇异值分解(SVD)及其应用
    在工程实践中,经常要对大矩阵进行计算,除了使用分布式处理方法以外,就是通过理论方法,对矩阵降维。一下文章,我在 ... [详细]
  • electronvue使用electronupdater实现自动更新
    今天呢,给大家带来一篇干货满满的electron-vue自动升级的教程,话不多说,开始我的表演!配置文件package.jsonbu ... [详细]
  • 时序数据是指按时间顺序排列的数据集。通过时间轴上的数据点连接,可以构建多维度报表,揭示数据的趋势、规律及异常情况。 ... [详细]
  • 在CentOS 7中部署Nginx并配置SSL证书
    本文详细介绍了如何在CentOS 7操作系统上安装Nginx服务器,并配置SSL证书以增强网站的安全性。适合初学者和中级用户参考。 ... [详细]
  • 如何高效学习鸿蒙操作系统:开发者指南
    本文探讨了开发者如何更有效地学习鸿蒙操作系统,提供了来自行业专家的建议,包括系统化学习方法、职业规划建议以及具体的开发技巧。 ... [详细]
  • 本文详细介绍如何安装和配置DedeCMS的移动端站点,包括新版本安装、老版本升级、模板适配以及必要的代码修改,以确保移动站点的正常运行。 ... [详细]
  • 本周三大青年学术分享会即将开启
    由雷锋网旗下的AI研习社主办,旨在促进AI领域的知识共享和技术交流。通过邀请来自学术界和工业界的专家进行在线分享,活动致力于搭建一个连接理论与实践的平台。 ... [详细]
  • AI炼金术:KNN分类器的构建与应用
    本文介绍了如何使用Python及其相关库(如NumPy、scikit-learn和matplotlib)构建KNN分类器模型。通过详细的数据准备、模型训练及新样本预测的过程,展示KNN算法的实际操作步骤。 ... [详细]
  • 本文源自Coursera平台吴恩达教授的深度学习课程,重点探讨了卷积神经网络(ConvNets)从二维图像处理向一维信号及三维数据处理的拓展应用。 ... [详细]
  • 自动驾驶中的9种传感器融合算法
    来源丨AI修炼之路在自动驾驶汽车中,传感器融合是融合来自多个传感器数据的过程。该步骤在机器人技术中是强制性的,因为它提供了更高的可靠性、冗余性以及最终的 ... [详细]
  • 使用 Jupyter Notebook 实现 Markdown 编写与代码运行
    Jupyter Notebook 是一个开源的基于网页的应用程序,允许用户在同一文档中编写 Markdown 文本和运行多种编程语言的代码,并实时查看运行结果。 ... [详细]
  • 自然语言处理(NLP)——LDA模型:对电商购物评论进行情感分析
    目录一、2020数学建模美赛C题简介需求评价内容提供数据二、解题思路三、LDA简介四、代码实现1.数据预处理1.1剔除无用信息1.1.1剔除掉不需要的列1.1.2找出无效评论并剔除 ... [详细]
  • 本文介绍了如何使用 Google Colab 的免费 GPU 资源进行深度学习应用开发。Google Colab 是一个无需配置即可使用的云端 Jupyter 笔记本环境,支持多种深度学习框架,并且提供免费的 GPU 计算资源。 ... [详细]
  • 本文节选自《NLTK基础教程——用NLTK和Python库构建机器学习应用》一书的第1章第1.2节,作者Nitin Hardeniya。本文将带领读者快速了解Python的基础知识,为后续的机器学习应用打下坚实的基础。 ... [详细]
author-avatar
zj
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有