1 / 61
文档名称:

基于人脸性别识别(内含人脸数据库).pdf

格式:pdf   页数:61页
下载后只包含 1 个 PDF 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

基于人脸性别识别(内含人脸数据库).pdf

上传人:2982835315 2015/12/20 文件大小:0 KB

下载得到文件列表

基于人脸性别识别(内含人脸数据库).pdf

相关文档

文档介绍

文档介绍:上海交通大学
硕士学位论文
基于人脸的性别识别
姓名:许孜奕
申请学位级别:硕士
专业:模式识别与智能系统
指导教师:施鹏飞
20090120
上海交通大学硕士学位论文摘要
基于人脸的性别识别

摘要
人脸是重要的生物特征之一,人脸图像上蕴含了大量的信息,例如
性别、年龄、人种、身份等。人脸的性别识别就是试图赋予计算机根据
输入的人脸图像判断其性别的能力。
本文基于人脸正面图像进行性别分类。一般而言,人脸性别识别系
统分为图像预处理,人脸特征提取和分类器识别三部分。本文针对这三
个部分展开研究,并比较了几种不同方案的识别性能。
通过对性别识别的重要理论的研究,为了提高性别识别率,本文提
出了采用 AdaBoost 算法提取整体特征,主动表观模型提取局部特征,组
合局部与整体特征后使用支持向量机(SVM)进行分类的方法。本文在一
个由 AR、FERET、CAS-PEAL-R1、网上收集和实验室自行采集所共同组成
的,包含 21,300 余张人脸的数据库上,进行了大量有意义的实验。实验
结果显示,融合了整体特征和局部特征后,识别率比基于(单独)整体
特征的、基于(单独)局部特征的有很大的提高,达到了 90%以上。本文
还通过精心设计的对比实验对预处理过程中人脸有效区域的截取和
AdaBoost 的结构选择等方面给出了合理的建议。

第 I 页
上海交通大学硕士学位论文摘要
关键词:性别识别,局部特征,整体特征,AdaBoost,支持向量机,主
动表观模型
第 II 页
上海交通大学硕士学位论文 ABSTRACT
Gender Recognition Based on Face Features

ABSTRACT
Face is an important biological feature. Face images contain a great deal
of information, such as gender, age, race, ID, etc. Gender recognition is an
attempt to give puters the ability to discriminate the gender
information from a face image.
Generally speaking, one gender classification system consists of three
modules, face image preprocessing, facial feature extraction and classifier.
This paper researches on the three modules pares some different
methods.
In this paper, a novel gender classification method based on frontal face
images is presented. In this work, the global features are extracted using
AdaBoost algorithm. Active Appearance Model (AAM) locates 83 landmarks,
from which the local features are characterized. After the fusion of the local
and global features, the mixed features are used to train support vector
machine (SVM) classifiers. This method is evaluated by the recognition rates
over a mixed face database containing over 21,300 images from 4 sources
(AR, FERET, CAS-PEAL-R1, abase collected by the lab).
第 III 页
上海交通大学硕士学位论文 ABSTRACT
Experimental results show that the hybrid method outperforms the unmixed
appearance- or geometry-feature based me