face verification code怎么算阈值 l2

人脸识别笔记:Deep Face Recognition - 推酷
人脸识别笔记:Deep Face Recognition
在具体到人脸识别方法之前,先对人脸识别中的Face detection, Face alignment, Face verification和Face identification(recognization)进行必要的讲解说明,以方便后续知识的展开。
人脸检测(Face detection) :对图像中的人脸进行检测,并将结果用矩形框框出来。
人脸校正(Face alignment) :对检测到的人脸进行姿态的校正,使其人脸尽可能的&正&,通过校正可以提高人脸识别的精度。校正的方法有2D校正、3D校正的方法,3D校正的方法可以使侧脸得到较好的识别。目前校正在处理过程中完全可以达到实时性的要求,具体可以阅读Face Alignment at 3000 FPS via Regressing Local Binary Features这篇文章(
)。在进行人脸校正的时候,会有检测特征点的位置这一步,这些特征点位置主要是诸如鼻子左侧,鼻孔下侧,瞳孔位置,上嘴唇下侧等等位置,知道了这些特征点的位置后,做一下位置驱动的变形,脸即可被校&正&了。下面两幅图像分别显示了原来的人脸和经过校正后了的人脸。
人脸校验(Face verification) :人脸校验是基于pair matching的方式,所以它得到的答案是“是”或者“不是”。在具体操作的时候,给定一张测试图片,然后挨个进行pair matching,matching上了则说明测试图像与该张匹配上的人脸为同一个人的人脸。一般在 小型 办公室人脸刷脸打卡系统中采用的(应该)是这种方法,具体操作方法大致是这样一个流程:离线逐个录入员工的人脸照片(一个员工录入的人脸一般不止一张),员工在刷脸打卡的时候相机捕获到图像后,通过前面所讲的先进行人脸检测,然后进行人脸校正,再进行人脸校验,一旦match结果为“是”,说明该名刷脸的人员是属于本办公室的,人脸校验到这一步就完成了。在离线录入员工人脸的时候,我们可以将人脸与人名对应,这样一旦在人脸校验成功后,就可以知道这个人是谁了。上面所说的这样一种系统优点是开发费用低廉,适合小型办公场所,缺点是在捕获时不能有遮挡,而且还要求人脸姿态比较正(这种系统我们所有,不过没体验过)。下图给出了示意说明,不过那个“Am I SW?”应该改一下,改成“Am I the same to the seleted face image?”。
人脸识别(Face identification或Face recognization) :人脸识别正如下图所示的,它要回答的是“我是谁?”,相比于人脸校验采用的pair matching,它在识别阶段更多的是采用分类的手段(。它实际上是对进行了前面两步即人脸检测、人脸校正后做的图像(人脸)分类。
根据上面所介绍的这4个概念,人脸识别包括下面三个模块:
上面进行细拆分包括下图所示的几个步骤:
对上面的概念清楚了后,我们再接着讲一下在人脸识别里面的人脸图像数据库。
人脸图像数据库
人脸图像这个东西因为受到安全隐私等限制,所以一般大规模的人脸数据库比较难拿到,目前我知道到的公开的人脸图像库有LFW(Labelled Faces in the Wild)和YFW(Youtube Faces in the Wild)。下面再列举一些大规模的人脸图像数据库:
Deep Face Recognition
人脸识别按特征分类可以分成两种:一种是基于浅层特征的人脸识别,一种是基于深度学习的人脸识别方法。Deep Face Recognition这篇文章做了两件事:一是介绍了一种抓取网络上的图片并在有限的人力标注下得到一个大规模人脸图像的方法,二是测试了不同CNN网络结构下人脸校正以及度量学习对人脸识别的精度的影响。
浅层人脸识别方法首先提取人脸图像的局部特征,比如SIFT、LBP、HOG等特征,然后通过某种pooling机制将它们aggregate成全局人脸描述子,如Fisher Vector(可以参阅A compact and discriminative face track descriptor和Fisher Vector Faces in the Wild这两篇文章)。
基于深度学习的人脸识别方法通常使用CNN结构,比较典型的代码是DeepFace(Deep-Face:Closing the gap to human-level performance in the face verification),该方法使用一个深层的CNN网络结构,训练所使用的数据集数目为4百万,共包含4000个人的人脸。DeepFace在预处理的阶段使用了3D模型将人脸图像校准到典型姿态下。在当时DeepFace在LFW和在YFW人脸数据库上都取得了最好的结果。后来,文章的作者有对其工作进行了拓展(具体可以阅读Web-scale traing for face identification这篇文章),其训练图库比原来的图库大了两个量级,包括100万个人的脸(英文作identities),每个identity有50张图像,他们通过一种自举策略来选择identities进行网络的训练,并说明了可以通过控制全连接层的维数还提高网络的泛化能力。
DeepFace的工作后来被进一步拓展成了DeepId系列,具体可以阅读Y. Sun的4篇关于人脸识别的文章:
Deep learning face representation by joint identificationverification,在分类和验证(virification)的时候使用多任务学习。
Deep learning face representation from predicting 10,000 classes,将多个CNNs结构联合起来
Deeply learned face representations are sparse, selective, and robust,在全连接层前面使用不同的CNN结构。
Deepid3: Face recognition with very deep neural networks,使用更深的网络结构,大约用到了200个CNN结构,模型非常的复杂。
相比于DeepFace,DeepID没有使用3D的校准,而是使用了一种更简单的2D仿射校准,所用的训练图库是由CelebFaces和WDRef两个人脸图像库混合而成的。
在2015年谷歌的Facenet中,谷歌的研究人员使用了前面介绍的人脸图像库中的Google人脸数据库上去训练CNN网络,他们使用的是&triplet-based&损失,通过最小化类内差异和最大化类间差异,并在训练阶段将该损失应用在多层(不仅仅是最后一层),在LFW和YTF上获得了最好的识别成绩。
人脸数据库搜集
获取候选人名 。IMDB电影名人列表大约有500K个不同的人名,先从上面通过popularity排序获取到5k个人名,其中男女各一半。这些人名通过不断的筛选排除,最后得到了2622个人人名。
为每一个人名搜集图片 。借助Google和Bing图片搜索引擎,分别按 人名 和 人名 actor 的两种方式进行查询,每次查询选前面500张,这样可以为每个人名(后面将其称为identity)获取到2000张图像。
用自动filter提高纯度 。对于每一个基于Google查询的结果,将前50个样本作为正样本,其他identity查询的前50个结果作为负样本,用Fisher Vector描述子训练一个one-vs-rest线性分类器。用这个线性分类器对每一个identity的2000个下载结果进行排序,保留前1000个的结果。
删除近似样本 :对每一幅图像计算其VLAD描述子,并对每一个identity的1000张图像进行聚类,然后&retaining a single element per cluster&,文章在这里没讲清楚。
最终的人工过滤 。这一步借助训练CNN网络来加速标注过程,最后获取得了982803张较好的图片。
下表使每个过程标注所花费的时间:
网络结构与训练
在文章中,作者将其视为一个N=2622的分类问题,即每一个identity都是一类,选用的网络结构是vggNet,网络的最后一层是分类器$(W,b)$,分类的误差用softmax log-loss来计算。一旦学习过程完成后,就可以把分类器$(W,b)$去除,分数向量$\phi ({l_t})$便可以作为特征通过计算欧式距离进行人脸校验。 上面得到的分数向量能够进一步得到改善,通过在欧式空间里面使用&triplet loss&的方式进行训练。其实这里所说使用&triplet loss&的方式进行训练,是对特征的进一步精炼,使用的&triplet loss&学习方非常的常见,是度量学习里面的一种,下面具体讲一下这个特征再学习过程。
使用triplet loss进行特征再学习
对于网络的输出分数向量$\phi ({l_t}) \in {R^D}$,对其进行$l_2$归一化,然后使用affine投影将其投影为$_t} = W'\phi ({l_t})/||\phi ({l_t})|{|_2},W' \in {R^{L \times D}}$,$W'$通过triplet loss损失进行求解:
$$E(^'}) = \sum\limits_{(a,p,n) \in T} {\max { 0,\alpha - ||
a} - n}||_2^2 + || a} - _p}||
上式中p是正样本,n是负样本,通过对该式进行优化,即可得到投影矩阵$W$。下表显示了在YFW人脸数据库上不进行特征再学习和进行特征在学习后的识别结果(特征再学习在下表中为Embedding learning):
从上表可以看到,Embedding learning将原来的91.6%的识别率提高到了97.3%。说明对网络输出的特征进行在学习(跟特征的fine-tune差不多的意思),可以提高精度。 另外在
项目主页上作者贴出了LFW和YFW两个人脸图像库上的识别率。
在文章中,作者在LFW人脸数据库上分别对Fisher Vector Faces、DeepFace、Fusion、DeepID-2,3、FaceNet、FaceNet+Alignment以及作者的方法进行对比,具体的识别精度我们看下表。
从上表可以看到,Deep Face Recognition这篇文章所提出的方法训练所用图库大小最小,但取得了跟其他方法具有可比性的结果。
已发表评论数()
请填写推刊名
描述不能大于100个字符!
权限设置: 公开
仅自己可见
正文不准确
标题不准确
排版有问题
主题不准确
没有分页内容
图片无法显示
视频无法显示
与原文不一致&&国之画&&&&&&
&& &&&&&&&&&&&&&&&&&&
鲁ICP备号-4
打开技术之扣,分享程序人生!【Caffe实践】基于Caffe的人脸检测实现 - 博客频道 - CSDN.NET
1983的专栏
拥抱变化,勇往直前!
分类:【Caffe实践】【机器学习实践】
深度学习可以说是在人脸分析相关领域遍地开花,近年来在人脸识别,深度学习在人脸检测,人脸关键点检测中有很广泛的应用,这篇文章中,初步实现了基于深度学习CNN的人脸检测。
1. 方法讨论
深度学习一般没有进行直接的检测,现有的检测大多都是基于分类的检测,主要的方法有两种:
1.1. 基于滑动窗口的分类
最典型的方法就是OverFeat那一套,其主要的方法是:对于每一个尺度、每一个可能的滑动窗口,进行分类。其主要的缺点是:对于稍微大一点的图像,滑动窗口往往有好几百万个之多,所以直接利用这个方法往往速度比较的慢。
如果只是对每一个滑动窗口进行分类的话,那速度的确会变得非常的慢,但是,卷积有一个显著的优点就是权值共享,它可以很好的进行计算结果的重复利用。所以最后基于CNN的全卷积网络速度也不会特别的慢。
1.2. 基于目标显著性方法
最典型的方法是R-CNN那一套,其主要的方法是:先快速的检测可能的目标区域块,然后用训练好的深度网络模型进行特征提取,之后再进行分类。它主要解决的问题就是基于滑动窗口的目标检测方法窗口过多的问题。
然而这种方法可能不适合于人脸检测,因为人脸是属于局部目标,而显著目标检测通常用来检测通用的完整目标区域。
在这里,我实现的是基于滑动窗口的检测方法,利用caffe的机制,直接将训练好了的网络模型转换为全卷积网络,从而实现直接输入任意图像的大小。
2. 实验步骤
2.1. 数据生成
首先是样本的采样,需要的是两类数据,人脸图像和非人脸图像。可以用自己喜欢的方法进行人脸框和非人脸框的选取,并把截取的人脸图像块分别放在face-images 和no-face-images 文件夹中。
在这里需要注意的一点是:如果随机采样,很有可能正负数据及其的不平衡,从而导致网络无法训练,需要特别注意。
紧接着是将数据转换为LMDB,这一点其实挺重要的,直接的文件列表虽然方便,但是训练速度会比LMDB格式的低5倍左右,而且LMDB或者LevelDB支持更多的数据预处理方法。
利用如下脚本:{convert_data_lmdb.sh},可以将数据转化为LMDB。
2.2. 网络配置
由于我们是用来做人脸二分类,所以没有必要训练一个非常大的网络,小一点的就可以,我这边是改进DeepID的网络,采用人脸图像大小是48*48 彩色图像。当然你也可以直接那别人训练好了的网络进行微调处理。
网络结构图如下所示:
完整的训练参数及其文件在最后面的链接文件给出。。
2.3. 训练网络
训练网络也跟普通的所有的分类网络训练一样。
配置好相对应的路径和超参数,在当前路径下,运行
./train.sh
由于是二分类,网络收敛的很快,差不多几万个迭代就可以达到99%以上的二分类精度。
3.1. 网络转换
训练好了的人脸二分类器,不能直接应用于人脸检测,需要进行转换为全卷积网络的格式,具体的方法在Caffe官网上有详细的说明,这里不再赘述。
关键代码如下:
3.2. 非极大值阈值
直接使用了这个代码,已经实现了非极大值阈值。
3.3. 人脸检测
主要代码如下:
4. 实验结果
4.1. 响应图
其中,颜色越红的地方出现就是检测器判断人脸出现的地方。
4.2 检测结果图
这里面已经设置了比较高的阈值,不然误检率会很高。
1,阈值的设定,是在准确率和召回率之前的权衡。
2,基于以上方法,定位还不够准确。
地址:Github代码
PS: 如果对你有帮助,还请点个star吧
chenriwei2
排名:第6660名
<img src='http://c.csdnim一&人脸识别系统结构
图1显示了人脸识别系统所包含的各个模块,其中,图像采集模块用于采集包含人脸的图像;人脸检测跟踪模块用于确定视频中人脸的位置和大小,并确定同一个人在帧间的对应关系;而特征点定位模块用于定位眼睛、嘴巴等脸部特征点的位置;图像质量评估模块,用于从采集的同一个人的多张人脸图像中,根据人脸姿态和光照条件选择最适合识别的一张或者几张人脸进行人脸识别/认证;人脸特征提取模块用于根据眼睛位置将人脸进行标准化,得到设定大小的脸部区域,并提取用于识别的人脸特征;人脸认证/识别模块用于判定当前人脸特征是否为库中人脸特征;活体认证模块,其作用是识别当前是真人还是照片、视频或者模型,从而避免仿冒造成的损失,在银行门禁,社保远程识别等应用中必不可少。
人脸识别系统框图
二&人脸检测跟踪技术
人脸检测跟踪是人脸识别系统的前端,是其它模块处理的基础。相对其它模块,人脸检测跟踪模块的技术相对成熟,基本能够达到实际应用的需求。
早期曾经出现过诸如支持向量机,神经网络等经典的人脸检测技术,但是直到Viola[1]提出了基于Haar-like特征和Discrete AdaBoost的层次型人脸检测技术后,人脸检测才真正成为一个从性能到速度都基本满足实际应用需求的技术。该论文中采用的积分图像快速计算矩形区域亮度和的方法以及层次型的分类器结构成为计算机视觉领域的经典方法。此后,基于其方法,出现过很多改进方法。清华大学艾海州老师的硕士武勃[2]提出的基于Haar-like特征和Real AdaBoost的巢型的人脸检测技术,是后续改进方法中的佼佼者,该方法采用查找表(LUT,Look-Up Table)方式,使得每个弱特征的表示能力更强,此外,巢型(Nest-structured)结构,更好的利用了前层信息,克服了层次型(Cascade)丢失前层信息的缺陷。中科院计算所高文老师处的Yan shengye[3]在CVPR 2008发表的基于局部编码二值模式特征(LAB,Locally Assembled Binary)和巢型Real AdaBoost的方法,其采用Schneiderman[4]提出的Feature-Centric的方式来使用特征,克服了现有框架中在判定相邻位置是否人脸时,多次计算同一特征,从而造成冗余运算的缺陷。该方法中提出的LAB特征,融合了LBP特征中的二值编码模式和Haar-like特征中的矩形区域亮度和特征,对于区域亮度模式很强的人脸模式表示能力很强,而且,易于定点化。此外,Feature-Centric的方法在构建多姿态人脸分类器时,由于特征公用,处理速度得到大幅提高。此外,该论文中还采用了该作者提出的[5]Matrix-Structural Learning的训练方法,该方法采用类似反样本Bootstrap的方法对正样本进行Bootstrap,从而能够挑选难分类的正样本进行训练,也使得大规模的使用正样本成为可能,克服了计算机内存的限制。多姿态人脸检测技术是人脸检测技术领域的一个研究难点和热点。为了减少类内距离,基本的思路是将多姿态人脸进一步划分为子姿态,但是划分的方式以及后续处理策略又千差万别。基于金字塔结构的方法,基于树形结构的方法,基于姿态估计器的方法,以及黄畅[6]等提出的基于Vector Boosting的方法。该方法的思路也是将多个姿态划分为子姿态,然后,分别为各个姿态训练子分类器,但是,各子分类器公用特征,从而减少所采用的特征数目,提高了处理速度。
人脸跟踪是物体跟踪技术的一个子领域,既具有物体跟踪技术的一般特点,也具有自己独有的特点。经典的方法中,既包括基于卡尔曼滤波的预测方法,也有在实际应用中取得不错效果的基于Mean Shift、粒子滤波(Particles Filter)的方法,而基于直方图(Histogram),自相关矩阵(Covariance Matrix)等特征匹配的方法也是一个方向。近年来,跟踪被看作是物体和背景区域的一个两类分类问题。基于这一思想,基于统计学习的方法被应用在跟踪中。其中,基于增量子空间的方法,Ensemble Tracking的方法, On-line Boosting的方法被引入跟踪,开阔了跟踪方法的思路。
检测和跟踪是相辅相成的两个问题,检测可以用来作为跟踪的初始条件,也可以用来验证跟踪结果的可信程度,而跟踪可以用来作为限定检测的搜索范围,也能用来确定检测目标在帧间的对应关系。在实际应用中,为了达到速度和效果的综合性能,二者需要紧密结合,相辅相成。而最近,出现了很多将物体检测和物体跟踪结合到一个框架下处理的方法,使得二者更加紧密的结合起来。其中,李源[7]等提出的基于粒子滤波和在线学习的方法是此类方法的代表。
人脸检测虽然取得了很多进步,但在实际应用中,对于诸如监控场景等低帧率、相互遮挡、光照条件恶劣的高清图像下的超大人流量的人脸检测跟踪问题,为了达到速度、检测率和误检率的完美统一,依然需要综合利用包括运动信息、肤色信息以及摄像机成像模型等各种限制信息,并将检测和跟踪结合起来。
三&人脸特征点定位方法
人脸特征点定位,是人脸识别中十分重要的问题,因为其精度直接影响人脸的对准程度,从而直接影响人脸识别的精度。简单的脸部特征点定位问题,可以仅仅包含左眼和右眼中心点的定位,或者进一步包含嘴边中心点的定位。而复杂的脸部特征点定位则可能包括眼睛,嘴边,鼻子器官周围边缘轮廓点和中心点,以及脸颊边缘轮廓特征点的定位。采用何种特征点定义方法,取决于人脸识别问题的应用条件,以及选择的人脸识别算法。
特征点定位的方法可以简单划分为基于启发式规则的方法,基于概率模型的方法以及基于分类器模型的方法。基于启发式规则的方法,一般是找到特征点区域图像在亮度,边缘,形状,纹理等满足的特性,根据事先定义的规则找到符合特性符合这些规则的方法。而基于概率模型的方法,则是统计特征点区域特征符合的概率模型,通过最大化后验概率来找到特征点位置,其中基于AAM和ASM的方法是这类方法的代表。所采用的特征可以采用图像的亮度,边缘等特征,也可以采用特征点之间的形状分布来限定。而基于分类器模型的方法,则是把每个特征点所在区域和其它脸部区域看作是一个两类分类问题,采用支持向量机,AdaBoost等分类器算法,训练得到一个能够区分特征点区域的模型。然后,在图像上寻找各个尺度各个位置的通过分类器的特征点区域。
基于启发式规则的方法,扩展性比较差,而且,参数和规则十分难调,而基于概率模型的方法,效率一般要低些,而且,采用的模型往往具有一定的局限性,而基于分类器模型的方法,参数为自动训练获得,而且,鲁棒性更高,但是,却无法得到比较稳定精确的中心点位置。因此,更好的方法是将三者结合。首先采用基于分类器模型的方法寻找特征点候选位置,然后采用特征点中心的图像特性进行分析,进而采用概率模型进行约束,在底层图像信息和全局相对位置约束下,找到一个最优解。文献[8]、文献[9]均是近期该类方法的代表。
四&图像质量评估
对于视频输入的人脸识别问题而言,如何将视频中的多张人脸信息进行融合,对于提高识别率是十分重要的。一个简单的思路是从多幅人脸中找到和人脸库中条件最接近的人脸用来做识别。因此,可以对输入图像的姿态条件、光照条件、分辨率条件等进行分析,找到和人脸库中条件最接近的人脸用于识别,这样做,一方面一定程度克服了姿态和光照对于识别率的影响,另外,由于避免将所有采集的人脸都用于识别,提高了处理速度。
但是图像质量评估是一个十分困难的问题,这是一个停留在工程应用和探讨阶段的问题,并没有明确的理论和方法。
五&活体检测
对于银行等重要场所的门禁和远程身份认证的应用而言,活体检测是一项重要的功能。活体检测的思路主要有几类,一类是从传感器的特性,摄像机的双目成像原理等找到真实人脸和照片、模型等的区别,比如采用温感传感器探测真实人脸表面的温度分布以区别于屏幕,照片和模型,或者采用双目摄像头得到人脸表面的深度信息以区别于照片和屏幕。一类是利用人的局部运动,比如人眼区域,嘴巴区域的局部运动,而无论是照片还是模型,都无法发生局部运动。而检测局部运动的方法,一种可以检测帧间人脸各区域的运动情况,此外,可以采用眼睛、嘴巴附近的表观模型检测眼睛的开闭状态或嘴巴的开闭状态。
六&人脸识别方法
基于脸部特征点的位置可以将人脸归一化为大小相同,特征点位置对齐的脸部区域。进一步,可以在亮度特征的基础上提取鉴别能力更强的特征,并送给分类器进行人脸识别。人脸识别领域最悠久最经典的方法莫过于基于特征脸(即PCA分解)的方法了,而Gabor特征无疑是人脸识别领域最常用和最成功的特征了,基于弹性模板匹配[12]的方法是其中最经典的方法之一。近年来,LBP特征在人脸分析、纹理分析等领域取得了广泛应用。一些实验表明LBP特征在人脸识别和表情识别上的优异性能。中科院自动化所的张文超[10]等人将LBP编码和Gabor特征进行结合,提出了LGBP特征,一些实验表明,该特征的性能比Gabor和LBP特征更加优异。
但是,上述特征都存在一个特征维数高,构造分类器复杂的问题。为了解决这个问题,大家形成共识的一个思路是对提取的特征进行PCA降维或者采用AdaBoost进行特征选择,得到分类能力强的部分特征,而得到分类特征之后,则可以采用基于MQDF,Intersect直方图距离,余弦角度距离等距离进行特征匹配。此外,也可以采用LDA来对各子区域的距离进行加权,得到最终的分类器。
上述基于距离的方法更加适合于基于查询方式的人脸辨识(Face Identification)问题。而对于确定当前人是否声明人的人脸认证(Face Verification)问题,如何设定一个合适的阈值是一个十分困难的问题。[11]等提出的基于类内类间的方式将人脸识别这一多类问题转换为一个类内和类间的两类问题,从而为人脸认证问题提供了解决思路。可以将基于上述特征的类内类间距离作为特征,采用支持向量机,AdaBoost等分类器训练方法训练得到最终的分类器。
光照是人脸识别中十分困难的问题,为了解决实际应用中的光照问题,中科院自动化所的李子青老师(Stan Li)等[13]采用近红外摄像头作为采集设备,通过滤除环境中的光源,以及设置主动光源来解决光照问题。其采用的思路是将以LBP为特征,通过类内类间转换为一个两类问题,最终采用AdaBoost进行特征选择和构造分类器。这种方法,适合于定点化,速度很快,适合硬件实现,是十分适合门禁考勤嵌入式设备中的方法。
此外,人脸识别领域中,还存在着很多研究方向,基于子空间分析的方法是其中一个重要的方向,很多研究者提出了很多方法,但是,个人认为这些方法更多适用于理论研究,在实际使用中的方法,还是以上文所述方法为主线。
可见,人脸识别是一个涉及到方方面面知识的一个整体系统,其中的任何一个方面都影响着系统的最终性能。
[1] P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. CVPR 2001.[2] Bo WU, Haizhou AI, Chang HUANG, Shihong LAO, Fast Rotation Invariant Multi-View Face Detection Based on Real Adaboost, In Proc. the 6th IEEE Conf. on Automatic Face and Gesture Recognition (FG 2004), Seoul, Korea, May 17-19, 2004.[3] Shengye Yan, Shiguang Shan, Xilin Chen, Wen Gao, "Locally Assembled Binary (LAB) feature with feature-centric cascade for fast and accurate face detection," cvpr, pp.1-7, 2008 IEEE Conference on Computer Vision and Pattern Recognition, 2008.[4] Henry Schneiderman, "Feature-Centric Evaluation for Efficient Cascaded Object Detection," cvpr, vol. 2, pp.29-36, 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'04) - Volume 2, 2004.[5] J. Chen, R. Wang, S. Yan, S. Shan, X. Chen, and W. GAO. How to train a Classifier Based on the Huge Face Database? IEEE International Workshop on AMFG2005, LNCS 3723, pp. 84-95.[6] Vector Boosting for Rotation Invariant Multi-View Face Detection Export,&,&,&,&, Computer Vision, IEEE International Conference on, Vol. 1 (2005), pp. 446-453.
[7] Tracking in Low Frame Rate Video: A Cascade Particle Filter with Discriminative Observers of Different Lifespans, Yuan LI, Haizhou AI, Takayoshi YAMASHITA, Shihong LAO, Masato KAWADE, CVPR 2007.
[8] Precise detailed detection of faces and facial features, Liya Ding, Martinez, A.M,&, 23-28 June 2008.
[9] Enhanced Pictorial Structures for Precise Eye Localization under Uncontrolled Conditions,&, Fengyi Song, Zhi-Hua Zhou, Songcan Chen, CVPR 2009.[10]&基于局部Gabor变化直方图序列的人脸描述与识别,,,,,,,&.[11] Bayesian face recognition, Baback&, Tony&&and Alex&, MITSUBISHI ELECTRIC RESEARCH LABORATORIES, TR2000-42, February 2002.[12] Laurenz Wiskott, Jean-Marc Fellous, Norbert Kr&ger, Christoph von der Malsburg, "Face Recognition by Elastic Bunch Graph Matching," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19, no. 7, pp. 775-779, July, 1997.[13] Illumination Invariant Face Recognition Using Near-Infrared Images,&,&,&,&, April 2007 (vol. 29 no. 4), pp. 627-639, TPAMI.
阅读(...) 评论()}

我要回帖

更多关于 verification failed 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信