Skip to content

Latest commit

 

History

History
35 lines (15 loc) · 4.22 KB

File metadata and controls

35 lines (15 loc) · 4.22 KB

2018-06-29

这篇文章有4篇论文速递,都是人脸方向,包括人脸识别、人脸表情识别、人脸情绪分类和人脸属性预测。其中一篇是CVPR 2018 workshop。

《Robust Face Recognition with Deeply Normalized Depth Images》

Abstract:已经证明深度信息对于面部识别是有用的。然而,现有的基于深度图像的面部识别方法仍然受到噪声深度值和变化的姿势和表情的影响。在本文中,我们提出了一种新的方法,用于将面部深度图像归一化为正面姿势和中性表情(neutral expression),并从归一化的深度图像中提取鲁棒特征。该方法通过两个深度卷积神经网络(DCNN),归一化网络(NetN)和特征提取网络(NetF)来实现。给定面部深度图像,NetN首先将其转换为HHA图像,通过DCNN从该图像重建3D面部。 NetN然后从重构的3D脸部生成姿势 - 表达归一化(PEN)深度图像。 PEN深度图像最终传递给NetF,NetF通过另一个DCNN提取强大的特征表示以进行人脸识别。我们的初步评估结果证明了所提出的方法在识别具有深度图像的任意姿势和表情的面部方面的优越性。

arXiv:https://arxiv.org/abs/1805.00406

《Which Facial Expressions Can Reveal Your Gender? A Study With 3D Faces》

Abstract:人类在外表和行为方面都表现出丰富的性别暗示。在计算机视觉领域,已经广泛研究了面部外观的性别线索(cue),而基于面部行为的性别识别研究仍然很少。在这项工作中,我们首先证明面部表情会影响3D面部中呈现的性别模式,并且在同一表达式中训练和测试时性别识别性能会提高。此外,我们设计的实验直接提取面部表情形成的形态变化作为特征,用于基于表达的性别识别。实验结果表明,在快乐和厌恶表达中,性别可以相当准确地被识别,而惊喜和悲伤表达不会传达很多与性别相关的信息。这是文献中第一部用3D面部研究基于表达的性别分类的工作,揭示了不同类型表达中包含的性别模式的强度,即快乐,厌恶,惊喜和悲伤的表达。

arXiv:https://arxiv.org/abs/1805.00371

《I Know How You Feel: Emotion Recognition with Facial Landmarks》

CVPR WiCV workshop 2018

Abstract:对于许多计算机视觉算法而言,人类情感(human emotions)的分类仍然是一项重要且具有挑战性的任务,尤其是在人类机器人的日常生活中与人类共存的时代。当前提出的用于情绪识别的方法使用多层卷积网络来解决该任务,该网络没有明确地推断出分类阶段中的任何面部特征。在这项工作中,我们假设一种根本不同的方法来解决情绪识别任务,该方法依赖于将面部标志作为分类损失函数的一部分。为此,我们扩展了最近提出的深度对齐网络(Deep Alignment Network ,DAN),该网络在最近的面部关键点识别挑战中实现了最佳的结果,其中包含与面部特征相关的术语。 由于这个简单的修改,我们的名为EmotionalDAN的模型能够在两个具有挑战性的基准数据集上超过最先进的情感分类方法达5%。

arXiv:https://arxiv.org/abs/1805.00326

《A Deep Face Identification Network Enhanced by Facial Attributes Prediction》

Abstract:在本文中,我们提出了一个新的深层框架,可以预测面部属性并将其作为一种 soft modality来提高面部识别性能。我们的模型是一个端到端框架,它由卷积神经网络(CNN)组成,其输出分为两个独立的分支;第一个分支预测面部属性,而第二个分支标识面部图像。与现有的仅使用共享CNN特征空间共同训练这两个任务的多任务方法相反,我们将预测属性与脸部模态的特征相融合,以提高人脸识别性能。实验结果表明,该模型为人脸识别和人脸属性预测性能带来了好处,特别是在性别预测等身份人脸属性的情况下。我们在由身份和面部属性注释的两个标准数据集上测试了我们的模型。实验结果表明,该模型优于目前大多数现有的人脸识别和属性预测方法。

arXiv:https://arxiv.org/abs/1805.00324