-
pipeline: Main thread: Using opencv to capture video frames, adding to image queue. thread1: using MTCNN for face detetction and using KCF for face tracking, adding results to task queue. thread2: using ert for landmark detection. Main thread: showing frame by Qt.
-
Dependencies tensorflow c++(how to compile on linux https://blog.csdn.net/Android_chunhui/article/details/97579895) dlib , opencv, Qt5.9
you must change library path in test1.pro file:
video: https://youtu.be/rKe3EQg9AAk
- 疲劳驾驶检测 结合眼睛的闭合状态和嘴巴闭合状态,综合判断驾驶人员的疲劳状况。Qt编写界面,tensorflow,opencv和dlib实现人脸的检测和特征点提取。
- 运行流程: 主线程:打开摄像设备,将图片加入处理队列。 线程1:从图片队列中获得图片进行人脸的检测和追踪,并将检测结果加入新的任务队列。 线程2:从任务队列中获得图像和检测结果,进行特征点提取并判断疲劳状态和专心程度。 主线程:显示图片和诊断结果。
- 具体细节
-
人脸检测与跟踪 在初始帧以及追踪置信度低于阈值时进行人脸检测,其他情况使用KCF追踪人脸。 检测部分使用MTCNN模型(tensorflow实现),640*480图片处理时间大约在70ms左右,比opencv(HOG+adaboost)的>100ms快。 KCF人脸追踪时间在40ms左右。
-
人脸特征点提取 使用dlib进行特征点提取,所用模型为ert,是对GDBT的级联算法。使用ibug的人脸特征点数据集和300张线下采集的图片重新训练ERT模型。
-
判断疲劳与注意力分散的指标。 dlib特征点标注:
眼部,嘴部闭合状态:
(1)当EAR小于阈值时认为眼部闭合,计算5秒内眼睛闭和时间比例(PERCOLS指标)>=30%, 认为疲劳;眼睛连续闭合时间超过两秒,认为疲劳。 (2)当MAR大于0.5认为嘴巴张大状态(打哈欠),计算5秒内打哈欠状态持续时间>=15%,这时如果眼睛闭和时间>=15%,认为疲劳。 (3)根据鼻梁位置距离左右两侧脸颊距离关系得到人脸的偏转程度,以此来判断驾驶员的专心程度。 (4)对眼部瞳孔位置追踪,结合(3)的侧脸程度判断专心状态。(尚未完全实现)