基于卷积神经网络的人脸表情识别应用--AR川剧变脸(一)

1、摘要

本项目将在Android上实现一种通过识别表情类别,从而给人脸戴上不同样式脸谱的AR软件,效果如下:

基于表情识别的脸谱换脸AR安卓APP效果演示

通过深度学习和Keras训练一个人脸表情识别的卷积神经网络,然后使用TensorFlow Lite转换为tflite文件,部署到Android平台。

想要实现这样一个软件,核心就是两部分:
1)使用卷积神经网络训练一个人脸表情识别模型,
2)将训练好的模型移植到Android平台,同时在Android实现脸谱AR效果,并结合表情识别模型的识别结果,渲染不同的脸谱样式

本文讲第一部分,如何使用Keras训练一个人脸表情识别的卷积神经网络。

第二部分见:基于卷积神经网络的人脸表情识别应用–AR川剧变脸(二)

2、数据集处理

数据集我们使用FER2013PLUS人脸表情识别数据集,大概有35000张图片,每张图片是48*48分辨率的灰度图。

在这里插入图片描述

下图展示7个表情类别的数据集样本量,可以看出类别 angry、happy、sad、surprised、normal 这 5 种表情数量较多,而 disgust、fear这 2 种表情较少。
在这里插入图片描述

在实验中为了防止出现过拟合现象需要进行数据集扩充,提高模型的泛化能力。数据增强是指对输入的图像进行随机的图像处理,比如旋转、位移、光照强度、裁剪等,对于计算机而言,经过位移后的图像和原图像是两幅不同的图像,但具有相同的标签,从而扩充了已有的数据集。而通过使用大量不同的数据集来训练网络,进一步提高深度模型的泛化能力,使得网络即不过拟合也不欠拟合,达到最佳状态。

模型的实际使用常见是自由场景,自由场景中光照亮度的不同会影响模型的性能,添加随机光照,同时为了扩充数据集和对非正常角度人脸的识别增加随机旋转、随机聚焦和水平翻转。下图 展示对一张 48*48 尺寸,表情为 happy 的灰度图进行随机亮度、随机旋转、随机聚焦和随机水平翻转的效果。可以看出,小型数据集借此技术可以实现数十倍的规模扩充,而数据集规模的提升可以提升网络的泛化能力和鲁棒性,提高网络在场景下的识别准确率。
在这里插入图片描述

在Keras中,我们需要使用数据加载器加载数据,最大化硬件利用率,幸运的是Keras已经提供了方法,我们直接使用即可:

def getDenerator(fer2013plus_path="datasets/fer2013plus", batch_size=32):
    """
	我们传递数据集的位置和batch_size,然后函数返回用于训练和测试的数据加载器,用于训练时投喂数据
    :param fer2013plus_path:fer2013plus数据集目录
    :param batch_size:
    :return:
    """
    train_datagen = ImageDataGenerator(    # 定义数据增强的方式
        brightness_range=(0.7, 1.3),  # 随机亮度
        featurewise_center=False,
        featurewise_std_normalization=False,
        rotation_range=10,  # 随机旋转
        zoom_range=(0.7, 1.3),  # 聚焦
        horizontal_flip=True)  # 水平翻转
        
    train_generator = train_datagen.flow_from_directory(fer2013plus_path+"/train",  # 告诉Keras图片的位置
                                                        target_size=(48, 48),		# 将图片缩放到指定大小
                                                        color_mode="grayscale",		# 因为是灰度图
                                                        batch_size=batch_size,		# 一次性加载多少图片,越大训练越快,但是需要更多的显存
                                                        class_mode='categorical')    

    test_datagen = ImageDataGenerator()  # 水平翻转
    test_generator = test_datagen.flow_from_directory(fer2013plus_path+"/test",
                                                      target_size=(48, 48),
                                                      color_mode="grayscale",
                                                      batch_size=batch_size,
                                                      class_mode='categorical')

    return train_generator,test_generator

3、模型设计

模型设计参考VGG网络,也就是Conv+Conv+Pool式的堆叠。

如下图是VGG的结构,可以看出就是Conv+Conv+Pool式的堆叠,最后使用全连接层,实现1000类别的分类。
在这里插入图片描述
但是我们人脸表情识别数据集比较小,仅有3万多张图片,模型太大容易过拟合,所以以VGGNet为蓝本,设计一个比较小的模型,如下图所示,也是conv+conv+pool式,但是更小。

因为我们的表情是7中分类,所以输出的全连接层长度是7。

在这里插入图片描述

在Keras中定义模型结构其实而很简单,代码如下:

def getVXSlim():
    model = Sequential()

    # block1
    model.add(Conv2D(64, (5, 5), input_shape=(48, 48, 1), activation='relu', padding='same'))
    model.add(Conv2D(64, (5, 5), activation='relu', padding='same'))
    model.add(BatchNormalization())
    model.add(MaxPooling2D(pool_size=(2, 2)))

    # block2
    model.add(Conv2D(128, (5, 5), activation='relu', padding='same'))
    model.add(Conv2D(128, (5, 5), activation='relu', padding='same'))
    model.add(BatchNormalization())
    model.add(MaxPooling2D(pool_size=(2, 2)))

    # block3
    model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))
    model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))
    model.add(BatchNormalization())
    model.add(MaxPooling2D(pool_size=(2, 2)))

    # single conv
    model.add(Conv2D(64, (3, 3), padding='same'))

    # classifier
    model.add(Flatten())		# 将多维的数据展成一列,可以理解为将图像展开成一列
    model.add(Dense(7))			# 堆叠一个全连接层,长度为7
    model.add(BatchNormalization())
    model.add(Dense(7))			# 堆叠一个全连接层,长度为7

    # config
    model.add(Activation('softmax'))	# 最后使用softmax激活函数,将输出转换为概率
    model.compile(loss='categorical_crossentropy', metrics=['accuracy'], optimizer='adam')  # 定义优化器

    return model

在上面的代码中使用了Conv2D、BatchNormalization、MaxPooling2D、Dense:

  • Conv2D:提取特征,将图像分解为多个特征的组合
  • BatchNormalization:将数据的分布变换为正态分布,再映射到其他分布,可以加快模型的训练速度
  • MaxPooling2D:可以缩减图像的尺寸
  • Dense:全连接层,用于综合所有特征进行判断类别

4、训练

其实到这里,最重要的数据加载和模型定义就写好了,就可以开始训练了。训练了100个轮次,然后开始训练。
在这里插入图片描述
从图中可以看到,训练集精度和损失在 45epoch 左右进入缓慢优化阶段,在 70epoch左右趋于稳定。测试集精度和损失在 45epoch 左右趋于稳定,最终测试集精度达到 83%,损失低于 0.3,取得了较好的表情识别效果。

都说深度学习是黑盒,我们来看看训练出来的模型的可视化效果。
在这里插入图片描述
在可视化中间输出部分,通过卷积网络的每层都会输出结果,通过将结果可视化可以看到输入图片在网络中的流动形式,在这里展示第 3 层的 max_pooling2d、第 4 层的conv2d_2 和第 8 层的 conv2d_4 的输出结果。在图 中可以看出,在开始阶段实际上是各种边缘检测器的集合,在这一阶段,激活几乎保留了输入图像中所有的信息。在第二幅中,虽然仍有边缘检测的痕迹,但是此时更加像是对某些局部部位的特征检测,随着层数的加深,中间激活的结果变得越来越抽象,也更加难以直观地理解。在第三层中几乎无法和原图联系起来。所以抽象是卷积神经网络的一大能力,而这种能力也正是人类所拥有的。

我们将本文设计的模型和VGG9,以及mini_Xception进行对比:
在这里插入图片描述
从图中可以看出,本文的VXSlim网络的验证集精度最高,达到了 83%,VGG9 达到了 82%,mini_Xception 最低,只有79%

那么本文的模型在7种表情类别上的效果如何?可以看到最好的是开心类别,正确率达到了91%!
在这里插入图片描述

我们把每一个类的正确识别率用曲线表示,可以看到本文设计的模型在7种类别上的正确率都是最高的,很nice!
在这里插入图片描述

5、效果展示

通过摄像头进行表情识别效果展示

VXSlim演示_x264

代码资源:
链接:https://pan.baidu.com/s/1Y0xWDmz_lg04PTiukoBVgQ?pwd=ozn5
提取码:ozn5

猜你喜欢

转载自blog.csdn.net/qq_40243750/article/details/127972171