算法工程师修仙之路:Python深度学习(四)

深度学习基础

神经网络的数学基础


初识神经网络

  • 我们来看一个具体的神经网络示例,使用 Python 的 Keras 库来学习手写数字分类。

    • 我们这里要解决的问题是,将手写数字的灰度图像(28 像素 × 28像素)划分到10个类别中(0~9)。

    • 我们将使用 MNIST 数据集,它是机器学习领域的一个经典数据集,其历史几乎和这
      个领域一样长,而且已被人们深入研究。

    • 这个数据集包含60000张训练图像和10000张测试图像,由美国国家标准与技术研究院(National Institute of Standards and Technology,即 MNIST 中的 NIST)在 20 世纪 80 年代收集得到。

    • 在机器学习中,分类问题中的某个类别叫作类(class),数据点叫作样本(sample),某个样本对应的类叫作标签(label)。

    • MNIST 数字图像样本
      在这里插入图片描述

    • MNIST 数据集预先加载在 Keras 库中,其中包括4个 Numpy 数组。

      # 加载 Keras 中的 MNIST 数据集
      from keras.datasets import mnist 
      (train_images, train_labels), (test_images, test_labels) = mnist.load_data()
      
      • train_images 和 train_labels 组成了训练集(training set),模型将从这些数据中进行学习。然后在测试集(test set,即 test_images 和 test_labels)上对模型进行测试。
      • 图像被编码为 Numpy 数组,而标签是数字数组,取值范围为0~9,图像和标签对应。
        # 我们来看一下训练数据:
        >>> train_images.shape
        (60000, 28, 28)
        >>> len(train_labels)
        60000
        >>> train_labels
        array([5, 0, 4, ..., 5, 6, 8], dtype=uint8)
        
        # 下面是测试数据:
        >>> test_images.shape
        (10000, 28, 28)
        >>> len(test_labels)
        10000
        >>> test_labels
        array([7, 2, 1, ..., 4, 5, 6], dtype=uint8)
        
    • 接下来的工作流程如下:

      • 首先,将训练数据(train_images 和 train_labels)输入神经网络;
      • 其次,网络学习将图像和标签关联在一起;
      • 最后,网络对 test_images 生成预测,而我们将验证这些预测与 test_labels 中的标签是否匹配。
        # 网络架构
        from keras import models
        from keras import layers
        
        network = models.Sequential()
        network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28, )))
        network.add(layers.Dense(10, activation='softmax'))
        
      • 本例中的网络包含2个 Dense 层,它们是密集连接(也叫全连接)的神经层。第二层(也是最后一层)是一个10路 softmax 层,它将返回一个由10个概率值(总和为1)组成的数组,每个概率值表示当前数字图像属于10个数字类别中某一个的概率。
  • 神经网络的核心组件是层(layer)。

    • 它是一种数据处理模块,你可以将它看成数据过滤器。
    • 进去一些数据,出来的数据变得更加有用。
    • 具体来说,层从输入数据中提取表示,我们期望这种表示有助于解决手头的问题。
    • 大多数深度学习都是将简单的层链接起来,从而实现渐进式的数据蒸馏(data distillation)。
    • 深度学习模型就像是数据处理的筛子,包含一系列越来越精细的数据过滤器(即层)。
  • 要想训练网络,我们还需要选择编译(compile)步骤的三个参数。

    • 损失函数(loss function)
      • 网络如何衡量在训练数据上的性能,即网络如何朝着正确的方向前进。
    • 优化器(optimizer)
      • 基于训练数据和损失函数来更新网络的机制。
    • 在训练和测试过程中需要监控的指标(metric)
      • 本例只关心精度,即正确分类的图像所占的比例。
      # 编译步骤
      network.compile(optimizer = 'rmsprop', loss='categorical_crossentropy', 
      				metrics=['accuracy'])
      
  • 数据预处理

    • 在开始训练之前,我们将对数据进行预处理,将其变换为网络要求的形状,并缩放到所有值都在[0, 1]区间。

    • 比如,之前训练图像保存在一个 uint8 类型的数组中,其形状为(60000, 28, 28),取值区间为[0, 255]。

    • 我们需要将其变换为一个 float32 数组,其形状为(60000, 28 * 28),取值范围为0~1。

      # 准备图像数据
      train_images = train_images.reshape((60000, 28 * 28))
      train_images = train_images.astype('float32') / 255
      
      test_images = test_images.reshape(10000, 28 * 28)
      test_images = test_images.astype('float32') / 255
      
  • 对标签进行分类编码

    # 准备标签
    from keras.utils import to_categorical
    train_labels = to_categorical(train_labels)
    test_labels = to_categorical(test_labels)
    
  • 现在我们准备开始训练网络,在 Keras 中这一步是通过调用网络的 fit 方法来完成的,我们在训练数据上拟合(fit)模型。

    >>> network.fit(train_images, train_labels, epochs=5, batch_size=128)
    
  • 训练过程中显示了两个数字:一个是网络在训练数据上的损失(loss),另一个是网络在训练数据上的精度(acc)。

  • 现在我们来检查一下模型在测试集上的性能。

    >>> test_loss, test_acc = network.evaluate(test_images, test_labels)
    >>> print('test_acc:', test_acc)
    
  • 训练精度和测试精度之间的差距是过拟合(overfit)造成的,过拟合是指机器学习模型在新数据上的性能往往比在训练数据上要差。

猜你喜欢

转载自blog.csdn.net/faker1895/article/details/87437021