热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

利用CIFAR10数据集快速掌握Mixup数据增强技术,显著提高图像分类精度

通过使用CIFAR-10数据集,本文详细介绍了如何快速掌握Mixup数据增强技术,并展示了该方法在图像分类任务中的显著效果。实验结果表明,Mixup能够有效提高模型的泛化能力和分类精度,为图像识别领域的研究提供了有价值的参考。

CIFAR-10数据集应用:快速入门数据增强方法Mixup,显著提升图像识别准确度

作者|Ta-Ying Cheng,牛津大学博士研究生,Medium技术博主,多篇文章均被平台官方刊物Towards Data Science收录
翻译|颂贤

深度学习蓬勃发展的这几年来,图像分类一直是最为火热的领域之一。传统上的图像识别严重依赖像是扩张/侵蚀或者是频域变换这样的处理方法,但特征提取的困难性限制了这些方法的进步空间。

如今的神经网络则显著提高了图像识别的准确率,因为神经网络能够寻找输入图像和输出标签之间的关系,并以此不断地调整它的识别策略。

然而,神经网络往往需要大量的数据进行训练,而优质的训练数据并不是唾手可得的。因此现在许多人都在研究如何能够实现所谓的数据增强(Data augmentation),即在一个已有的小数据集中凭空增加数据量,来达到以一敌百的效果。

本文就将带大家认识一种简单而有效的数据增强策略Mixup,并介绍直接在PyTorch中实现Mixup的方法。

为什么需要数据增强?

神经网络架构内的参数是根据给定的数据进行训练和更新的。但由于训练数据只覆盖了某一部分可能数据的分布情况,网络很可能就会在分布的“能见”部分过度拟合。

因此,我们拥有的训练数据越多,理论上就越能覆盖整个分布的情况,这也正是为什么以数据为中心的AI(data-centric AI)非常重要。当然,在数据量有限的情况下,我们也并不是没有办法。通过数据增强,我们就可以尝试通过微调原有数据的方式产生新数据,并将其作为“新”样本送入网络进行训练。

什么是Mixup?

图1:Mixup的简易演示图

假设我们现在要做的事情是给猫和狗的图片做分类,并且我们已经有了一组标注好了是猫是狗的数据(例如[1, 0] -> 狗, [0, 1] -> 猫),那么Mixup简单来说就是将两张图像及其标签平均化为一个新数据。

具体而言,我们可以用数学公式写出Mixup的概念:

$$ x = \lambda x_i + ( 1 - \lambda ) (x_j),\\ y = \lambda y_i + ( 1 - \lambda ) (y_j), $$

其中,xy分别是混合xi(标签为yᵢ)和xⱼ(标签为y)后的图像和标签,而λ则是从给定的贝塔分布中取得的随机数。

由此,Mixup能够为我们提供不同数据类别之间的连续数据样本,并因此直接扩大了给定训练集的分布,从而使网络在测试阶段更加强大。

Mixup的万用性

Mixup其实只是一种数据增强方法,它和任何用于分类的网络架构都是正交的。也就是说,我们可以在任何要进行分类任务的网络中对相应的数据集使用Mixup方法。

Mixup的提出者张宏毅等人基于其最初发表的论文《Mixup: Beyond Empirical Risk Minimization》对多个数据集和架构进行了实验,发现了Mixup在神经网络之外的应用中也能体现其强大能力。

计算环境

我们将通过PyTorch(包括torchvision)来构建整个程序。Mixup需要的从beta分布中生成的样本,我们可以从NumPy库中获得。我们还将使用random来为Mixup寻找随机图像。下面的代码能够导入我们需要的所有库:

"""
Import necessary libraries to train a network using mixup
The code is mainly developed using the PyTorch library
"""
import numpy as np
import pickle
import random
import torch
import torch.nn as nn
import torch.nn.functional as F
import torchvision
import torchvision.transforms as transforms
from torch.utils.data import Dataset, DataLoader

数据集

为了演示,我们将用传统的图像分类任务来说明Mixup的强大,那么这种情况下CIFAR-10则会是非常理想的数据集。CIFAR-10包含10个类别的60000张彩色图像(每类6000张),按5:1的比例分为训练和测试集。这些图像分类起来相当简单,但比最基本的数字识别数据集MNIST要难一些。

有许多方法可以下载CIFAR-10数据集,比如多伦多大学网站里就包含了相关数据集。在这里,我推荐大家使用格物钛的公开数据集平台,因为在这个平台上,如果使用他们的SDK,不用下载也可以获取免费的数据集资源。

事实上,这个公开数据集平台包含了行业内数百个知名的优质数据集,每个数据集都有相关的作者说明,以及不同训练任务的标签,例如分类或目标检测。当然,大家也可以在这个平台下载其他分类数据集,如CompCars或SVHN,来测试Mixup在不同场景下的性能。

硬件要求

一般来说,我们最好用GPU(显卡)来训练神经网络,因为它能显著提高训练速度。不过如果只有CPU可用,我们还是可以对程序进行简单测试的。如果你想让程序能够自行确定所需硬件,使用以下代码即可:

"""
Determine if any GPUs are available
"""
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

实现

网络

这里,我们的目标是要测试Mixup的性能,而不是调试网络本身,所以我们只需要简单实现一个4层卷积层和2层全连接层的卷积神经网络(CNN)即可。为了比较使用和不使用Mixup的区别,我们将应用同一个网络来确保比较的准确性。

我们可以使用下列代码来搭建上面所说的简单网络:

"""
Create a simple CNN
"""
class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()

        # Network consists of 4 convolutional layers followed by 2 fully-connected layers
        self.conv11 = nn.Conv2d(3, 64, 3)
        self.conv12 = nn.Conv2d(64, 64, 3)
        self.conv21 = nn.Conv2d(64, 128, 3)
        self.conv22 = nn.Conv2d(128, 128, 3)
        self.fc1 = nn.Linear(128 * 5 * 5, 256)
        self.fc2 = nn.Linear(256, 10)
    def forward(self, x):
       x = F.relu(self.conv11(x))
       x = F.relu(self.conv12(x))
       x = F.max_pool2d(x, (2,2))
       x = F.relu(self.conv21(x))
       x = F.relu(self.conv22(x))
       x = F.max_pool2d(x, (2,2))

       # Size is calculated based on kernel size 3 and padding 0
       x = x.view(-1, 128 * 5 * 5)
       x = F.relu(self.fc1(x))
       x = self.fc2(x)

       return nn.Sigmoid()(x)

Mixup

Mixup阶段是在数据集加载过程中完成的,所以我们必须写入我们自己的数据集,而不是使用torchvision.datasets所提供的默认数据集。

下面的代码简单地实现了Mixup,并结合使用了NumPy的贝塔函数。

"""
Dataset and Dataloader creation
All data are downloaded found via Graviti Open Dataset which links to CIFAR-10 official page
The dataset implementation is where mixup take place
"""

class CIFAR_Dataset(Dataset):
    def __init__(self, data_dir, train, transform):
        self.data_dir = data_dir
        self.train = train
        self.transform = transform
        self.data = []
        self.targets = []

        # Loading all the data depending on whether the dataset is training or testing
        if self.train:
            for i in range(5):
                with open(data_dir + 'data_batch_' + str(i+1), 'rb') as f:
                    entry = pickle.load(f, encoding='latin1')
                    self.data.append(entry['data'])
                    self.targets.extend(entry['labels'])
        else:
            with open(data_dir + 'test_batch', 'rb') as f:
                entry = pickle.load(f, encoding='latin1')
                self.data.append(entry['data'])
                self.targets.extend(entry['labels'])

        # Reshape it and turn it into the HWC format which PyTorch takes in the images
        # Original CIFAR format can be seen via its official page
        self.data = np.vstack(self.data).reshape(-1, 3, 32, 32)
        self.data = self.data.transpose((0, 2, 3, 1))

    def __len__(self):
        return len(self.data)

    def __getitem__(self, idx):

        # Create a one hot label
        label = torch.zeros(10)
        label[self.targets[idx]] = 1.

        # Transform the image by converting to tensor and normalizing it
        if self.transform:
            image = transform(self.data[idx])

        # If data is for training, perform mixup, only perform mixup roughly on 1 for every 5 images
        if self.train and idx > 0 and idx%5 == 0:

            # Choose another image/label randomly
            mixup_idx = random.randint(0, len(self.data)-1)
            mixup_label = torch.zeros(10)
            label[self.targets[mixup_idx]] = 1.
            if self.transform:
                mixup_image = transform(self.data[mixup_idx])

            # Select a random number from the given beta distribution
            # Mixup the images accordingly
            alpha = 0.2
            lam = np.random.beta(alpha, alpha)
            image = lam * image + (1 - lam) * mixup_image
            label = lam * label + (1 - lam) * mixup_label

        return image, label

需要注意的是,我们并没有对所有的图像都进行Mixup,而是大概每5张处理1张。我们还使用了一个0.2的贝塔分布。你可以自己为不同的实验改变分布以及被混合的图像的数量,或许你会取得更好的结果!

训练和评估

下面的代码展示的是训练过程。我们将批次大小设置为128,学习率为1e-3,总次数为30次。整个训练进行了两次,唯一区别是有没有使用Mixup。需要注意的是, 损失函数需要由我们自己定义,因为目前BCE损失不允许使用带有小数的标签。

"""
Initialize the network, loss Adam optimizer
Torch BCE Loss does not support mixup labels (not 1 or 0), so we implement our own
"""
net = CNN().to(device)
optimizer = torch.optim.Adam(net.parameters(), lr=LEARNING_RATE)
def bceloss(x, y):
    eps = 1e-6
    return -torch.mean(y * torch.log(x + eps) + (1 - y) * torch.log(1 - x + eps))
best_Acc = 0


"""
Training Procedure
"""
for epoch in range(NUM_EPOCHS):
    net.train()
    # We train and visualize the loss every 100 iterations
    for idx, (imgs, labels) in enumerate(train_dataloader):
        imgs = imgs.to(device)
        labels = labels.to(device)
        preds = net(imgs)
        loss = bceloss(preds, labels)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        if idx%100 == 0:
            print("Epoch {} Iteration {}, Current Loss: {}".format(epoch, idx, loss))

    # We evaluate the network after every epoch based on test set accuracy
    net.eval()
    with torch.no_grad():
        total = 0
        numCorrect = 0
        for (imgs, labels) in test_dataloader:
            imgs = imgs.to(device)
            labels = labels.to(device)
            preds = net(imgs)
            numCorrect += (torch.argmax(preds, dim=1) == torch.argmax(labels, dim=1)).float().sum()
            total += len(imgs)
        acc = numCorrect/total
        print("Current image classification accuracy at epoch {}: {}".format(epoch, acc))
        if acc > best_Acc:
            best_Acc = acc

为了评估Mixup的效果,我们进行了三次对照试验来计算最终的准确性。在没有Mixup的情况下,该网络在测试集上的准确率约为74.5%,而在使用了Mixup的情况下,准确率提高到了约76.5%!

图像分类之外

Mixup将图像分类的准确性带到了一个前所未有的高度,但研究表明,Mixup的好处还能延伸到其他计算机视觉任务中,比如对抗性数据的生成和防御。另外也有相关文献在Mixup拓展到三维表示中,目前的结果表明Mixup在这一领域也十分有效的,例如PointMixup。

结语

由此,我们用Mixup做的小实验就大功告成啦!在这篇文章中,我们简单介绍了Mixup的概念并演示了如何在图像分类网络训练中应用Mixup。完整的实现方式可以在这—GitHub仓库中找到。

【关于格物钛】:

格物钛智能科技定位为面向机器学习的数据平台,致力于为 AI 开发者打造下一代新型基础设施,从根本上改变其与非结构化数据的交互方式。我们通过非结构化数据管理工具TensorBay和开源数据集社区Open Datasets,帮助机器学习团队和个人降低数据获取、存储和处理成本,加速 AI开发和产品创新,为人工智能赋能千行百业、驱动产业升级提供坚实基础。


推荐阅读
  • 本文将深入探讨 Unreal Engine 4 (UE4) 中的距离场技术,包括其原理、实现细节以及在渲染中的应用。距离场技术在现代游戏引擎中用于提高光照和阴影的效果,尤其是在处理复杂几何形状时。文章将结合具体代码示例,帮助读者更好地理解和应用这一技术。 ... [详细]
  • 能够感知你情绪状态的智能机器人即将问世 | 科技前沿观察
    本周科技前沿报道了多项重要进展,包括美国多所高校在机器人技术和自动驾驶领域的最新研究成果,以及硅谷大型企业在智能硬件和深度学习技术上的突破性进展。特别值得一提的是,一款能够感知用户情绪状态的智能机器人即将问世,为未来的人机交互带来了全新的可能性。 ... [详细]
  • 本文源自Coursera平台吴恩达教授的深度学习课程,重点探讨了卷积神经网络(ConvNets)从二维图像处理向一维信号及三维数据处理的拓展应用。 ... [详细]
  • 探讨低代码行业发展现状,分析其未能催生大型企业的原因,包括市场需求、技术局限及商业模型等方面。 ... [详细]
  • 英特尔推出第三代至强可扩展处理器及傲腾持久内存,AI性能显著提升
    英特尔在数据创新峰会上发布了第三代至强可扩展处理器和第二代傲腾持久内存,全面增强AI能力和系统性能。 ... [详细]
  • 使用 Jupyter Notebook 实现 Markdown 编写与代码运行
    Jupyter Notebook 是一个开源的基于网页的应用程序,允许用户在同一文档中编写 Markdown 文本和运行多种编程语言的代码,并实时查看运行结果。 ... [详细]
  • 本文详细介绍了 Java 网站开发的相关资源和步骤,包括常用网站、开发环境和框架选择。 ... [详细]
  • 【图像分类实战】利用DenseNet在PyTorch中实现秃头识别
    本文详细介绍了如何使用DenseNet模型在PyTorch框架下实现秃头识别。首先,文章概述了项目所需的库和全局参数设置。接着,对图像进行预处理并读取数据集。随后,构建并配置DenseNet模型,设置训练和验证流程。最后,通过测试阶段验证模型性能,并提供了完整的代码实现。本文不仅涵盖了技术细节,还提供了实用的操作指南,适合初学者和有经验的研究人员参考。 ... [详细]
  • 视觉图像的生成机制与英文术语解析
    近期,Google Brain、牛津大学和清华大学等多家研究机构相继发布了关于多层感知机(MLP)在视觉图像分类中的应用成果。这些研究深入探讨了MLP在视觉任务中的工作机制,并解析了相关技术术语,为理解视觉图像生成提供了新的视角和方法。 ... [详细]
  • 每日一书丨AI圣经《深度学习》作者斩获2018年图灵奖
    2019年3月27日——ACM宣布,深度学习之父YoshuaBengio,YannLeCun,以及GeoffreyHinton获得了2018年的图灵奖, ... [详细]
  • TensorFlow入门上
    前置准备在阅读本文之前,请确定你已经了解了神经网络的基本结构以及前向传播、后向传播的基本原理,如果尚未了解,可以查看下文。神经网络初探​chrer.com也可以直接在我博客阅读Te ... [详细]
  • 计算机学报精选论文概览(2020-2022)
    本文汇总了2020年至2022年间《计算机学报》上发表的若干重要论文,旨在为即将投稿的研究者提供参考。 ... [详细]
  • 在Windows系统中安装TensorFlow GPU版的详细指南与常见问题解决
    在Windows系统中安装TensorFlow GPU版是许多深度学习初学者面临的挑战。本文详细介绍了安装过程中的每一个步骤,并针对常见的问题提供了有效的解决方案。通过本文的指导,读者可以顺利地完成安装并避免常见的陷阱。 ... [详细]
  • 从用户转型为开发者:一场思维升级的旅程 | 专访 StarRocks Committer 周威
    从用户转变为开发者,不仅是一次角色的转换,更是一场深刻的思维升级之旅。本次专访中,StarRocks Committer 周威分享了他如何在这一过程中逐步提升技术能力与思维方式,为开源社区贡献自己的力量。 ... [详细]
  • 利用PaddleSharp模块在C#中实现图像文字识别功能测试
    PaddleSharp 是 PaddleInferenceCAPI 的 C# 封装库,适用于 Windows (x64)、NVIDIA GPU 和 Linux (Ubuntu 20.04) 等平台。本文详细介绍了如何使用 PaddleSharp 在 C# 环境中实现图像文字识别功能,并进行了全面的功能测试,验证了其在多种硬件配置下的稳定性和准确性。 ... [详细]
author-avatar
针箍投药_996
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有