前言
计算机视觉(CV)一直是目前深度学习领域最热的研究领域,其是一种交叉学科包括计算机科学(computer science / (Graphics, Algorithms, Theory, Systems, Architecture)、数学 (Information Retrieval, Machine Learning)、工程学(Robotics, Speech, NLP, Image Processing)、物理(Optics)、生物学 (Neuroscience), and 神经科学 (Cognitive Science),由于计算机视觉表示了对视觉环境的理解,加上其学科交叉性,众多科学家认为计算机视觉的发展可以为实现理想的人工智能铺路。
对于问题:什么才是计算机视觉?以下有三个不同的教科书式计算机视觉定义:
“the construction of explicit, meaningful descriptions of physical objects from images” (Ballard & Brown, 1982)
“computing properties of the 3D world from one or more digital images” (Trucco & Verri, 1998)
“to make useful decisions about real physical objects and scenes based on sensed images” (Sockman & Shapiro, 2001)
那么为什么要研究计算机视觉呢?最简单的答案就是其可以将研究快速有效的应用到现实场景中,下面列举了几个CV应用的场景:
- 人脸识别
- 图像检索
- 游戏和控制
- 监控
- 生物统计(指纹,虹膜,人脸匹配)
- 智能驾驶
笔者最近完成了斯坦福的CS231课程【1】,课程中将卷积神经网络用在视觉识别任务中,包括图像分类,定位和检测,尤其是深度学习技术的发展极大的提高了这些任务的精度,完成这个课程后,笔者想和大家分享5个最具影响力的计算机视觉技术。
1. 图像分类 image classification
图像分类任务描述如下:给定一系列标记为单标签的图像,希望成功预测出未经标记的新的数据的标签。与这个任务相联系的是更多的挑战:包括:角度多样性, scale多样性, 额外新类的变化, 图像的损坏, 先验条件, 和背景的变化。
so,如何才能设计一个算法分类出不同的类,计算机视觉研究者提出以数据为驱动的解决方法,令计算机从一些已经有类别标记的图像中学习到图像的视觉表示。
而在这个算法中最常用的就是卷积神经网络了,Convolutional Neural Networks (CNNs)。输入图像到CNN网络中后,CNN并不是直接对整个图像做计算,而是创建一个滑动机制,假设先输入图像中10*10的pixel,以相乘的计算方式计算,乘数部分成为卷积核,然后从左到右进行滑动,计算接下来的10*10pixel,这就是CNN中的滑动窗口计算机制。
输入数据输入卷积层后,卷积层中卷积核仅关注当前部分和它附近的部分。整体的卷积网络趋向于更窄以便于在相同参数量的情况下搭建更深的网络。除了卷积层之外,在分类中常使用的还有池化层pooling layer,最常见的是最大池化 Max pooling,假设maxpooling的pooling核是2,maxpooling 的工作机制是取2x2大小的像素块中的最大值代替这个像素块。
图像分类最典型的数据集是imagenet,一个包含120万张,1000类的大型图像数据集。以此数据集为基础,衍生了许多典型的深度学习经典网络:
- AlexNet(2012)
- ZFNet(2013)
- VGG(2014)
- GoogleNet(2014)
- InceptionNet(2015)
- ResNet(2016)
- DenseNet(2016)
图像分类任务虽然简单,应用范围也有限,但是其是计算视觉的基础,图像分类上的成功表明深度学习网络具有学习并理解图像的能力。目前计算机视觉的其他任务使用的basemodel都是在image classification上取得成功的网络结构。因此,可以把图像分类视为深度学习实现人工智能的第一步。
注:貌似16年往后,基本没有革新性质的网络结构出现了,/手动笑哭/。
2. 目标检测 object detection
object detection的任务是检测到图像中的目标并分类出目标种类,如上图所示,检测出车并框住,并给出框中目标的置信度,当然上图并不是目前深度学习最好的结构,图中有两个漏检测的目标。
目标检测与图像分类,目标定位不同的地方在于目标检测是同时应用分类和定位技术到图像中的多个目标,此类任务的label也更复杂,不仅要知道目标的位置(bounding box)还要知道目标的类别,而且为了检测到比较小的目标,提高检测精度,此类任务的batch size往往很小。
目标检测的技术实现相对复杂,但是应用场景非常多,比如统计:统计人、车、花朵或者微生物的数量是现实生活中各种不同类型的使用图形信息的系统最广泛的需求;图像检索,根据图像检测图像;卫星图像分析;安防场景等等。
目前深度学习在这方面的工作有很多:
- RCNN
- Fast RCNN https://arxiv.org/pdf/1504.08083.pdf
- Faster RCNN https://arxiv.org/pdf/1506.01497.pdf
- YOLO系列 http://lanl.arxiv.org/pdf/1612.08242v1
- SSD http://lanl.arxiv.org/pdf/1512.02325v5
以上这些都是近几年来最典型的目标检测成果,这些工作提供了深度学习技术在目标检测上的应用形式以及研究方向,目前的大部分较好的结果都是基于这些工作改进而来。
3. 目标追踪 object tracking
目标追踪即是在一个给定的场景中,follow一个或者多个目标。传统上,目标追踪都是应用在视频或者实时场景交互,比如观测者追踪一个初始的目标。目前来讲,使用最典型的场景就是自动驾驶了。
目标追踪可以分为两类:一类是生成式方法,另一类是判别式方法。生成方法使用生成模型来描述表观特征并最小化重建误差以搜索目标,如PCA。而判别式方法可以用来区分物体和背景,其性能更稳健,并逐渐成为跟踪的主要方法。判别法也被称为跟踪检测,深度学习属于这一类别。为了通过检测实现跟踪,我们检测所有帧的候选对象,并使用深度学习从候选对象中识别想要的对象。有两种可以使用的基本网络模型:堆叠自动编码器(SAE)和卷积神经网络(CNN)。
使用SAE跟踪任务的最受欢迎的深度网络是Deep Learning Tracker,它提出线下预训练和在线微调网络,工作流程如下:
- 离线无监督预先训练使用大规模自然图像数据集的堆叠去噪自动编码器,以获得一般对象的表示。叠加去噪自动编码器通过在输入图像中添加噪声并重构原始图像可以获得更强大的特征表达能力。
- 将预先训练好的网络的编码部分与分类器合并得到分类网络,然后使用从初始帧中获得的正负样本对网络进行微调,从而可以区分当前的对象和背景。 DLT使用粒子滤波器作为运动模型来生成当前帧的候选patches。分类网络输出这些patches的概率分数,即分类的置信度,然后选择这些patches中最高的patches作为目标。
- DLT使用有限阈值的方式更新模型。
由于其在图像分类和目标检测方面的优势,CNN已成为计算机视觉和视觉跟踪的主流深度模型。一般来说,大规模的CNN既可以作为分类器也可以作为跟踪器来训练。 2种有代表性的基于CNN的跟踪算法是全卷积网络跟踪器(FCNT)和多域CNN(MD Net)。
FCNT成功地分析和利用了VGG模型的特征图,这是一个预先训练好的ImageNet,并得出以下结论:
- CNN feature maps可用于定位和跟踪。
- 许多CNN feature maps对于区分背景中的特定对象的任务而言是嘈杂或不相关的。
- 较高层捕获对象类别的语义概念,而较低层编码更多区分性特征以捕获类内变体。
因此,FCNT设计了特征选择网络以在VGG网络的conv4-3和conv5-3层上选择最相关的特征图。然后为了避免嘈杂的过拟合,它还为两层单独选择的特征映射设计了额外的两个通道(称为SNet和GNet)。 GNet捕获对象的类别信息,而SNet将该对象从具有相似外观的背景中区分出来。两个网络都使用第一帧中给定的边界框进行初始化,以获取对象的热图,而对于新帧,将裁剪并传播最后一帧中以对象位置为中心的感兴趣区域(ROI)。最后,通过SNet和GNet,分类器获取两个预测的热图,跟踪器根据是否存在干扰,决定使用哪个热图来生成最终的跟踪结果。 FCNT的pipline如下所示。
与FCNT的想法不同,MD Net使用视频的所有序列来跟踪它们的移动。上述网络使用不相关的图像数据来减少跟踪数据的训练需求,并且这种想法与跟踪有一些偏差。该视频中的一个类的对象可以是另一个视频中的背景,因此MD Net提出了多域的思想来独立地区分每个域中的对象和背景。而一个域表示一组包含相同类型对象的视频。
如下图所示,MD Net分为两部分:域特定层的共享层和K分支。每个分支包含一个softmax损失的二进制分类层,用于区分每个域中的对象和背景,共享层与所有域共享以确保一般表示。
近年来,深度学习研究人员尝试了不同的方法来适应视觉追踪任务的特征。有许多方向已经被探索:应用其他网络模型,如Recurrent Neural Net和Deep Belief Net,设计网络结构以适应视频处理和端到端学习,优化流程,结构和参数,或者甚至将深度学习与计算机视觉的传统方法或其他领域的方法(如语言处理和语音识别)相结合。
4. 语义分割 Semantic Segmentation
计算机视觉的核心是分割过程,它将整个图像分成像素分组,然后可以对其进行标记和分类。特别地,语义分割试图在语义上理解图像中每个像素的角色(例如,它是汽车,摩托车还是其他类型的类)。例如,在上图中,除了识别人,道路,汽车,树木等之外,我们还必须划定每个物体的边界。因此,与分类不同,我们需要从我们的模型进行像素级的预测。
与其他计算机视觉任务一样,CNN在分割问题上取得了巨大成功。最流行的初始方法之一是通过滑动窗口进行patches分类,其中每个像素使用其周围的图像pathes分别分类。但是,这在计算上效率非常低,因为我们不重用重叠patches之间的共享功能。
加州大学伯克利分校的研究员提出了全卷积网络(FCN),它在没有任何完全连接层的情况下推广端到端CNN体系结构进行密集预测。这允许针对任何尺寸的图像生成分割图,并且与patches分类方法相比也快得多。几乎所有后续的语义分割方法都采用了这种范式。
然而,仍然存在一个问题:原始图像分辨率的卷积将非常昂贵。为了解决这个问题,FCN在网络内部使用下采样和上采样。下采样层被称为条带卷积,而上采样层被称为转置卷积。
尽管有上采样/下采样层,但由于池中的信息丢失,FCN会生成粗分割图。 SegNet是一种比使用最大池和编码器 - 解码器框架的FCN更高效的内存架构。在SegNet中,从更高分辨率的特征映射中引入了快捷/跳过连接,以改善上采样/下采样的粗糙度。
最近的语义分割研究都严重依赖完全卷积网络,如
空洞卷积 https://arxiv.org/pdf/1511.07122.pdf,
DeepLab https://arxiv.org/pdf/1412.7062.pdf
RefineNet https://arxiv.org/pdf/1611.06612.pdf。
5. 实例分割 Instance Segmentation
除了语义分段之外,实例分段还将不同的实例分类,例如用5种不同颜色标记5辆汽车。在分类中,通常有一个图像包含单个对象作为焦点,任务是说出该图像是什么。但为了分割实例,我们需要执行更复杂的任务。我们看到多个重叠物体和不同背景的复杂景点,我们不仅分类这些不同的物体,而且还确定它们的边界,差异和彼此之间的关系!
到目前为止,我们已经看到了如何以许多有趣的方式使用CNN特征,以便用bounding box框住图像中的不同对象。我们可以扩展这种技术来定位每个对象的精确像素,而不仅仅是边界框吗?当然可以, Facebook AI使用称为Mask R-CNN的体系结构研究了此实例分割问题。
就像Fast R-CNN和更快的R-CNN一样,Mask R-CNN的底层直觉很直观鉴于更快的R-CNN在物体检测方面的工作如此出色,我们是否可以将其扩展到进行像素级分割?
Mask R-CNN通过向Faster R-CNN添加分支来完成此操作,该分支输出一个二进制掩码,该掩码表示给定像素是否为对象的一部分。该分支是基于CNN特征映射的完全卷积网络。给定CNN特征映射作为输入,网络输出一个矩阵,其中像素属于该对象的所有位置均为1,而其他位置为0(这称为二进制掩码)。
另外,当在原始Faster R-CNN架构上运行时没有修改时,由RoIPool(感兴趣区域)选择的特征映射区域与原始图像的区域略微错开。由于图像分割需要像素级别的特异性,与边界框不同,这自然会导致不准确。 Mask R-CNN通过调整RoIPool使用称为Roialign(感兴趣区域对齐)的方法更精确地对齐来解决此问题。本质上,RoIAlign使用双线性插值来避免舍入错误,这会导致检测和分割不准确。
一旦生成这些蒙版,Mask R-CNN将它们与来自Faster R-CNN的分类和边界框相结合,以生成如此精确的精确分割:
结论
这5种主要的计算机视觉技术可以帮助计算机从单个或一系列图像中提取,分析和理解有用的信息。还有许多其他我尚未涉及的高级技术,包括样式转换,着色,动作识别,3D对象,人体姿势估计等等。事实上,计算机视觉领域的成本太高,无法深入报道,我鼓励您进一步探索,无论是通过在线课程,博客教程还是正式文档。我强烈推荐CS231n作为初学者,因为您将学习实施,训练和调试自己的神经网络。作为奖励,您可以从我的GitHub存储库中获取所有演讲幻灯片和分配指南。我希望它会引导你改变如何看待这个世界!
参考文献:
【1】http://cs231n.stanford.edu/