pytorch反卷积实现细节(PyTorch可视化理解卷积神经网络)
pytorch反卷积实现细节(PyTorch可视化理解卷积神经网络)
2024-11-22 01:02:29  作者:武林天骄  网址:https://m.xinb2b.cn/know/lva140402.html

如今,机器已经能够在理解、识别图像中的特征和对象等领域实现99%级别的准确率。生活中,我们每天都会运用到这一点,比如,智能手机拍照的时候能够识别脸部、在类似于谷歌搜图中搜索特定照片、从条形码扫描文本或扫描书籍等。造就机器能够获得在这些视觉方面取得优异性能可能是源于一种特定类型的神经网络——卷积神经网络(CNN)。如果你是一个深度学习爱好者,你可能早已听说过这种神经网络,并且可能已经使用一些深度学习框架比如caffe、TensorFlow、pytorch实现了一些图像分类器。然而,这仍然存在一个问题:数据是如何在人工神经网络传送以及计算机是如何从中学习的。为了从头开始获得清晰的视角,本文将通过对每一层进行可视化以深入理解卷积神经网络。


卷积神经网络

在学习卷积神经网络之前,首先要了解神经网络的工作原理。神经网络是模仿人类大脑来解决复杂问题并在给定数据中找到模式的一种方法。在过去几年中,这些神经网络算法已经超越了许多传统的机器学习和计算机视觉算法。“神经网络”是由几层或多层组成,不同层中具有多个神经元。每个神经网络都有一个输入和输出层,根据问题的复杂性增加隐藏层的个数。一旦将数据送入网络中,神经元就会学习并进行模式识别。一旦神经网络模型被训练好后,模型就能够预测测试数据。

另一方面,CNN是一种特殊类型的神经网络,它在图像领域中表现得非常好。该网络是由YanLeCunn在1998年提出的,被应用于数字手写体识别任务中。其它应用领域包括语音识别、图像分割和文本处理等。在CNN被发明之前,多层感知机(MLP)被用于构建图像分类器。图像分类任务是指从多波段(彩色、黑白)光栅图像中提取信息类的任务。MLP需要更多的时间和空间来查找图片中的信息,因为每个输入元素都与下一层中的每个神经元连接。而CNN通过使用称为局部连接的概念避免这些,将每个神经元连接到输入矩阵的局部区域。这通过允许网络的不同部分专门处理诸如纹理或重复模式的高级特征来最小化参数的数量。下面通过比较说明上述这一点。

比较MLP和CNN

因为输入图像的大小为28x28=784(MNIST数据集),MLP的输入层神经元总数将为784。网络预测给定输入图像中的数字,输出数字范围是0-9。在输出层,一般返回的是类别分数,比如说给定输入是数字“3”的图像,那么在输出层中,相应的神经元“3”与其它神经元相比具有更高的类别分数。这里又会出现一个问题,模型需要包含多少个隐藏层,每层应该包含多少神经元?这些都是需要人为设置的,下面是一个构建MLP模型的例子:

Num_classes = 10Model = Sequntial()Model.add(Dense(512, activation=’relu’, input_shape=(784, )))Model.add(Dropout(0.2))Model.add(Dense(512, activation=’relu’))Model.add(Dropout(0.2))Model.add(Dense(num_classes, activation=’softmax’))

上面的代码片段是使用Keras框架实现(暂时忽略语法错误),该代码表明第一个隐藏层中有512个神经元,连接到维度为784的输入层。隐藏层后面加一个dropout层,丢弃比例设置为0.2,该操作在一定程度上克服过拟合的问题。之后再次添加第二个隐藏层,也具有512谷歌神经元,然后再添加一个dropout层。最后,使用包含10个类的输出层完成模型构建。其输出的向量中具有最大值的该类将是模型的预测结果。

这种多层感知器的一个缺点是层与层之间完全连接,这导致模型需要花费更多的训练时间和参数空间。并且,MLP只接受向量作为输入。


卷积使用稀疏连接的层,并且其输入可以是矩阵,优于MLP。输入特征连接到局部编码节点。在MLP中,每个节点都有能力影响整个网络。而CNN将图像分解为区域(像素的小局部区域),每个隐藏节点与输出层相关,输出层将接收的数据进行组合以查找相应的模式。


计算机如何查看输入的图像?

看着图片并解释其含义,这对于人类来说很简单的一件事情。我们生活在世界上,我们使用自己的主要感觉器官(即眼睛)拍摄环境快照,然后将其传递到视网膜。这一切看起来都很有趣。现在让我们想象一台计算机也在做同样的事情。

在计算机中,使用一组位于0到255范围内的像素值来解释图像。计算机查看这些像素值并理解它们。乍一看,它并不知道图像中有什么物体,也不知道其颜色。它只能识别出像素值,图像对于计算机来说就相当于一组像素值。之后,通过分析像素值,它会慢慢了解图像是灰度图还是彩色图。灰度图只有一个通道,因为每个像素代表一种颜色的强度。0表示黑色,255表示白色,二者之间的值表明其它的不同等级的灰灰色。彩色图像有三个通道,红色、绿色和蓝色,它们分别代表3种颜色(三维矩阵)的强度,当三者的值同时变化时,它会产生大量颜色,类似于一个调色板。之后,计算机识别图像中物体的曲线和轮廓。。

下面使用PyTorch加载数据集并在图像上应用过滤器:

# Load the librariesimport torchimport numpy as npfrom torchvision import datasetsimport torchvision.transforms as transforms# Set the parametersnum_workers = 0batch_size = 20# Converting the Images to tensors using Transformstransform = transforms.ToTensor()train_data = datasets.MNIST(root='data', train=True, download=True, transform=transform)test_data = datasets.MNIST(root='data', train=False, download=True, transform=transform)# Loading the Datatrain_loader = torch.utils.data.DataLoader(train_data, batch_size=batch_size, num_workers=num_workers)test_loader = torch.utils.data.DataLoader(test_data, batch_size=batch_size, num_workers=num_workers)import matplotlib.pyplot as plt%matplotlib inline dataiter = iter(train_loader)images, labels = dataiter.next()images = images.numpy()# Peeking into datasetfig = plt.figure(figsize=(25, 4))for image in np.arange(20): ax = fig.add_subplot(2, 20/2, image 1, xticks=[], yticks=[]) ax.imshow(np.squeeze(images[image]), cmap='gray') ax.set_title(str(labels[image].item()))


下面看看如何将单个图像输入神经网络中:

img = np.squeeze(images[7])fig = plt.figure(figsize = (12,12)) ax = fig.add_subplot(111)ax.imshow(img, cmap='gray')width, height = img.shapethresh = img.max()/2.5for x in range(width): for y in range(height): val = round(img[x][y],2) if img[x][y] !=0 else 0 ax.annotate(str(val), xy=(y,x), color='white' if img[x][y]<thresh else 'black')

上述代码将数字'3'图像分解为像素。在一组手写数字中,随机选择“3”。并且将实际像素值(0-255 )标准化,并将它们限制在0到1的范围内。归一化的操作能够加快模型训练收敛速度。

构建过滤器

过滤器,顾名思义,就是过滤信息。在使用CNN处理图像时,过滤像素信息。为什么需要过滤呢,计算机应该经历理解图像的学习过程,这与孩子学习过程非常相似,但学习时间会少的多。简而言之,它通过从头学习,然后从输入层传到输出层。因此,网络必须首先知道图像中的所有原始部分,即边缘、轮廓和其它低级特征。检测到这些低级特征之后,传递给后面更深的隐藏层,提取更高级、更抽象的特征。过滤器提供了一种提取用户需要的信息的方式,而不是盲目地传递数据,因为计算机不会理解图像的结构。在初始情况下,可以通过考虑特定过滤器来提取低级特征,这里的滤波器也是一组像素值,类似于图像。可以理解为连接卷积神经网络中的权重。这些权重或滤波器与输入相乘以得到中间图像,描绘了计算机对图像的部分理解。之后,这些中间层输出将与多个过滤器相乘以扩展其视图。然后提取到一些抽象的信息,比如人脸等。

就“过滤”而言,我们有很多类型的过滤器。比如模糊滤镜、锐化滤镜、变亮、变暗、边缘检测等滤镜。

下面用一些代码片段来理解过滤器的特征:

Import matplotlib.pyplot as pltImport matplotib.image as mpimgImport cv2Import numpy as npImage = mpimg.imread(‘dog.jpg’)Plt.imshow(image)


# 转换为灰度图gray = cv2.cvtColor(image, cv2.COLOR_RB2GRAY)# 定义sobel过滤器sobel = np.array([-1, -2, -1],[0, 0, 0],[1, 2, 1]))# 应用sobel过滤器Filtered_image = cv2.filter2D(gray, -1, sobel_y)# 画图Plt.imshow(filtered_image, cmp=’gray’)


以上是应用sobel边缘检测滤镜后图像的样子, 可以看到检测出轮廓信息。

完整的CNN结构

到目前为止,已经看到了如何使用滤镜从图像中提取特征。现在要完成整个卷积神经网络,cnn使用的层是:

1.卷积层(Convolutional layer)2.池层(Pooling layer)3.全连接层(fully connected layer)

典型的cnn网络结构是由上述三类层构成:


下面让我们看看每个图层起到的的作用:

* 卷积层(CONV)——使用过滤器执行卷积操作。因为它扫描输入图像的尺寸。它的超参数包括滤波器大小,可以是2x2、3x3、4x4、5x5(或其它)和步长S。结果输出O称为特征映射或激活映射,具有使用输入层计算的所有特征和过滤器。下面描绘了应用卷积的工作过程:


卷积运算

池化层(POOL)——用于特征的下采样,通常在卷积层之后应用。池化处理方式有多种类型,常见的是最大池化(max pooling)和平均池化(ave pooling),分别采用特征的最大值和平均值。下面描述了池化的工作过程:



 全连接层(FC)——在展开的特征上进行操作,其中每个输入连接到所有的神经元,通常在网络末端用于将隐藏层连接到输出层,下图展示全连接层的工作过程:


在PyTorch中可视化CNN

在了解了CNN网络的全部构件后,现在让我们使用PyTorch框架实现CNN。

步骤1:加载输入图像:

import cv2import matplotlib.pyplot as plt%matplotlib inlineimg_path = 'dog.jpg'bgr_img = cv2.imread(img_path)gray_img = cv2.cvtColor(bgr_img, cv2.COLOR_BGR2GRAY)# Normalisegray_img = gray_img.astype("float32")/255plt.imshow(gray_img, cmap='gray')plt.show()


步骤2:可视化过滤器

对过滤器进行可视化,以更好地了解将使用哪些过滤器:

import numpy as npfilter_vals = np.array([ [-1, -1, 1, 1], [-1, -1, 1, 1], [-1, -1, 1, 1], [-1, -1, 1, 1]])print('Filter shape: ', filter_vals.shape)# Defining the Filtersfilter_1 = filter_valsfilter_2 = -filter_1filter_3 = filter_1.Tfilter_4 = -filter_3filters = np.array([filter_1, filter_2, filter_3, filter_4])# Check the Filtersfig = plt.figure(figsize=(10, 5))for i in range(4): ax = fig.add_subplot(1, 4, i 1, xticks=[], yticks=[]) ax.imshow(filters[i], cmap='gray') ax.set_title('Filter %s' % str(i 1)) width, height = filters[i].shape for x in range(width): for y in range(height): ax.annotate(str(filters[i][x][y]), xy=(y,x), color='white' if filters[i][x][y]<0 else 'black')

步骤3:定义CNN模型

本文构建的CNN模型具有卷积层和最大池层,并且使用上述过滤器初始化权重:

import torchimport torch.nn as nnimport torch.nn.functional as F class Net(nn.Module): def __init__(self, weight): super(Net, self).__init__() # initializes the weights of the convolutional layer to be the weights of the 4 defined filters k_height, k_width = weight.shape[2:] # assumes there are 4 grayscale filters self.conv = nn.Conv2d(1, 4, kernel_size=(k_height, k_width), bias=False) # initializes the weights of the convolutional layer self.conv.weight = torch.nn.Parameter(weight) # define a pooling layer self.pool = nn.MaxPool2d(2, 2) def forward(self, x): # calculates the output of a convolutional layer # pre- and post-activation conv_x = self.conv(x) activated_x = F.relu(conv_x) # applies pooling layer pooled_x = self.pool(activated_x) # returns all layers return conv_x, activated_x, pooled_x # instantiate the model and set the weightsweight = torch.from_numpy(filters).unsqueeze(1).type(torch.FloatTensor)model = Net(weight)# print out the layer in the networkprint(model)

Net(

(conv): Conv2d(1, 4, kernel_size=(4, 4), stride=(1, 1), bias=False)

(pool): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)

)

步骤4:可视化过滤器

快速浏览一下所使用的过滤器

def viz_layer(layer, n_filters= 4): fig = plt.figure(figsize=(20, 20)) for i in range(n_filters): ax = fig.add_subplot(1, n_filters, i 1) ax.imshow(np.squeeze(layer[0,i].data.numpy()), cmap='gray') ax.set_title('Output %s' % str(i 1))fig = plt.figure(figsize=(12, 6))fig.subplots_adjust(left=0, right=1.5, bottom=0.8, top=1, hspace=0.05, wspace=0.05)for i in range(4): ax = fig.add_subplot(1, 4, i 1, xticks=[], yticks=[]) ax.imshow(filters[i], cmap='gray') ax.set_title('Filter %s' % str(i 1))gray_img_tensor = torch.from_numpy(gray_img).unsqueeze(0).unsqueeze(1)


步骤5:每层过滤器的输出

在卷积层和池化层输出的图像如下所示:

卷积层:


池化层:


可以看到不同层结构得到的效果会有所差别,正是由于不同层提取到的特征不同,在输出层集合到的特征才能很好地抽象出图像信息。

作者信息

Vihar Kurama,机器学习

本文由阿里云云栖社区组织翻译。

文章原标题《Understanding Convolutional Neural Networks through Visualizations in PyTorch》,译者:海棠,审校:Uncle_LLD。

  • 怎么鉴别大马士革花纹(美丽的大马士革钢纹一磨就掉)
  • 2024-11-22美丽的大马士革钢纹一磨就掉在之前很多期的名匠作品赏析中,那些大师们经常会使用的一种,看起来非常绚丽而又醒目的钢材——大马士革钢看到这种有着丰富花纹的刀,不少读者都怀疑,这种刀纹是不是贴在刀刃上,一磨就掉的一次性装饰那么本期就带。
  • 丰田霸道现在还值得购买吗(打算入手丰田霸道)
  • 2024-11-22打算入手丰田霸道丰田霸道是国内最受欢迎的中大型硬派越野车,基本上是常年位居平行进口车的销量冠军宝座,市场地位无可撼动售价方面,2018款霸道2700的九气囊外挂版本,目前裸车报价在48万左右,全部落地差不多要54万左。
  • 双重预防体系五项管控措施有哪些(未建立双重预防机制)
  • 2024-11-22未建立双重预防机制中国应急管理报于2021年9月4日通报了新修订《安全生产法》正式施行以来,全国多地应急管理部门对照新法开展执法检查对涉事企业相关违法行为开出的罚单其中就有未建立双重预防机制,被处罚的通报:未建立安全风。
  • 刘涛杨烁近况(刘涛新剧撕开丧偶式婚姻)
  • 2024-11-22刘涛新剧撕开丧偶式婚姻刘涛的新剧《我们都要好好的》将于今晚登陆北京卫视、芒果TV、优酷三个平台刘涛在剧中饰演已婚女子寻找她本是一名为孩子放弃工作,同时因长期受到丈夫忽略而患上抑郁症的女性人生谷底时刻,她冲破束缚绝处逢生,重。
  • 这些待播的电视剧你最期待哪一个(暑期王炸剧好多)
  • 2024-11-22暑期王炸剧好多不知不觉,2022年已过半在过去的半年里,国产剧里诞生了诸多好剧,比如央视的王炸剧《人世间》,无限循环的《开端》,又或是被赞古偶颜值天花板的《梦华录》,以及接地气的《警察荣誉》等等,每部剧各有千秋,让。
  • 检验批抽样技巧(抽样及容量总结)
  • 2024-11-22抽样及容量总结来源:建筑工程鲁班联盟版权归原作者所有依据GB50300-2013《建筑工程施工质量验收统一标准》总结检验批的划分、容量及抽样↓↓↓1地基1.1检验批的划分地基子分部可以按照基础类型划分为一个检验批,。
  • 危险机场(最危险的机场)
  • 2024-11-22最危险的机场航母是一个移动的军事基地,每天都有数百架飞机降落在漂浮在水面上的巨型跑道上控制高速喷气式飞机降落在小型着陆点需要精确的导航设备,目前海军飞行员在航空母舰上着陆时依靠“改进的菲涅尔光学透镜着陆辅助系统”。
  • 新型拐骗妇女的骗局(美色诱惑拉人加盟)
  • 2024-11-22美色诱惑拉人加盟2018-07-0614:51|温岭公安7月4日,温岭警方组织100余名警力前往湖北武汉,成功打掉一“以淘宝店加盟”为由实施诈骗的团伙,抓获犯罪嫌疑人89名,涉案价值达600余万元7月6日上午,温岭市。
  • 美的让人心疼的句子(美的像花一样的句子)
  • 2024-11-22美的像花一样的句子蝴蝶很美,终究蝴蝶飞不过沧海滴不尽相思血泪抛红豆,开不完春柳春花满画楼我爱你时,你才那么的闪耀!恍惚中,时光停滞,岁月静好宛如十年前长夏逝去山野间的初秋悄然涉足凤凰双双对,飞去飞来烟雨秋而如今,凤去了。
  • 为什么农历二十三过小年(为什么北方腊月二十三过小年)
  • 2024-11-22为什么北方腊月二十三过小年今天,农历腊月二十三,小年距离春节只有7天了还在外奔波忙碌的你,赶紧收拾行装,准备回家过年吧!资料图马铭言摄小年到底是哪天?各地有不同的概念和日期,北方地区是腊月二十三,部分南方地区是腊月二十四,江浙。
  • 玉兰花人文景观(杭州植物园的天目玉兰开得太空灵了)
  • 2024-11-22杭州植物园的天目玉兰开得太空灵了钱江晚报·小时新闻记者章然江水恒王浥尘/摄春天的杭州味道总让人很上头,无论在景区还是在小区,随手一拍都是繁花似锦杭州植物园的天目玉兰正在盛放中,工作人员乘着好天气拍了一组美图,拍到停不下来“这周末去看。
  • 半程马拉松赛事好处(高强度运动的利与弊你得知道)
  • 2024-11-22高强度运动的利与弊你得知道据阿根廷《第十二页报》网站报道,多名专家分析高强度体育活动对人体和大脑的好处和坏处,在此方面不同专家有不同的见解报道称,跑步是必要的,是“有益”的活动;它也是一种古老的行为,帮助人类逃避危险,提供享受。