亚洲综合原千岁中文字幕_国产精品99久久久久久久vr_无码人妻aⅴ一区二区三区浪潮_成人h动漫精品一区二区三

主頁 > 知識庫 > pytorch教程resnet.py的實現文件源碼分析

pytorch教程resnet.py的實現文件源碼分析

熱門標簽:獲客智能電銷機器人 不錯的400電話辦理 徐州天音防封電銷卡 佛山防封外呼系統收費 南昌辦理400電話怎么安裝 鄭州智能外呼系統運營商 湛江電銷防封卡 哈爾濱外呼系統代理商 電話機器人適用業務

調用pytorch內置的模型的方法

import torchvision
model = torchvision.models.resnet50(pretrained=True)

這樣就導入了resnet50的預訓練模型了。如果只需要網絡結構,不需要用預訓練模型的參數來初始化

那么就是:

model = torchvision.models.resnet50(pretrained=False)

如果要導入densenet模型也是同樣的道理

比如導入densenet169,且不需要是預訓練的模型:

model = torchvision.models.densenet169(pretrained=False)

由于pretrained參數默認是False,所以等價于:

model = torchvision.models.densenet169()

不過為了代碼清晰,最好還是加上參數賦值。

解讀模型源碼Resnet.py

包含的庫文件

import torch.nn as nn
import math
import torch.utils.model_zoo as model_zoo

該庫定義了6種Resnet的網絡結構

包括

__all__ = ['ResNet', 'resnet18', 'resnet34', 'resnet50',  'resnet101',  'resnet152']

每種網絡都有訓練好的可以直接用的.pth參數文件

__all__ = ['ResNet', 'resnet18', 'resnet34', 'resnet50',  'resnet101',  'resnet152']

Resnet中大多使用3*3的卷積定義如下

def conv3x3(in_planes, out_planes, stride=1):   
"""3x3 convolution with padding"""   
return nn.Conv2d(in_planes, out_planes, kernel_size=3, 
stride=stride, padding=1, bias=False)

該函數繼承自nn網絡中的2維卷積,這樣做主要是為了方便,少寫參數參數由原來的6個變成了3個

輸出圖與輸入圖長寬保持一致

如何定義不同大小的Resnet網絡

Resnet類是一個基類,
所謂的"Resnet18", ‘resnet34', ‘resnet50', ‘resnet101', 'resnet152'只是Resnet類初始化的時候使用了不同的參數,理論上我們可以根據Resnet類定義任意大小的Resnet網絡
下面先看看這些不同大小的Resnet網絡是如何定義的

定義Resnet18

def resnet18(pretrained=False, **kwargs):  
"""
Constructs a ResNet-18 model.    
Args:    
pretrained (bool):If True, returns a model pre-trained on ImageNet   
"""    
model = ResNet(BasicBlock, [2, 2, 2, 2], **kwargs)    
if pretrained:        
    model.load_state_dict(model_zoo.load_url(model_urls['resnet18']))   
 return model

定義Resnet34

def resnet34(pretrained=False, **kwargs):    
"""Constructs a ResNet-34 model.   
Args:        pretrained (bool): If True, returns a model pre-trained on ImageNet    """   
model = ResNet(BasicBlock, [3, 4, 6, 3], **kwargs)  
if pretrained:        
    model.load_state_dict(model_zoo.load_url(model_urls['resnet34']))    
 return model

我們發現Resnet18和Resnet34的定義幾乎是一樣的,下面我們把Resnet18,Resnet34,Resnet50,Resnet101,Resnet152,不一樣的部分寫在一塊進行對比

model = ResNet(BasicBlock, [2, 2, 2, 2], **kwargs)    #Resnet18
model = ResNet(BasicBlock, [3, 4, 6, 3], **kwargs)    #Resnet34
model = ResNet(Bottleneck, [3, 4, 6, 3], **kwargs)    #Eesnt50
model = ResNet(Bottleneck, [3, 4, 23, 3], **kwargs)  #Resnet101
model = ResNet(Bottleneck, [3, 8, 36, 3], **kwargs)  #Resnet152

代碼看起來非常的簡潔工整,

其他resnet18、resnet101等函數和resnet18基本類似,差別主要是在:

1、構建網絡結構的時候block的參數不一樣,比如resnet18中是[2, 2, 2, 2],resnet101中是[3, 4, 23, 3]。

2、調用的block類不一樣,比如在resnet50、resnet101、resnet152中調用的是Bottleneck類,而在resnet18和resnet34中調用的是BasicBlock類,這兩個類的區別主要是在residual結果中卷積層的數量不同,這個是和網絡結構相關的,后面會詳細介紹。

3、如果下載預訓練模型的話,model_urls字典的鍵不一樣,對應不同的預訓練模型。因此接下來分別看看如何構建網絡結構和如何導入預訓練模型。

Resnet類

構建ResNet網絡是通過ResNet這個類進行的。ResNet類是繼承PyTorch中網絡的基類:torch.nn.Module。

構建Resnet類主要在于重寫 init() forward() 方法。

我們構建的所有網絡比如:VGGAlexnet等都需要重寫這兩個方法,這兩個方法很重要

看起來Resne類是整個文檔的核心

下面我們就要研究一下Resnet基類是如何實現的

Resnet類采用了pytorch定義網絡模型的標準結構,包含

iinit()方法: 定義了網絡的各個層
forward()方法: 定義了前向傳播過程

這兩個方法的用法,這個可以查看pytorch的官方文檔就可以明白

在Resnet類中,還包含一個自定義的方法make_layer()方法

是用來構建ResNet網絡中的4個blocks。

_make_layer方法的第一個輸入block是BottleneckBasicBlock

第二個輸入是該blocks的輸出channel

第三個輸入是每個blocks中包含多少個residual子結構,因此layers這個列表就是前面resnet50的[3, 4, 6, 3]。

_make_layer方法中比較重要的兩行代碼是:

layers.append(block(self.inplanes, planes, stride, downsample))

該部分是將每個blocks的第一個residual結構保存在layers列表中。

 for i in range(1, blocks): layers.append(block(self.inplanes, planes))

該部分是將每個blocks的剩下residual 結構保存在layers列表中,這樣就完成了一個blocks的構造。這兩行代碼中都是通過Bottleneck這個類來完成每個residual的構建

接下來介紹Bottleneck類

class ResNet(nn.Module):
    def __init__(self, block, layers, num_classes=1000):
        self.inplanes = 64
        super(ResNet, self).__init__()
        self.conv1 = nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3,
                               bias=False)
        self.bn1 = nn.BatchNorm2d(64)
        self.relu = nn.ReLU(inplace=True)
        self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)
        self.layer1 = self._make_layer(block, 64, layers[0])
        self.layer2 = self._make_layer(block, 128, layers[1], stride=2)
        self.layer3 = self._make_layer(block, 256, layers[2], stride=2)
        self.layer4 = self._make_layer(block, 512, layers[3], stride=2)
        self.avgpool = nn.AvgPool2d(7, stride=1)
        self.fc = nn.Linear(512 * block.expansion, num_classes)
        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                n = m.kernel_size[0] * m.kernel_size[1] * m.out_channels
                m.weight.data.normal_(0, math.sqrt(2. / n))
            elif isinstance(m, nn.BatchNorm2d):
                m.weight.data.fill_(1)
                m.bias.data.zero_()
    def _make_layer(self, block, planes, blocks, stride=1):
        downsample = None
        if stride != 1 or self.inplanes != planes * block.expansion:
            downsample = nn.Sequential(
                nn.Conv2d(self.inplanes, planes * block.expansion,
                          kernel_size=1, stride=stride, bias=False),
                nn.BatchNorm2d(planes * block.expansion),
            )
        layers = []
        layers.append(block(self.inplanes, planes, stride, downsample))
        self.inplanes = planes * block.expansion
        for i in range(1, blocks):
            layers.append(block(self.inplanes, planes))
        return nn.Sequential(*layers)
    def forward(self, x):
        x = self.conv1(x)
        x = self.bn1(x)
        x = self.relu(x)
        x = self.maxpool(x)
        x = self.layer1(x)
        x = self.layer2(x)
        x = self.layer3(x)
        x = self.layer4(x)
        x = self.avgpool(x)
        x = x.view(x.size(0), -1)
        x = self.fc(x)
        return x

下面我們分別看看這兩個過程:

網絡的forward過程

 def forward(self, x):                                #x代表輸入
        x = self.conv1(x)                             #進過卷積層1
        x = self.bn1(x)                                #bn1層
        x = self.relu(x)                                #relu激活
        x = self.maxpool(x)                         #最大池化
        x = self.layer1(x)                            #卷積塊1
        x = self.layer2(x)                           #卷積塊2
        x = self.layer3(x)                          #卷積塊3
        x = self.layer4(x)                          #卷積塊4
        x = self.avgpool(x)                     #平均池化
        x = x.view(x.size(0), -1)               #二維變成變成一維向量
        x = self.fc(x)                             #全連接層
        return x

里面的大部分我們都可以理解,只有layer1-layer4是Resnet網絡自己定義的,
它也是Resnet殘差連接的精髓所在,我們來分析一下layer層是怎么實現的

殘差Block連接是如何實現的

從前面的ResNet類可以看出,在構造ResNet網絡的時候,最重要的是 BasicBlock這個類,因為ResNet是由residual結構組成的,而 BasicBlock類就是完成residual結構的構建。同樣 BasicBlock還是繼承了torch.nn.Module類,且重寫了__init__()和forward()方法。從forward方法可以看出,bottleneck就是我們熟悉的3個主要的卷積層、BN層和激活層,最后的out += residual就是element-wise add的操作。

這部分在 BasicBlock類中實現,我們看看這層是如何前向傳播的

def forward(self, x):
        residual = x
        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu(out)
        out = self.conv2(out)
        out = self.bn2(out)
        if self.downsample is not None:
            residual = self.downsample(x)
        out += residual
        out = self.relu(out)
        return out

我畫個流程圖來表示一下

畫的比較丑,不過基本意思在里面了,

根據論文的描述,x是否需要下采樣由x與out是否大小一樣決定,

假如進過conv2和bn2后的結果我們稱之為 P

假設x的大小為wHchannel1

如果P的大小也是wHchannel1

則無需下采樣
out = relu(P + X)
out的大小為W * H *(channel1+channel2),

如果P的大小是W/2 * H/2 * channel

則X需要下采樣后才能與P相加,
out = relu(P+ X下采樣)
out的大小為W/2 * H/2 * (channel1+channel2)

BasicBlock類和Bottleneck類類似,前者主要是用來構建ResNet18和ResNet34網絡,因為這兩個網絡的residual結構只包含兩個卷積層,沒有Bottleneck類中的bottleneck概念。因此在該類中,第一個卷積層采用的是kernel_size=3的卷積,就是我們之前提到的conv3x3函數。

下面是BasicBlock類的完整代碼

class BasicBlock(nn.Module):
    expansion = 1
    def __init__(self, inplanes, planes, stride=1, downsample=None):
        super(BasicBlock, self).__init__()
        self.conv1 = conv3x3(inplanes, planes, stride)
        self.bn1 = nn.BatchNorm2d(planes)
        self.relu = nn.ReLU(inplace=True)
        self.conv2 = conv3x3(planes, planes)
        self.bn2 = nn.BatchNorm2d(planes)
        self.downsample = downsample
        self.stride = stride
    def forward(self, x):
        residual = x
        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu(out)
        out = self.conv2(out)
        out = self.bn2(out)
        if self.downsample is not None:
            residual = self.downsample(x)
        out += residual
        out = self.relu(out)
        return out

以上就是pytorch教程resnet.py的實現文件源碼解讀的詳細內容,更多關于pytorch源碼解讀的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • PyTorch實現ResNet50、ResNet101和ResNet152示例
  • Keras實現DenseNet結構操作
  • 關于Keras Dense層整理
  • Python機器學習從ResNet到DenseNet示例詳解

標簽:安康 蕪湖 呂梁 吉安 廣西 紹興 懷化 蘭州

巨人網絡通訊聲明:本文標題《pytorch教程resnet.py的實現文件源碼分析》,本文關鍵詞  pytorch,教程,resnet.py,的,實現,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch教程resnet.py的實現文件源碼分析》相關的同類信息!
  • 本頁收集關于pytorch教程resnet.py的實現文件源碼分析的相關信息資訊供網民參考!
  • 推薦文章
    一级片免费在线观看视频| 成人高清免费| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 日本在线不卡视频| 成人高清免费| 国产麻豆精品免费视频| 日韩字幕在线| 精品毛片视频| 精品久久久久久影院免费| 欧美另类videosbestsex久久 | 欧美一级视频高清片| 免费毛片基地| 亚飞与亚基在线观看| 亚飞与亚基在线观看| 精品国产一区二区三区久久久蜜臀 | 成人高清免费| 香蕉视频久久| 精品视频在线观看一区二区| 精品久久久久久影院免费| 一级毛片视频播放| 一级毛片视频播放| 精品国产一区二区三区久久久蜜臀 | 尤物视频网站在线| 国产亚洲免费观看| 精品视频在线观看一区二区| 欧美激情一区二区三区在线播放 | 夜夜操网| 国产伦精品一区二区三区无广告| 日韩一级黄色| 亚欧视频在线| 精品国产亚洲一区二区三区| 成人a大片在线观看| 毛片高清| 日本免费乱理伦片在线观看2018| 精品视频一区二区三区免费| 尤物视频网站在线| 免费的黄视频| 日韩字幕在线| 九九干| 亚洲精品中文字幕久久久久久| 麻豆污视频| a级黄色毛片免费播放视频| 日韩字幕在线| 沈樵在线观看福利| 一级片免费在线观看视频| 国产麻豆精品| 韩国毛片| 可以免费在线看黄的网站| 精品国产亚洲一区二区三区| 国产伦久视频免费观看 视频| 国产激情一区二区三区| 亚洲精品中文字幕久久久久久| 天天做日日爱夜夜爽| 免费一级片在线| 国产视频一区在线| 亚欧视频在线| 尤物视频网站在线| 91麻豆国产| 尤物视频网站在线| 欧美电影免费| 999精品视频在线| 麻豆污视频| 国产成+人+综合+亚洲不卡| 九九热国产视频| 欧美电影免费| 久久久成人网| 日日夜夜婷婷| 欧美激情在线精品video| 日本免费乱理伦片在线观看2018| 韩国毛片| 国产视频一区在线| 欧美一区二区三区在线观看| 精品国产一区二区三区久久久蜜臀 | 亚洲精品影院| 国产激情一区二区三区| 欧美一级视频高清片| 青青久久精品| 91麻豆国产| 色综合久久天天综合观看| 美女被草网站| 国产成+人+综合+亚洲不卡| 久久精品欧美一区二区| 久久精品欧美一区二区| 精品久久久久久综合网| 日本在线不卡视频| 夜夜操网| 韩国毛片| 午夜在线影院| 欧美国产日韩一区二区三区| 亚洲 激情| 尤物视频网站在线| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 精品国产亚洲一区二区三区| 日韩在线观看视频免费| 九九热国产视频| 国产激情一区二区三区| 九九久久99综合一区二区| 91麻豆国产| 日韩欧美一二三区| 国产亚洲免费观看| 精品国产三级a| 国产成人精品影视| 国产一区二区精品久| 久久久久久久男人的天堂| 久久99中文字幕久久| 日韩在线观看视频免费| 一级毛片视频播放| 国产成人精品影视| 999久久狠狠免费精品| 可以免费在线看黄的网站| 久久国产一久久高清| 高清一级毛片一本到免费观看| 天天做人人爱夜夜爽2020| 欧美一区二区三区在线观看| 亚洲精品影院| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 午夜家庭影院| 日本特黄特黄aaaaa大片 | a级黄色毛片免费播放视频| 一级女人毛片人一女人| 日本免费乱理伦片在线观看2018| 日韩在线观看视频免费| 天天做日日爱夜夜爽| 99色视频| 国产欧美精品| 日韩专区第一页| 日韩专区第一页| 99久久精品国产高清一区二区| 成人a大片在线观看| 精品久久久久久影院免费| 九九久久99综合一区二区| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 91麻豆国产| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 精品国产三级a| 毛片高清| 国产伦精品一区二区三区无广告| 日本免费乱理伦片在线观看2018| 国产视频一区在线| 日本特黄特黄aaaaa大片 | 日韩专区第一页| 成人高清免费| 日韩欧美一二三区| 久久99欧美| 韩国毛片| 国产亚洲免费观看| 国产成人精品影视| a级黄色毛片免费播放视频| 夜夜操网| 一级女人毛片人一女人| 成人免费观看男女羞羞视频| 欧美电影免费| 美女免费精品视频在线观看| 成人a大片在线观看| 青青久久精品| 一级毛片视频播放| a级黄色毛片免费播放视频| 韩国三级一区| 国产国语对白一级毛片| 国产美女在线一区二区三区| 亚洲天堂免费| 久久精品欧美一区二区| 韩国三级一区| 韩国三级一区| 日韩在线观看视频免费| 91麻豆精品国产自产在线| 久久久成人网| 精品久久久久久影院免费| 久草免费资源| 国产视频网站在线观看| 韩国三级一区| 精品视频在线观看一区二区| 天天做日日爱夜夜爽| 国产精品自拍在线观看| 久久福利影视| 精品久久久久久影院免费| 国产成人啪精品| 欧美大片aaaa一级毛片| 精品毛片视频| 欧美大片aaaa一级毛片| 国产成人啪精品| 国产美女在线一区二区三区| 精品国产亚洲一区二区三区| 久久久久久久男人的天堂| 精品视频一区二区三区免费| 国产网站在线| 99色视频| 日韩中文字幕一区| 免费国产在线视频| 欧美大片aaaa一级毛片| 国产成人精品影视| 国产欧美精品| 精品视频一区二区三区免费| 欧美大片aaaa一级毛片| 国产欧美精品| 韩国毛片| 国产麻豆精品| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 日韩在线观看视频免费| 国产一区二区精品|