亚洲综合原千岁中文字幕_国产精品99久久久久久久vr_无码人妻aⅴ一区二区三区浪潮_成人h动漫精品一区二区三

主頁 > 知識庫 > 手把手教你實現PyTorch的MNIST數據集

手把手教你實現PyTorch的MNIST數據集

熱門標簽:銀川電話機器人電話 長春極信防封電銷卡批發 企業彩鈴地圖標注 如何地圖標注公司 上海正規的外呼系統最新報價 煙臺電話外呼營銷系統 外賣地址有什么地圖標注 電銷機器人錄音要學習什么 預覽式外呼系統

概述

MNIST 包含 0~9 的手寫數字, 共有 60000 個訓練集和 10000 個測試集. 數據的格式為單通道 28*28 的灰度圖.

獲取數據

def get_data():
    """獲取數據"""

    # 獲取測試集
    train = torchvision.datasets.MNIST(root="./data", train=True, download=True,
                                       transform=torchvision.transforms.Compose([
                                           torchvision.transforms.ToTensor(),  # 轉換成張量
                                           torchvision.transforms.Normalize((0.1307,), (0.3081,))  # 標準化
                                       ]))
    train_loader = DataLoader(train, batch_size=batch_size)  # 分割測試集

    # 獲取測試集
    test = torchvision.datasets.MNIST(root="./data", train=False, download=True,
                                      transform=torchvision.transforms.Compose([
                                          torchvision.transforms.ToTensor(),  # 轉換成張量
                                          torchvision.transforms.Normalize((0.1307,), (0.3081,))  # 標準化
                                      ]))
    test_loader = DataLoader(test, batch_size=batch_size)  # 分割訓練

    # 返回分割好的訓練集和測試集
    return train_loader, test_loader

網絡模型

class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()

        # 卷積層
        self.conv1 = torch.nn.Conv2d(1, 32, kernel_size=(3, 3), stride=(1, 1))
        self.conv2 = torch.nn.Conv2d(32, 64, kernel_size=(3, 3), stride=(1, 1))

        # Dropout層
        self.dropout1 = torch.nn.Dropout(0.25)
        self.dropout2 = torch.nn.Dropout(0.5)

        # 全連接層
        self.fc1 = torch.nn.Linear(9216, 128)
        self.fc2 = torch.nn.Linear(128, 10)

    def forward(self, x):
        """前向傳播"""
        
        # [b, 1, 28, 28] => [b, 32, 26, 26]
        out = self.conv1(x)
        out = F.relu(out)
        
        # [b, 32, 26, 26] => [b, 64, 24, 24]
        out = self.conv2(out)
        out = F.relu(out)

        # [b, 64, 24, 24] => [b, 64, 12, 12]
        out = F.max_pool2d(out, 2)
        out = self.dropout1(out)
        
        # [b, 64, 12, 12] => [b, 64 * 12 * 12] => [b, 9216]
        out = torch.flatten(out, 1)
        
        # [b, 9216] => [b, 128]
        out = self.fc1(out)
        out = F.relu(out)

        # [b, 128] => [b, 10]
        out = self.dropout2(out)
        out = self.fc2(out)

        output = F.log_softmax(out, dim=1)

        return output

train 函數

def train(model, epoch, train_loader):
    """訓練"""

    # 訓練模式
    model.train()

    # 迭代
    for step, (x, y) in enumerate(train_loader):
        # 加速
        if use_cuda:
            model = model.cuda()
            x, y = x.cuda(), y.cuda()

        # 梯度清零
        optimizer.zero_grad()

        output = model(x)

        # 計算損失
        loss = F.nll_loss(output, y)

        # 反向傳播
        loss.backward()

        # 更新梯度
        optimizer.step()

        # 打印損失
        if step % 50 == 0:
            print('Epoch: {}, Step {}, Loss: {}'.format(epoch, step, loss))

test 函數

def test(model, test_loader):
    """測試"""
    
    # 測試模式
    model.eval()

    # 存放正確個數
    correct = 0

    with torch.no_grad():
        for x, y in test_loader:

            # 加速
            if use_cuda:
                model = model.cuda()
                x, y = x.cuda(), y.cuda()

            # 獲取結果
            output = model(x)

            # 預測結果
            pred = output.argmax(dim=1, keepdim=True)

            # 計算準確個數
            correct += pred.eq(y.view_as(pred)).sum().item()

    # 計算準確率
    accuracy = correct / len(test_loader.dataset) * 100

    # 輸出準確
    print("Test Accuracy: {}%".format(accuracy))

main 函數

def main():
    # 獲取數據
    train_loader, test_loader = get_data()
    
    # 迭代
    for epoch in range(iteration_num):
        print("\n================ epoch: {} ================".format(epoch))
        train(network, epoch, train_loader)
        test(network, test_loader)

完整代碼:

import torch
import torchvision
import torch.nn.functional as F
from torch.utils.data import DataLoader
class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()

        # 卷積層
        self.conv1 = torch.nn.Conv2d(1, 32, kernel_size=(3, 3), stride=(1, 1))
        self.conv2 = torch.nn.Conv2d(32, 64, kernel_size=(3, 3), stride=(1, 1))

        # Dropout層
        self.dropout1 = torch.nn.Dropout(0.25)
        self.dropout2 = torch.nn.Dropout(0.5)

        # 全連接層
        self.fc1 = torch.nn.Linear(9216, 128)
        self.fc2 = torch.nn.Linear(128, 10)

    def forward(self, x):
        """前向傳播"""
        
        # [b, 1, 28, 28] => [b, 32, 26, 26]
        out = self.conv1(x)
        out = F.relu(out)
        
        # [b, 32, 26, 26] => [b, 64, 24, 24]
        out = self.conv2(out)
        out = F.relu(out)

        # [b, 64, 24, 24] => [b, 64, 12, 12]
        out = F.max_pool2d(out, 2)
        out = self.dropout1(out)
        
        # [b, 64, 12, 12] => [b, 64 * 12 * 12] => [b, 9216]
        out = torch.flatten(out, 1)
        
        # [b, 9216] => [b, 128]
        out = self.fc1(out)
        out = F.relu(out)

        # [b, 128] => [b, 10]
        out = self.dropout2(out)
        out = self.fc2(out)

        output = F.log_softmax(out, dim=1)

        return output


# 定義超參數
batch_size = 64  # 一次訓練的樣本數目
learning_rate = 0.0001  # 學習率
iteration_num = 5  # 迭代次數
network = Model()  # 實例化網絡
print(network)  # 調試輸出網絡結構
optimizer = torch.optim.Adam(network.parameters(), lr=learning_rate)  # 優化器

# GPU 加速
use_cuda = torch.cuda.is_available()
print("是否使用 GPU 加速:", use_cuda)


def get_data():
    """獲取數據"""

    # 獲取測試集
    train = torchvision.datasets.MNIST(root="./data", train=True, download=True,
                                       transform=torchvision.transforms.Compose([
                                           torchvision.transforms.ToTensor(),  # 轉換成張量
                                           torchvision.transforms.Normalize((0.1307,), (0.3081,))  # 標準化
                                       ]))
    train_loader = DataLoader(train, batch_size=batch_size)  # 分割測試集

    # 獲取測試集
    test = torchvision.datasets.MNIST(root="./data", train=False, download=True,
                                      transform=torchvision.transforms.Compose([
                                          torchvision.transforms.ToTensor(),  # 轉換成張量
                                          torchvision.transforms.Normalize((0.1307,), (0.3081,))  # 標準化
                                      ]))
    test_loader = DataLoader(test, batch_size=batch_size)  # 分割訓練

    # 返回分割好的訓練集和測試集
    return train_loader, test_loader


def train(model, epoch, train_loader):
    """訓練"""

    # 訓練模式
    model.train()

    # 迭代
    for step, (x, y) in enumerate(train_loader):
        # 加速
        if use_cuda:
            model = model.cuda()
            x, y = x.cuda(), y.cuda()

        # 梯度清零
        optimizer.zero_grad()

        output = model(x)

        # 計算損失
        loss = F.nll_loss(output, y)

        # 反向傳播
        loss.backward()

        # 更新梯度
        optimizer.step()

        # 打印損失
        if step % 50 == 0:
            print('Epoch: {}, Step {}, Loss: {}'.format(epoch, step, loss))


def test(model, test_loader):
    """測試"""

    # 測試模式
    model.eval()

    # 存放正確個數
    correct = 0

    with torch.no_grad():
        for x, y in test_loader:

            # 加速
            if use_cuda:
                model = model.cuda()
                x, y = x.cuda(), y.cuda()

            # 獲取結果
            output = model(x)

            # 預測結果
            pred = output.argmax(dim=1, keepdim=True)

            # 計算準確個數
            correct += pred.eq(y.view_as(pred)).sum().item()

    # 計算準確率
    accuracy = correct / len(test_loader.dataset) * 100

    # 輸出準確
    print("Test Accuracy: {}%".format(accuracy))


def main():
    # 獲取數據
    train_loader, test_loader = get_data()

    # 迭代
    for epoch in range(iteration_num):
        print("\n================ epoch: {} ================".format(epoch))
        train(network, epoch, train_loader)
        test(network, test_loader)

if __name__ == "__main__":
    main()

輸出結果:

Model(
  (conv1): Conv2d(1, 32, kernel_size=(3, 3), stride=(1, 1))
  (conv2): Conv2d(32, 64, kernel_size=(3, 3), stride=(1, 1))
  (dropout1): Dropout(p=0.25, inplace=False)
  (dropout2): Dropout(p=0.5, inplace=False)
  (fc1): Linear(in_features=9216, out_features=128, bias=True)
  (fc2): Linear(in_features=128, out_features=10, bias=True)
)
是否使用 GPU 加速: True

================ epoch: 0 ================
Epoch: 0, Step 0, Loss: 2.3131277561187744
Epoch: 0, Step 50, Loss: 1.0419045686721802
Epoch: 0, Step 100, Loss: 0.6259541511535645
Epoch: 0, Step 150, Loss: 0.7194482684135437
Epoch: 0, Step 200, Loss: 0.4020516574382782
Epoch: 0, Step 250, Loss: 0.6890509128570557
Epoch: 0, Step 300, Loss: 0.28660136461257935
Epoch: 0, Step 350, Loss: 0.3277580738067627
Epoch: 0, Step 400, Loss: 0.2750288248062134
Epoch: 0, Step 450, Loss: 0.28428223729133606
Epoch: 0, Step 500, Loss: 0.3514065444469452
Epoch: 0, Step 550, Loss: 0.23386947810649872
Epoch: 0, Step 600, Loss: 0.25338059663772583
Epoch: 0, Step 650, Loss: 0.1743898093700409
Epoch: 0, Step 700, Loss: 0.35752204060554504
Epoch: 0, Step 750, Loss: 0.17575909197330475
Epoch: 0, Step 800, Loss: 0.20604261755943298
Epoch: 0, Step 850, Loss: 0.17389622330665588
Epoch: 0, Step 900, Loss: 0.3188241124153137
Test Accuracy: 96.56%

================ epoch: 1 ================
Epoch: 1, Step 0, Loss: 0.23558208346366882
Epoch: 1, Step 50, Loss: 0.13511177897453308
Epoch: 1, Step 100, Loss: 0.18823786079883575
Epoch: 1, Step 150, Loss: 0.2644936144351959
Epoch: 1, Step 200, Loss: 0.145077645778656
Epoch: 1, Step 250, Loss: 0.30574971437454224
Epoch: 1, Step 300, Loss: 0.2386859953403473
Epoch: 1, Step 350, Loss: 0.08346735686063766
Epoch: 1, Step 400, Loss: 0.10480977594852448
Epoch: 1, Step 450, Loss: 0.07280707359313965
Epoch: 1, Step 500, Loss: 0.20928426086902618
Epoch: 1, Step 550, Loss: 0.20455852150917053
Epoch: 1, Step 600, Loss: 0.10085935145616531
Epoch: 1, Step 650, Loss: 0.13476189970970154
Epoch: 1, Step 700, Loss: 0.19087043404579163
Epoch: 1, Step 750, Loss: 0.0981522724032402
Epoch: 1, Step 800, Loss: 0.1961515098810196
Epoch: 1, Step 850, Loss: 0.041140712797641754
Epoch: 1, Step 900, Loss: 0.250461220741272
Test Accuracy: 98.03%

================ epoch: 2 ================
Epoch: 2, Step 0, Loss: 0.09572553634643555
Epoch: 2, Step 50, Loss: 0.10370486229658127
Epoch: 2, Step 100, Loss: 0.17737184464931488
Epoch: 2, Step 150, Loss: 0.1570713371038437
Epoch: 2, Step 200, Loss: 0.07462178170681
Epoch: 2, Step 250, Loss: 0.18744900822639465
Epoch: 2, Step 300, Loss: 0.09910508990287781
Epoch: 2, Step 350, Loss: 0.08929706364870071
Epoch: 2, Step 400, Loss: 0.07703761011362076
Epoch: 2, Step 450, Loss: 0.10133732110261917
Epoch: 2, Step 500, Loss: 0.1314031481742859
Epoch: 2, Step 550, Loss: 0.10394387692213058
Epoch: 2, Step 600, Loss: 0.11612939089536667
Epoch: 2, Step 650, Loss: 0.17494803667068481
Epoch: 2, Step 700, Loss: 0.11065669357776642
Epoch: 2, Step 750, Loss: 0.061209067702293396
Epoch: 2, Step 800, Loss: 0.14715790748596191
Epoch: 2, Step 850, Loss: 0.03930797800421715
Epoch: 2, Step 900, Loss: 0.18030673265457153
Test Accuracy: 98.46000000000001%

================ epoch: 3 ================
Epoch: 3, Step 0, Loss: 0.09266342222690582
Epoch: 3, Step 50, Loss: 0.0414913073182106
Epoch: 3, Step 100, Loss: 0.2152961939573288
Epoch: 3, Step 150, Loss: 0.12287424504756927
Epoch: 3, Step 200, Loss: 0.13468700647354126
Epoch: 3, Step 250, Loss: 0.11967387050390244
Epoch: 3, Step 300, Loss: 0.11301510035991669
Epoch: 3, Step 350, Loss: 0.037447575479745865
Epoch: 3, Step 400, Loss: 0.04699449613690376
Epoch: 3, Step 450, Loss: 0.05472381412982941
Epoch: 3, Step 500, Loss: 0.09839300811290741
Epoch: 3, Step 550, Loss: 0.07964356243610382
Epoch: 3, Step 600, Loss: 0.08182843774557114
Epoch: 3, Step 650, Loss: 0.05514759197831154
Epoch: 3, Step 700, Loss: 0.13785190880298615
Epoch: 3, Step 750, Loss: 0.062480345368385315
Epoch: 3, Step 800, Loss: 0.120387002825737
Epoch: 3, Step 850, Loss: 0.04458726942539215
Epoch: 3, Step 900, Loss: 0.17119190096855164
Test Accuracy: 98.55000000000001%

================ epoch: 4 ================
Epoch: 4, Step 0, Loss: 0.08094145357608795
Epoch: 4, Step 50, Loss: 0.05615215748548508
Epoch: 4, Step 100, Loss: 0.07766406238079071
Epoch: 4, Step 150, Loss: 0.07915271818637848
Epoch: 4, Step 200, Loss: 0.1301635503768921
Epoch: 4, Step 250, Loss: 0.12118984013795853
Epoch: 4, Step 300, Loss: 0.073218435049057
Epoch: 4, Step 350, Loss: 0.04517696052789688
Epoch: 4, Step 400, Loss: 0.08493026345968246
Epoch: 4, Step 450, Loss: 0.03904269263148308
Epoch: 4, Step 500, Loss: 0.09386837482452393
Epoch: 4, Step 550, Loss: 0.12583576142787933
Epoch: 4, Step 600, Loss: 0.09053893387317657
Epoch: 4, Step 650, Loss: 0.06912104040384293
Epoch: 4, Step 700, Loss: 0.1502612829208374
Epoch: 4, Step 750, Loss: 0.07162325084209442
Epoch: 4, Step 800, Loss: 0.10512275993824005
Epoch: 4, Step 850, Loss: 0.028180215507745743
Epoch: 4, Step 900, Loss: 0.08492615073919296
Test Accuracy: 98.69%

到此這篇關于手把手教你實現PyTorch的MNIST數據集的文章就介紹到這了,更多相關PyTorch MNIST數據集內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 詳解PyTorch手寫數字識別(MNIST數據集)
  • PyTorch CNN實戰之MNIST手寫數字識別示例
  • Pytorch實現的手寫數字mnist識別功能完整示例
  • pytorch實現MNIST手寫體識別
  • pytorch教程實現mnist手寫數字識別代碼示例

標簽:西寧 潮州 湖北 珠海 上饒 宜昌 佳木斯 盤錦

巨人網絡通訊聲明:本文標題《手把手教你實現PyTorch的MNIST數據集》,本文關鍵詞  手把手,教你,實現,PyTorch,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《手把手教你實現PyTorch的MNIST數據集》相關的同類信息!
  • 本頁收集關于手把手教你實現PyTorch的MNIST數據集的相關信息資訊供網民參考!
  • 推薦文章
    亚欧成人乱码一区二区| 国产麻豆精品免费密入口| 日韩在线观看视频黄| 国产激情视频在线观看| 黄视频网站免费观看| 精品国产一区二区三区久久久蜜臀 | 午夜久久网| 日韩欧美一二三区| 亚欧视频在线| 成人在激情在线视频| 国产一区二区精品久久91| 久久久成人网| 一级女人毛片人一女人| 可以免费看污视频的网站| 九九国产| 精品国产一区二区三区精东影业| 国产亚洲男人的天堂在线观看| 91麻豆国产福利精品| 日本免费区| 麻豆网站在线看| 可以免费看毛片的网站| 99久久精品国产国产毛片| 国产原创视频在线| 久久99爰这里有精品国产| 欧美电影免费看大全| 国产视频久久久| 四虎论坛| 国产成人女人在线视频观看| 精品久久久久久中文| 欧美激情在线精品video| 欧美一区二区三区在线观看| 天天色成人| 亚洲爆爽| 四虎久久精品国产| 国产不卡在线看| 久久国产一久久高清| 超级乱淫黄漫画免费| 亚洲www美色| 国产成人欧美一区二区三区的| 黄色免费网站在线| 九九久久国产精品| 97视频免费在线观看| 色综合久久天天综合绕观看| 可以免费在线看黄的网站| 国产韩国精品一区二区三区| 九九精品影院| 日日夜人人澡人人澡人人看免| 日韩av东京社区男人的天堂| 精品国产香蕉在线播出 | 亚洲爆爽| 精品视频免费看| 美女被草网站| 国产美女在线一区二区三区| 亚洲 男人 天堂| 四虎影视久久久免费| 天天色成人| 精品国产一区二区三区免费| 黄视频网站免费观看| 久草免费资源| 亚洲天堂一区二区三区四区| 国产一区二区精品久久91| 欧美激情中文字幕一区二区| 国产视频一区二区三区四区| 青青青草影院| 国产不卡在线看| 麻豆午夜视频| 亚洲天堂在线播放| 夜夜操网| 久久99青青久久99久久| 91麻豆国产| 免费国产在线观看| 亚洲精品影院| 国产伦精品一区三区视频 | 午夜欧美成人久久久久久| 麻豆网站在线看| 久久国产精品永久免费网站| 九九精品久久| 香蕉视频三级| 可以免费在线看黄的网站| 国产麻豆精品hdvideoss| 可以免费看污视频的网站| 国产一区免费在线观看| 日韩专区一区| 国产麻豆精品视频| 四虎影视精品永久免费网站| 四虎论坛| 精品国产一区二区三区国产馆| 成人在免费观看视频国产| 人人干人人草| 你懂的在线观看视频| 日韩专区亚洲综合久久| 天天做人人爱夜夜爽2020| 久久精品店| 日韩中文字幕一区二区不卡| 免费毛片播放| 色综合久久久久综合体桃花网| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 国产视频一区二区三区四区| 日本免费看视频| 国产亚洲精品aaa大片| 一级毛片视频播放| 麻豆网站在线免费观看| 欧美另类videosbestsex视频| 日韩专区第一页| 久久成人性色生活片| 97视频免费在线| 国产91精品系列在线观看| 久草免费在线色站| 国产伦精品一区二区三区在线观看| 成人免费网站视频ww| 青青青草影院 | 九九精品久久| 欧美a级成人淫片免费看| 天堂网中文字幕| 欧美国产日韩在线| 国产不卡福利| 欧美1卡一卡二卡三新区| 国产伦精品一区二区三区无广告| 国产一区二区精品久| 精品视频在线看 | 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 国产成a人片在线观看视频| 天天做人人爱夜夜爽2020| 日本免费乱理伦片在线观看2018| 亚洲女人国产香蕉久久精品| 91麻豆国产级在线| 青青青草影院 | 天天做人人爱夜夜爽2020| 色综合久久天天综线观看| 香蕉视频亚洲一级| 精品久久久久久中文| 午夜在线亚洲男人午在线| 国产国产人免费视频成69堂| 韩国毛片 免费| 国产亚洲男人的天堂在线观看| 欧美国产日韩在线| 精品国产一区二区三区久久久狼 | 成人高清视频免费观看| 日本特黄特黄aaaaa大片| 国产a视频| 日韩av成人| 四虎影视精品永久免费网站| 九九久久国产精品| 二级特黄绝大片免费视频大片| 久草免费在线视频| 99久久精品费精品国产一区二区| 高清一级片| 99久久精品费精品国产一区二区| 亚洲精品影院一区二区| 国产激情一区二区三区| 久久国产影院| 日本免费乱理伦片在线观看2018| 日韩专区一区| 99色视频在线| 97视频免费在线| 日韩在线观看视频免费| 欧美1卡一卡二卡三新区| 国产极品白嫩美女在线观看看| 欧美另类videosbestsex视频| 国产亚洲男人的天堂在线观看| 青草国产在线观看| 精品视频在线看| 97视频免费在线| 国产高清在线精品一区二区 | 国产一区二区福利久久| 欧美激情影院| 国产一区二区精品| 欧美a级片视频| 91麻豆精品国产综合久久久| 精品国产一区二区三区精东影业| 成人影院久久久久久影院| 九九热国产视频| 成人高清护士在线播放| 国产视频网站在线观看| 成人免费观看的视频黄页| 久久精品免视看国产明星| 国产亚洲免费观看| 亚洲精品永久一区| 亚飞与亚基在线观看| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 国产一级生活片| 99久久网站| 91麻豆爱豆果冻天美星空| 日韩专区亚洲综合久久| 黄视频网站免费| 91麻豆国产级在线| 国产亚洲精品aaa大片| 韩国三级香港三级日本三级la| 亚洲第一页乱| 国产国语对白一级毛片| 欧美a级大片| 日韩一级黄色| 日本免费看视频| 中文字幕97| 精品国产亚洲一区二区三区| 亚洲不卡一区二区三区在线| 午夜激情视频在线观看| 色综合久久天天综合| 国产伦久视频免费观看视频| 欧美激情一区二区三区中文字幕|