前言
成都創新互聯專業為企業提供鐘祥網站建設、鐘祥做網站、鐘祥網站設計、鐘祥網站制作等企業網站建設、網頁設計與制作、鐘祥企業網站模板建站服務,十多年鐘祥做網站經驗,不只是建網站,更提供有價值的思路和整體網絡服務。本文參考PyTorch官網的教程,分為五個基本模塊來介紹PyTorch。為了避免文章過長,這五個模塊分別在五篇博文中介紹。
Part3:使用PyTorch構建一個神經網絡
神經網絡可以使用touch.nn來構建。nn依賴于autograd來定義模型,并且對其求導。一個nn.Module包含網絡的層(layers),同時forward(input)可以返回output。
這是一個簡單的前饋網絡。它接受輸入,然后一層一層向前傳播,最后輸出一個結果。
訓練神經網絡的典型步驟如下:
(1) 定義神經網絡,該網絡包含一些可以學習的參數(如權重)
(2) 在輸入數據集上進行迭代
(3) 使用網絡對輸入數據進行處理
(4) 計算loss(輸出值距離正確值有多遠)
(5) 將梯度反向傳播到網絡參數中
(6) 更新網絡的權重,使用簡單的更新法則:weight = weight - learning_rate* gradient,即:新的權重=舊的權重-學習率*梯度值。
1 定義網絡
我們先定義一個網絡:
import torch from torch.autograd import Variable import torch.nn as nn import torch.nn.functional as F class Net(nn.Module): def __init__(self): super(Net, self).__init__() # 1 input image channel, 6 output channels, 5x5 square convolution # kernel self.conv1 = nn.Conv2d(1, 6, 5) self.conv2 = nn.Conv2d(6, 16, 5) # an affine operation: y = Wx + b self.fc1 = nn.Linear(16 * 5 * 5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): # Max pooling over a (2, 2) window x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2)) # If the size is a square you can only specify a single number x = F.max_pool2d(F.relu(self.conv2(x)), 2) x = x.view(-1, self.num_flat_features(x)) x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x def num_flat_features(self, x): size = x.size()[1:] # all dimensions except the batch dimension num_features = 1 for s in size: num_features *= s return num_features net = Net() print(net)
名稱欄目:PyTorch的深度學習入門教程之構建神經網絡-創新互聯
當前網址:http://m.newbst.com/article18/dshpgp.html
成都網站建設公司_創新互聯,為您提供網頁設計公司、面包屑導航、網站內鏈、外貿網站建設、定制開發、網站設計公司
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯