免费观看又色又爽又黄的小说免费_美女福利视频国产片_亚洲欧美精品_美国一级大黄大色毛片

PyTorch的深度學習入門教程之構建神經網絡-創新互聯

前言

成都創新互聯專業為企業提供鐘祥網站建設、鐘祥做網站、鐘祥網站設計、鐘祥網站制作等企業網站建設、網頁設計與制作、鐘祥企業網站模板建站服務,十多年鐘祥做網站經驗,不只是建網站,更提供有價值的思路和整體網絡服務。

本文參考PyTorch官網的教程,分為五個基本模塊來介紹PyTorch。為了避免文章過長,這五個模塊分別在五篇博文中介紹。

Part3:使用PyTorch構建一個神經網絡

神經網絡可以使用touch.nn來構建。nn依賴于autograd來定義模型,并且對其求導。一個nn.Module包含網絡的層(layers),同時forward(input)可以返回output。

這是一個簡單的前饋網絡。它接受輸入,然后一層一層向前傳播,最后輸出一個結果。

訓練神經網絡的典型步驟如下:

(1)  定義神經網絡,該網絡包含一些可以學習的參數(如權重)

(2)  在輸入數據集上進行迭代

(3)  使用網絡對輸入數據進行處理

(4)  計算loss(輸出值距離正確值有多遠)

(5)  將梯度反向傳播到網絡參數中

(6)  更新網絡的權重,使用簡單的更新法則:weight = weight - learning_rate* gradient,即:新的權重=舊的權重-學習率*梯度值。

1 定義網絡

我們先定義一個網絡:

import torch
from torch.autograd import Variable
import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):

  def __init__(self):
    super(Net, self).__init__()
    # 1 input image channel, 6 output channels, 5x5 square convolution
    # kernel
    self.conv1 = nn.Conv2d(1, 6, 5)
    self.conv2 = nn.Conv2d(6, 16, 5)
    # an affine operation: y = Wx + b
    self.fc1 = nn.Linear(16 * 5 * 5, 120)
    self.fc2 = nn.Linear(120, 84)
    self.fc3 = nn.Linear(84, 10)

  def forward(self, x):
    # Max pooling over a (2, 2) window
    x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
    # If the size is a square you can only specify a single number
    x = F.max_pool2d(F.relu(self.conv2(x)), 2)
    x = x.view(-1, self.num_flat_features(x))
    x = F.relu(self.fc1(x))
    x = F.relu(self.fc2(x))
    x = self.fc3(x)
    return x

  def num_flat_features(self, x):
    size = x.size()[1:] # all dimensions except the batch dimension
    num_features = 1
    for s in size:
      num_features *= s
    return num_features


net = Net()
print(net)

名稱欄目:PyTorch的深度學習入門教程之構建神經網絡-創新互聯
當前網址:http://m.newbst.com/article18/dshpgp.html

成都網站建設公司_創新互聯,為您提供網頁設計公司面包屑導航網站內鏈外貿網站建設定制開發網站設計公司

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

h5響應式網站建設