日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長(zhǎng)提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請(qǐng)做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會(huì)員:747

PyTorch:基礎(chǔ)知識(shí)

 

如果您對(duì)機(jī)器學(xué)習(xí)感興趣或正在閱讀本文,那么您很有可能以前聽說過PyTorch。 在機(jī)器學(xué)習(xí)開發(fā)人員中,這是一個(gè)非常著名的框架,由于很好的原因,我們將在本文中進(jìn)行討論。 另外,如果您只是從神經(jīng)網(wǎng)絡(luò)開始并且具有基礎(chǔ)知識(shí),那么這是一個(gè)完美的初學(xué)者工具。

好吧,讓我們進(jìn)入PyTorch的精髓吧?

PyTorch的歷史

Torch最初是用Lua編寫的,這種用法并不常見,很難理解,而且它沒有Python提供的一半功能。

因此,在2017年,F(xiàn)acebook的AI研究實(shí)驗(yàn)室決定建立一個(gè)與Torch庫具有相同功能但不包含python的庫,因此命名為PyTorch。 這在開發(fā)人員中立即受到打擊,并使編寫代碼更容易,更有效。

認(rèn)知計(jì)算-一種被廣泛認(rèn)為是……的最重要表現(xiàn)的技能

作為其用戶,我們已逐漸將技術(shù)視為理所當(dāng)然。 這些天幾乎沒有什么比這更普遍了……

趣聞:PyTorch Soumith Chintala的開發(fā)人員之一是VIT的校友,而這恰好是我目前就讀的我的大學(xué)!

Pytorch與Tensorflow

我覺得在PyTorch和Tensorflow之間總是有一個(gè)比較,因?yàn)樗鼈兪褂貌煌姆椒▉斫鉀Q問題,因此我認(rèn)為這是不必要的,并且根據(jù)數(shù)據(jù)集和算法,一種方法要比另一種效果更好。 但是,如果您仍然好奇,可以在這里查看這篇非常簡(jiǎn)潔的文章。

PyTorch:基礎(chǔ)知識(shí)

 

是什么使Pytorch成為一個(gè)好的框架?

· 命令式編程:在PyTorch中,計(jì)算會(huì)立即運(yùn)行,這意味著用戶無需等待編寫完整的代碼即可檢查其是否有效。 這對(duì)于像我這樣急躁的程序員來說是個(gè)好兆頭,他們希望在每一行代碼之后都能看到結(jié)果。 這還允許在python中提供更靈活的編碼體驗(yàn),并且更受性能驅(qū)動(dòng)。

PyTorch:基礎(chǔ)知識(shí)

> Source:https://medium.com/@vincentbacalso/imperative-vs-declarative-programming

 

2.動(dòng)態(tài)計(jì)算圖:動(dòng)態(tài)計(jì)算圖框架是一個(gè)由庫,接口和組件組成的系統(tǒng),這些庫,接口和組件提供了靈活的,編程的,運(yùn)行時(shí)接口,通過連接有限但可能可擴(kuò)展的一組操作來促進(jìn)系統(tǒng)的構(gòu)建和修改。 因此,基本上,PyTorch遵循運(yùn)行定義的原理,這對(duì)于像RNN這樣的非固定大小的網(wǎng)絡(luò)非常有用。

PyTorch:基礎(chǔ)知識(shí)

> Source: Hackernoon.com

 

1. Autograd:此類是計(jì)算導(dǎo)數(shù)的引擎(更精確地說,是Jacobian矢量積)。 它記錄了在啟用梯度的張量上執(zhí)行的所有操作的圖,并創(chuàng)建了一個(gè)稱為動(dòng)態(tài)計(jì)算圖的非循環(huán)圖。 該圖的葉子是輸入張量,根是輸出張量。 通過從根到葉跟蹤圖并使用鏈法則將每個(gè)梯度相乘來計(jì)算梯度。

torch.nn.Autograd.Function

PyTorch:基礎(chǔ)知識(shí)

> Source: Udacity.com

 

Pytorch的常用功能

· torch.sum():加法

(a*b).sum()

1. torch.mm():點(diǎn)積。

#torch.nm(a,b)

1. torch.randn():生成矩陣隨機(jī)數(shù)

torch.manual_seed(7)

# Set the random seed so things are predictable

x = torch.randn(2,2)

1. torch.exp():計(jì)算指數(shù)

Sigmoid=1/(1+torch.exp(-x))

1. PyTorch提供了一個(gè)模塊nn,它使構(gòu)建網(wǎng)絡(luò)更加簡(jiǎn)單。

from torch import nn

-nn.Linear():此行創(chuàng)建用于線性變換+的模塊。

類似地,以下函數(shù)可用于計(jì)算相應(yīng)的激活函數(shù)。

-nn.Sigmoid()

-nn.Softmax()

self.output = nn.Linearse

lf.sigmoid = nn.Sigmoid()

self.softmax = nn.Softmax(dim=1)

#columnwise

1. nn.Sequential:使用此方法,我們可以依次通過操作傳遞張量。

model = nn.Sequential(nn.Linear(input_size, hidden_sizes[0]), nn.ReLU(), nn.Linear(hidden_sizes[0], hidden_sizes[1]), nn.ReLU(), nn.Linear(hidden_sizes[1], output_size), nn.Softmax(dim=1))

7.損失計(jì)算

criterion = nn.CrossEntropyLoss()

criterion = nn.NLLLoss()

criterion = nn.LogSoftmax()

1. Autograd:Autograd的工作原理是跟蹤對(duì)張量執(zhí)行的操作,然后回溯這些操作,并計(jì)算沿途的梯度。

-loss.backward()計(jì)算用于計(jì)算參數(shù)的梯度。 這些梯度用于通過梯度下降來更新權(quán)重。

loss.backward()

optimizer.zero_grad()將每個(gè)訓(xùn)練遍的梯度歸零,否則它將保留先前訓(xùn)練批次的梯度。

optimizer.zero_grad()

結(jié)論

我一直將本文的重點(diǎn)放在PyTorch的理論和語法上,在第二部分中,我將通過開發(fā)神經(jīng)網(wǎng)絡(luò)來演示PyTorch在數(shù)據(jù)集上的演示。 因此,請(qǐng)繼續(xù)關(guān)注并感謝您的閱讀。 干杯!

參考:
https://classroom.udacity.com/courses/ud188-PyTorch簡(jiǎn)介。

(本文翻譯自Puja Chaudhury的文章《PyTorch: The Basics.》,參考:
https://medium.com/datadriveninvestor/pytorch-the-basics-7005e71cdb83)

分享到:
標(biāo)簽:PyTorch
用戶無頭像

網(wǎng)友整理

注冊(cè)時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會(huì)員

趕快注冊(cè)賬號(hào),推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運(yùn)動(dòng)步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動(dòng)步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績(jī)?cè)u(píng)定2018-06-03

通用課目體育訓(xùn)練成績(jī)?cè)u(píng)定