PyTorch
PyTorch是一個開源的Python機器學習庫,基於Torch庫[2][3][4],底層由C++實現,應用於人工智能領域,如計算機視覺和自然語言處理[5]。它最初由Meta Platforms的人工智能研究團隊開發,現在屬於Linux基金會的一部分[6][7][8]。它是在修改後的BSD許可證下發布的自由及開放源代碼軟件。 儘管Python接口更加完善並且是開發的主要重點,但 PyTorch 也有C++接口[9]。
原作者 | Adam Paszke, Sam Gross, Soumith Chintala, Gregory Chanan |
---|---|
開發者 | Meta AI |
首次發布 | 2016年10月 |
當前版本 | 2.5.0[1](2024年10月17日,23天前) |
源代碼庫 | github |
編程語言 | Python, C++, CUDA |
操作系統 | Linux, macOS, Windows |
平台 | IA-32, x86-64, ARM64 |
類型 | 機器學習和深度學習庫 |
許可協議 | BSD許可證 |
網站 | pytorch |
許多深度學習軟體都是基於 PyTorch 構建的,包括特斯拉自動駕駛[10]、Uber的Pyro[11]、Hugging Face的Transformers[12]、 PyTorch Lightning[13][14]、和Catalyst[15][16]。
概述
編輯PyTorch主要有兩大特徵:[17]
PyTorch包括torch.autograd、torch.nn、torch.optim等子模塊[20]。
PyTorch張量
編輯PyTorch定義了一個名為張量(torch.Tensor) 的類別來儲存和操作同構多維矩形數字陣列。 PyTorch張量與NumPy陣列類似,但也可以在支援 CUDA 的 英偉達 GPU 上運作。 PyTorch 也一直在開發對其他 GPU 平台的支持,例如 AMD 的 ROCm 和 Apple 的Metal Framework[21]。
張量是 PyTorch 中的核心數據抽象,PyTorch 支援各種張量子類型[22]。通常地,一維張量稱為向量(vector),二維張量稱為矩陣(matrix)。
張量的數據類型包括:
torch.bool
torch.int8
torch.uint8
torch.int16
torch.int32
torch.int64
torch.half
torch.float
torch.double
torch.bfloat
PyTorch神經網絡
編輯神經網絡由對數據執行操作的層/模塊組成。 torch.nn 命名空間提供了使用者需要的所有構建塊來構建自己的神經網絡。PyTorch 中的每個模塊都對應nn.模塊。 神經網絡本身是由其他模塊(層)組成的模塊。這種嵌套結構允許使用者輕鬆構建並管理複雜的架構。神經網絡中的許多層都是參數化的,即具有相關的權重以及在訓練期間優化的偏差。自動子類化跟蹤模型對象中定義的所有字段,並生成所有參數可使用模型或方法訪問。[2]
import torch # for all things PyTorch
import torch.nn as nn # for torch.nn.Module, the parent object for PyTorch models
import torch.nn.functional as F # for the activation function
激活函數torch.nn.Module
具有封裝所有主要內容的對象激活功能,包括 ReLU 及其許多變體、Tanh、 Hardtanh、sigmoid 等。[3]
PyTorch模型常見圖層類型
編輯線性層
編輯最基本的神經網絡層類型是線性或完全連接層。在這個層中,每個輸入都會影響每個圖層的輸出到由圖層權重指定的程度。如果 模型有 m 個輸入和 n 個輸出,權重將是一個 m x n 矩陣。
卷積層
編輯卷積層旨在處理高度空間相關性。它們在計算機視覺中非常常用, 它們檢測組成的特徵的緊密分組更高級別的功能。它們也會在其他上下文中彈出。例如, 在 NLP 應用程序中,單詞的直接上下文(即序列中附近的其他單詞)可以影響語句。
循環層
編輯遞歸神經網絡(RNN)是用於順序數據(從科學儀器到時間序列測量)的自然語言句子。
例子
編輯下面的程序用簡單的例子展示這個程序庫的低層功能。
>>> import torch
>>> dtype = torch.float
>>> device = torch.device("cpu") # 本次在CPU上执行所有的计算
>>> # device = torch.device("cuda:0") # 本次在GPU上执行所有的计算
>>>
>>> # 建立一个张量并用随机数填充这个张量
>>> a = torch.randn(2, 3, device=device, dtype=dtype)
>>> print(a) # 输出张量a
tensor([[-0.1460, -0.3490, 0.3705],
[-1.1141, 0.7661, 1.0823]])
>>>
>>> # 建立一个张量并用随机数填充这个张量
>>> b = torch.randn(2, 3, device=device, dtype=dtype)
>>> print(b) # 输出张量B
tensor([[ 0.6901, -0.9663, 0.3634],
[-0.6538, -0.3728, -1.1323]])
>>>
>>> print(a*b) # 输出两个张量的乘积
tensor([[-0.1007, 0.3372, 0.1346],
[ 0.7284, -0.2856, -1.2256]])
>>> print(a.sum()) # 输出在张量a中所有元素的总和
tensor(0.6097)
>>>
>>> print(a[1,2]) # 输出第2行第3列(0起始)的元素
tensor(1.0823)
>>>
>>> print(a.max()) # 输出在张量a中的极大值
tensor(1.0823)
下列代碼塊展示了nn
模塊提供的高層功能的例子。例子中定義了具有線性層的神經網絡。
import torch
from torch import nn # 从PyTorch中导入nn子模块
class NeuralNetwork(nn.Module): # 神经网络被定义为类
def __init__(self): # 在__init__方法中定义诸层和变量
super(NeuralNetwork, self).__init__() # 必须出现在所有网络中
self.flatten = nn.Flatten() # 定义一个压平层
self.linear_relu_stack = nn.Sequential( # 定义诸层的一个堆栈
nn.Linear(28*28, 512), # 线性层有一个输入和输出形状
nn.ReLU(), # ReLU是nn提供的诸多激活函数之一
nn.Linear(512, 512),
nn.ReLU(),
nn.Linear(512, 10),
)
def forward(self, x): # 这个函数定义前向传递。
x = self.flatten(x)
logits = self.linear_relu_stack(x)
return logits
參考文獻
編輯- ^ 1.0 1.1 PyTorch 2.5.0 Release, SDPA CuDNN backend, Flex Attention. 2024年10月17日 [2024年10月17日].
- ^ 2.0 2.1 Yegulalp, Serdar. Facebook brings GPU-powered machine learning to Python. InfoWorld. 19 January 2017 [11 December 2017]. (原始內容存檔於2018-07-12).
- ^ 3.0 3.1 Lorica, Ben. Why AI and machine learning researchers are beginning to embrace PyTorch. O'Reilly Media. 3 August 2017 [11 December 2017]. (原始內容存檔於2019-05-17).
- ^ Ketkar, Nikhil. Deep Learning with Python. Apress, Berkeley, CA. 2017: 195–208 [2018-10-02]. ISBN 9781484227657. doi:10.1007/978-1-4842-2766-4_12. (原始內容存檔於2018-07-12) (英語).
- ^ Natural Language Processing (NLP) with PyTorch — NLP with PyTorch documentation. dl4nlp.info. [2017-12-18]. (原始內容存檔於2019-06-21) (英語).
- ^ Patel, Mo. When two trends fuse: PyTorch and recommender systems. O'Reilly Media. 2017-12-07 [2017-12-18]. (原始內容存檔於2019-03-30) (英語).
- ^ Mannes, John. Facebook and Microsoft collaborate to simplify conversions from PyTorch to Caffe2. TechCrunch. [2017-12-18]. (原始內容存檔於2020-07-06) (英語).
FAIR is accustomed to working with PyTorch — a deep learning framework optimized for achieving state of the art results in research, regardless of resource constraints. Unfortunately in the real world, most of us are limited by the computational capabilities of our smartphones and computers.
- ^ Arakelyan, Sophia. Tech giants are using open source frameworks to dominate the AI community. VentureBeat. 2017-11-29 [2017-12-18]. (原始內容存檔於2019-03-30) (美國英語).
- ^ The C++ Frontend. PyTorch Master Documentation. [2019-07-29]. (原始內容存檔於2020-05-08).
- ^ Karpathy, Andrej. PyTorch at Tesla - Andrej Karpathy, Tesla. [2023-12-24]. (原始內容存檔於2023-03-24).
- ^ Uber AI Labs Open Sources Pyro, a Deep Probabilistic Programming Language. Uber Engineering Blog. 2017-11-03 [2017-12-18]. (原始內容存檔於2017-12-25) (美國英語).
- ^ PYTORCH-TRANSFORMERS: PyTorch implementations of popular NLP Transformers, PyTorch Hub, 2019-12-01 [2019-12-01], (原始內容存檔於2023-06-11)
- ^ PYTORCH-Lightning: The lightweight PyTorch wrapper for ML researchers. Scale your models. Write less boilerplate, Lightning-Team, 2020-06-18 [2020-06-18], (原始內容存檔於2022-06-08)
- ^ Ecosystem Tools. pytorch.org. [2020-06-18]. (原始內容存檔於2023-07-18) (英語).
- ^ GitHub - catalyst-team/catalyst: Accelerated DL & RL, Catalyst-Team, 2019-12-05 [2019-12-05], (原始內容存檔於2019-12-22)
- ^ Ecosystem Tools. pytorch.org. [2020-04-04]. (原始內容存檔於2023-07-18) (英語).
- ^ PyTorch – About. pytorch.org. [2018-06-11]. (原始內容存檔於2018-06-15).
- ^ R.E. Wengert. A simple automatic derivative evaluation program. Comm. ACM. 1964, 7: 463–464. doi:10.1145/355586.364791.
- ^ Bartholomew-Biggs, Michael; Brown, Steven; Christianson, Bruce; Dixon, Laurence. Automatic differentiation of algorithms (PDF). Journal of Computational and Applied Mathematics. 2000, 124 (1-2): 171–190. Bibcode:2000JCoAM.124..171B. doi:10.1016/S0377-0427(00)00422-2.
- ^ 20.0 20.1 神经网络与PyTorch实战 Application of Neural Network and PyTorch. 機械工業出版社. 2018. ISBN 9787111605775.
- ^ Introducing Accelerated PyTorch Training on Mac. pytorch.org. [2022-06-04]. (原始內容存檔於2024-01-29) (英語).
- ^ An Introduction to PyTorch – A Simple yet Powerful Deep Learning Library. analyticsvidhya.com. 2018-02-22 [2018-06-11]. (原始內容存檔於2019-10-22).
參見
編輯外部連結
編輯- 官方網站
- 從 GitHub 訪問 PyTorch 教程 (頁面存檔備份,存於網際網路檔案館)
- PyTorch基金會的Youtube賬號 (頁面存檔備份,存於網際網路檔案館)