您好,登錄后才能下訂單哦!
這篇文章主要介紹“怎么用PyTorch的einops張量操作神器”,在日常操作中,相信很多人在怎么用PyTorch的einops張量操作神器問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”怎么用PyTorch的einops張量操作神器”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
安裝:
pip install einops
einops的強項是把張量的維度操作具象化,讓開發者“想出即寫出”。舉個例子:
from einops import rearrange # rearrange elements according to the pattern output_tensor = rearrange(input_tensor, 'h w c -> c h w')
用'h w c -> c h w'就完成了維度調換,這個功能與pytorch中的permute相似。但是,einops的rearrange玩法可以更高級:
from einops import rearrange import torch a = torch.randn(3, 9, 9) # [3, 9, 9] output = rearrange(a, 'c (r p) w -> c r p w', p=3) print(output.shape) # [3, 3, 3, 9]
這就是高級用法了,把中間維度看作r×p,然后給出p的數值,這樣系統會自動把中間那個維度拆解成3×3。這樣就完成了[3, 9, 9] -> [3, 3, 3, 9]的維度轉換。
這個功能就不是pytorch的內置功能可比的。
除此之外,還有reduce和repeat,也是很好用。
from einops import repeat import torch a = torch.randn(9, 9) # [9, 9] output_tensor = repeat(a, 'h w -> c h w', c=3) # [3, 9, 9]
指定c,就可以指定復制的層數了。
再看reduce:
from einops import reduce import torch a = torch.randn(9, 9) # [9, 9] output_tensor = reduce(a, 'b c (h h3) (w w2) -> b h w c', 'mean', h3=2, w2=2)
這里的'mean'指定池化方式。 相信你看得懂,不懂可留言提問~
einops也可以嵌套在pytorch的layer里,請看:
# example given for pytorch, but code in other frameworks is almost identical from torch.nn import Sequential, Conv2d, MaxPool2d, Linear, ReLU from einops.layers.torch import Rearrange model = Sequential( Conv2d(3, 6, kernel_size=5), MaxPool2d(kernel_size=2), Conv2d(6, 16, kernel_size=5), MaxPool2d(kernel_size=2), # flattening Rearrange('b c h w -> b (c h w)'), Linear(16*5*5, 120), ReLU(), Linear(120, 10), )
這里的Rearrange是nn.module的子類,直接可以當作網絡層放到模型里~
到此,關于“怎么用PyTorch的einops張量操作神器”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。