您好,登錄后才能下訂單哦!
本篇文章給大家分享的是有關工程師應該掌握的神經網絡架構,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。
神經網絡架構如下:
一、標準網絡
1 、感知器
感知器是所有神經網絡中最基礎的,是更復雜的神經網絡的基本構建塊。 它僅連接輸入單元和輸出單元。
2 、前饋網絡
前饋網絡是感知器的集合,其中存在三種基本類型的層-輸入層,隱藏層和輸出層。 在每個連接期間,來自上一層的信號乘以權重,加到偏置上,并通過激活函數。 前饋網絡使用反向傳播來迭代更新參數,直到達到理想的性能為止。
3 、殘留網絡(ResNet)
深度前饋神經網絡的一個問題稱為消失梯度問題,即當網絡太長而無法在整個網絡中反向傳播有用信息時。 隨著更新參數的信號通過網絡傳播,它逐漸減小,直到網絡前端的權重完全沒有改變或被利用為止。為了解決這個問題,殘差網絡采用了跳過連接,可以跨"跳躍的"層傳播信號。 通過使用不太容易受到影響的連接,可以減少消失的梯度問題。 隨著時間的流逝,網絡在學習特征空間時會學習恢復跳過的圖層,但由于其不易受到梯度消失的影響并且需要探索較少的特征空間,因此訓練效率更高。
二、循環網絡
4 、遞歸神經網絡(RNN)
遞歸神經網絡是一種特殊類型的網絡,它包含循環并在其自身上遞歸,因此稱為"遞歸"。 RNN允許將信息存儲在網絡中,使用先前訓練中的推理來做出有關即將發生的事件的更好,更明智的決策。 為此,它將先前的預測用作"上下文信號"。 由于其性質,RNN通常用于處理順序任務,例如逐個字母生成文本或預測時間序列數據(例如股票價格)。 他們還可以處理任何大小的輸入。
5 、長期短期記憶網絡(LSTM)
RNN存在問題,因為實際上上下文信息的范圍非常有限。 給定輸入對隱藏層(因此對網絡輸出)的影響(反向傳播錯誤),要么呈指數級爆發,要么隨著繞網絡連接循環而消失為零。 解決這個逐漸消失的梯度問題的方法是使用長短期內存網絡或LSTM。這種RNN架構是專門為解決消失的梯度問題而設計的,將結構與存儲塊配合在一起。 這些模塊可以看作是計算機中的存儲芯片-每個模塊都包含幾個循環連接的存儲單元和三個門(輸入,輸出和忘記,相當于寫入,讀取和重置)。 網絡只能通過每個門與單元交互,因此門學會了智能地打開和關閉,以防止梯度爆炸或消失,而且還可以通過"恒定錯誤輪播"傳播有用的信息,并丟棄無關的存儲內容。
在標準RNN無法得知輸入事件與目標信號之間存在大于五到十個時間步長的時滯的情況下,LSTM不會受到影響,并且可以通過強制執行有用的恒定錯誤流來學習將時滯甚至連成1,000個時步。
6 、回聲狀態網(ESN)
回聲狀態網絡是遞歸神經網絡的一種變體,具有非常稀疏的隱藏層(通常為百分之一的連接性)。 神經元的連通性和權重是隨機分配的,并且忽略層和神經元的差異(跳過連接)。 學習輸出神經元的權重,以便網絡可以產生和再現特定的時間模式。 該網絡背后的理由來自這樣一個事實:盡管它是非線性的,但訓練過程中唯一修改的權重是突觸連接,因此可以將誤差函數區分為線性系統。
三、卷積網絡
7 、卷積神經網絡(CNN)
圖像具有很高的維數,因此訓練一個標準的前饋網絡來識別圖像將需要成千上萬的輸入神經元,除了公然高昂的計算費用外,還可能引起許多與神經網絡的維數詛咒相關的問題 。 卷積神經網絡(CNN)通過使用卷積層和池化層來幫助降低圖像的維數,從而提供了解決方案。 由于卷積層是可訓練的,但是比標準隱藏層具有更少的參數,因此它能夠突出顯示圖像的重要部分并將它們向前傳遞。 傳統上,在CNN中,最后幾層是隱藏層,用于處理"壓縮圖像信息"。
8 、反卷積神經網絡(DNN)
顧名思義,反卷積神經網絡的作用與卷積神經網絡相反。 DNN不是執行卷積來減小圖像的維數,而是利用反卷積來創建圖像,通常是根據噪聲來進行的。 這是一項固有的艱巨任務。 考慮CNN的任務是為奧威爾(Orwell)1984年的整本書寫一個三句摘要,而DNN的任務是從三句結構寫整個本書。
9 、生成對抗網絡(GAN)
生成對抗網絡是一種專門設計用于生成圖像的特殊類型的網絡,它由兩個網絡(一個鑒別器和一個生成器)組成。 區分者的任務是區分是從數據集中提取圖像還是由生成器生成圖像,而生成者的任務是生成足夠有說服力的圖像,以使區分器無法區分其是否真實。隨著時間的流逝,經過精心的監管,這兩個對手彼此競爭,互相推動,成功地改善了彼此。 最終結果是訓練有素的生成器,可以吐出逼真的圖像。 鑒別器是一個卷積神經網絡,其目的是最大程度地提高識別真實/偽造圖像的準確性,而生成器是一個反卷積神經網絡,其目的是最小化鑒別器的性能。
10 、自動編碼器(AE)
自動編碼器的基本思想是獲取原始的高維數據,將其"壓縮"為高度信息化的低維數據,然后將壓縮后的形式投影到新的空間中。 自動編碼器有許多應用,包括降維,圖像壓縮,去噪數據,特征提取,圖像生成和推薦系統。 它既可以作為無監督方法也可以作為有監督方法,可以非常洞悉數據的性質。
11 、可變自動編碼器(VAE)
自動編碼器學習輸入的壓縮表示形式,例如可以是圖像或文本序列,方法是壓縮輸入然后將其解壓縮以匹配原始輸入,而變分自動編碼器(VAE)學習概率分布的參數 代表數據。 它不僅僅是學習表示數據的函數,還獲得了更詳細,細致的數據視圖,從分布中采樣并生成新的輸入數據樣本。 從這個意義上講,它更像是一種純粹的"生成"模型,例如GAN。
以上就是工程師應該掌握的神經網絡架構,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。