您好,登錄后才能下訂單哦!
這篇文章主要介紹“python如何通過深層神經網絡生成音樂”,在日常操作中,相信很多人在python如何通過深層神經網絡生成音樂問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”python如何通過深層神經網絡生成音樂”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
我們將使用ABC音樂符號。ABC記譜法是一種簡寫的樂譜法,它使用字母a到G來表示音符,并使用其他元素來放置附加值。這些附加值包括音符長度、鍵和裝飾。
這種形式的符號開始時是一種ASCII字符集代碼,以便于在線音樂共享,為軟件開發人員添加了一種新的簡單的語言,便于使用。以下是ABC音樂符號。
樂譜記譜法第1部分中的行顯示一個字母后跟一個冒號。這些表示曲調的各個方面,例如當文件中有多個曲調時的索引(X:)、標題(T:)、時間簽名(M:)、默認音符長度(L:)、曲調類型(R:)和鍵(K:)。鍵名稱后面代表旋律。
在本文中,我們將使用諾丁漢音樂數據庫ABC版上提供的開源數據。它包含了1000多首民謠曲調,其中絕大多數已被轉換成ABC符號:http://abc.sourceforge.net/NMD/
數據當前是基于字符的分類格式。在數據處理階段,我們需要將數據轉換成基于整數的數值格式,為神經網絡的工作做好準備。
這里每個字符都映射到一個唯一的整數。這可以通過使用一行代碼來實現。“text”變量是輸入數據。
char_to_idx = { ch: i for (i, ch) in enumerate(sorted(list(set(text)))) }
為了訓練模型,我們使用vocab將整個文本數據轉換成數字格式。
T = np.asarray([char_to_idx[c] for c in text], dtype=np.int32)
在傳統的機器學習模型中,我們無法存儲模型的前一階段。然而,我們可以用循環神經網絡(通常稱為RNN)來存儲之前的階段。
RNN有一個重復模塊,它從前一級獲取輸入,并將其輸出作為下一級的輸入。然而,RNN只能保留最近階段的信息,因此我們的網絡需要更多的內存來學習長期依賴關系。這就是長短期記憶網絡(LSTMs)。
LSTMs是RNNs的一個特例,具有與RNNs相同的鏈狀結構,但有不同的重復模塊結構。
這里使用RNN是因為:
數據的長度不需要固定。對于每一個輸入,數據長度可能會有所不同。
可以存儲序列。
可以使用輸入和輸出序列長度的各種組合。
除了一般的RNN,我們還將通過添加一些調整來定制它以適應我們的用例。我們將使用“字符級RNN”。在字符RNNs中,輸入、輸出和轉換輸出都是以字符的形式出現的。
由于我們需要在每個時間戳上生成輸出,所以我們將使用許多RNN。為了實現多個RNN,我們需要將參數“return_sequences”設置為true,以便在每個時間戳上生成每個字符。通過查看下面的圖5,你可以更好地理解它。
在上圖中,藍色單位是輸入單位,黃色單位是隱藏單位,綠色單位是輸出單位。這是許多RNN的簡單概述。
為了處理每個時間戳的輸出,我們創建了一個時間分布的全連接層。為了實現這一點,我們在每個時間戳生成的輸出之上創建了一個時間分布全連接層。
通過將參數stateful設置為true,批處理的輸出將作為輸入傳遞給下一批。在組合了所有特征之后,我們的模型將如下面圖6所示的概述。
模型體系結構的代碼片段如下:
model = Sequential() model.add(Embedding(vocab_size, 512, batch_input_shape=(BATCH_SIZE, SEQ_LENGTH))) for i in range(3): model.add(LSTM(256, return_sequences=True, stateful=True)) model.add(Dropout(0.2)) model.add(TimeDistributed(Dense(vocab_size))) model.add(Activation('softmax')) model.summary() model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
我強烈建議你使用層來提高性能。
Dropout層是一種正則化技術,在訓練過程中,每次更新時將輸入單元的一小部分歸零,以防止過擬合。
音樂的生成是一個多類分類問題,每個類都是輸入數據中唯一的字符。因此,我們在我們的模型上使用了一個softmax層,并將分類交叉熵作為一個損失函數。
這一層給出了每個類的概率。從概率列表中,我們選擇概率最大的一個。
為了優化我們的模型,我們使用自適應矩估計,也稱為Adam,因為它是RNN的一個很好的選擇。
到目前為止,我們創建了一個RNN模型,并根據我們的輸入數據對其進行訓練。該模型在訓練階段學習輸入數據的模式。我們把這個模型稱為“訓練模型”。
在訓練模型中使用的輸入大小是批大小。對于通過機器學習產生的音樂來說,輸入大小是單個字符。所以我們創建了一個新的模型,它和""訓練模型""相似,但是輸入一個字符的大小是(1,1)。在這個新模型中,我們從訓練模型中加載權重來復制訓練模型的特征。
model2 = Sequential() model2.add(Embedding(vocab_size, 512, batch_input_shape=(1,1))) for i in range(3): model2.add(LSTM(256, return_sequences=True, stateful=True)) model2.add(Dropout(0.2)) model2.add(TimeDistributed(Dense(vocab_size))) model2.add(Activation(‘softmax’))
我們將訓練好的模型的權重加載到新模型中。這可以通過使用一行代碼來實現。
model2.load_weights(os.path.join(MODEL_DIR,‘weights.100.h6’.format(epoch))) model2.summary()
在音樂生成過程中,從唯一的字符集中隨機選擇第一個字符,使用先前生成的字符生成下一個字符,依此類推。有了這個結構,我們就產生了音樂。
下面是幫助我們實現這一點的代碼片段。
sampled = [] for i in range(1024): batch = np.zeros((1, 1)) if sampled: batch[0, 0] = sampled[-1] else: batch[0, 0] = np.random.randint(vocab_size) result = model2.predict_on_batch(batch).ravel() sample = np.random.choice(range(vocab_size), p=result) sampled.append(sample) print("sampled") print(sampled) print(''.join(idx_to_char[c] for c in sampled))
我們使用被稱為LSTMs的機器學習神經網絡生成這些令人愉快的音樂樣本。每一個片段都不同,但與訓練數據相似。這些旋律可用于多種用途:
通過靈感提升藝術家的創造力
作為開發新思想的生產力工具
作為藝術家作品的附加曲調
完成未完成的工作
作為一首獨立的音樂
但是,這個模型還有待改進。我們的訓練資料只有一種樂器,鋼琴。我們可以增強訓練數據的一種方法是添加來自多種樂器的音樂。另一種方法是增加音樂的體裁、節奏和節奏特征。
目前,我們的模式產生了一些假音符,音樂也不例外。我們可以通過增加訓練數據集來減少這些錯誤并提高音樂質量。
到此,關于“python如何通過深層神經網絡生成音樂”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。