您好,登錄后才能下訂單哦!
本篇文章為大家展示了PyTorch1.3和TensorFlow 2.0的示例分析,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。
盡管如此,我還是認為PyTorch對研究者更加友好,更適合快速實現新方法,并且改進了與C++的兼容性。TensorFlow的優勢仍然是Google生態系統(TFLite,Android的TFLite,TPU等)的集成。但是,無論我使用哪個,仍然存在很多問題,這些問題主要與Python相關。
PyTorch聲稱它不是用于C++框架的API,然而,一旦構建它,和Cython以及Numba一起使用,就可以了。如果我們通過名為TensorFlow.jl的Julia API 使用TensorFlow,那么我們就不再面臨任何懸而未決的問題,因為Julia的內存管理要好得多。
更一般而言,深度學習模型的許多緩慢現象是由內存I/O引起的。不管我們是做對象檢測還是關鍵點注釋,以及想要實時顯示,這些幾乎都沒問題。只需考慮在視頻流上運行的任何內容。與加快應用于此的深度學習模型速度相比,克服內存I/O問題要付出更多的努力(這是我的部分日常工作)。
那么,深度學習框架發展會走向何方呢?自動區分仍然是一個巨大的問題,尤其是對于真正罕見的功能。使用Swift進行TensorFlow實驗,PyTorch?誰知道呢,他們要往哪里前進。
我不是C++的忠實擁護者(我更喜歡C而不是C++),因為它容易出錯,可能導致安全問題。即使人們可能傳輸了所有的編碼采訪而構建了有缺陷的C++軟件(是的,我強烈反對編碼采訪),人們還是應該正確地學習它,反復強調是無濟于事的。
在HPC(高性能計算)中,許多軟件已經或者正從FORTRAN遷移到C++,我不明白。因為將經過良好測試的FORTRAN代碼遷移到(未經測試的)C++對我來說沒有任何意義。改變一種編程語言到另一種極其相似的語言,為什么多此一舉?我仍然認為,從長遠來看,Rust(適用于系統級和GUI的所有產品)和Julia(適用于機器學習)的組合將獲得成功。
目前正在使用的是什么?好吧,我已經從TensorFlow/Keras切換到以PyTorch為主,因為我需要太多的自定義/非標準功能。但這并不意味著我不再使用TensorFlow/Keras。在2020年,我希望朝著僅使用Julia框架邁進。
上述內容就是PyTorch1.3和TensorFlow 2.0的示例分析,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。