中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

發布時間:2020-08-15 21:13:52 來源:ITPUB博客 閱讀:173 作者:AIBigbull2050 欄目:互聯網科技
  2020-06-06 14:58:59
金磊 發自 凹非寺
量子位 報道 | 公眾號 QbitAI

AI算法的發展,真有那么迅猛嗎?

為了一探究竟,來自MIT的研究人員,便對 81種AI算法做了橫測,結果令人大跌眼鏡:

沒有明確證據表明,這些算法在10年內,對任務效果有明顯改善。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

針對類似的問題,Science最近也發文表示:

人工智能在某些領域的進步引人注目,但這并不是真正的進步。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

那么,這到底是怎么一回事?

“是微調,不是核心創新”

MIT研究人員橫測的對象,是81種 剪枝算法

這類算法簡單來說,就是對神經網絡的連接做“修修剪剪”,以此來提高效率。

然而,這種算法的發展現狀,正如Science發文作者Matthew Hutson所說:

很多科研工作者就在此之上,做了些許“微調”,然后就宣稱自己的算法具有優勢。

因此,MIT的研究人員便對這些算法做了 元分析,還提出了一種框架—— ShrinkBench,用來促進剪枝算法的標準化評估。

真正的好算法,需要經得起考驗,那么結果又如何呢?

第一輪考驗:剪枝 vs 架構

研究人員基于ImageNet,繪制了剪枝后模型的準確率和壓縮/加速水平,以及沒有做過剪枝、不同架構的相同指標,結果如下圖所示。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

不難看出,一個給定架構經過剪枝后,可以改善其時間/空間與精度之間的權衡,有時候還可以提高精度。

但剪枝的效果,通常 不如換個架構效果來得好。

第二輪考驗:“同行”算法比較

這一維度的考慮,是因為研究人員發現,許多工作都高舉“SOTA”旗幟,然而比較的對象卻不全。

很明顯的現象就是,缺少與2010年之前提出的算法的比較,甚至都沒有跟其它號稱SOTA的算法做對比,如下圖所示。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

第三輪考驗:數據集和架構的組合

在81篇論文中,ImageNet和VGG-16的組合最為常見,并且,在前六種最常見的組合中,有三種涉及MNIST。

但MNIST與其它主流圖像分類數據集有很大的區別:它的圖像是灰度的,大部分是由0組成,用簡單的模型進行分類,準確率就可以達到99%以上。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

第四輪考驗:度量指標

還有五花八門的度量指標,啥也不說了,直接上圖。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水
別再SOTA了,那叫“微調”!Science發文炮轟論文灌水
別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

當然,還有諸如數據預處理、調參策略等一系列問題,都會導致結果的不同。

研究一作Davis Blalock表示:

這些改進都是所謂的“微調”,而不是科研人員聲稱的“核心創新”,甚至有些改進方法可能根本就不存在。

于是乎,MIT的研究人員便開發了一套 方便開發標準化評價神經網絡的剪枝方法。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

ShrinkBench提供了標準化和可擴展的功能,可以用于訓練、剪枝、微調、計算度量和繪圖,而且都是使用 標準化的預訓練模型和數據集

正如另一位作者John Guttag所說:

如果你不能衡量某種東西,就很難讓它往好的方向發展。

好了,現在要是再想在剪枝算法上,稍微搞個小進展就水一篇論文,可能不再那么容易了。

Science發文炮轟水論文

最近,Science也針對“水論文”一事發表文章,認為人工智能領域中的許多分支,其發展都是不穩定的:

  • 2019年,對搜索引擎中使用的信息檢索算法進行的一項元分析,得出了一個“高水位線”(high-water mark),然而,它早在2009年就有了;
  • 同樣是2019年,另外一項研究復現了7個神經網絡推薦系統,結果,其中6個系統的表現,還沒有多年前開發的更簡單的非神經網絡算法好;
  • 今年2月,卡內基梅隆大學的計算機科學家Zico Kolter在arXiv發表論文,他發現早期的對抗訓練方法PGD,只需要用簡單的小技巧增強一下,就能達到目前所謂更新、更復雜方法的效果;
  • 今年3月,康奈爾大學的計算機科學家Kevin Musgrave,在arXiv上發表了一篇論文研究了損失函數,在一項涉及圖像檢索的任務中,他對其中十幾個算法進行了平等的比較,結果發現,與這些科研工作者的說辭恰巧相反,自2006年以來,準確率就沒有提高過。
別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

正如Musgrave表示:

炒作浪潮一直存在。

反觀那些經久不衰的算法,像 LSTM,自1997年被提出后,在語言翻譯任務中取得了重大突破。

如果LSTM得到適當的訓練,它的性能就能和20年后(現在)的算法相當。

類似的還有像2014年提出的 GAN,大幅提高了生成圖像的能力。在2018年的一篇報告稱,只要有足夠的計算量,原有的GAN方法可以與后來的方法相媲美。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

對此,Kolter認為,研究人員應當熱衷于開創全新的算法,讓這個新算法達到SOTA效果,而不是對現有算法做調整。

那么,如今這種論文灌水背后的原因,又是什么呢?

其中一個因素,便是MIT研究人員所指出的 評估標準問題——數據集不同、調整方法不同、性能指標和基線都不同,這種比較是不可行的。

而另外一個原因,便是 AI領域的爆炸性增長,論文數量遠超有經驗的審稿人數,評審人員應當堅持跟一個合理、科學的基準,做更好的比較。

比論文灌水更可怕的,是造假

以為學術亂象只有這些?

不,還有一股“造假風”。

5月20日,國外網友便曝出了一個學術造假大事件:

8篇文章,不同作者,不同醫院,不同癌癥種類,不同蛋白表達,愣是完全一樣的結果,發了8篇論文。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

UAB醫學院糖尿病中心博士后研究員、營養學博士,微博網友“晨光us”對此表示:

如此喪心病狂的造假,簡直讓人看得窒息。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

然而,更令人悲哀的是,論文作者全部來自中國……

而且從文章署名來看,從一線醫生到主任副主任醫師、醫院副院長,還有多篇是國家自然科學基金資助。

如此造假,簡直不簡單。

網友也表示:

突破了我對學術造假的所有認知。

別再SOTA了,那叫“微調”!Science發文炮轟論文灌水

無獨有偶,前不久在知乎中還曝出南京郵電大學教授,三年半發表300篇IEEE論文,一時成為熱議話題。

其弟子“黃同學”論文造假、冒充北大學生,也一并上了熱搜。

……

如此學術亂象,你怎么看?

傳送門:

ShrinkBench項目地址:
https://github.com/jjgo/shrinkbench

ShrinkBench論文地址:
https://arxiv.org/abs/2003.03033

參考鏈接:

https://www.sciencemag.org/news/2020/05/eye-catching-advances-some-ai-fields-are-not-real

https://weibo.com/roger1130?referflag=0000015010&from=feed&loc=nickname&is_hot=1#_rnd1591086111501

https://twitter.com/MicrobiomDigest/status/1266140721716719616

https://www.zhihu.com/question/397548354/answer/1248933002

https://www.toutiao.com/i6835125799020921355/

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

龙州县| 芷江| 沽源县| 富裕县| 玉环县| 鹤峰县| 南召县| 巴林左旗| 平顺县| 吉隆县| 石狮市| 霍林郭勒市| 隆尧县| 桃江县| 琼结县| 昭觉县| 博乐市| 即墨市| 商丘市| 赫章县| 元阳县| 霸州市| 巴楚县| 淮南市| 密山市| 观塘区| 邮箱| 台北市| 阿勒泰市| 呼伦贝尔市| 化德县| 金秀| 德州市| 龙门县| 平湖市| 长治县| 同仁县| 阿坝县| 广丰县| 连山| 诏安县|