科技

史上最強AI被噴,馬斯克躺槍發推:我早就看不慣OpenAI

新智元報道

編輯:三石、元子

【新智元導讀】前幾日,OpenAI釋出史上最強“通用”NLP模型,但號稱過於強大怕被濫用而沒有開源,遭到網友猛懟、炮轟。而做為創始人之一的馬斯克,雖然早已離開董事會,礙於輿論,不得不站出來做出澄清:我早已退出。OpenAI釋出的史上最強NLP似乎成了負面新聞。

原因是,OpenAI並沒有公佈GPT-2模型及程式碼,只是象徵性的公佈了一個僅含117M引數的樣本模型及程式碼,給到的理由:因為這個模型能力太強大了!他們目前還有點hold不住它。一旦開源後被壞人拿到,將會貽害無窮。

之後有網友氣不過跑到馬斯克推特底下,叫罵OpenAI乾脆改名CloseAI。

然而,馬斯克卻連發數文,澄清與OpenAI的關係:我早已退出

馬斯克表示,已經有一年多的時間沒有和OpenAI密切合作了,並且也沒有管理層和董事會的監督。

而後有網友追問:“一直不知道你為何離開OpenAI,可否給予詳細的解釋說明?

馬斯克便又在推特上補充道:

我必須集中精力解決大量讓人頭疼的工程和製造問題,尤其是在特斯拉和SpaceX方面。

此外,特斯拉與OpenAI在人才爭奪方面也有一些交集,我並不同意其團隊想要做的一些事情。綜上所述,希望最好是友好分手

曾是人工智慧的反對者,卻創立高階AI公司 2015年12月,馬斯克與Y Combinator總裁Sam Altman共同創立這個非營利組織研究機構,以研究人工智慧的道德和安全問題。

然而,在親手創辦兩年多後,伊隆·馬斯克退出了OpenAI董事會。

雖然馬斯克於去年2月離開了該組織,但卻一直被認為是OpenAI主要資助者之一。

官博地址:

OpenAI在去年2月20日釋出的官方部落格中也提到:“馬斯克將離開OpenAI董事會,但仍將繼續為該組織提供捐贈和建議。隨著特斯拉將更加關注人工智慧,這將消除馬斯克未來潛在的衝突。”

值得注意的是,馬斯克一直是人工智慧最大的批評者之一。2014年在麻省理工學院演講時,他將人工智慧描述為“存在的最大威脅”,甚至稱之為“召喚惡魔”。

他還認為人工智慧甚至可以導致第三次世界大戰。他補充稱,大國之間都不會故意發動核戰爭,但人工智慧將是最有可能的、先發制人的取勝之道。

OpenAI稱模型使用15億引數,訓練一小時相當於燒掉一臺iPhone Xs Max(512G) 馬斯克之所以被@出來說明一個問題:Elon離開OpenAI的訊息,還有很多人不知道,或者知道他已經離開了董事會卻不知為何,導致他又特意出來發推澄清一下,順便又蹭了一下OpenAI最近的熱點。

OpenAI近日宣稱他們研究出一個GPT-2的NLP模型,號稱“史上最強通用NLP模型”,因為它是:

踩在15億引數的身體上:爬取了Reddit上點贊超過三票的連結的文字內容,大約用到1000萬篇文章,資料體量超過了40G,相當於35000本《白鯨記》。(注:小說約有21萬單詞,是電影《加勒比海盜》的重要故事參考來源之一。動漫《海賊王》裡四皇之一的白鬍子海賊團的旗艦就是以故事主角大白鯨的名字Moby Dick命名)。

無需預訓練的“zero-shot”:在更通用的資料集基礎上,使用自注意力模組遷移學習,不針對任何特定任務的資料進行訓練,只是作為最終測試對資料進行評估,在Winograd Schema、LAMBADA以及其他語言建模任務上實現了state-of-the-art 的結果。

最終結果:8個數據集中油7個重新整理當前最佳紀錄。

下表顯示了最先進的zero-shot結果。(+)表示該項分數越高越好。(-)表示分數越低越好。

雖然OpenAI沒有在論文中提及具體的計算力及訓練時間,但通過公佈的資料推測,他們的模型使用了256個Google雲TPU v3。

TPU v3在Google之外只提供單獨使用版本(排除OpenAI可能得到了特別的許可),很可能GPT-2訓練時所需的成本將高達8 * 256 = 2048美元/小時,相當於一小時燒掉一臺512G的iPhone Xs Max。

然而,OpenAI並沒有公佈GPT-2模型及程式碼,只是象徵性的公佈了一個僅含117M引數的樣本模型及程式碼,相當於他們宣稱使用的資料量的0.29%。(有興趣的讀者可以去 https://github.com/openai/gpt-2 檢視)

OpenAI給出的理由是:因為這個模型能力太強大了!他們目前還有點hold不住它。一旦開源後被壞人拿到,將會貽害無窮。有點中國武俠小說裡,絕世武功祕籍的意思。

面臨著實驗重現的危機,網友吐槽:不公開程式碼和訓練集就乾脆別發表! 於是開發者和學者們不幹了,紛紛質疑OpenAI這種做法顯得心口不一。甚至盛產吐槽大神的Reddit上,有人建議OpenAI乾脆改名CloseAI的言論,獲得了數百網友的點贊。

OpenAI乾脆改名“CloseAI”算了!

我也做了個超強大的MNIST模型,要不要擔心它被濫用而不公開呢?

更有甚者,比如下面這位Ben Recht,還發了一條Twitter長文進行嘲諷:

今天我要介紹我們的論文“Do ImageNet Classifiers Generalize to ImageNet?” 我們嘗試按照原論文描述復現其結果,但發現這樣做實在太難!

……我們完全可以基於一個不能公開的資料集構建一個超大模型,在我們自己的標準ML正規化中很難發生過擬合。

但是,測試集上的一個微小改動就會導致分佈結果大幅變化,你可以想見把模型和程式碼全都公佈出來以後會發生什麼!

PS 這篇論文還在arxiv等候稽核釋出,要不是我們的最終版PDF過大,那就是因為arxiv也學著OpenAI的做法,覺得AI/ML研究太過危險而不能公開

因為人工智慧這個蓬勃發展的領域正面臨著實驗重現的危機,AI研究者發現他們很難重現許多關鍵的結果。

針對主要會議上發表的400篇AI論文的調查顯示,只有6%的論文包含演算法的程式碼,約30%包含測試資料,54%包含虛擬碼。

CREDITS: (GRAPHIC) E. HAND/SCIENCE; (DATA) GUNDERSEN AND KJENSMO, ASSOCIATION FOR THE ADVANCEMENT OF ARTIFICIAL INTELLIGENCE 2018

去年,加拿大蒙特利爾大學的電腦科學家們希望展示一種新的語音識別演算法,他們希望將其與一名著名科學家的演算法進行比較。

唯一的問題:該benchmark的原始碼沒有釋出。研究人員不得不從已公開發表的描述中重現這一演算法。

但是他們重現的版本無法與benchmark聲稱的效能相符。蒙特利爾大學實驗室博士生Nan Rosemary Ke說:“我們嘗試了2個月,但都無法接近基準的效能。”

另外一群人更擔心GPT-2會導致假新聞出現井噴。OpenAI也拿DeepFake舉了個例子。

DeepFake由於其強大的影象生成能力,成了一個“假臉生成器/換臉器”,製造出大量惡意的虛假視訊、音訊和影象,最終被禁用。

比如這次,不懷好意的人完全可以藉助GPT-2,釋出有關Elon的假新聞,說他雖然公開宣稱去年就退出OpenAI,但實際上私下還在OpenAI身居要職,恐怕也會有很多人相信。

技術是把雙刃劍,越是強大的技術,一旦被用於壞用途,約可能造成更壞的結果。那麼在這場意外掀起的激烈爭論中,你站在哪一邊呢?

參考連結:

https://twitter.com/elonmusk/status/1096989482094518273?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1096989482094518273&ref_url=https%3A%2F%2Fwww.bloomberg.com%2Fnews%2Farticles%2F2019-02-17%2Felon-musk-left-openai-on-disagreements-about-company-pathway

【加入社群】

新智元AI技術+產業社群招募中,歡迎對AI技術+產業落地感興趣的同學,_2 入群;通過稽核後我們將邀請進群,加入社群后務必修改群備註(姓名 - 公司 - 職位;專業群稽核較嚴,敬請諒解)。

Reference:科技日報

看更多!請加入我們的粉絲團

轉載請附文章網址

不可錯過的話題