亚洲中文字乱码免费播放,精品国产日韩专区欧美第一页,亚洲中文有码字幕青青,亚洲综合另类专区在线

          首頁 > 新聞 > 一財(cái)號(hào)

          分享到微信

          打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
          使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。

          OpenAI再陷“宮斗”:理想主義者是如何被擊碎的?

          2024-05-28 19:39:47 聽新聞

          作者:飯統(tǒng)戴老板    責(zé)編:高雅馨

          隨著OpenAI徹底告別伊利亞時(shí)代,奧特曼將繼續(xù)完成當(dāng)年未竟的野心。

          (本文作者飯統(tǒng)戴老板,財(cái)經(jīng)自媒體)

           

          6個(gè)月前,OpenAI爆發(fā)了一場舉世矚目的內(nèi)部斗爭:

          CEO奧特曼(Sam Altman)突然被開除,106個(gè)小時(shí)后,又在員工的簇?fù)硐聫?fù)職。

          自那之后,“刺殺國王”的始作俑者之一、首席科學(xué)家伊利亞(Ilya Sutskever),再也沒有現(xiàn)身。伊利亞是“深度學(xué)習(xí)教父”辛頓的大弟子,OpenAI的靈魂人物。消失前,他最后的工作,是帶領(lǐng)名為“超級(jí)對齊”的安全團(tuán)隊(duì)。

          GPT-4o發(fā)布會(huì)之后,伊利亞突然更新推文,宣布從OpenAI離職。首席科學(xué)家的退出,加速了OpenAI的分裂。

          3天后,另一位“超級(jí)對齊”的科學(xué)家簡·雷克(Jan Leike),也宣布提桶跑路。簡·雷克公開爆料稱,兩人與奧特曼等高層存在嚴(yán)重分歧,安全團(tuán)隊(duì)舉步維艱。

          OpenAI的文化正在“變質(zhì)”,忽視安全主義而轉(zhuǎn)向“閃亮的產(chǎn)品”。

          陸續(xù)有技術(shù)大牛選擇離開。

          一位OpenAI員工對著媒體說道,“注重安全的員工已經(jīng)對他失去了信心。信任正一點(diǎn)點(diǎn)崩潰,就像多米諾骨牌一張一張倒下一樣[1]。”

          眾所周知,OpenAI是一家由理想主義情結(jié)捏合起來的機(jī)構(gòu)。然而,對于如何實(shí)現(xiàn)這一理想,OpenAI內(nèi)部卻漸漸衍生出了兩條不同的路線。伊利亞的離開,意味著他所代表的理想主義,已經(jīng)徹底敗給了另一種理想主義。

          科學(xué)家與狂想家

          2005年的一個(gè)周日,多倫多大學(xué)教授辛頓的辦公室門外,來了個(gè)不速之客。

          來者是一位數(shù)學(xué)系的學(xué)生,操著一口東歐口音,表情似乎總是愁眉苦臉。彼時(shí),辛頓是極少數(shù)仍在研究深度學(xué)習(xí)的學(xué)者,并在多倫多大學(xué)組建了一個(gè)實(shí)驗(yàn)室。

          這個(gè)學(xué)生說,他整個(gè)夏天都在快餐店兼職炸薯?xiàng)l,現(xiàn)在他更想來這個(gè)實(shí)驗(yàn)室工作。

          辛頓打算考考這位急于展現(xiàn)自己的年輕人,給了他一份反向傳播的論文。這篇論文寫于上世紀(jì)80年代,是辛頓最知名的研究成果之一。幾天后,這個(gè)學(xué)生回來了,問他,“你為什么不求導(dǎo)并采用一個(gè)合理的函數(shù)優(yōu)化器?”

          辛頓倒吸了一口氣,“我花了5年時(shí)間才想到這一點(diǎn)。[2]”這個(gè)學(xué)生,就是伊利亞。

          辛頓發(fā)現(xiàn),伊利亞有種非常強(qiáng)大的原始直覺,能靠“第六感”找到正確的技術(shù)路線[2]。因此,辛頓將伊利亞視作唯一一個(gè)比自己更“天才”的學(xué)生[3]。

          并且,辛頓很快發(fā)現(xiàn),“技術(shù)天才”只是伊利亞身上的一個(gè)特質(zhì)。

          與伊利亞長期共事過的研究員謝爾蓋·萊文(Sergey Levine)曾說道,他喜歡大的想法,并且從不懼怕相信。“不怕的人有很多,但他尤其不怕。[2]”

          2010年,伊利亞在閱讀了一篇論文之后,便大膽宣稱,深度學(xué)習(xí)將改變計(jì)算機(jī)視覺——只需要有人來推動(dòng)這項(xiàng)研究。在那個(gè)深度學(xué)習(xí)等同于民科的時(shí)代,伊利亞這番發(fā)言,顯然是有些倒反天罡的。

          然而,他只花了2年,就打了所有人的臉。

          2012年,辛頓、伊利亞以及克里哲夫斯基三人打造的AlexNet,以高達(dá)84%的圖像識(shí)別正確率,讓世界看到了深度學(xué)習(xí)的潛力,并引發(fā)了產(chǎn)業(yè)界的狂熱追逐。

          那一年,谷歌花了4400萬美元的天價(jià),只為了將AlexNet的3位作者收入麾下。

          谷歌工作期間,伊利亞又開始相信一件更宏大的事情:超越人類的超級(jí)智能,已經(jīng)近在眼前。

          一方面,是因?yàn)樗l(fā)現(xiàn)深度學(xué)習(xí)的游戲規(guī)則變了。

          此前,研究深度學(xué)習(xí)的只有一小撮人,資源捉襟見肘。2009年時(shí),辛頓曾短暫地在微軟做過一個(gè)深度學(xué)習(xí)項(xiàng)目,連一張價(jià)值1萬美金的顯卡都申請不下來,氣得他一頓陰陽怪氣,“微軟顯然是家資金短缺的軟件銷售商。[2]”

          然而,自AlexNet之后,無數(shù)聰明頭腦與熱錢涌入,未來被加速了。

          另一方面,早在學(xué)生時(shí)期,伊利亞就堅(jiān)信Scaling laws。“第六感”告訴他,超級(jí)智能并沒那么復(fù)雜,只需要更多的數(shù)據(jù)與算力。

          并且,伊利亞又一次證明了自己是對的。

          2014年的NIPS學(xué)術(shù)會(huì)議上,伊利亞公布了他最新的研究成果:Seq2Seq(序列到序列)模型。Transformer誕生之前,它曾是谷歌機(jī)器翻譯的靈魂。只需要足夠的數(shù)據(jù),Seq2Seq模型就能表現(xiàn)得很好。

          伊利亞在路演中提到,一個(gè)弱模型永遠(yuǎn)不可能有好的表現(xiàn)。“真正的結(jié)論是,如果你有一個(gè)非常大的數(shù)據(jù)集和非常大的神經(jīng)網(wǎng)絡(luò),那么成功是有保證的。[4]”

          科學(xué)家與狂想家這兩張面孔,在伊利亞身上迸發(fā)了神奇的化學(xué)反應(yīng)。

          隨著伊利亞對超級(jí)智能越發(fā)篤信,他對安全問題的重視也與日俱增。沒過多久,伊利亞便遇見了知己。

          理想主義的天花板

          2015年,伊利亞收到投資機(jī)構(gòu)Y Combinator掌門人薩姆·奧特曼的邀請,前往硅谷的瑰麗酒店參與一場秘密聚會(huì)。然而,奧特曼并非這場秘密聚會(huì)的主角。

          馬斯克突然現(xiàn)身,告訴現(xiàn)場所有人,他打算成立一間AI實(shí)驗(yàn)室。

          促使馬斯克這么做的導(dǎo)火索,是數(shù)周前的44歲生日派對。

          當(dāng)時(shí),馬斯克邀請了谷歌CEO拉里·佩奇等一眾好友,去度假村玩了3天。晚飯過后,馬斯克與佩奇圍繞AI展開了激烈爭吵。馬斯克認(rèn)為AI會(huì)毀滅人類,而佩奇則不以為然,嘲諷他是個(gè)“物種主義者”,對硅基生命有偏見[5]。

          從那之后,馬斯克就不怎么和佩奇說話了。

          在秘密聚會(huì)的現(xiàn)場,馬斯克等人提到,很少有科學(xué)家會(huì)考慮自己研究的長期成果。如果任由谷歌這樣的大型企業(yè)壟斷AI技術(shù),很可能會(huì)在無意間造成巨大傷害。

          因此,他們提出了一種全新的形式:

          成立一間不受任何人控制、非營利的實(shí)驗(yàn)室。

          他們同樣會(huì)去追逐AGI(通用人工智能)的圣杯,但不以盈利為導(dǎo)向,且放棄大多數(shù)研究成果,轉(zhuǎn)而面向社會(huì)公開(open source)。馬斯克與奧特曼認(rèn)為,如果所有人都能獲得強(qiáng)大的AI,那么“惡意AI”的威脅將大大降低。

          “我能想到最好的事情,就是讓人類以更安全的方式構(gòu)建真正的AI。”另一位組織者布羅克曼(Greg Brockman)說道[6]。

          伊利亞被這個(gè)浪漫的想法打動(dòng)了。他為此放棄了年薪200萬美元的誘惑,毅然加入OpenAI。

          成立的頭15個(gè)月,OpenAI并沒有設(shè)立具體的戰(zhàn)略方向。谷歌科學(xué)家達(dá)里奧·阿莫迪(Dario Amodei),當(dāng)時(shí)曾拜訪過OpenAI,詢問在研究什么,OpenAI的管理層竟一時(shí)答不上來,“我們現(xiàn)在的目標(biāo)...是做點(diǎn)好事。[7]”

          幾個(gè)月后,阿莫迪跳槽去了OpenAI,一起做點(diǎn)好事。

          2017年3月,奧特曼等領(lǐng)導(dǎo)層意識(shí)到該更專注了。然而,在規(guī)劃AGI路線圖的時(shí)候,他們卻發(fā)現(xiàn)了一個(gè)嚴(yán)重的問題:算力跟不上了。大模型所需要的算力,每隔3-4個(gè)月就會(huì)翻一倍;非盈利機(jī)構(gòu)的形式,顯然不足以支撐。

          當(dāng)時(shí),馬斯克提出了一個(gè)提案:OpenAI并入特斯拉,由他完全掌管[8]。

          然而,馬斯克低估了奧特曼的野心。

          奧特曼一直在尋找重大的科學(xué)突破,希望憑此打造出一家價(jià)值萬億美金的企業(yè)。過去,YC最為人熟知的投資案例,是Airbnb。隨著奧特曼掌權(quán)之后,YC開始擠破腦袋尋找各種研究核聚變、人工智能、量子計(jì)算的公司。

          a16z創(chuàng)始人、風(fēng)險(xiǎn)投資家馬克·安德森曾表示,“在奧特曼的領(lǐng)導(dǎo)下,YC的野心水平提高了10倍。[9]”

          2018年2月,奧特曼將OpenAI管理層都拉攏到了自己的陣營。馬斯克從此離開了團(tuán)隊(duì),不再和奧特曼說話,并取消了對OpenAI的后續(xù)資助。

          兩個(gè)月后,奧特曼發(fā)布了OpenAI的公司章程。在不起眼的角落,他對公司愿景的表述,做了些小小的修改,“我們預(yù)計(jì)需要調(diào)動(dòng)大量資源來完成使命。”

          至此,曾經(jīng)那個(gè)高度理想主義的OpenAI,漸漸踏入了另一條河流。

          第一次分裂

          2019年2月,OpenAI對外公布了GPT-2,卻沒有第一時(shí)間對外開源。而后來的GPT-3,更徹底走向了閉源,OpenAI變成了CloseAI。

          一個(gè)月后,OpenAI又改變了“非盈利”的性質(zhì),成立了一個(gè)盈利部門,并接受了微軟10億美金的投資。

          突然的180度大轉(zhuǎn)向,使得OpenAI內(nèi)部開始分裂成兩個(gè)對立的派別:

          以達(dá)里奧·阿莫迪、伊利亞為代表的安全主義,認(rèn)為必須先確保AI不會(huì)威脅人類,再公開發(fā)布產(chǎn)品;

          而以奧特曼、布羅克曼為代表的加速主義,則希望加速AI的普及,從而讓更多人使用AI造福世界。

          從中可以看出,兩個(gè)派別的行事方式完全相反:

          安全主義主張先驗(yàn)證安全,再發(fā)布;而加速主義主張先擴(kuò)大市場,再根據(jù)測試結(jié)果與反饋進(jìn)行調(diào)整。

          前些日子發(fā)布的GPT-4o,就是典型的加速主義做派。發(fā)布會(huì)之前,OpenAI匿名發(fā)布了性能強(qiáng)大的模型“im-also-a-good-gpt2-chatbot”,引起了開發(fā)者社區(qū)的廣泛猜測與討論。

          事后證明,這模型就是GPT-4o的前身;而奧特曼故弄玄虛的目的,正是想讓吃瓜群眾幫他做測試。

          隨著分歧加劇,2021年,安全主義者、曾想一起做點(diǎn)好事的達(dá)里奧·阿莫迪,引發(fā)了OpenAI的第一次分裂。他認(rèn)為,OpenAI正從“勇者”變成“惡龍”,越來越商業(yè)化,忽視了安全主義。

          于是,他帶領(lǐng)著一批核心員工出走,成立了另一家AI公司Anthropic。

          阿莫迪將Anthropic定位成一家公益公司,這將使他們能夠同時(shí)追求商業(yè)利潤和社會(huì)責(zé)任。如今,Anthropic已成為OpenAI最大的競爭對手。

          達(dá)里奧·阿莫迪的離職,在OpenAI內(nèi)部造成了巨大動(dòng)蕩,但奧特曼仍試著努力維持兩個(gè)派別的平衡。

          直到ChatGPT的發(fā)布。

          一種理想主義的失敗

          ChatGPT是個(gè)臨時(shí)項(xiàng)目。

          當(dāng)時(shí),OpenAI正全力開發(fā)GPT-4。然而,有傳聞稱,阿莫迪的Anthropic正在開發(fā)聊天機(jī)器人。于是,奧特曼臨時(shí)指派員工,給現(xiàn)有的GPT-3.5也打造一個(gè)聊天界面。奧特曼將ChatGPT稱為“低調(diào)的研究預(yù)覽”,可以幫助OpenAI收集人類與AI交互的數(shù)據(jù)。

          當(dāng)時(shí),OpenAI內(nèi)部員工搞了個(gè)賭注池,猜1周內(nèi)能獲得多少用戶,最大膽的賭注是10萬人[11]。

          最終成績是100萬。

          2個(gè)月后,這個(gè)“低調(diào)的研究預(yù)覽”,成為了歷史上最快突破1億用戶的應(yīng)用程序。

          兩個(gè)派別的平衡被徹底打破了。

          一位內(nèi)部員工對媒體說道,“ChatGPT誕生后,OpenAI有了獲取收入的明確途徑。你不能再用‘理想主義的實(shí)驗(yàn)室’標(biāo)榜自己了,現(xiàn)在就有顧客希望得到服務(wù)。[12]”

          從學(xué)生時(shí)代開始,伊利亞就相信超級(jí)智能并不遙遠(yuǎn)。隨著ChatGPT引發(fā)行業(yè)追逐,他對安全的焦慮變重了,與其他加速主義管理層的矛盾也日趨嚴(yán)重。

          2022年OpenAI的節(jié)日派對上,伊利亞開始帶著所有員工高喊,“feel the AGI(感受AGI)”。在其他許多不同場合,他也反復(fù)說過這句話——仿佛超級(jí)智能已經(jīng)近在咫尺。

          去年宮斗之前,伊利亞曾告訴一位記者,ChatGPT可能是有意識(shí)的,世界需要認(rèn)識(shí)到這項(xiàng)技術(shù)真正的力量。

          這位媒體同志不止見過伊利亞一次,對他的印象并不算好:每次見面,他都會(huì)說很多極其瘋狂的話[13]。

          2023年7月,伊利亞啟動(dòng)了“超級(jí)對齊”項(xiàng)目,發(fā)起了對加速主義的最后反抗。

          在AI語境中,對齊(Alignment)并非某種黑話,而是一個(gè)專業(yè)術(shù)語,指讓前沿的AI系統(tǒng)與人類的意圖、價(jià)值觀對齊。然而,伊利亞認(rèn)為,超級(jí)智能的智慧程度將遠(yuǎn)超人類,人類智慧已經(jīng)不足以拿來當(dāng)作衡量的標(biāo)準(zhǔn)。

          他提到,當(dāng)年的AlphaGo是個(gè)典型的例子。

          它與李世石第二盤棋的第37手,下在了一個(gè)所有人都沒想到的位置。當(dāng)時(shí),連中國圍棋國手羋昱廷都在解說臺(tái)上驚呼,“這是什么鬼,沒擺錯(cuò)嗎?”事后看來,這手棋恰恰是奠定AlphaGo勝局的關(guān)鍵。

          連AlphaGo都如此捉摸不透,更遑論即將到來的超級(jí)智能。

          因此,伊利亞拉上同事簡·雷克,成立了“超級(jí)對齊”團(tuán)隊(duì)。工作內(nèi)容很簡單:在4年之內(nèi)打造一個(gè)強(qiáng)大的AI系統(tǒng),讓它代替人類智慧負(fù)責(zé)對齊工作,而OpenAI將為這個(gè)項(xiàng)目提供20%的算力。

          只可惜,奧特曼并沒有給安全主義反抗的機(jī)會(huì),沒有兌現(xiàn)20%算力的承諾。

          去年年底,伊利亞射出的最后一顆子彈,也未能擊中要害。當(dāng)伊利亞未能成功“刺殺國王”,他與OpenAI的結(jié)局就已經(jīng)注定了。

          尾聲

          GPT-4o發(fā)布之后,奧特曼重申了修改后的公司愿景:

          OpenAI使命的一部分,是將非常強(qiáng)大的AI工具免費(fèi)(或以優(yōu)惠的價(jià)格)提供給人們。他在博客中寫道,“我們是一家企業(yè),很多東西需要收費(fèi),這將有助于我們向數(shù)十億人(希望如此)提供免費(fèi)、出色的AI服務(wù)。[15]”

          2016年時(shí),《紐約客》曾發(fā)布了一篇關(guān)于奧特曼的特稿。

          當(dāng)時(shí),奧特曼最主要的身份,還是YC的掌門人。實(shí)際采訪時(shí),《紐約客》記者在奧特曼身上感受到了一種侵略性。

          “他正在硅谷內(nèi)迅速建立起一種新的經(jīng)濟(jì),這種經(jīng)濟(jì)似乎旨在取代原本的硅谷。[9]”

          如今,隨著OpenAI徹底告別伊利亞時(shí)代,奧特曼將繼續(xù)完成當(dāng)年未竟的野心。

           

          參考資料

          [1]"I lost trust": Why the OpenAI team in charge of safeguarding humanity imploded, Vox

          [2]Geoffrey Hinton | On working with Ilya, choosing problems, and the power of intuition,Sana

          [3]深度學(xué)習(xí)革命,凱德·梅茨

          [4]NIPS: Oral Session 4 - Ilya Sutskever, Microsoft Research

          [5]Ego, Fear and Money: How the A.I. Fuse Was Lit, New York Times

          [6]Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free,Wired

          [7]The messy, secretive reality behind OpenAI's bid to save the world,MIT Technology Review

          [8]The secret history of Elon Musk, Sam Altman, and OpenAI,Semafor

          [9]Sam Altman's Manifest Destiny, The New Yorker

          [10]AI researchers debate the ethics of sharing potentially harmful programs,The Verge

          [11]Inside the White-Hot Center of A.I. Doomerism, New York Times

          [12]Inside the Chaos

          [13]Rogue superintelligence and merging with machines: Inside the mind of OpenAI’s chief scientist,MIT Technology Review

          [14]OpenAI Wants to Harness AI. It Should Pause Instead,The Information

          [15]GPT-4o,Sam Altman

           

          (本文作者飯統(tǒng)戴老板,財(cái)經(jīng)自媒體)

          本文僅代表作者觀點(diǎn)。

          舉報(bào)
          一財(cái)最熱
          點(diǎn)擊關(guān)閉