分享到微信打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”, |
第一財(cái)經(jīng) 2024-05-22 12:22:18 聽新聞
作者:錢童心 ? 呂倩 責(zé)編:李娜
OpenAI內(nèi)部不同陣營對AI的安全性分歧正在逐步暴露。
在OpenAI宣布向公眾免費(fèi)提供迄今為止最強(qiáng)大的人工智能模型GPT-4o后,OpenAI首席科學(xué)家蘇茨克維爾(Ilya Sutskever)及“超級對齊”團(tuán)隊(duì)負(fù)責(zé)人Jan Leike于上周相繼宣布辭職,理由是不認(rèn)可OpenAI領(lǐng)導(dǎo)層的“核心優(yōu)先事項(xiàng)”,且近幾個月來,團(tuán)隊(duì)“資源不足”,完成研究變得越來越困難。
“建造比人類更聰明的機(jī)器本質(zhì)上是一項(xiàng)危險(xiǎn)的工作,但在過去的幾年里,安全文化和流程已經(jīng)讓位于閃亮的產(chǎn)品。”Leike在社交平臺X上寫道。“對齊”或“超級對齊”是人工智能領(lǐng)域中使用的術(shù)語,指訓(xùn)練人工智能系統(tǒng)在人類需求和優(yōu)先事項(xiàng)范圍內(nèi)運(yùn)行的工作。
在Leike辭職前,蘇茨克維爾已經(jīng)宣布離職,這也宣告OpenAI的“對齊”團(tuán)隊(duì)正式解散。OpenAI表示,團(tuán)隊(duì)成員將被整合進(jìn)其他研究小組,以更好地幫助OpenAI實(shí)現(xiàn)其超級對齊目標(biāo)。
構(gòu)建AI本質(zhì)上是一項(xiàng)“危險(xiǎn)工作”
去年11月,OpenAI上演“宮斗劇”時,就曾傳出罷免CEO奧爾特曼(Sam Altman)的人正是蘇茨克維爾。
當(dāng)時雙方的矛盾在于,以奧爾特曼為代表的一群“激進(jìn)派”人士認(rèn)為人工智能的快速發(fā)展,尤其是公共部署對于AI的壓力測試和完善技術(shù)至關(guān)重要;而以蘇茨克維爾為代表的另一方則認(rèn)為,最安全的前進(jìn)道路是先在實(shí)驗(yàn)室里全面開發(fā)和測試人工智能,以確保它對人類來說是安全的。
這樣的爭論在自動駕駛誕生時已經(jīng)存在。人們究竟應(yīng)該讓自動駕駛在密集的城市道路上釋放能力,以便充分掌握自動駕駛汽車的功能和缺陷,還是應(yīng)該謹(jǐn)慎測試自動駕駛汽車,以防范不可知風(fēng)險(xiǎn),這一分歧至今尚無答案。
蘇茨克維爾曾被奧爾特曼稱為“世界上最受尊敬的研究人員之一”。特斯拉CEO馬斯克評價(jià)蘇茨克維爾,說他是一個正直的人,而且心地善良。
蘇茨克維爾不像奧爾特曼有那么高的曝光率,他更內(nèi)向,沉浸在自己的世界里。他說自己的生活很簡單,除了工作幾乎很少干別的,不是呆在家里就是在辦公室。
英偉達(dá)創(chuàng)始人CEO黃仁勛也與蘇茨克維爾認(rèn)識有十年之久。他稱,蘇茨克維爾十幾年前經(jīng)常開車從多倫多越過邊境到紐約去買一種叫做GTX 580的GPU芯片,英偉達(dá)有嚴(yán)格的政策,每人只能買一塊,但不知為何蘇茨克維爾獲得了一個后備箱的芯片。“他用裝滿了GPU的后備箱改變了世界。”黃仁勛表示。
但蘇茨克維爾謙虛地表示:“我想只要取得哪怕一點(diǎn)點(diǎn)的真正進(jìn)步,我就會認(rèn)為這是成功的。”
尋求阻止“超級智能”失控的方法
在OpenAI,蘇茨克維爾稱他的優(yōu)先事項(xiàng)不是“構(gòu)建下一個GPT版本”,而是找出如何阻止超級人工智能“失控”的方法。他認(rèn)為,ChatGPT可能是有“意識”的。他認(rèn)為,世界需要認(rèn)識到這種技術(shù)的真正力量,因?yàn)橛幸惶?,一些人類可能會選擇與機(jī)器融合。
這些看似瘋狂的話,現(xiàn)在聽起來并不像一兩年前那么瘋狂。ChatGPT已經(jīng)改變了很多人對即將發(fā)生的事情的期望,將“永遠(yuǎn)不會發(fā)生”變成“會比你想象的更快發(fā)生”。
蘇茨克維爾師從人工智能“教父”、計(jì)算機(jī)科學(xué)家杰弗里·辛頓(Geoffrey Hinton)。辛頓是圖靈獎得主,他在過去的十多年里幫助谷歌開發(fā)AI技術(shù)。
2012年,蘇茨克維爾與辛頓等人構(gòu)建了一個名為AlexNet的神經(jīng)網(wǎng)絡(luò),他們訓(xùn)練該網(wǎng)絡(luò)來識別照片中的物體,其效果遠(yuǎn)遠(yuǎn)好于當(dāng)時的任何其他軟件,甚至超過人類。這項(xiàng)研究被視為“深度學(xué)習(xí)的大爆炸時刻”。
后來,谷歌收購了辛頓的公司DNNresearch,蘇茨克維爾與辛頓一同加入谷歌。一年多后,蘇茨克維爾離開谷歌,與奧爾特曼一起創(chuàng)立了OpenAI。
辛頓去年也離開谷歌,轉(zhuǎn)而成為AI技術(shù)的“吹哨人”,拋出“AI末日言論”的觀點(diǎn)。他擔(dān)心人工智能技術(shù)的“未來版本”會對人類構(gòu)成威脅,因?yàn)?ldquo;它們經(jīng)常從分析的大量數(shù)據(jù)中學(xué)習(xí)到意想不到的行為”。例如,AI系統(tǒng)被允許不僅可以生成自己的計(jì)算機(jī)代碼,而且實(shí)際上可以自己運(yùn)行該代碼,這就會變得非??膳?。
在談到關(guān)于“超級智能”時,蘇茨克維爾認(rèn)為,具備超級智能的通用人工智能(AGI)可能會變得無法控制,從而導(dǎo)致災(zāi)難。這也是關(guān)注“有效利他主義”社會運(yùn)動的科技工作者的擔(dān)憂,他們認(rèn)為,人工智能的進(jìn)步應(yīng)該造福人類。
在蘇茨克維爾看來,AGI可以幫助人類做很多令人感到不可思議的事情,比如自動化醫(yī)療保健,成本可以便宜一千倍,效果可以提升一千倍。他認(rèn)為,“超級人工智能”會更深入地看待事物,會看到人類看不到的東西,但人類并不確定這到底意味著什么。
為了讓人工智能模型做人類希望它完成的事情,蘇茨克維爾與OpenAI的科學(xué)家Jan Leike等人領(lǐng)導(dǎo)團(tuán)隊(duì),致力于人工智能的“超級對齊”,目標(biāo)是提出一套用于構(gòu)建和控制這種未來技術(shù)故障的安全程序。Leike與蘇茨克維爾一起辭職,并稱“OpenAI將閃耀的產(chǎn)品置于安全性之上”。
盈利和安全風(fēng)險(xiǎn)如何平衡?
大部分人工智能科學(xué)家認(rèn)為,AI大模型尚未對人類產(chǎn)生即刻的風(fēng)險(xiǎn),但人類必須從現(xiàn)在開始就要做好準(zhǔn)備。谷歌首席科學(xué)家杰夫·迪恩(Jeff Dean)就表示:“不僅要關(guān)注大型語言模型的潛在機(jī)遇,還要關(guān)注其風(fēng)險(xiǎn)和缺點(diǎn),這一點(diǎn)非常重要。”
牛津大學(xué)互聯(lián)網(wǎng)研究院(OII)互聯(lián)網(wǎng)研究教授、貝利奧爾學(xué)院研究員威廉·達(dá)頓(William Dutton)接受第一財(cái)經(jīng)專訪時表示:“關(guān)于人工智能潛在風(fēng)險(xiǎn)的炒作非常多,但人們必須搞清楚到底何為風(fēng)險(xiǎn)、何為機(jī)會。這意味著我們需要更多的國際協(xié)同來了解人們對AI的想法。”
貝恩公司全球總裁曼尼·馬瑟達(dá)(Manny Maceda)近日在復(fù)旦管理學(xué)院管理大師論壇上表示:“新的經(jīng)濟(jì)模式正在出現(xiàn),凸顯了監(jiān)管和政策協(xié)調(diào)的重要性,以確保技術(shù)能夠被安全、負(fù)責(zé)任地部署,從而造福社會。”
他認(rèn)為,無論是什么領(lǐng)域的企業(yè),想要用好生成式人工智能技術(shù)并從中受益,需要進(jìn)行兩手抓:一方面,要確定用例的優(yōu)先順序,企業(yè)要充分考慮實(shí)施的復(fù)雜性和成本以及潛在影響;另一方面,企業(yè)要注重安全、隱私和知識產(chǎn)權(quán)。
清華大學(xué)國強(qiáng)教授、智能產(chǎn)業(yè)研究院首席研究員聶再清對記者表示:“感覺大模型技術(shù)的發(fā)展比想象中快,現(xiàn)階段AI沒有對人類造成即刻威脅,但確實(shí)需要更多關(guān)注如何保證機(jī)器能夠一直服務(wù)于人,而不會反過來被壞人利用。”
聶再清表示,相關(guān)工作和討論應(yīng)該關(guān)注大模型安全機(jī)制設(shè)計(jì),同時關(guān)注如何在資本和商業(yè)化過程中確保這些安全機(jī)制的執(zhí)行。“學(xué)界和工業(yè)界都需要開始投入部分精力到相應(yīng)的工作中,最后達(dá)成某種共識且有效的方式。”他說道,“底線是確保大模型服務(wù)于人類。但他同時強(qiáng)調(diào),在設(shè)計(jì)好AI的安全機(jī)制之后,繼續(xù)開發(fā)AI的能力還是非常重要的。
為應(yīng)對人工智能的倫理和挑戰(zhàn),目前全球監(jiān)管機(jī)構(gòu)都在針對由ChatGPT引爆的生成式AI設(shè)立監(jiān)管標(biāo)準(zhǔn),其中歐盟議會已經(jīng)批準(zhǔn)了首個全面的人工智能法案,而中國也已經(jīng)發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》。
上海交通大學(xué)行業(yè)研究院“人工智能+”行業(yè)團(tuán)隊(duì)負(fù)責(zé)人史占中教授對第一財(cái)經(jīng)記者表示:“生成式AI的安全性和倫理規(guī)范值得高度關(guān)注,需要建立和完善監(jiān)管制度。如果相關(guān)監(jiān)管制度逐步跟上,相信生成式AI會造福更多人類。”
史占中認(rèn)為,從政府的層面來講,要加快AI相關(guān)領(lǐng)域的立法,特別在金融、安全、健康等領(lǐng)域嚴(yán)格監(jiān)管,厘清AI的設(shè)計(jì)者、使用者、內(nèi)容生成者的權(quán)責(zé)關(guān)系,完善AI決策的問責(zé)機(jī)制,保護(hù)大眾合法權(quán)益;而從社會層面來講,應(yīng)加強(qiáng)AI技術(shù)的監(jiān)管,推進(jìn)AI研發(fā)者遵守倫理準(zhǔn)則與規(guī)范AI的發(fā)展。
隱私保護(hù)問題正在發(fā)生
比起擔(dān)憂未來,AI大模型帶來的安全問題正在發(fā)生。
中國科學(xué)院院士何積豐公開表示,大模型當(dāng)前面臨的安全問題主要涵蓋兩方面,分別是隱私保護(hù)和價(jià)值觀對齊兩大難題。
亞信安全高級副總裁陳奮表示,AGI工具將黑客生成新威脅的時間由之前的“數(shù)個月”縮減至幾小時甚至幾分鐘;同時,攻擊者開始利用大模型迅速發(fā)現(xiàn)軟件與服務(wù)中存在的漏洞;通過人臉深度偽造來實(shí)施網(wǎng)絡(luò)詐騙犯罪的案例也越來越多。更嚴(yán)重地,攻擊者的目標(biāo)正由傳統(tǒng)的數(shù)字資產(chǎn)轉(zhuǎn)向AI算力基礎(chǔ)設(shè)施和大模型。
“在安全監(jiān)測中,短短一年時間,針對大模型的攻擊手段已涌現(xiàn)出數(shù)十種不同的類型。”陳奮表示,攻擊者的步伐總是快防御者一步,他們可以快速通過AGI工具生成病毒代碼,挖掘漏洞。未來防御檢測需要由AI原生驅(qū)動,也許現(xiàn)在沒有做到百分之百,但會盡力實(shí)現(xiàn)全面集成。
大模型時代的安全攻擊目標(biāo)范圍也相應(yīng)發(fā)生了變化,攻擊者已經(jīng)在慢慢增加或轉(zhuǎn)移攻擊目標(biāo),如攻擊AI算力基礎(chǔ)設(shè)施,2024年便有一處美國幾千萬算力集群被黑客攻擊,攻破之后算力被用來挖掘比特幣。同時,可能受攻擊的群體也包括了家庭個人用戶,從傳統(tǒng)個人桌面、手機(jī)逐漸演化到智能家居、智能汽車,甚至未來每個家庭都有一個人工智能,這些人工智能該如何進(jìn)行保護(hù),也是需要提前防護(hù)的范圍。
對于AI倫理,陳奮對記者表示,AI safety更多是大模型算法公司,以及產(chǎn)業(yè)界共同努力的成果,不是單靠一家公司能夠?qū)崿F(xiàn)的。對該領(lǐng)域更多是技術(shù)發(fā)展規(guī)范的思考,對技術(shù)底層的要求,而不是單一商業(yè)化的事情。
不論是AI技術(shù)防護(hù)還是AI倫理問題,都需要產(chǎn)業(yè)鏈上下游的共同努力。亞信安全高級副總裁兼CDO吳湘寧對記者表示,大模型產(chǎn)業(yè)鏈非常長,最終落地過程中會發(fā)現(xiàn)有更多企業(yè)參與進(jìn)來,尤其是以大模型為基礎(chǔ)的周邊業(yè)態(tài)會更加豐富。真正做大模型的主要集中在幾個頭部,但整個利用大模型的企業(yè)或行業(yè)會越來越多,這就對整個AI安全生態(tài)提出新的要求,僅把大模型安全做得好沒有用。
但在當(dāng)下的節(jié)點(diǎn),建立全產(chǎn)業(yè)鏈針對AI安全的聯(lián)盟組織在吳湘寧看來難度有點(diǎn)大,行業(yè)目前也暫時沒有想清楚究竟該如何落地,各個位置均有自身的落地思路與探索過程,但參與方會盡力參與相關(guān)標(biāo)準(zhǔn)的制訂規(guī)劃。
抄底英偉達(dá)與否并非核心問題,關(guān)鍵在于技術(shù)的發(fā)展將加速“模型平價(jià)”(model parity),這將惠及更多消費(fèi)者。
第一財(cái)經(jīng)星翼大模型以DeepSeek V2.5為基座模型,結(jié)合多模態(tài)能力和財(cái)經(jīng)專業(yè)數(shù)據(jù),提供智能化財(cái)經(jīng)信息服務(wù)。
古特雷斯表示,在無監(jiān)管的情況下發(fā)展人工智能可能使人工智能被用作欺騙工具,擾亂經(jīng)濟(jì)和勞動力市場。
該模型可以通過可視化的方式展示整個思維鏈過程,能持續(xù)輸出全部推理過程,而不是直接給出答案。
林劍表示,之友小組將依托聯(lián)合國這個最具普遍性、權(quán)威性、代表性的政府間國際組織,打造人工智能能力建設(shè)的國際交流合作平臺。