分享到微信打開微信,點擊底部的“發(fā)現(xiàn)”, |
當前,人工智能(AI)產(chǎn)業(yè)隨著生成式AI的出現(xiàn)展現(xiàn)出巨大發(fā)展動能和創(chuàng)新潛力,已經(jīng)逐漸成為新一輪科技革命和產(chǎn)業(yè)變革的核心驅(qū)動力,它的應用涉及醫(yī)療、交通、教育、金融、制造業(yè)等眾多社會領(lǐng)域,將重塑人們的生產(chǎn)生活方式,成為未來國際競爭的決定性領(lǐng)域之一。
然而,一方面,AI新產(chǎn)業(yè)、新業(yè)態(tài)、新模式、新技術(shù)的發(fā)展對于科技倫理、社會公共道德、總體國家安全及各領(lǐng)域法律秩序都構(gòu)帶來不同程度的挑戰(zhàn),甚至是顛覆式的挑戰(zhàn);另一方面,我國AI技術(shù)與產(chǎn)業(yè)仍處于發(fā)展初期,與美國等發(fā)達國家相比還存在一定的差距。因此,在規(guī)范健康安全的軌道上大力推動AI產(chǎn)業(yè)發(fā)展,在關(guān)鍵期搶占AI產(chǎn)業(yè)發(fā)展先機,是我國面臨的重要任務。2023年7月10日,國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合簽發(fā)了《生成式AI服務管理暫行辦法》(下稱《暫行辦法》)。從4月11日公布《暫行辦法(征求意見稿)》到《暫行辦法》的正式頒布,僅3個月的時間,其速度之快足以見得我國對支持和規(guī)范AI技術(shù)和產(chǎn)業(yè)發(fā)展的積極態(tài)度與重視程度。
8月15日起即將施行的《暫行辦法》分為總則、技術(shù)發(fā)展與治理、服務規(guī)范、監(jiān)督檢查和法律責任、附則等五章,從立法框架來看,《暫行辦法》調(diào)整了征求意見稿的邏輯與順序,更加模塊化與體系化,明確了對生成式AI服務的監(jiān)管思路,為后續(xù)對生成式AI服務的監(jiān)管明確了思路、確立了方向。
在總則中,《暫行辦法》明確了其上位法依據(jù)、適用范圍、國家對生成式AI的基本立場、治理原則以及提供和使用生成式AI應當遵守的基本依據(jù)。與征求意見稿相比,總則中改動最大的一點是明確了對生成式AI的監(jiān)管原則與方法,即“堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則”“對生成式AI服務實行包容審慎和分類分級監(jiān)管”。
這體現(xiàn)出我國對支持AI規(guī)范發(fā)展的核心理念:第一,面對AI產(chǎn)業(yè)發(fā)展的關(guān)鍵期,我國將始終在總體國家安全觀的指導下,將安全作為AI產(chǎn)業(yè)發(fā)展的底線,使AI在法治軌道上實現(xiàn)健康可持續(xù)的創(chuàng)新發(fā)展。
第二,對生成式AI的治理延續(xù)了《數(shù)據(jù)安全法》《關(guān)于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》中對于數(shù)據(jù)和算法的分類分級管理理念,一方面是加強AI治理領(lǐng)域的連續(xù)性與一致性,貫徹分類分級監(jiān)管原則,推動監(jiān)管更加精準、高效、敏捷;另一方面是更好地銜接與推動《暫行辦法》中構(gòu)建的具體制度的實施,譬如《暫行辦法》第4條規(guī)定的基于服務類型特點提高服務透明度和生成內(nèi)容的準確性和可靠性,以及第17條規(guī)定的安全評估與算法備案制度等事前審查手段,都需要對AI進行分類分級以明確應當采取的措施和審查范圍與方法,防止增加服務提供者負擔,阻礙創(chuàng)新。
第三,《暫行辦法》總則依然體現(xiàn)了“科技向善原則”,要求利用生成式AI生成的內(nèi)容應當體現(xiàn)社會主義核心價值觀,注重對算法、知識產(chǎn)權(quán)、商業(yè)道德和個人權(quán)益的保護,體現(xiàn)了對生成式AI的倫理要求。
在第二章技術(shù)發(fā)展與治理中,主要遵循堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則,從鼓勵生成式AI研發(fā)與應用創(chuàng)新和對生成式AI技術(shù)本身的要求出發(fā)做出了規(guī)定。
《暫行辦法》第7條、第8條則規(guī)定了生成式AI服務提供者應保證數(shù)據(jù)來源的合法性和數(shù)據(jù)標注義務,結(jié)合公共訓練數(shù)據(jù)資源平臺的建設(shè)以及生成式AI技術(shù)發(fā)展的本質(zhì)要求,不難看出,隨著生成式AI的廣泛使用,個人數(shù)據(jù)的收集、存儲和處理變得非常普遍,因此,通過AI的源頭數(shù)據(jù)賦能生成式AI大模型訓練就顯得非常必要,由此防范數(shù)據(jù)風險,則是堅持生成式AI發(fā)展與安全并存的關(guān)鍵所在。實踐中由于公共數(shù)據(jù)維度豐富、使用場景廣、覆蓋用戶主體多,且切實關(guān)乎人們的吃穿住行用,在平臺建設(shè)過程中需要重點注意兩個問題,一方面是保障數(shù)據(jù)安全,包括提升數(shù)據(jù)來源的真實性、可靠性,可以依托不同的應用場景開展訓練數(shù)據(jù)工作;另一方面是完善數(shù)據(jù)基礎(chǔ)制度,包括對公共數(shù)據(jù)的界定、公共數(shù)據(jù)分級分類等。
第三章服務規(guī)范著重于規(guī)定生成式AI服務提供者在生成式AI的應用環(huán)節(jié)應承擔的責任,這也是與廣大生成式AI服務使用者、消費者息息相關(guān)的一部分。服務規(guī)范章明確了生成式AI服務提供者應當依法承擔網(wǎng)絡信息內(nèi)容生產(chǎn)者責任,體現(xiàn)了與《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》的銜接,規(guī)定了服務提供者保護個人信息、科學引導和管理用戶、生成內(nèi)容標識、保障服務、違法救濟措施、構(gòu)建投訴舉報機制等義務,細化了服務提供者責任。
需要注意的是,對于僅提供生成式AI服務和產(chǎn)品,而不實際參與研發(fā)的服務提供者,其是否有能力對生成式AI產(chǎn)品進行有效控制與實質(zhì)合規(guī),是否應同樣承擔網(wǎng)絡信息內(nèi)容生產(chǎn)者責任?或者是否有必要區(qū)分相對于普通用戶而言的研發(fā)者與服務提供者在網(wǎng)絡信息內(nèi)容生成中的責任認定標準,以及采用怎樣的責任承擔比例,這一點還有待進一步細化。在實踐中,由于算法黑箱與AI自主性的存在,技術(shù)中立原則已經(jīng)難以成為免責的“避風港”,AI產(chǎn)品產(chǎn)生的侵權(quán)責任具有了多源性,應對網(wǎng)絡信息內(nèi)容生產(chǎn)者進行更加明確的界定,合理地設(shè)置責任承擔范圍。同時,也需要對個人信息處理者在生成式AI服務領(lǐng)域的認定進一步細化。
由于算法黑箱、算法隱層和AI相對自主性的存在,傳統(tǒng)的監(jiān)管方案與規(guī)則制度難免失靈或者說監(jiān)管不及時,在監(jiān)督檢查和法律責任一章則在分類分級原則的基礎(chǔ)上,與《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》等規(guī)范相銜接,明確了安全評估與算法備案要求,強化了對數(shù)據(jù)來源、算法機制機理等內(nèi)容的信息披露要求,以應對算法黑箱困境、提高AI的透明度。
然而,實踐中AI算法的透明度并非越高越好,一方面,絕對的透明在AI自主性逐漸提高的弱AI時代,幾乎是無法達到的技術(shù)要求;另一方面,AI算法機理等內(nèi)容已經(jīng)逐漸成為企業(yè)的核心資產(chǎn),部分內(nèi)容涉及商業(yè)秘密與專利權(quán)的保護,追求絕對的透明度對于生成式AI的發(fā)展并不可取,也并不符合國家支持鼓勵創(chuàng)新的基本立場。因此,《暫行辦法》增加了參與生成式AI服務安全評估和監(jiān)督檢查的相關(guān)機構(gòu)和人員對國家秘密、商業(yè)秘密、個人隱私和個人信息的保密義務,平衡了對AI創(chuàng)新的保護與監(jiān)管之間的張力。
縱觀整部《暫行辦法》,主要聚焦于事前規(guī)制,或者說是預防性監(jiān)管,對生成式AI服務產(chǎn)生不當內(nèi)容后如何進行解決,《暫行辦法》并未提供有效解決辦法。這在一定程度上講《暫行辦法》更多的是在聚焦發(fā)展目標,很多監(jiān)管要求和責任都是在現(xiàn)有法律法規(guī)基礎(chǔ)上的場景化,即通過立法銜接和對照來規(guī)范生成式AI發(fā)展中的具體問題,而對生成式AI產(chǎn)品和服務本身引發(fā)的責任還需要明確和細化,目前強調(diào)的仍然是規(guī)范在先,防患未然。
譬如,在征求意見稿中,曾提出“對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應在3個月內(nèi)通過模型優(yōu)化訓練等方式防止再次生成”,這一條在內(nèi)容上是對事后規(guī)制缺失的補足,但是基于需要判斷的內(nèi)容過于復雜,“3個月”是否為恰當整改期限難以確定等因素,該條最終并未寫入《暫行辦法》,這一點還需要在實際運行一段時間后再予以補充或者另行規(guī)定,抑或是利用現(xiàn)有法律體系來應對生成式AI服務的法律責任的認定與承擔。
(陳兵系南開大學競爭法研究中心主任、法學院副院長、教授,數(shù)字經(jīng)濟交叉科學中心研究員;董思琰南開大學競爭法研究中心研究助理)
軟件定義汽車時代,正在向AI定義汽車時代過渡。
從這次推出的Sora來看,視頻生成賽道還未拉開差距。
林劍表示,之友小組將依托聯(lián)合國這個最具普遍性、權(quán)威性、代表性的政府間國際組織,打造人工智能能力建設(shè)的國際交流合作平臺。
徐立提到,商湯過去這段時間進行的組織調(diào)整,是為了更好地應對AI 2.0時代所帶來的機遇與挑戰(zhàn)。
通知明確加強中小學人工智能教育的總體要求。