国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

房保國:論人工智能統(tǒng)一立法應(yīng)緩行 | 河南財經(jīng)政法大學(xué)學(xué)報202602

0
分享至

【副標(biāo)題】漸進式治理范式的構(gòu)建

【作者】房保國(中國政法大學(xué)證據(jù)科學(xué)教育部重點實驗室、司法文明協(xié)同創(chuàng)新中心副教授,法學(xué)博士)

【來源】北大法寶法學(xué)期刊庫《河南財經(jīng)政法大學(xué)學(xué)報》2026年第2期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。


內(nèi)容提要:當(dāng)前全球人工智能統(tǒng)一立法的熱潮,忽視了技術(shù)不確定性與法律穩(wěn)定性之間的根本性沖突。基于技術(shù)哲學(xué)與制度理性的內(nèi)在張力,揭示激進立法模式在本體論、目標(biāo)論及方法論上的多重悖論,批判其引發(fā)的監(jiān)管錯位與創(chuàng)新抑制。通過剖析歐盟規(guī)制僵化與美國分散治理等域外實踐,證成統(tǒng)一立法將付出高昂治理代價。主張我國立法應(yīng)暫緩法典化模式,轉(zhuǎn)而構(gòu)建“時間—空間”彈性框架:在時間維度建立技術(shù)成熟度觸發(fā)立法與反身性迭代機制;在空間維度形成國家元規(guī)則錨定與領(lǐng)域理性具象化的分層治理。法治智慧在于以制度謙抑性容納技術(shù)不確定性,通過漸進式治理范式平衡創(chuàng)新激勵與風(fēng)險防控,為人工智能高質(zhì)量發(fā)展提供法治韌性。

關(guān)鍵詞:人工智能立法;漸進式治理;監(jiān)管沙盒;法治韌性

目次 一、立法的本體論困境 二、立法的價值整合困境 三、立法的路徑依賴?yán)Ь?四、立法的域外實踐鏡鑒 五、立法范式的重構(gòu) 六、結(jié)語

全球人工智能立法熱潮的涌動,折射出技術(shù)治理時代的深層治理焦慮。一場以“規(guī)制未來”為導(dǎo)向的制度競賽已然鋪開,而急于借統(tǒng)一立法構(gòu)筑風(fēng)險屏障的集體沖動,恰恰暴露了法律面對科技革命的認(rèn)知困局——以工業(yè)時代的傳統(tǒng)規(guī)制工具,應(yīng)對數(shù)字時代的顛覆性技術(shù)生態(tài)。立足技術(shù)哲學(xué)與制度理性的本質(zhì)沖突,對統(tǒng)一立法模式的深度反思具有現(xiàn)實必要性。人工智能技術(shù)的核心特質(zhì)在于其“未完成性”,技術(shù)范式的迭代尚未定型,算法權(quán)力的社會接受邊界尚未形成共識,此時以剛性法典固化技術(shù)定義與責(zé)任框架,不僅可能因規(guī)則錯配扼殺創(chuàng)新活力,更會造成法律解釋體系與技術(shù)本體的結(jié)構(gòu)性割裂。

更深層的治理悖論根植于價值目標(biāo)的不可通約性,安全訴求與發(fā)展需求并非天然耦合,其背后潛藏著多重價值張力,統(tǒng)一立法以“安全優(yōu)先”統(tǒng)合多元利益的嘗試,暗含將復(fù)雜治理命題簡化為技術(shù)管控的危險傾向。直面技術(shù)、倫理與監(jiān)管的三重不確定性,中國立法者所需的并非立法效率的競速比拼,而是立法哲學(xué)的自覺覺醒,唯有以戰(zhàn)略耐心替代立法沖動,構(gòu)建漸進式治理范式,方能在技術(shù)動態(tài)性與制度彈性的辯證互動中,培育兼具適應(yīng)性與權(quán)威性的法治生命力。

立法的本體論困境

“人工智能的不確定性既是推動全球人工智能立法浪潮的共識性動因,也是引發(fā)各國立法實踐森羅萬象的分歧性誘因?!比斯ぶ悄苤卫淼睦Ь?,來自技術(shù)演進的不確定性與法律秩序?qū)Ψ€(wěn)定性的內(nèi)在要求之間的本體論矛盾。此沖突不是表象層面的“時間差”或“信息差”問題,而是扎根于技術(shù)理性和制度理性在范式上的斷裂——前者遵循指數(shù)級增長、顛覆性創(chuàng)新的邏輯;后者依靠周期性更新且有可預(yù)期性的規(guī)范邏輯。當(dāng)立法者試圖通過確定性的規(guī)范框架對非確定性的技術(shù)系統(tǒng)加以約束時,不僅面臨規(guī)制實際效果的消解,還會引起法律制度的本體性風(fēng)險。

(一)技術(shù)動態(tài)性與法律靜態(tài)性的內(nèi)在矛盾

人工智能技術(shù)的本質(zhì)是持續(xù)自我超越的“涌現(xiàn)系統(tǒng)”,其發(fā)展遵循非線性躍遷路徑。深度學(xué)習(xí)模型通過參數(shù)規(guī)模的量級增長觸發(fā)功能質(zhì)變,生成式系統(tǒng)在數(shù)據(jù)迭代中涌現(xiàn)出超越預(yù)設(shè)目標(biāo)的能力。這種演進模式使法律陷入定義困境:任何基于當(dāng)前技術(shù)形態(tài)的概念固化,在規(guī)范生效時便已滯后于技術(shù)現(xiàn)實。法律文本的封閉性與技術(shù)演進的開放性形成結(jié)構(gòu)性對抗:法律依賴明確邊界以確立秩序,而技術(shù)通過突破既有范疇實現(xiàn)進化。

同時,法律歸責(zé)機制的認(rèn)識論基礎(chǔ)與技術(shù)的“黑箱”效應(yīng)存在斷裂。傳統(tǒng)侵權(quán)法、產(chǎn)品責(zé)任法以“行為—結(jié)果”的可追溯因果鏈為根基,要求精確識別過錯節(jié)點與責(zé)任主體。深度神經(jīng)網(wǎng)絡(luò)隱層參數(shù)的演化具有不可解析性,其決策過程無法映射出清晰的法律因果關(guān)系。當(dāng)自動駕駛系統(tǒng)因多個傳感器數(shù)據(jù)起沖突而引發(fā)事故,或醫(yī)療診斷算法受對抗樣本干擾產(chǎn)生誤判時,法律沒辦法追溯具體的決策路徑,也很難找準(zhǔn)可歸責(zé)的技術(shù)漏洞。認(rèn)知上的鴻溝展現(xiàn)了法律與技術(shù)在知識生產(chǎn)邏輯中的差別:法律依托經(jīng)驗歸納與邏輯演繹形成確定性知識,而人工智能依靠概率關(guān)聯(lián)和涌現(xiàn)學(xué)習(xí)生成非確定的產(chǎn)出。

技術(shù)的動態(tài)性對法律體系的沖擊,更體現(xiàn)在規(guī)范效力的解構(gòu)上。當(dāng)生成式 AI 輸出具備法律效力的合同文本,或智能合約自動實施跨境交易時,技術(shù)的“準(zhǔn)立法”與“準(zhǔn)司法”功能不斷侵蝕法律專屬范圍。這種解構(gòu)沖擊著法律作為社會元治理系統(tǒng)的權(quán)威地位——算法憑借代碼規(guī)則重塑行為范式,法律卻面臨著淪為技術(shù)理性實施工具的風(fēng)險。在此情境下,統(tǒng)一立法試圖以靜態(tài)框架約束動態(tài)技術(shù),實則陷入雙重異化:既無法有效規(guī)制技術(shù)風(fēng)險,又可能因過度干預(yù)阻礙創(chuàng)新,最終導(dǎo)致法律公信力與技術(shù)先進性的同步消解。

化解此矛盾需要回歸法律的功能定位重構(gòu),法律不應(yīng)扮演技術(shù)發(fā)展的規(guī)劃師,而應(yīng)成為技術(shù)與社會耦合的界面機制。這要求在認(rèn)識論層面承認(rèn)技術(shù)理性的不可完全馴服性,接納法律作為“未完成方案”的開放性;在方法論層面構(gòu)建反身性規(guī)范框架,通過監(jiān)管沙盒等動態(tài)授權(quán)規(guī)則替代靜態(tài)禁止條款,通過算法透明度分級義務(wù)等元規(guī)則替代具體行為指令。唯有將法律從“確定性供給者”轉(zhuǎn)型為“不確定性協(xié)調(diào)者”,方能在技術(shù)風(fēng)暴中守護人之為人的價值坐標(biāo)。

(二)風(fēng)險不可知性與規(guī)則預(yù)設(shè)性的認(rèn)知鴻溝

人工智能風(fēng)險治理的困境,源于其內(nèi)在的“涌現(xiàn)性”和“次生性”與法律規(guī)則預(yù)設(shè)性之間的沖突。此兩類風(fēng)險具有動態(tài)生成與場景依賴特質(zhì),無法通過先驗建模完全預(yù)判,而是在人機交互過程中逐步顯現(xiàn)。傳統(tǒng)法律規(guī)制依賴“風(fēng)險—規(guī)則”的線性映射邏輯,立法者基于已知風(fēng)險類型預(yù)設(shè)禁止性規(guī)范與責(zé)任框架,而人工智能風(fēng)險的非結(jié)構(gòu)化與跨域傳導(dǎo)性顛覆了這一邏輯。以算法黑箱為例,“比起人類心智黑箱,對算法黑箱要求更高的透明度”,其決策過程的不可解析性導(dǎo)致法律歸責(zé)所需的因果關(guān)系鏈條斷裂。更復(fù)雜的是,單一技術(shù)風(fēng)險可能觸發(fā)多領(lǐng)域系統(tǒng)性危機——自動駕駛數(shù)據(jù)采集可能同時沖擊隱私權(quán)、地理信息安全與市場競爭秩序,使法律試圖構(gòu)建的“風(fēng)險清單”模式陷入認(rèn)知危機:將流動的技術(shù)生態(tài)簡化為靜態(tài)分類表,既低估技術(shù)演化的混沌性,又高估人類理性的預(yù)見能力。

法律對確定性的追求,使其天然傾向構(gòu)建封閉規(guī)則體系,而人工智能風(fēng)險的不可知性要求規(guī)則保持動態(tài)開放性,二者形成深層張力。其一,規(guī)則滯后性。立法周期與技術(shù)迭代速率存在數(shù)量級差異:生成式 AI 從研發(fā)到商業(yè)化僅需數(shù)月,而法律修訂需經(jīng)歷漫長程序,耗時數(shù)年,導(dǎo)致法律文本生效時其規(guī)制的技術(shù)形態(tài)可能已被新一代范式取代。其二,解釋論失效。法律解釋依賴既有規(guī)范涵攝新事實,但人工智能不斷挑戰(zhàn)法律基本范疇。例如,要求生成內(nèi)容披露訓(xùn)練數(shù)據(jù)來源的規(guī)則,在合成數(shù)據(jù)技術(shù)普及后喪失可執(zhí)行性;算法透明義務(wù)在聯(lián)邦學(xué)習(xí)等隱私保護場景中,可能與保密需求直接沖突。

更需警惕者,乃基于已知風(fēng)險構(gòu)建的規(guī)則體系可能引發(fā)認(rèn)知路徑依賴,形成三重治理悖論。第一,目標(biāo)置換效應(yīng)。立法者為追求形式完備,將資源集中于已識別的數(shù)據(jù)泄露等風(fēng)險類型,卻忽視了模型自主性導(dǎo)致的指令規(guī)避等新興風(fēng)險。第二,創(chuàng)新抑制循環(huán)。嚴(yán)苛的合規(guī)要求迫使企業(yè)將資源投向風(fēng)險規(guī)避而非技術(shù)突破,如為滿足內(nèi)容安全審查而過度清洗訓(xùn)練數(shù)據(jù),導(dǎo)致模型認(rèn)知能力退化。第三,系統(tǒng)性風(fēng)險相關(guān)的盲區(qū)。規(guī)則錨定使監(jiān)管者陷入局部風(fēng)險防控當(dāng)中,失去對技術(shù)生態(tài)整體演變的洞察力,當(dāng)法律把重點放在數(shù)據(jù)采集規(guī)制上時,可能會忽略因合成數(shù)據(jù)引起的版權(quán)重構(gòu)難題。

擺脫當(dāng)前困境,需要重新構(gòu)建法律和技術(shù)的關(guān)系樣式。一是從確定性預(yù)設(shè)衍變到反身性調(diào)適,法律應(yīng)舍棄充當(dāng)“終極風(fēng)險目錄”的角色定位,取而代之建立觸發(fā)式響應(yīng)機制,借助技術(shù)成熟度評估動態(tài)啟動規(guī)制流程,采用監(jiān)管沙盒對規(guī)則適配性進行測試;二是從全域統(tǒng)一過渡到領(lǐng)域理性,在醫(yī)療、金融等高危領(lǐng)域設(shè)定具象規(guī)則,而在創(chuàng)新密集型領(lǐng)域還是保留原則性指引;三是從規(guī)則錨定到元規(guī)則構(gòu)建,將立法的聚焦重點轉(zhuǎn)移到風(fēng)險動態(tài)監(jiān)測報告義務(wù)、跨部門協(xié)同治理流程等程序性框架上,為技術(shù)發(fā)展留存規(guī)范的彈性空間。

(三)技術(shù)異質(zhì)性與立法統(tǒng)一性的結(jié)構(gòu)沖突

人工智能技術(shù)體系是多元范式并存的非均質(zhì)系統(tǒng),其內(nèi)部存在符號主義(邏輯推理驅(qū)動)、聯(lián)結(jié)主義(神經(jīng)網(wǎng)絡(luò)架構(gòu))與行為主義(環(huán)境交互導(dǎo)向)等迥異的技術(shù)范式。通用大模型追求認(rèn)知泛化能力,垂直領(lǐng)域 AI 聚焦專業(yè)場景優(yōu)化,具身智能則強調(diào)物理世界的嵌入與交互,此三類技術(shù)的內(nèi)在邏輯、發(fā)展軌跡及風(fēng)險生成機制具有差異。

首先,邏輯沖突。符號主義系統(tǒng)依賴預(yù)設(shè)規(guī)則的可解釋性,而聯(lián)結(jié)主義模型通過數(shù)據(jù)訓(xùn)練涌現(xiàn)不可預(yù)測的功能,二者對“透明度”“可控性”等法律要求存在沖突。其次,發(fā)展異步性。通用人工智能的技術(shù)突破可能引發(fā)跨領(lǐng)域連鎖變革,而垂直領(lǐng)域技術(shù)迭代則遵循行業(yè)特定節(jié)奏,統(tǒng)一立法的靜態(tài)框架無法適配異步演進的技術(shù)生命周期。最后,風(fēng)險異質(zhì)性。通用系統(tǒng)的風(fēng)險源于認(rèn)知泛化偏差,垂直系統(tǒng)的風(fēng)險則集中于領(lǐng)域?qū)I(yè)性失效,具身智能更涉及物理安全與倫理決策的雙重挑戰(zhàn)。強行將異質(zhì)技術(shù)納入單一法律框架,必然導(dǎo)致結(jié)構(gòu)性規(guī)制錯配——對規(guī)則驅(qū)動的專家系統(tǒng)約束不足,而對具身智能等新興技術(shù)過度干預(yù)。

技術(shù)異質(zhì)性更深層地體現(xiàn)在社會化場景的實踐理性差異之中,人工智能嵌入社會系統(tǒng)的過程呈現(xiàn)毛細(xì)血管級分化,不同領(lǐng)域形成獨特的價值排序和規(guī)制需求。醫(yī)療領(lǐng)域的核心訴求是生命尊嚴(yán)保障,算法決策需平衡診斷效率與誤診責(zé)任;金融領(lǐng)域的規(guī)制要害在于系統(tǒng)性風(fēng)險防控,需重點約束算法同質(zhì)化引發(fā)的市場共振;創(chuàng)作領(lǐng)域的爭議焦點是知識產(chǎn)權(quán)體系重構(gòu),需在數(shù)據(jù)訓(xùn)練與版權(quán)保護間尋找平衡點。法律若忽視領(lǐng)域理性的不可通約性,以抽象統(tǒng)一的“安全”“透明”原則覆蓋所有場景,將導(dǎo)致規(guī)則與實踐的深度脫嵌——不僅是技術(shù)適配失效,更是法律正當(dāng)性基礎(chǔ)的消解。

統(tǒng)一立法框架的結(jié)構(gòu)性缺陷,進一步表現(xiàn)為責(zé)任配置的范式?jīng)_突。傳統(tǒng)法律以“行為—責(zé)任”的線性因果關(guān)系為歸責(zé)基礎(chǔ),但人工智能在多主體協(xié)作中形成責(zé)任彌散:開發(fā)者承擔(dān)算法設(shè)計缺陷責(zé)任,但神經(jīng)網(wǎng)絡(luò)的涌現(xiàn)特性使缺陷認(rèn)定超越傳統(tǒng)產(chǎn)品責(zé)任范疇;使用者負(fù)有場景化監(jiān)管義務(wù),其過錯認(rèn)定需結(jié)合技術(shù)可控性與專業(yè)認(rèn)知水平;系統(tǒng)自身的自主決策則挑戰(zhàn)人類中心主義責(zé)任體系。統(tǒng)一立法試圖以標(biāo)準(zhǔn)化責(zé)任條款覆蓋異質(zhì)主體,實則模糊了技術(shù)因果鏈中的權(quán)責(zé)對應(yīng)關(guān)系。例如,“自動駕駛技術(shù)在不同階段面臨的風(fēng)險類型不同,包括生產(chǎn)制造階段的制造風(fēng)險與測試風(fēng)險,以及應(yīng)用階段的過失風(fēng)險與故意風(fēng)險”,要求自動駕駛開發(fā)者承擔(dān)無過錯責(zé)任可能抑制創(chuàng)新,而將責(zé)任完全轉(zhuǎn)嫁給使用者又忽視了算法黑箱的認(rèn)知壁壘。

化解沖突需重構(gòu)分層協(xié)同的規(guī)制范式:在技術(shù)層建立“范式分類”框架,針對不同技術(shù)本質(zhì)設(shè)定差異化透明度義務(wù);在場景層構(gòu)建“領(lǐng)域理性優(yōu)先”原則,允許高危領(lǐng)域制定行業(yè)特異性規(guī)則;在責(zé)任層采用“動態(tài)權(quán)重分配”模型,根據(jù)技術(shù)可控性、主體專業(yè)能力與損害可預(yù)見性動態(tài)調(diào)整責(zé)任比例。唯有通過多層解耦的規(guī)制架構(gòu),法律才能超越統(tǒng)一性迷思,在技術(shù)異質(zhì)性與制度穩(wěn)定性間建立韌性聯(lián)結(jié)。

(四)法律回應(yīng)機制的適應(yīng)性困境

人工智能技術(shù)的指數(shù)級發(fā)展對傳統(tǒng)法律調(diào)適機制構(gòu)成系統(tǒng)性挑戰(zhàn),暴露了法律系統(tǒng)在認(rèn)知能力、響應(yīng)速度與協(xié)調(diào)邏輯上的三重失靈。法律作為社會元治理系統(tǒng)的權(quán)威性,正遭遇技術(shù)理性的解構(gòu)。

首先,法律解釋機制的范式危機,傳統(tǒng)法律解釋依賴規(guī)范性涵攝,將新事實納入既有規(guī)范框架評價。然而,人工智能從根本上動搖了法律的基本范疇:在著作權(quán)領(lǐng)域,生成式 AI 創(chuàng)作內(nèi)容顛覆了“人類主體性”這一權(quán)利根基,使得原有“作者—創(chuàng)作行為—作品”三位一體的穩(wěn)定鏈條被割裂;在侵權(quán)責(zé)任領(lǐng)域,自動駕駛的決策黑箱瓦解了“注意義務(wù)”的行為認(rèn)定標(biāo)準(zhǔn),傳統(tǒng)過錯責(zé)任以人類行為的可預(yù)見性與可歸責(zé)性為前提,而算法決策路徑無法被追溯,導(dǎo)致“過失”概念喪失解釋力。此危機不僅是規(guī)則適用偏差,更是認(rèn)識論層面的不可通約——當(dāng)技術(shù)事實已挑戰(zhàn)法律基本范疇時,解釋論無法通過修補既有框架實現(xiàn)調(diào)適,且法律修訂的制度性時滯進一步加劇了適應(yīng)性困境。

其次,法律修訂的民主程序性與技術(shù)迭代的指數(shù)級速率形成結(jié)構(gòu)性沖突:生成式 AI 從研發(fā)到商業(yè)化平均周期僅數(shù)月,而立法修訂需經(jīng)歷提案、論證、審議、表決等程序性環(huán)節(jié),耗時常以年計,此種速率差使法律陷入“生效即過時”的循環(huán)困局。同時,立法者為確保體系融貫性,通?;诂F(xiàn)有技術(shù)形態(tài)構(gòu)建規(guī)范框架。而 AI 技術(shù)的涌現(xiàn)特性使預(yù)設(shè)框架在生效時即脫離技術(shù)現(xiàn)實,歐盟《人工智能法》起草期間被迫緊急增補通用 AI 條款即為明證。

再次,沖突協(xié)調(diào)中的價值位階僵化亦暴露了結(jié)構(gòu)性缺陷,法律應(yīng)對權(quán)利沖突的傳統(tǒng)方法是利益衡量原則,但在 AI 引發(fā)的價值沖突中常顯不足。在數(shù)據(jù)訓(xùn)練與版權(quán)保護的沖突中,法律試圖通過“合理使用”例外平衡利益,卻忽視了爬蟲技術(shù)無法識別著作權(quán)狀態(tài)、海量數(shù)據(jù)授權(quán)成本將扼殺模型訓(xùn)練可行性的矛盾;在生物識別與隱私權(quán)的抵觸中,“必要限度”“公共利益”等抽象比例原則無法回應(yīng)技術(shù)特異性——人臉識別在安防場景的效率優(yōu)勢與在商業(yè)場景的隱私侵蝕具有不同風(fēng)險權(quán)重,但法律因缺乏技術(shù)認(rèn)知深度而適用同一標(biāo)準(zhǔn),導(dǎo)致規(guī)制過度與不足并存。

最后,技術(shù)理性對法律系統(tǒng)的侵蝕已超越工具層面,直指其元治理地位。智能合約通過代碼自動執(zhí)行協(xié)議條款,在區(qū)塊鏈場景中形成“代碼即法律”的自治秩序;生成式 AI 輸出的合同范本已在商事交易中實質(zhì)替代法律文本;在線糾紛解決(ODR)系統(tǒng)依靠算法評估證據(jù)、輸出裁決,其決策邏輯不公開且不可申訴。當(dāng)公眾更信賴算法的“效率”而非司法的“公正”時,法律作為最終爭議解決機制的權(quán)威性將遭到消解,法律從社會規(guī)則的制定者降格為技術(shù)理性的執(zhí)行工具。

總之,技術(shù)不確定性與法律穩(wěn)定性的沖突,是兩種秩序生產(chǎn)邏輯的對抗:技術(shù)通過持續(xù)突破“創(chuàng)造性破壞”的熊彼特式秩序,法律則通過規(guī)范延續(xù)構(gòu)建“可預(yù)期性”的韋伯式秩序?;鉀_突不在于尋求靜態(tài)平衡點,而需在認(rèn)知層面實現(xiàn)躍遷——承認(rèn)技術(shù)理性的不可完全馴服性,接受法律作為“未完成方案”的開放性,探索制度與技術(shù)在動態(tài)適配中共同進化的新范式。

立法的價值整合困境

人工智能統(tǒng)一立法遇到的重要難題在于,其企圖將安全與發(fā)展這兩種具有競爭性的異質(zhì)價值目標(biāo),強行整合進單一制度框架。安全將風(fēng)險控制當(dāng)作元理念,遵循“預(yù)設(shè)性合規(guī)”邏輯,強調(diào)依靠剛性規(guī)則、事前審批及嚴(yán)格責(zé)任構(gòu)建起確定性秩序;而發(fā)展以創(chuàng)新激勵作為驅(qū)動力,依照“實驗性容錯”理念,提倡采用規(guī)則留白、事后追責(zé)以及彈性空間來釋放技術(shù)的潛在可能。此兩類價值并非簡單的政策偏好分布,而是以不同的治理時間觀與制度理性為根基:安全立法追求的是“避免最壞”,發(fā)展立法意在“爭取最好”。當(dāng)統(tǒng)一立法企圖將這兩種不可通約的價值壓縮進同一個規(guī)范文本時,不僅難以實現(xiàn)理論上的平衡,更在實踐中衍生出目標(biāo)消解、規(guī)則沖突與制度內(nèi)耗,導(dǎo)致立法實效的結(jié)構(gòu)性偏移。

(一)價值目標(biāo)的不可通約性及其規(guī)范沖突

安全與發(fā)展的內(nèi)在張力,是兩種治理哲學(xué)在立法目的層面的分野。安全價值以“預(yù)防原則”為基石,將技術(shù)風(fēng)險視為必須最小化乃至消除的負(fù)外部性,其規(guī)范表達(dá)依賴于禁止性清單、強制性標(biāo)準(zhǔn)及高額處罰等“命令—控制”型工具。發(fā)展價值則以“創(chuàng)新自由主義”為內(nèi)核,將技術(shù)演進視為“創(chuàng)造性破壞”過程,其制度實現(xiàn)需依托監(jiān)管沙盒、責(zé)任豁免、稅收激勵等“賦能—促進”型規(guī)則。歐盟《人工智能法》的規(guī)制哲學(xué)鮮明體現(xiàn)了安全優(yōu)位的思路,其構(gòu)建的“金字塔式”風(fēng)險分級監(jiān)管體系,試圖通過算法透明度、數(shù)據(jù)質(zhì)量及人工監(jiān)督等剛性要求預(yù)設(shè)安全邊界,卻在實質(zhì)上擠壓了技術(shù)試錯與范式躍遷所必需的制度空間。

“無論是統(tǒng)籌安全和發(fā)展,還是為了發(fā)展暫時放松安全監(jiān)管,甚至有意將風(fēng)險外溢,各國的法律文本與立法議程均在很大程度上將促進人工智能發(fā)展作為重中之重?!倍?dāng)安全范疇從物理損害防控(如自動駕駛安全)擴展至數(shù)據(jù)安全、倫理安全、意識形態(tài)安全乃至國家安全時,其內(nèi)涵的模糊性與外延的開放性必然要求監(jiān)管范圍的持續(xù)擴張與監(jiān)管強度的無限提升。安全泛化迫使立法者將資源集中于構(gòu)建防御性壁壘,而非培育適應(yīng)性能力。我國現(xiàn)行規(guī)范將內(nèi)容安全、算法安全、數(shù)據(jù)安全等多重目標(biāo)捆綁立法,恰是安全概念過度的體現(xiàn)——當(dāng)一部立法試圖同時承擔(dān)技術(shù)防火墻、數(shù)據(jù)主權(quán)衛(wèi)士與倫理審查員等多重角色時,其規(guī)范效力必然因目標(biāo)渙散而弱化,合規(guī)成本則呈幾何級數(shù)增長,最終由創(chuàng)新主體承擔(dān),形成安全規(guī)制抑制發(fā)展動能的逆向激勵。

同時,安全立法遵循“底線思維”,要求使用“必須”“禁止”“應(yīng)”等封閉性、強制性的規(guī)范語句,以構(gòu)筑清晰的行為預(yù)期與責(zé)任邊界。發(fā)展立法則需秉持“天花板思維”,依賴“鼓勵”“支持”“可以”等開放性、授權(quán)性的規(guī)范表述,以保留技術(shù)路線的多元性與探索空間。統(tǒng)一立法文本若強行并置此兩類異質(zhì)規(guī)范,將導(dǎo)致法律陷入語用學(xué)分裂與精神錯亂:既宣稱“包容審慎監(jiān)管”,又規(guī)定“全流程安全審查”;既倡導(dǎo)“行業(yè)自律”,又設(shè)置“政府強制備案”。此種規(guī)范沖突不僅會削弱法律的行為指引功能,更可能使立法淪為政策宣示的修辭術(shù),而非具有規(guī)范效力的制度工具。

(二)安全與發(fā)展沖突的制度實現(xiàn)困境

價值目標(biāo)的不可通約性,在實踐中轉(zhuǎn)化為三重制度實現(xiàn)困境,深刻制約著統(tǒng)一立法的實效。

其一,規(guī)制工具的零和博弈與資源競爭。安全導(dǎo)向的強監(jiān)管與創(chuàng)新導(dǎo)向的弱干預(yù),在立法資源、行政注意力與合規(guī)成本分配上存在內(nèi)在競爭關(guān)系。歐盟《人工智能法》對高風(fēng)險系統(tǒng)設(shè)置了全生命周期監(jiān)控義務(wù),“高風(fēng)險主要包括應(yīng)用于現(xiàn)有歐盟產(chǎn)品安全法范圍的人工智能系統(tǒng),以及在生物識別、關(guān)鍵基礎(chǔ)設(shè)施、教育和職業(yè)培訓(xùn)、就業(yè)、工人管理和自營職業(yè)機會、獲得和享受基本的私人服務(wù)和公共服務(wù)及福利、執(zhí)法、移民、庇護和邊境管制管理、司法和民主進程等特定領(lǐng)域應(yīng)用人工智能系統(tǒng)”,其巨額合規(guī)成本實質(zhì)上構(gòu)成了對中小企業(yè)的制度性驅(qū)逐,抑制了市場競爭的多樣性與活力。類似地,我國對生成式 AI 內(nèi)容安全的全流程管控,雖旨在降低虛假信息風(fēng)險,卻在執(zhí)行中迫使企業(yè)過度清洗訓(xùn)練數(shù)據(jù),導(dǎo)致模型認(rèn)知能力退化,出現(xiàn)“安全合規(guī)性”與“技術(shù)先進性”悖反的局面。此現(xiàn)象揭示了統(tǒng)一立法難以兼顧兩類目標(biāo)的深層缺陷:法律資源向安全領(lǐng)域傾斜必然壓縮發(fā)展空間,而激勵性條款的擴張又會削弱風(fēng)險防控的實效性。

其二,權(quán)利配置的結(jié)構(gòu)性失衡與優(yōu)先權(quán)之爭。產(chǎn)業(yè)促進權(quán)與基本權(quán)利保障之間的沖突,是資源分配與利益享有的優(yōu)先級之爭。技術(shù)創(chuàng)新的數(shù)據(jù)自由流動需求與個人隱私的控制要求形成尖銳對立;算法透明義務(wù)所要求的披露細(xì)節(jié),可能與企業(yè)的商業(yè)秘密保護直接沖突;產(chǎn)業(yè)政策鼓勵技術(shù)集中以形成規(guī)模效應(yīng),又與反壟斷法防范市場權(quán)力濫用的目標(biāo)相悖。統(tǒng)一立法試圖在單一文本中規(guī)定數(shù)據(jù)產(chǎn)權(quán)、算法知識產(chǎn)權(quán)與個人信息權(quán)益的邊界,實則陷入“規(guī)范互斥”的困境——正如要求同一主體既擔(dān)任運動員又擔(dān)任裁判員,必然導(dǎo)致權(quán)責(zé)關(guān)系的功能性紊亂。此情形在跨境數(shù)據(jù)流動場景中尤為顯著:數(shù)據(jù)主權(quán)要求本地化存儲,而技術(shù)迭代依賴全球數(shù)據(jù)協(xié)同,法律強行彌合沖突只能產(chǎn)生妥協(xié)性方案,無法實現(xiàn)任何一方的制度最優(yōu)解。

其三,治理目標(biāo)的時序悖論與規(guī)模悖論。安全立法與發(fā)展立法遵循截然不同的時間邏輯與規(guī)模邏輯,技術(shù)迭代遵循“摩爾定律”的指數(shù)級加速,而安全認(rèn)證需遵循漸進式累積,導(dǎo)致“審批即過時”的循環(huán)困局:企業(yè)耗費資源通過認(rèn)證時,其技術(shù)方案已落后于市場主流。統(tǒng)一合規(guī)標(biāo)準(zhǔn)亦忽視了企業(yè)能力差異,頭部企業(yè)可利用規(guī)模效應(yīng)攤薄整改成本,而初創(chuàng)企業(yè)則因認(rèn)證投入擠占研發(fā)資源,形成“扶持強者、淘汰新銳”的反向篩選機制,實質(zhì)背離了促進產(chǎn)業(yè)創(chuàng)新的立法初衷。

(三)立法整合的嘗試及其象征性治理陷阱

為化解價值沖突,立法者常訴諸“包容審慎監(jiān)管”“平衡發(fā)展與安全”等原則性表述,試圖通過抽象術(shù)語統(tǒng)合異質(zhì)目標(biāo)。而此立法策略在實踐中易陷入“象征性治理”陷阱:在價值宣言層高揚“創(chuàng)新發(fā)展”旗幟,承諾減少行政干預(yù)、激發(fā)市場活力;而在規(guī)則操作層卻通過準(zhǔn)入許可、數(shù)據(jù)本地化、算法透明度等條款構(gòu)筑“監(jiān)管高墻”。此種表里割裂導(dǎo)致法律文本的價值宣示性條款因缺乏實施細(xì)則而成為政策修辭,而監(jiān)管性條款則因脫離技術(shù)現(xiàn)實蛻變?yōu)槭袌霰趬?。?dāng)企業(yè)發(fā)現(xiàn)合規(guī)成本遠(yuǎn)高于違規(guī)收益時,“策略性違法”將成為理性選擇,最終使立法目標(biāo)在實踐層面落空。

歐盟《人工智能法》的艱難立法過程及其內(nèi)部條款的緊張關(guān)系,正是此種整合困境的鮮活注腳。此法一方面在序言中強調(diào)“促進歐洲人工智能創(chuàng)新”“提升競爭力”,另一方面在正文中構(gòu)建了極其煩瑣且成本高昂的合規(guī)體系,尤其是對高風(fēng)險 AI 系統(tǒng)的嚴(yán)格義務(wù),被廣泛批評為“創(chuàng)新的枷鎖”。該法案試圖通過“金字塔結(jié)構(gòu)”(禁止性風(fēng)險、高風(fēng)險、有限風(fēng)險、最小風(fēng)險)對 AI 應(yīng)用進行精確分類與規(guī)制,卻忽視了通用人工智能(如大型語言模型)的“能力泛化性”使其可輕易穿透不同風(fēng)險層級,導(dǎo)致分類系統(tǒng)失效,不得不臨時增補針對通用 AI 的新規(guī)則,凸顯了剛性結(jié)構(gòu)應(yīng)對技術(shù)動態(tài)性的無力。

(四)價值分層與差序治理的法治出路

破解安全與發(fā)展的立法整合困境,需超越“非此即彼”的二元對立思維,構(gòu)建價值分層配置與差序治理的法治框架。承認(rèn)法律的功能有限性,并非所有沖突都可在同一部立法、同一層級中得到完美解決。

首先,價值層級化。禁止算法歧視、防范生命健康直接風(fēng)險等構(gòu)成價值底線,應(yīng)通過強制性規(guī)范固化為剛性約束,形成任何技術(shù)活動不得逾越的“負(fù)面清單”。此類規(guī)則聚焦于防范危害,其規(guī)范效力源于對基本權(quán)利的無條件保障。與此同時,發(fā)展目標(biāo)則應(yīng)轉(zhuǎn)化為激勵性政策工具,例如研發(fā)稅收抵免、公共數(shù)據(jù)開放及創(chuàng)新導(dǎo)向的政府采購,而非直接規(guī)定技術(shù)路線的實體性法律規(guī)則。此類政策本質(zhì)上是制度性留白,通過降低試錯成本以釋放創(chuàng)新動能。

其次,規(guī)范應(yīng)體現(xiàn)差序化構(gòu)造。國家立法層面僅需設(shè)定抽象原則與程序框架,例如算法透明度的分級原則、風(fēng)險動態(tài)評估的程序要求,借由此類“元規(guī)則”賦予治理系統(tǒng)以彈性。具體技術(shù)標(biāo)準(zhǔn)的制定權(quán),應(yīng)授予行業(yè)監(jiān)管機構(gòu)與標(biāo)準(zhǔn)化組織。其可基于領(lǐng)域知識——如醫(yī)療診斷算法的臨床驗證標(biāo)準(zhǔn)、金融風(fēng)控模型的壓力測試規(guī)程——制定更具適應(yīng)性的實施規(guī)則,從而形成“國家立法做減法、行業(yè)規(guī)則做加法”的差序治理格局。

最后,動態(tài)比例化。引入以技術(shù)成熟度為核心的動態(tài)評估與觸發(fā)機制,讓監(jiān)管強度隨技術(shù)可行性、社會容忍度及損害可逆性動態(tài)調(diào)適。對實驗室階段的顛覆性技術(shù)適用創(chuàng)新豁免原則,借助監(jiān)管沙盒在可控環(huán)境內(nèi)觀察其演化路徑;對規(guī)?;瘧?yīng)用的中期技術(shù)采用協(xié)同治理模式,要求企業(yè)設(shè)立倫理委員會并公開影響評估報告;對產(chǎn)業(yè)成熟的基座技術(shù)則施加嚴(yán)格合規(guī)義務(wù)?!拔覈斯ぶ悄芰⒎ㄐ枰3朱`活性,小步快跑,避免‘一刀切’立法造成難以挽回的負(fù)面影響?!蓖苿臃蓮摹耙坏肚小钡撵o態(tài)平衡器,轉(zhuǎn)型為貼合實踐的情境化動態(tài)調(diào)適系統(tǒng)。

總之,安全和發(fā)展目標(biāo)的相悖情況及其制度困境,反映出工業(yè)時代法典化思維與數(shù)字時代創(chuàng)新生態(tài)的深層沖突。立法者需要放棄構(gòu)建“萬能法典”的美夢,轉(zhuǎn)而以價值分層、規(guī)范差序和動態(tài)比例機制為途徑,在秩序與變革的長久張力中,建立一個既可以守護安全底線,又能為技術(shù)演變保留發(fā)展空間的靈活韌性治理模式。這不是放棄法治理想,而是通過制度的自我謙抑,重獲其在技術(shù)變革中的引導(dǎo)與規(guī)制能力。

立法的路徑依賴?yán)Ь?/strong>

當(dāng)前人工智能治理呈現(xiàn)的結(jié)構(gòu)性錯位,是傳統(tǒng)監(jiān)管范式對于技術(shù)革命適應(yīng)滯后的典型表現(xiàn)。其根源并非制度設(shè)計的意外差錯,而是起因于法律系統(tǒng)面對挑戰(zhàn)性創(chuàng)新時的認(rèn)知慣性,也就是將工業(yè)時代的線性治理邏輯強制應(yīng)用于數(shù)字時代的智能技術(shù)生態(tài),造成治理工具與治理對象之間出現(xiàn)斷裂。當(dāng)立法者試圖憑借“舊規(guī)則”適應(yīng)“新環(huán)境”時,制度文本就成了路徑依賴的受累者,在技術(shù)自主性與規(guī)制強制性的對抗中逐漸失去規(guī)范活力。

(一)治理范式的不合理擴張與認(rèn)知偏差

人工智能治理的定位偏差,首先源于傳統(tǒng)互聯(lián)網(wǎng)監(jiān)管范式向技術(shù)治理領(lǐng)域的擴張。傳統(tǒng)互聯(lián)網(wǎng)治理以信息內(nèi)容控制為核心,其制度設(shè)計遵循“主體—行為—責(zé)任”的線性歸責(zé)邏輯,預(yù)設(shè)了行為可追溯性與因果鏈明確性。然而,生成式人工智能的特質(zhì)在于通過隱層參數(shù)自主重構(gòu)問題解決路徑,其行為具有涌現(xiàn)性、不可溯性與非線性特征。將“內(nèi)容過濾—平臺問責(zé)”機制機械地移植至算法治理領(lǐng)域,實際上是將技術(shù)創(chuàng)造本體簡化為信息傳遞載體,導(dǎo)致工具理性對創(chuàng)造理性的制度性壓制。

此范式移植催生了深層認(rèn)知偏差,即混淆技術(shù)缺陷與價值偏差。生成式模型的事實性錯誤輸出等“幻覺現(xiàn)象”,本質(zhì)是神經(jīng)網(wǎng)絡(luò)概率建模的技術(shù)局限,而非對意義系統(tǒng)的蓄意推翻。如果將技術(shù)不完善性等同于意識形態(tài)風(fēng)險,則要求大模型完全規(guī)避事實錯誤。這種認(rèn)知混淆引發(fā)了自我指涉的監(jiān)管悖論:目標(biāo)層面要求算法輸出絕對“安全”卻忽視技術(shù)可行性邊界;工具層面本應(yīng)投入算法可解釋性研究的資源,被迫轉(zhuǎn)向構(gòu)建過度防御性內(nèi)容過濾機制。其后果是技術(shù)優(yōu)化被異化為價值馴化,合規(guī)性追求壓倒實質(zhì)性安全進步。

更深層的制度沖突源于治理工具與技術(shù)本質(zhì)的不可通約性,互聯(lián)網(wǎng)治理的實名認(rèn)證、內(nèi)容審核等核心工具,依賴對顯性行為的追溯控制,而生成式 AI 的創(chuàng)造性源于隱空間中的參數(shù)演化,其決策過程無法映射為可監(jiān)管的行為序列。傳統(tǒng)禁止特定關(guān)鍵詞等“開關(guān)式”禁令,在算法創(chuàng)作中已然失效——當(dāng)模型通過數(shù)十億參數(shù)重構(gòu)語義關(guān)聯(lián)時,簡單的輸入輸出管控難以阻斷非預(yù)期的價值表達(dá)。這種錯位在技術(shù)哲學(xué)層面體現(xiàn)為還原論與整體論的沖突:監(jiān)管者試圖將技術(shù)系統(tǒng)拆解為可量化部件施加管控,卻忽視模型整體涌現(xiàn)能力遠(yuǎn)大于部分之和。

范式錯位進一步引發(fā)了治理資源的巨量耗散與創(chuàng)新路徑的窄化,企業(yè)研發(fā)預(yù)算被迫從算法攻關(guān)轉(zhuǎn)向合規(guī)性過濾系統(tǒng)開發(fā);嚴(yán)苛的內(nèi)容安全審查迫使技術(shù)路線選擇趨同,規(guī)避倫理思辨、社會批判等具有文化建構(gòu)潛力的創(chuàng)意領(lǐng)域,導(dǎo)致技術(shù)進化的達(dá)爾文主義被制度性修剪。破解此困境,需建立技術(shù)認(rèn)知的雙重分離原則:分離技術(shù)缺陷與價值風(fēng)險,將算法幻覺等歸入技術(shù)優(yōu)化范疇;分離創(chuàng)造過程與輸出管控,對模型研發(fā)適用“創(chuàng)新豁免”,僅對具體應(yīng)用場景輸出實施動態(tài)監(jiān)管。監(jiān)管者應(yīng)從“技術(shù)警察”轉(zhuǎn)型為“創(chuàng)新助產(chǎn)士”,構(gòu)建監(jiān)管沙盒等安全測試環(huán)境,“人工智能監(jiān)管沙盒為人工智能系統(tǒng)提供者和主管機關(guān)等提供具體可控的環(huán)境,為測試創(chuàng)新性人工智能系統(tǒng)的性能、安全性以及潛在影響等提供現(xiàn)實可能”,使技術(shù)風(fēng)險在受控空間中自然暴露并定向修復(fù)。

(二)全流程監(jiān)管的自我消解悖論與“制度父愛主義”

人工智能治理中的全流程監(jiān)管樣式,試圖采用覆蓋從研發(fā)到應(yīng)用全鏈條的管控手段規(guī)避風(fēng)險,卻因忽視技術(shù)演進的內(nèi)在規(guī)律而陷入制度性自我消解狀態(tài)。“全流程視域下,人工智能風(fēng)險可類型化為算法設(shè)計風(fēng)險、數(shù)據(jù)要素風(fēng)險、平臺控制風(fēng)險、網(wǎng)絡(luò)安全風(fēng)險、自動決策風(fēng)險等具體樣態(tài)?!北O(jiān)管者試圖借助確定性框架約束不確定性技術(shù),反而弱化了技術(shù)自我優(yōu)化的動態(tài)能力,且導(dǎo)致社會系統(tǒng)的適應(yīng)性調(diào)節(jié)機制瓦解。

訓(xùn)練數(shù)據(jù)監(jiān)管首先暴露了認(rèn)知謬誤?,F(xiàn)行框架要求對訓(xùn)練語料做前置純凈度篩查,設(shè)定合法閾值作為數(shù)據(jù)準(zhǔn)入標(biāo)準(zhǔn)。此量化管控誤解了機器學(xué)習(xí)的規(guī)律:一方面,數(shù)據(jù)復(fù)雜性與模型進化存在辯證關(guān)系——模型能力進化依賴數(shù)據(jù)規(guī)模與多樣性,而深度學(xué)習(xí)具有“對抗噪聲數(shù)據(jù)”的固有特性,通過海量樣本中的統(tǒng)計噪聲訓(xùn)練反而提升模型魯棒性。將數(shù)據(jù)偏差等同于價值污染,無異于要求疫苗在無菌真空中培育,既違背了免疫系統(tǒng)生成機制,更剝奪了技術(shù)應(yīng)對現(xiàn)實復(fù)雜性的進化潛能。另一方面,“純凈性預(yù)設(shè)”本身是技術(shù)虛妄,監(jiān)管者假定存在絕對“安全”的數(shù)據(jù)邊界,卻忽視數(shù)據(jù)價值的語境依賴性。機械地過濾將導(dǎo)致模型認(rèn)知能力的歷史虛無化,使技術(shù)淪為脫離現(xiàn)實語境的溫室產(chǎn)物。

全流程管控更深層的危害在于瓦解技術(shù)自凈的社會學(xué)習(xí)循環(huán),傳統(tǒng)技術(shù)治理依賴“問題暴露—制度回應(yīng)”的修正機制,而生成式人工智能的容錯率需在具體應(yīng)用場景中被動態(tài)校準(zhǔn)。這體現(xiàn)為以下兩個層面。一方面,場景化容錯閾值的不可通約性——醫(yī)療診斷容錯閾值顯著低于創(chuàng)意寫作,法律文書生成的準(zhǔn)確性要求遠(yuǎn)高于娛樂對話。統(tǒng)一監(jiān)管標(biāo)準(zhǔn)強行鎖死技術(shù)容錯空間,剝奪了市場選擇與社會評價的調(diào)節(jié)功能。當(dāng)監(jiān)管者代替用戶定義風(fēng)險承受度時,技術(shù)迭代便失去了關(guān)鍵反饋信號。另一方面,試錯空間的壓縮效應(yīng)——技術(shù)進化依賴“創(chuàng)造性破壞”過程,即有缺陷的初級應(yīng)用觸發(fā)用戶反饋、倫理爭議與市場淘汰,推動技術(shù)定向優(yōu)化。全流程管控以事前審批替代事后追責(zé),使技術(shù)缺陷在監(jiān)管真空密封下隱性積累,最終以系統(tǒng)性危機形式爆發(fā)。

此范式隱含三重“制度父愛主義”的危險預(yù)設(shè):其一,知識論謬誤,假定監(jiān)管者比開發(fā)者更懂創(chuàng)新邊界,而算法黑箱的存在使技術(shù)內(nèi)生風(fēng)險具有不可解釋性,即便設(shè)計者也無法完全預(yù)判系統(tǒng)行為;其二,價值位階壟斷,預(yù)設(shè)監(jiān)管者比用戶更懂風(fēng)險承受度,但公眾對自動駕駛的容錯率隨技術(shù)普及逐步提升,而統(tǒng)一安全標(biāo)準(zhǔn)可能剝奪弱勢群體的技術(shù)普惠權(quán);其三,進化理性否定,忽視社會系統(tǒng)的自適應(yīng)智慧——技術(shù)倫理規(guī)范本應(yīng)在多元主體博弈中涌現(xiàn),例如開源社區(qū)通過爭議達(dá)成算法公平性共識等,但全流程監(jiān)管將動態(tài)協(xié)商壓縮為行政指令,導(dǎo)致規(guī)范與實踐持續(xù)脫節(jié)。

破解全流程監(jiān)管困境,需實現(xiàn)三重轉(zhuǎn)向:從數(shù)據(jù)管控到能力培育,將監(jiān)管重點從輸入數(shù)據(jù)純凈度轉(zhuǎn)向模型抗干擾能力驗證,通過注入對抗樣本測試培育技術(shù)在復(fù)雜環(huán)境中的生存力;從全程介入到節(jié)點放行,在訓(xùn)練階段保留數(shù)據(jù)多樣性,在應(yīng)用層按領(lǐng)域風(fēng)險分級實施差異化監(jiān)管;從行政主導(dǎo)到多元共治,建立“監(jiān)管沙盒—行業(yè)標(biāo)準(zhǔn)—用戶評級”的協(xié)同體系,使規(guī)范演進與技術(shù)進化同步共振。

(三)政策試驗空間的系統(tǒng)性壓縮與制度收斂效應(yīng)

人工智能治理的主要矛盾表現(xiàn)為技術(shù)演進的不確定特性與制度建構(gòu)的穩(wěn)定特性之間的張力,過早推動人工智能統(tǒng)一立法,會擠占本應(yīng)借助區(qū)域性、行業(yè)性試驗持續(xù)優(yōu)化的政策學(xué)習(xí)空間,致使治理體系失去應(yīng)對技術(shù)突變的應(yīng)變韌性。

地方立法和行業(yè)規(guī)約構(gòu)建起技術(shù)治理不可缺少的制度緩沖帶,“我國首部人工智能產(chǎn)業(yè)專項立法《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》為這一新興領(lǐng)域的國家及區(qū)域性立法工作提供了探索經(jīng)驗和有益參考”?!渡钲诮?jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》將準(zhǔn)入禁令替換成“創(chuàng)新容忍度”,允許企業(yè)在風(fēng)險可控的情形下探索算法應(yīng)用邊界;“以上海自貿(mào)區(qū)為試點探索建立中國式‘監(jiān)管沙盒’,形成分業(yè)監(jiān)管框架下的‘雙峰’監(jiān)管模式”,上海自貿(mào)區(qū)通過監(jiān)管沙盒建立起動態(tài)算法審計標(biāo)準(zhǔn),構(gòu)建風(fēng)險分級和監(jiān)管強度的彈性耦合機制。這些區(qū)域性試驗的本質(zhì)是治理范式的試錯探索——利用小范圍、高頻率的政策更替,積累技術(shù)風(fēng)險與社會接受度相契合的經(jīng)驗,其價值不只是提供具體的規(guī)則樣本,更在于揭示技術(shù)社會化進程中不可預(yù)見的沖突節(jié)點。

統(tǒng)一立法隱含的制度收斂風(fēng)險,進一步表現(xiàn)為規(guī)則彈性喪失與創(chuàng)新可能性抑制。立法試圖固化技術(shù)定義與風(fēng)險圖譜,卻忽視了技術(shù)路線的分岔演進,使法律陷入持續(xù)修訂的惡性循環(huán),反證技術(shù)不確定性無法通過概念窮盡來消解。強行落實統(tǒng)一標(biāo)準(zhǔn)就像給技術(shù)演進修了條單行道——當(dāng)自動駕駛算法被迫去符合全國性安全閾值時,特定場景的創(chuàng)新性嘗試(如沙漠礦區(qū)無人駕駛)也許會因不滿足通用準(zhǔn)則而夭折。從技術(shù)史來看,極具顛覆性的創(chuàng)新往往誕生于現(xiàn)有規(guī)則的邊緣區(qū)域,而過度突出“合法性”將引發(fā)技術(shù)路線的趨同化。

技術(shù)治理應(yīng)依照時空相對性原理,法律穩(wěn)定性的實現(xiàn)依靠制度彈性的留存。經(jīng)典物理學(xué)式的治理思維策略——試圖借助精確界定技術(shù)定義、責(zé)任范圍以及風(fēng)險等級來構(gòu)建確定性的秩序——在量子化的技術(shù)現(xiàn)實中注定會失效。恰似海森堡測不準(zhǔn)原理所顯示的:精確地測量粒子位置肯定會引起其動能的失控,監(jiān)管者過分追求技術(shù)定位的“精準(zhǔn)狀態(tài)”,實際上弱化了技術(shù)動態(tài)演化的可能性空間。技術(shù)的社會化進程本質(zhì)上是時空耦合的產(chǎn)物,北京中關(guān)村的算法倫理爭議與深圳前海的同類問題可能因地域文化差異呈現(xiàn)迥異的解決路徑,而統(tǒng)一立法強行剝離了技術(shù)的地方性語境。

破解政策試驗空間壓縮困境,需構(gòu)建分層化授權(quán)框架:在縱向維度上,國家立法僅需設(shè)定禁止算法歧視等價值底線,將具體標(biāo)準(zhǔn)制定權(quán)授予省級人大,借鑒德國“實驗性條款”機制,允許地方政府在腦機接口等重大技術(shù)領(lǐng)域設(shè)立臨時性特別法;在橫向維度上,建立“監(jiān)管沙盒聯(lián)邦制”,由國家網(wǎng)信辦統(tǒng)籌區(qū)域沙盒數(shù)據(jù)互認(rèn),允許測試結(jié)果跨區(qū)通行,避免重復(fù)審批;在動態(tài)維度上,立法引入“日落條款”,強制要求高風(fēng)險規(guī)則定期接受技術(shù)可行性評估,使法律從靜態(tài)文本轉(zhuǎn)型為“活的制度有機體”。

(四)控制論范式的認(rèn)知局限與生態(tài)論轉(zhuǎn)向的困境

人工智能治理的路徑依賴?yán)Ь常丛谟诳刂普摲妒降恼軐W(xué)局限——將技術(shù)視為可精準(zhǔn)調(diào)控的機械系統(tǒng),試圖通過“輸入—輸出”的線性監(jiān)管函數(shù)實現(xiàn)確定性秩序。此范式忽視了一個根本現(xiàn)實:人工智能是技術(shù)、制度與社會互構(gòu)的復(fù)雜適應(yīng)系統(tǒng),其演進具有涌現(xiàn)性、非線性與自組織特征。法律規(guī)則若僅充當(dāng)技術(shù)有機體的“機械枷鎖”,必將引發(fā)制度與技術(shù)進化脫節(jié)的系統(tǒng)性風(fēng)險。破解之道在于轉(zhuǎn)向生態(tài)論治理觀,“生態(tài)理性是人與自然和諧共生的生態(tài)智慧及人類集體性自覺”。將法律定位為滋養(yǎng)創(chuàng)新生態(tài)的“氣候系統(tǒng)”:既提供基礎(chǔ)制度光照(價值底線)與降水(資源支持),更包容必要的技術(shù)雷暴(試錯風(fēng)險)與枯榮周期(迭代成本)。

首先,該范式躍遷要求從本質(zhì)主義到關(guān)系主義的認(rèn)知轉(zhuǎn)向。傳統(tǒng)治理陷入“定義先行”的窠臼,執(zhí)著于追問算法是否具備法律主體資格等形而上學(xué)問題,卻遮蔽了技術(shù)社會化進程中的關(guān)系建構(gòu)本質(zhì)。生態(tài)論范式要求立法者實現(xiàn):技術(shù)定位轉(zhuǎn)向——放棄對技術(shù)本質(zhì)的追問,聚焦“技術(shù)—社會”耦合關(guān)系的具體建構(gòu),例如自動駕駛責(zé)任分配不應(yīng)取決于算法是否被定義為“駕駛員”,而應(yīng)基于人機協(xié)同中的控制權(quán)重分布與風(fēng)險收益比;監(jiān)管邏輯轉(zhuǎn)向——以“關(guān)系契約”替代“行為禁令”,例如深度合成技術(shù)治理重點不是禁止“換臉”,而是構(gòu)建技術(shù)使用方與被影響方的權(quán)利義務(wù)對等框架,“提高公眾對 AI 生成內(nèi)容的辨識能力,增強對標(biāo)識重要性的認(rèn)識”。

其次,需從預(yù)防哲學(xué)到韌性哲學(xué)的范式升華??刂普摲妒降慕^對安全幻想導(dǎo)致制度陷入過度防御陷阱,生態(tài)論主張以系統(tǒng)韌性替代預(yù)防主義,這要求:風(fēng)險認(rèn)知重構(gòu)——承認(rèn)技術(shù)缺陷無法完全消除,轉(zhuǎn)而培育社會系統(tǒng)的適應(yīng)性免疫力,例如針對深度偽造,與其強求平臺100%攔截虛假信息,不如構(gòu)建“辨?zhèn)巍憫?yīng)—修復(fù)”的三級韌性體系;容錯機制設(shè)計——建立負(fù)反饋調(diào)節(jié)回路,例如在醫(yī)療 AI 領(lǐng)域,通過“非事故性損害豁免”制度允許一定范圍內(nèi)的診斷偏差,但要求將偏差案例轉(zhuǎn)化為算法訓(xùn)練數(shù)據(jù)。

最后,需實現(xiàn)從立法中心主義到治理生態(tài)學(xué)的體系跨越。統(tǒng)一立法試圖以法律文本壟斷規(guī)則供給,割裂了治理生態(tài)的有機聯(lián)系。生態(tài)論視野下,法律僅是治理生態(tài)的一個“物種”,需與行業(yè)標(biāo)準(zhǔn)、技術(shù)倫理、市場選擇形成共生網(wǎng)絡(luò):規(guī)則群落建構(gòu)——在醫(yī)療 AI 領(lǐng)域,法律退守為元規(guī)則制定者,而將具體標(biāo)準(zhǔn)交由醫(yī)師協(xié)會、藥監(jiān)部門和醫(yī)院倫理委員會動態(tài)制定,形成交叉反饋的“規(guī)則生命體”;能量交換機制——建立制度代謝通道,例如,英國監(jiān)管沙盒將企業(yè)試錯數(shù)據(jù)轉(zhuǎn)化為規(guī)則優(yōu)化素材,使行業(yè)實踐與監(jiān)管標(biāo)準(zhǔn)形成養(yǎng)分循環(huán)。

總之,從控制論向生態(tài)論的轉(zhuǎn)型,是治理理性的范式變革。當(dāng)立法者摒棄追求精密控制的“工程師思維”,轉(zhuǎn)而習(xí)得培育生態(tài)平衡的“園丁智慧”時,才能真正實現(xiàn)技術(shù)安全與制度彈性的辯證統(tǒng)一。這種認(rèn)知躍遷要求法律以“謙抑性”為根基——在時間維度為技術(shù)演進保留試錯緩沖區(qū),在空間維度為多元規(guī)則留出共生界面,最終在秩序與變革的永恒張力中,孕育出具有進化生命力的治理生態(tài)。

立法的域外實踐鏡鑒

全球人工智能治理的多元探索實踐,為評判統(tǒng)一立法模式的有效性提供了天然的檢驗空間。不同規(guī)制范式的分野,不僅體現(xiàn)了地緣政治和產(chǎn)業(yè)戰(zhàn)略的區(qū)別,更揭示出制度哲學(xué)上的重大選擇。歐盟以《人工智能法》為標(biāo)志的“秩序本位主義”、美國聯(lián)邦層面立法克制的“實驗探索方式”以及東亞嘗試結(jié)合安全與發(fā)展的“整合主義舉措”,組成了一幅檢驗激進立法代價的圖景。域外經(jīng)驗顯示,中國人工智能立法的智慧,并非參與此類“立法競賽”,而在于從這些實踐得失中汲取教訓(xùn),探索一條符合技術(shù)演進規(guī)律和中國式現(xiàn)代化需求的漸進之路。

(一)歐盟范式:法典化雄心與創(chuàng)新現(xiàn)實的沖突

歐盟《人工智能法》是全球首個嘗試對人工智能進行全面且統(tǒng)一監(jiān)管的立法探索,其主要特征為構(gòu)建起一個基于風(fēng)險分級的金字塔式監(jiān)管體系。該法案把人工智能應(yīng)用劃分成“禁止性風(fēng)險”“高風(fēng)險”“有限風(fēng)險”和“最小風(fēng)險”四個類別,并實施逐次遞減的監(jiān)管要求。此種“秩序本位主義”范式,體現(xiàn)了歐盟借助“布魯塞爾效應(yīng)”輸出其數(shù)字規(guī)則霸權(quán)的戰(zhàn)略考量,也就是通過確立嚴(yán)格的區(qū)域標(biāo)準(zhǔn),影響全球市場規(guī)則走向,憑借制度優(yōu)勢彌補其在技術(shù)創(chuàng)新領(lǐng)域的相對滯后局面,而這種法典化的宏大敘事和人工智能技術(shù)的動態(tài)本質(zhì)出現(xiàn)了尖銳矛盾。

首先,靜態(tài)的分類框架無法適配技術(shù)的涌現(xiàn)態(tài)勢與通用化趨勢。法案起草的時候主要針對專用型、功能特定的人工智能系統(tǒng),但生成式人工智能的迅猛發(fā)展,尤其是大模型展現(xiàn)的通用能力,使其能夠輕松穿過預(yù)設(shè)的風(fēng)險層級。而“通用模型帶來了深刻的‘范式變革’,‘預(yù)訓(xùn)練+微調(diào)’成為人工智能發(fā)展的新范式,這引發(fā)了真正的通用性革命”。例如,一個原本為對話設(shè)計的通用模型,能被運用到醫(yī)療咨詢或金融分析中,從而迅速從“有限風(fēng)險”進入“高風(fēng)險”范疇,造成監(jiān)管分類體系失靈。這使得歐盟在立法進程臨近結(jié)束時才匆忙增補針對通用人工智能的專門規(guī)則,反映出統(tǒng)一立法在面對技術(shù)范式躍遷時的結(jié)構(gòu)性僵化。

其次,苛刻的合規(guī)要求實際上抑制了創(chuàng)新活力的釋放,尤其對于中小企業(yè)構(gòu)成了制度性壁壘。法案對“高風(fēng)險”系統(tǒng)實施了全生命周期的監(jiān)管義務(wù),包含嚴(yán)格的數(shù)據(jù)把控、細(xì)致的技術(shù)文檔記錄、突出的風(fēng)險評估及人類監(jiān)督要求。這些義務(wù)引發(fā)的巨額合規(guī)費用,迫使企業(yè)把大量研發(fā)資源從技術(shù)攻關(guān)調(diào)整到滿足監(jiān)管需求,造成了“合規(guī)比創(chuàng)新優(yōu)先”的扭曲激勵狀況。尤其針對初創(chuàng)企業(yè)和中小規(guī)模企業(yè)而言,這些成本很難承受,排擠了其在歐盟市場的生存余地,造成了創(chuàng)新生態(tài)多樣性的干涸。

最后,法典的剛性造成了“一生效就滯后”的悖論。立法程序歷時逾三年的漫長審議周期,與人工智能技術(shù)的指數(shù)級迭代速度形成巨大落差。當(dāng)法案最終生效時,其所依據(jù)的技術(shù)現(xiàn)實可能已被顛覆,其條款可能已成為制約新一代技術(shù)應(yīng)用的限制。“《人工智能法案》立足于現(xiàn)有歐洲法律價值體系,無法妥當(dāng)回應(yīng)科林格里奇悖論式的挑戰(zhàn),因為其忽視了人工智能技術(shù)可能引發(fā)的深遠(yuǎn)社會變遷和人類價值重構(gòu)?!边@種剛性體系缺乏內(nèi)置的適應(yīng)性機制,難以應(yīng)對技術(shù)“創(chuàng)造性破壞”帶來的持續(xù)挑戰(zhàn)。

歐盟的實踐已然表明,試圖借一部宏大明晰的法典文本畢其功于一役地化解人工智能治理難題,是“立法全能主義”的認(rèn)知迷思。其直接引致的代價是,創(chuàng)新動能的抑制、產(chǎn)業(yè)競爭力的相對弱化,以及監(jiān)管體系與技術(shù)現(xiàn)實漸趨脫節(jié)的潛在風(fēng)險。

(二)美國路徑:實驗主義治理與規(guī)則市場的利弊

與歐盟構(gòu)成鮮明對比的是,美國在聯(lián)邦范疇實施了立法克制的“實驗主義”途徑。其未推出覆蓋全國的人工智能法案,而是利用現(xiàn)有的法律權(quán)威(如《國防生產(chǎn)法》),在基礎(chǔ)模型安全測試等關(guān)鍵領(lǐng)域規(guī)定底線要求,同時許可各州依照自身情形開展立法探索,形成了以“聯(lián)邦底線+州級實驗”為特征的分散化治理格局。

美國路徑的優(yōu)勢體現(xiàn)為其制度的靈活性與對創(chuàng)新空間的保留,諸如加州、科羅拉多州、猶他州等各州,實施了不同側(cè)重點的法規(guī)。例如,“加利福尼亞州作為位于技術(shù)創(chuàng)新前沿的關(guān)鍵州,于2024年通過了17項與人工智能相關(guān)的法律,涵蓋深度偽造治理、訓(xùn)練數(shù)據(jù)透明、醫(yī)療場景中的人工智能提示義務(wù)以及生成內(nèi)容的可識別性標(biāo)識等關(guān)鍵議題”。這種“規(guī)則市場”許可政策創(chuàng)新在地方層面先去試驗,其他州或聯(lián)邦層面可吸收成功的經(jīng)驗做法,失敗的教訓(xùn)被圈定在局部范圍,避免了因“一刀切”而產(chǎn)生的系統(tǒng)性風(fēng)險。

但是,該實驗主義路徑也面臨著規(guī)則碎片化和司法管轄沖突的挑戰(zhàn)。企業(yè)若于美國市場開展運營,可能要同時恪守數(shù)十個州各不相同,甚至相互沖突的人工智能法規(guī),這引發(fā)了極大的合法復(fù)雜情形和不確定性。這種“胡亂拼湊”式的監(jiān)管環(huán)境,雖然避免了因過度監(jiān)管引發(fā)的抑制風(fēng)險,但也存在增加交易成本,并可能會產(chǎn)生“競相逐底”的問題,也就是部分州為吸引企業(yè)投資,過度降低了監(jiān)管的門檻。同時,在聯(lián)邦層面強有力的公民權(quán)利保護框架缺失的情形下,分散的各州法律也許不足以應(yīng)對人工智能帶來的大規(guī)模算法歧視或者隱私侵害等全國性、系統(tǒng)性風(fēng)險。

美國的經(jīng)驗說明,漸進式、分散化治理模式在保障技術(shù)創(chuàng)新靈活性與適應(yīng)性方面優(yōu)勢明顯,但其取得成功的關(guān)鍵在于能否構(gòu)建有效的機制,促進各州之間的協(xié)調(diào)及合作,在基本權(quán)利和安全底線上獲得充分保障,以此在包容審慎和風(fēng)險防控之間取得平衡。

(三)東亞困境:目標(biāo)整合的嘗試與制度性內(nèi)耗

以韓國《人工智能基本法》為代表的東亞相關(guān)模式,嘗試在單一法律框架內(nèi)同時實現(xiàn)推動產(chǎn)業(yè)發(fā)展與防控風(fēng)險的雙重目標(biāo),即選擇一條既重安全又重發(fā)展的“整合主義”道路。 “韓國《人工智能基本法》以‘發(fā)展與規(guī)制并重’為核心邏輯,既要抓住技術(shù)紅利推動產(chǎn)業(yè)升級,又要通過法律框架防范風(fēng)險、保障民生,同時在國際競爭中確立規(guī)則話語權(quán),從而構(gòu)建安全、可信、包容的人工智能社會。”這種立法嘗試反映出后發(fā)技術(shù)國家期待在保障安全的同時搶占產(chǎn)業(yè)發(fā)展制高點的急切心理。

而這種硬性將不同價值目標(biāo)耦合的嘗試,在實踐中往往引起立法精神的內(nèi)部分裂與制度性內(nèi)耗。產(chǎn)業(yè)促進條款倡導(dǎo)降低制度成本支出、簡化程序環(huán)節(jié)、提供財稅激勵辦法,以促進技術(shù)換代和市場應(yīng)用拓展;而風(fēng)險防控條款又引入安全評估、合規(guī)審查、準(zhǔn)入許可等造成成本增加以及時間延長的程序。這兩種邏輯于立法文本中并存,造成法規(guī)的執(zhí)行者在實踐中面臨兩難局面:過分看重安全會扼殺創(chuàng)新的動力,而過度偏向發(fā)展可能會造成風(fēng)險監(jiān)管被架空。其可能導(dǎo)致的結(jié)果是:促進條款會因為缺少可操作的實施細(xì)則,進而淪為政策宣示;而監(jiān)管條款也會因與產(chǎn)業(yè)實際情況脫節(jié),進而變成創(chuàng)新的阻礙。

更實質(zhì)的問題是,該模式容易催生“認(rèn)證文化”和責(zé)任悖論。強制性質(zhì)的安全認(rèn)證與評估程序,可能會誘導(dǎo)企業(yè)把資源匯集于獲得一張合規(guī)證明上,而不是去進行實在的安全能力建設(shè)。認(rèn)證證書在實踐中可能被異化成責(zé)任豁免的“庇護符”,反倒掩蓋了實際風(fēng)險的慢慢積累。統(tǒng)一標(biāo)準(zhǔn)往往忽視了大企業(yè)和中小企業(yè)之間的能力差別,造成后者在競爭中處于更不利的位置,實際上造就了“扶持強者、淘汰新銳”的反向篩選機制,違反了推動產(chǎn)業(yè)整體進步的初衷。

東亞困境揭示出,在技術(shù)自身及其社會影響還存在巨大不確定性的時期,試圖憑借一部法律去完美平衡所有存在沖突的價值和目標(biāo),是一種脫離實際的空想。這種“既要實現(xiàn)……又要達(dá)成……”的立法模式,經(jīng)常造成規(guī)則體系內(nèi)在矛盾和實際效能的相互抵消。

(四)比較視野下的治理哲學(xué)反思與中國選擇

“發(fā)展中國家和發(fā)達(dá)國家的 AI 治理模式差異根源在于 AI 行業(yè)的壟斷性和 AI 技術(shù)發(fā)展的階段性,以及二者面臨的主要發(fā)展問題的差異性。以中國為代表的重點安全風(fēng)險治理模式是發(fā)達(dá)國家和發(fā)展中國家 AI 治理的中間模式?!庇蛲馊斯ぶ悄苤卫韺嵺`顯露的規(guī)制困境,從不同維度印證了激進統(tǒng)一立法的潛在代價。其共同教訓(xùn)在于未能正視技術(shù)不確定性的本質(zhì)屬性,僅憑工業(yè)時代成型的、自上而下且執(zhí)著于確定性的法典化模式,去規(guī)制數(shù)字時代的顛覆性技術(shù),這正是導(dǎo)致治理實效折損的根源所在。

第一,要擺脫“立法萬能”以及“畢其功于一役”的思維局限。人工智能立法勿追求形式完備及體系的宏大,而要彰顯制度在韌性、適應(yīng)性及學(xué)習(xí)能力上的特質(zhì),立法應(yīng)看成是開放、未完成的進程,并非封閉的終極產(chǎn)物。

第二,宜采用“漸進式”以及“場景化”治理思路。立法重心需從制定“人工智能基本法”,轉(zhuǎn)向采用“核心原則立法+領(lǐng)域具體規(guī)則”的分層策略,國家先劃定安全、倫理等價值底線,把眾多具體的技術(shù)標(biāo)準(zhǔn)、行業(yè)規(guī)范交由監(jiān)管機構(gòu)、行業(yè)組織在實踐中動態(tài)優(yōu)化。

第三,須使“監(jiān)管沙盒”等實驗性治理工具充分發(fā)揮效能。開展特定領(lǐng)域、一定范圍的政策試點,準(zhǔn)予在可控環(huán)境中打破現(xiàn)有的法規(guī)界限,為規(guī)則創(chuàng)新提供可靠的測試數(shù)據(jù),實行“干中學(xué)習(xí)”,讓立法決策建立在實證基礎(chǔ)之上,而不是純粹的理論推演。

總之,“統(tǒng)一立法宜緩行”論點依靠域外經(jīng)驗獲得了有力支撐,“盡管對于人工智能立法的討論極為熱烈,但絕大多數(shù)國家‘口惠而實不至’,并未在國家層面落實立法進程”,“人工智能綜合性統(tǒng)一立法仍是‘顯著例外’”。中國應(yīng)防止采用激進的立法舉措,通過對技術(shù)規(guī)律和治理哲學(xué)的把握,選用更具耐心、充滿彈性、可喚起各方智慧的漸進式治理道路,堅守安全的最低界限,為人工智能的發(fā)展創(chuàng)新保留制度上的空間。

立法范式的重構(gòu)

人工智能統(tǒng)一立法在本體論、目標(biāo)論、方法論及實踐論范疇均面臨無法逾越的障礙。應(yīng)對困境的辦法,不是放棄規(guī)則構(gòu)建,而是針對立法范式本身開展重構(gòu),也就是從追求形式統(tǒng)一和靜態(tài)穩(wěn)定的“法典化迷局”,轉(zhuǎn)向培育具有動態(tài)適應(yīng)和韌性發(fā)展的“治理生態(tài)學(xué)”。

(一)時間維度:建立法律與技術(shù)的共時性演進機制

針對“技術(shù)動態(tài)與法律靜態(tài)”的矛盾,漸進式治理范式首先需在時間維度上重新構(gòu)建法律和技術(shù)的關(guān)系,從“滯后追隨”變?yōu)椤巴窖葸M”,創(chuàng)立一套可使法律規(guī)則隨技術(shù)成熟度動態(tài)合理適配的觸發(fā)與迭代機制,使制度具有類似有機體那樣的學(xué)習(xí)和進化本領(lǐng)。

1.技術(shù)成熟度驅(qū)動的立法觸發(fā)機制。法律介入的時機應(yīng)由技術(shù)社會化的內(nèi)在邏輯而非政治議程決定,應(yīng)組建跨學(xué)科的技術(shù)評估機構(gòu),負(fù)責(zé)監(jiān)測算力密度、社會滲透率、風(fēng)險顯性化等關(guān)鍵指標(biāo)的工作。當(dāng)技術(shù)從實驗室原型邁向規(guī)?;瘧?yīng)用階段,其風(fēng)險圖譜和社會價值負(fù)載初步顯露時,才可開啟專項立法相關(guān)程序。例如,制定自動駕駛專項責(zé)任規(guī)則,不宜在概念驗證階段開展,而應(yīng)在真實路測數(shù)據(jù)顯示其事故率穩(wěn)定低于人類駕駛員臨界值時制定。這使立法成為技術(shù)社會化的“適應(yīng)性框架”而不是提前限制,既防止過早調(diào)控扼殺創(chuàng)新的機會,又防止監(jiān)管缺失造成系統(tǒng)性風(fēng)險的累積。

2.監(jiān)管沙盒的時空緩沖與壓力測試功能。在技術(shù)混沌期與制度成熟期之間,可以設(shè)立風(fēng)險可控的“政策實驗區(qū)”。監(jiān)管沙盒通過限定應(yīng)用場景(如醫(yī)療影像診斷)、封閉測試場域(如城市特定路段)、控制用戶規(guī)模,構(gòu)建一個“壓力測試容器”。其法律價值在于以下兩點。一是提供責(zé)任豁免的安全港,“我國人工智能監(jiān)管沙盒存在著維護安全有余而支持創(chuàng)新不足的現(xiàn)狀,尤其表現(xiàn)為法律責(zé)任豁免制度的闕如”。企業(yè)在遵守預(yù)設(shè)安全計劃的前提下,對沙盒內(nèi)測試產(chǎn)生的特定風(fēng)險享有責(zé)任豁免或限制,從而敢于探索前沿領(lǐng)域。二是形成數(shù)據(jù)驅(qū)動的規(guī)則生成器,監(jiān)管者通過動態(tài)監(jiān)測,觀察算法與人類行為的互動,記錄風(fēng)險涌現(xiàn)的節(jié)點(如算法偏見閾值),為正式立法儲備實證基礎(chǔ),使規(guī)則制定從理論推演轉(zhuǎn)向證據(jù)為本。

3.反身性法律迭代程式與日落條款。應(yīng)當(dāng)突破法律永恒性的迷思,構(gòu)建規(guī)范的生命周期管理系統(tǒng)。引入反身性修訂機制,要求每條重要規(guī)則都附帶其制定時的“技術(shù)前提說明”(如“本條款基于監(jiān)督學(xué)習(xí)范式”),當(dāng)現(xiàn)實技術(shù)參數(shù)(如出現(xiàn)強大的無監(jiān)督學(xué)習(xí)模型)超越預(yù)設(shè)閾值時,自動啟動法定修訂程序。同時,強制推行日落條款,要求高風(fēng)險領(lǐng)域的規(guī)則(如深度合成內(nèi)容披露標(biāo)準(zhǔn))在生效后3—5年自動失效,除非經(jīng)過重新評估確有必要延續(xù)。這倒逼立法主體定期根據(jù)技術(shù)代際更迭重新審視制度效能,使法律從靜態(tài)文本轉(zhuǎn)變?yōu)椤盎畹?、可演進的規(guī)范有機體”。

上述三重時間機制共同指向法律時間觀的范式轉(zhuǎn)型:從線性到相對性,從滯后到并行,從封閉到開放,使法律體系能夠與技術(shù)突破保持同步演進。

(二)空間維度:構(gòu)建分層協(xié)同的差序治理體系

針對技術(shù)異質(zhì)性、領(lǐng)域差異性以及安全與發(fā)展的價值沖突,漸進式治理范式在空間維度上拒絕“一刀切”,轉(zhuǎn)而構(gòu)建一種分層化、差序化的治理架構(gòu)。該體系遵循“元治理—領(lǐng)域治理—組織治理”的邏輯,在不同層級分配不同的規(guī)制任務(wù)與理性標(biāo)準(zhǔn)。

1.價值基底的錨定與底線劃定。國家頂層立法應(yīng)跳出具體行為規(guī)制的范疇,恪守“元規(guī)則制定者”的角色定位。其核心職能在于錨定不可妥協(xié)的價值底線,確立全社會一體遵循的“負(fù)面清單”,例如明令禁止開發(fā)應(yīng)用社會評分系統(tǒng)、禁止利用人工智能實施意識操控、嚴(yán)禁危及生命安全的算法歧視等。此類構(gòu)成性規(guī)則應(yīng)力求少而精,通過強制性規(guī)范固化為剛性約束,為整體治理生態(tài)劃定不可逾越的紅線。在此紅線之外,國家立法當(dāng)保持最大限度的謙抑,依托研發(fā)稅收抵免、公共數(shù)據(jù)開放等倡導(dǎo)性規(guī)范與政策工具引導(dǎo)發(fā)展方向,而非以法律條文直接框定技術(shù)路線。

2.授權(quán)行業(yè)與場景制定特異性規(guī)則。承認(rèn)醫(yī)療、金融、交通、教育等不同領(lǐng)域在面對 AI 時有著不可通約的倫理密度、風(fēng)險強度與規(guī)制需求。國家立法應(yīng)授權(quán)醫(yī)療監(jiān)管機構(gòu)、金融監(jiān)管部門等,基于其專業(yè)知識和領(lǐng)域特性,制定本行業(yè)的 AI 應(yīng)用具體指南和標(biāo)準(zhǔn)。例如,由衛(wèi)健部門牽頭制定“醫(yī)療診斷 AI 臨床驗證標(biāo)準(zhǔn)”,由金融監(jiān)管部門制定“算法交易風(fēng)險壓力測試規(guī)程”。這種“領(lǐng)域理性優(yōu)先”原則,確保了規(guī)制深度嵌入技術(shù)應(yīng)用機理,實現(xiàn)“國家立法做減法,行業(yè)規(guī)則做加法”,既避免了統(tǒng)一立法的結(jié)構(gòu)性錯配,又發(fā)揮了行業(yè)監(jiān)管的專業(yè)優(yōu)勢。

3.組織倫理內(nèi)生。有效的治理最終要落腳到組織行為上,應(yīng)通過制度設(shè)計,推動企業(yè)將倫理與安全要求內(nèi)化為研發(fā)和運營的“免疫系統(tǒng)”?!白鳛閼?yīng)對方案,‘人在回路中’( HITL)策略被提出,它將人類判斷與人工智能技術(shù)相結(jié)合,以減少偏見并保證個性化的法律結(jié)果。”具體來說:一方面,要求達(dá)到一定規(guī)?;驈氖赂唢L(fēng)險 AI 研發(fā)的企業(yè)設(shè)立實質(zhì)性的倫理審查委員會,賦予其對重大算法迭代的暫停權(quán),并要求其發(fā)布年度 AI 倫理影響報告;另一方面,探索建立算法影響評估的強制制度,要求企業(yè)在部署可能對個人或社會產(chǎn)生重大影響的 AI 系統(tǒng)前,進行系統(tǒng)性評估并采取緩解措施。這使外部監(jiān)管壓力轉(zhuǎn)化為組織內(nèi)部的合規(guī)動力和倫理自覺,形成持續(xù)改進的微觀基礎(chǔ)。

這種分層治理體系形成了功能互補、權(quán)責(zé)清晰的差序格局,有效地化解了價值沖突,并尊重了技術(shù)在不同場景下的異質(zhì)性邏輯。

(三)工具創(chuàng)新:實現(xiàn)軟硬法協(xié)同的多元規(guī)范供給

為破解路徑依賴與監(jiān)管僵化,漸進式治理范式必須超越對“國家強制力”的單一依賴,構(gòu)建一個軟硬法相互協(xié)同、多元規(guī)范共生的治理工具箱。

1.技術(shù)標(biāo)準(zhǔn)的參數(shù)化與動態(tài)調(diào)適。“硬法”因其修訂程序冗長,難以跟上技術(shù)迭代。而技術(shù)標(biāo)準(zhǔn)具有靈活、專業(yè)、可量化的優(yōu)勢,可作為硬法的重要補充。應(yīng)大力推進人工智能可解釋性標(biāo)準(zhǔn)、數(shù)據(jù)安全標(biāo)準(zhǔn)、算法公平性標(biāo)準(zhǔn)等國家與行業(yè)標(biāo)準(zhǔn)的制定。這些標(biāo)準(zhǔn)能將“公平”“可控”等抽象法律原則轉(zhuǎn)化為機器可讀、可測量的技術(shù)參數(shù)(如群體公平性差異閾值),使倫理要求成為技術(shù)架構(gòu)的初始設(shè)定。更重要的是,標(biāo)準(zhǔn)可以通過版本升級等快速修訂來響應(yīng)新技術(shù)風(fēng)險(如針對生成式 AI 的“幻覺”指標(biāo)),實現(xiàn)規(guī)范與技術(shù)的近乎同步進化。

2.司法裁判的個案探索與規(guī)則形成功能。在立法留白或規(guī)范模糊之處,司法系統(tǒng)應(yīng)發(fā)揮個案裁判的獨特優(yōu)勢,依托案例的累積效應(yīng),為人工智能治理供給“實踐型法律規(guī)則”。法院審理人工智能侵權(quán)、算法歧視、生成內(nèi)容著作權(quán)等新型案件時,需著力提煉算法透明度、人類控制權(quán)重、損害可預(yù)見性等核心要素,搭建動態(tài)化責(zé)任評估框架。此類司法實踐推動的規(guī)則細(xì)化與原則明晰,能夠為后續(xù)立法提供寶貴的經(jīng)驗素材與規(guī)則雛形,進而形成“司法探索—經(jīng)驗?zāi)邸⒎▋?yōu)化”的良性循環(huán)。

3.倫理共識與行業(yè)自律的柔性規(guī)制力量。“軟法”雖欠缺強制約束力,卻可借由市場聲譽、行業(yè)準(zhǔn)入、社會評價等多元機制,發(fā)揮強有力的引導(dǎo)作用。“為了更好地實現(xiàn)軟法功能,必須從立法上對軟法體系進行整合,界定軟法的概念、將軟法作為法律淵源、以軟法補充公法體系、將軟法作為治理規(guī)則、將軟法作為追責(zé)依據(jù)?!睉?yīng)大力推動行業(yè)組織制定人工智能倫理公約,鼓勵企業(yè)發(fā)布負(fù)責(zé)人工智能發(fā)展承諾,組建行業(yè)自律組織開展資質(zhì)認(rèn)證與同行評議。當(dāng)“以人為本、智能向善”的理念從法律條文逐步轉(zhuǎn)化為行業(yè)共識、企業(yè)文化與工程師職業(yè)操守時,其治理成本最低且效果最為持久。這種植根于共識的柔性規(guī)制,與硬法的剛性底線形成互補,共同塑造了健康有序的人工智能創(chuàng)新生態(tài)。

軟硬法的協(xié)同共治,在于打造富有韌性的規(guī)范生態(tài)體系。硬法劃定不可逾越的治理紅線,軟法提供靈活調(diào)適的制度空間;司法裁判探索前沿爭議的解決路徑,技術(shù)標(biāo)準(zhǔn)推動治理規(guī)則的落地實施;倫理共識塑造市場主體的行為習(xí)慣,最終會顯著降低制度運行的整體成本。

總之,漸進式治理范式并不是現(xiàn)有立法模式的小修小補,而是一場深刻的范式變革。它以謙抑性為根基,在時間上為技術(shù)演進保留試錯緩沖區(qū),在空間上為多元規(guī)則留出共生界面,在規(guī)范上為軟硬法協(xié)同構(gòu)建耦合機制;它旨在汲取歐盟激進立法的僵化教訓(xùn)與規(guī)避美國分散治理的碎片化風(fēng)險,探索一條兼具原則性與靈活性、秩序與活力的“中國式中間道路”。最終,法治的智慧不在于編纂看似完美的最終法典,而在于培育一個能夠容納不確定性,并在動態(tài)平衡中持續(xù)進化的治理生態(tài)系統(tǒng),從而在技術(shù)革命的驚濤駭浪中,為人類尊嚴(yán)與價值守護提供最堅韌的制度之錨。

結(jié)語

人工智能的立法抉擇,本質(zhì)上是法治文明面對技術(shù)革命時的一場哲學(xué)自覺。筆者通過剖析技術(shù)不確定性與法律穩(wěn)定性的本體沖突、安全與發(fā)展價值的目標(biāo)悖論、控制論范式的路徑陷阱以及域外激進立法的實踐代價,證成了統(tǒng)一立法在當(dāng)前歷史條件下宜緩行的基本立場。技術(shù)的顛覆性、價值的不可通約性、治理的復(fù)雜性共同決定了,試圖以一部宏大法典鎖定未來圖景,不僅是理性的僭越,更將付出抑制創(chuàng)新與固化風(fēng)險的巨大代價。

中國人工智能立法的真正智慧在于,保持戰(zhàn)略耐心與制度謙抑,“遵循‘急用先行、逐步完善’兩步走的思路”,從“立法中心主義”轉(zhuǎn)向“治理生態(tài)學(xué)”。我們主張的漸進式治理范式,并非消極規(guī)避,而是更具前瞻性與韌性的法治進?。阂詴r間維度上的動態(tài)適配機制接納技術(shù)演進,以空間維度上的差序治理結(jié)構(gòu)回應(yīng)領(lǐng)域理性,以工具維度上的軟硬法協(xié)同激發(fā)多元共治。這條道路要求立法者摒棄“總工程師”的幻象,轉(zhuǎn)而扮演“生態(tài)園丁”的角色——培育土壤而非設(shè)計花朵,設(shè)定底線而非繪制藍(lán)圖。

唯有如此,方能在不確定性中守護確定性,在技術(shù)風(fēng)暴中錨定人的價值。法治的尊嚴(yán),從不在于法典的厚重,而在于制度為未來保留的包容性與生命力。這或許是中國為全球人工智能治理提供的最具啟示性的智慧:在謙抑中孕育力量,在漸進中抵達(dá)深遠(yuǎn)。

-向上滑動,查看完整目錄-

《河南財經(jīng)政法大學(xué)學(xué)報》2026年第2期目錄

【法治中國】

1.論人工智能統(tǒng)一立法應(yīng)緩行

——漸進式治理范式的構(gòu)建

房保國

2.低空經(jīng)濟發(fā)展視域下無人駕駛航空標(biāo)準(zhǔn)規(guī)制的法治重塑

鄒新凱

3.“健康中國”的法理內(nèi)涵及實現(xiàn)路徑

田蒙蒙

【數(shù)字法學(xué)】

4.數(shù)據(jù)占有行為的刑法規(guī)制限度

龔珊珊

5.個人信息自決權(quán)的權(quán)能拓展

——以大型平臺企業(yè)為視角

孫銘

【部門法學(xué)】

6.相對貧困背景下社會救助工作福利適用契約規(guī)則的反思與完善

王健

7.論行政公益訴訟第三人的規(guī)則建構(gòu)

——以國有建設(shè)用地使用權(quán)人作為閑置土地公益訴訟第三人為例

李松杰

8.人工智能致害犯罪中刑法因果關(guān)系的范式嬗變與歸責(zé)邊界

朱亮宇

9.“企業(yè)—國家”協(xié)同型民營企業(yè)內(nèi)部腐敗犯罪治理模式之提倡

李智偉

【紀(jì)檢監(jiān)察專欄】

10.紀(jì)檢監(jiān)察監(jiān)督與檢察監(jiān)督關(guān)系論綱

劉用軍

《河南財經(jīng)政法大學(xué)學(xué)報》是由河南財經(jīng)政法大學(xué)主辦的法學(xué)類專業(yè)學(xué)術(shù)期刊。1986年創(chuàng)刊,2012年由原《河南省政法管理干部學(xué)院學(xué)報》更名為《河南財經(jīng)政法大學(xué)學(xué)報》。本刊秉承“格物致知、明禮弘法”的辦刊理念,堅持辦刊的學(xué)術(shù)性,追求學(xué)術(shù)創(chuàng)新,嚴(yán)守學(xué)術(shù)規(guī)范,關(guān)注法學(xué)理論和實踐中的前沿問題、熱點、難點問題及其背后的深層次法理研究,注重制度建設(shè);包容不同學(xué)術(shù)觀點和學(xué)術(shù)思想。

點擊進入下方小程序

獲取專屬解決方案~

責(zé)任編輯 | 郭晴晴

審核人員 | 張文碩 韓爽

本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
11474文章數(shù) 17540關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠(yuǎn)方

無障礙瀏覽 進入關(guān)懷版