国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

戴昕 | 人工智能治理的兩種安全思維:批判與超越 | 環(huán)球法律評論202506

0
分享至

【作者 】戴昕(北京大學(xué)法學(xué)院長聘副教授)

【來源】北大法寶法學(xué)期刊庫《環(huán)球法律評論》2025年第5期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。


內(nèi)容提要:人工智能安全是各國當(dāng)前均重視的復(fù)雜治理議題。美國的人工智能治理實(shí)踐近年來受到“國家安全泛化”思維的影響,而歐盟對特定人工智能應(yīng)用采用禁令式立法,體現(xiàn)出其面對某些人工智能風(fēng)險時的“安全絕對化”思維。對于美歐兩大法域的這兩種安全思維,可結(jié)合相關(guān)法域治理者面臨的內(nèi)外環(huán)境與社會認(rèn)知及情緒加以理解。這兩種思維對于各國人工智能國內(nèi)治理體系的有效建構(gòu)與必要國際合作的開展均可能產(chǎn)生負(fù)面影響。對它們在理論層面加以批判性審視和分析,有助于中國超越類似思維的桎梏,有效探索有利于自身發(fā)展和人類命運(yùn)共同體的人工智能治理方案。

關(guān)鍵詞:人工智能治理;國家安全泛化;風(fēng)險規(guī)制;數(shù)據(jù)安全;內(nèi)容安全

目次 一、引論:人工智能時代的安全思維 二、從網(wǎng)絡(luò)自由到國家安全泛化:以TikTok事件為例 三、預(yù)防原則與禁令規(guī)制:歐盟《人工智能法》中的安全絕對化思維 四、兩種安全思維對治理的影響 五、思考人工智能安全治理的未來 六、結(jié)語

引論:人工智能時代的安全思維

事關(guān)安全的考量一向不簡單,在具體語境中,要追求何種安全,要保障多高程度的安全,不同個體及群體在認(rèn)知、偏好和觀念上常有明顯差異。

自互聯(lián)網(wǎng)普及以來,“安全”就一直是網(wǎng)絡(luò)數(shù)字治理的最基本面向。網(wǎng)絡(luò)數(shù)字語境中的安全議題覆蓋廣泛,極端者如網(wǎng)絡(luò)暴力致受害者死亡,嚴(yán)重者如電信詐騙造成民眾巨額財(cái)務(wù)損失,尋常者如電商平臺侵害消費(fèi)者權(quán)益,不一而足。國家安全當(dāng)然也是題中應(yīng)有之義——各類從一國境外發(fā)起、針對該國網(wǎng)絡(luò)基礎(chǔ)設(shè)施的破壞行動,或借助網(wǎng)絡(luò)開展的各類敵意行動,在公開報道中時有出現(xiàn)。而當(dāng)人工智能技術(shù)逐步被引入數(shù)字經(jīng)濟(jì)的生產(chǎn)組織和生產(chǎn)場景后,許多互聯(lián)網(wǎng)時代已出現(xiàn)的問題延續(xù)下來并有所演進(jìn)。例如,作為當(dāng)代網(wǎng)絡(luò)法治“原點(diǎn)”問題的網(wǎng)絡(luò)性暴力現(xiàn)象,在元宇宙和體感交互技術(shù)的“助力”下,生出更為惡劣的形態(tài),也引發(fā)新一輪安全治理呼聲。而在總體更為嚴(yán)重的安全焦慮籠罩下,無論社會公眾還是決策精英,其有關(guān)人工智能治理的話語、認(rèn)知和思維,相比于此前互聯(lián)網(wǎng)時代的基調(diào)都有明顯轉(zhuǎn)變,安全作為治理議題的優(yōu)先性更為突出。

但人工智能治理語境中,各國治理者尋求實(shí)現(xiàn)的“安全”到底意味著什么?結(jié)合對有代表性的制度動態(tài)的觀察,本文嘗試識別并分析美國和歐盟這兩大主要法域近年來呈現(xiàn)的有關(guān)人工智能安全的政策思維模式。以TikTok事件相關(guān)法律流程為典型樣本,可看到美國在人工智能治理領(lǐng)域的安全思維有“國家安全泛化”傾向。相比早先治理互聯(lián)網(wǎng)時的自由放任姿態(tài),美國近年將國家安全作為統(tǒng)領(lǐng)人工智能治理論域的首要議題,其范疇也遠(yuǎn)超出如自動化武器、大規(guī)模網(wǎng)絡(luò)攻擊等場景,橫向吸納了內(nèi)容、數(shù)據(jù)、算法治理等各類此前與國家安全有一定區(qū)別的常規(guī)議題。不但美國立法和行政機(jī)關(guān)可在并無“實(shí)錘”的情況下認(rèn)定一家商業(yè)社交媒體平臺構(gòu)成“嚴(yán)重、特殊的國家安全風(fēng)險”,而且司法機(jī)關(guān)也會對政府泛化國家安全的舉措予以合憲性確認(rèn)。

而以《人工智能法》(Artificial Intelligence Act)為觀察樣本,歐盟有關(guān)人工智能安全治理的思維模式受其在風(fēng)險規(guī)制領(lǐng)域采用的預(yù)防原則(precautionary principle)影響,傾向于對特定人工智能風(fēng)險作靜態(tài)認(rèn)知、對安全作絕對化追求。盡管《人工智能法》在外觀上呈現(xiàn)出技術(shù)理性的特點(diǎn),嘗試在梳理應(yīng)用場景、區(qū)分評估風(fēng)險的基礎(chǔ)上搭建規(guī)制架構(gòu),但其背后存在情緒性因素驅(qū)動。這尤其體現(xiàn)在該法對“不可接受風(fēng)險”(unacceptable risks)的識別及其采取的缺乏動態(tài)考量的禁令式應(yīng)對之上。在憂慮人工智能風(fēng)險的情緒于全球流行之際,歐洲決策者更看重的是在法律和政策層面率先拋出鮮明但趨于絕對化的安全至上立場。

本文將對美歐前述兩種有關(guān)人工智能治理的安全思維作批判性分析。毫無疑問,上述安全思維不足以勾勒全球范圍內(nèi)有關(guān)人工智能安全治理思維的完整圖譜。借助對美歐相關(guān)制度動態(tài)的觀察,本文旨在提煉這兩種具有普遍性的思維模式,并批判性地分析其對人工智能治理的可能負(fù)面影響。國家安全泛化思維會阻礙人工智能治理領(lǐng)域有益且必要的國際合作,也會影響一國國內(nèi)安全治理的正常建構(gòu)和實(shí)施。而安全絕對化思維強(qiáng)化了人工智能治理領(lǐng)域中常見的非此即彼、非黑即白的思維慣性,過早放棄了對有正面社會價值的應(yīng)用本可采取的更為克制、動態(tài)適應(yīng)的監(jiān)管方案。中國應(yīng)有意識地避免前述兩種思維的負(fù)面影響,尋求有利于保障人工智能積極健康發(fā)展的治理方案。

從網(wǎng)絡(luò)自由到國家安全泛化:以TikTok事件為例

美國在網(wǎng)絡(luò)數(shù)字領(lǐng)域長期標(biāo)榜其自由競爭、開放創(chuàng)新的治理理念。即便在如《國際緊急狀態(tài)經(jīng)濟(jì)權(quán)力法》(International Emergency Economic Powers Act)這樣與國家安全直接相關(guān)的限制性涉外立法中,美國也曾專門將跨境信息流動排除在限制性監(jiān)管的適用范圍之外。但近年來,美國對地緣競爭及相關(guān)國家安全考量日益看重,政府對科技領(lǐng)域的干預(yù)動力明顯增強(qiáng)。自2018年以來,美國政府多次叫停、阻攔涉及中國企業(yè)在美科技領(lǐng)域投資的交易。而為遏制中國發(fā)展先進(jìn)人工智能,美國政府運(yùn)用包括出口管制在內(nèi)的各類直接和間接規(guī)制手段,限制中國獲得研發(fā)所需硬件和軟件。當(dāng)中方取得如深度求索(DeepSeek R1)一類研發(fā)進(jìn)展時,就會被視為構(gòu)成針對美國的嚴(yán)重國家安全風(fēng)險。更諷刺的是,這種官方敘事如今已被傳統(tǒng)上宣揚(yáng)技術(shù)無國界的美國產(chǎn)業(yè)界廣泛采納。像OpenAI等美國頭部人工智能企業(yè)均公開向白宮建言加大針對中國的限制力度。盡管國家安全泛化思維在美國涉新型人工智能的法律、監(jiān)管和政策領(lǐng)域相當(dāng)突出,但其對法律流程的全面、深刻影響,在TikTok事件這一涉及“老一代”人工智能——內(nèi)容推薦算法——的案例中呈現(xiàn)得尤為明顯。TikTok事件的法律紛爭表明,包括數(shù)據(jù)安全、內(nèi)容安全等在內(nèi)的傳統(tǒng)治理議題,在美國已被深度統(tǒng)合到國家安全議題之下,這使得國家干預(yù)數(shù)字經(jīng)濟(jì)活動的傳統(tǒng)邊界規(guī)則被根本動搖。

(一)流行短視頻社交平臺的“國家安全風(fēng)險”

2024年4月,美國會通過的《保護(hù)美國人免受外國對手控制應(yīng)用程序侵害法》(Protecting Americans from Foreign Adversary Controlled Applications Act)被時任總統(tǒng)拜登簽署生效。該法中,知名短視頻社交媒體公司TikTok及其母公司字節(jié)跳動被指名道姓認(rèn)定為“受外國對手控制”,并被要求在法案生效后270天之內(nèi)完成“符合標(biāo)準(zhǔn)的權(quán)益剝離”(qualified divesture),否則不得繼續(xù)在美國境內(nèi)運(yùn)營。所謂“符合標(biāo)準(zhǔn)的權(quán)益剝離”,指TikTok需通過交易等方式將其股權(quán)中由“外國對手”直接或間接持有的比例降至20%以下。TikTok及其用戶隨即在哥倫比亞特區(qū)聯(lián)邦上訴法院提起訴訟,控告該法違憲。TikTok方提出,由于技術(shù)、商業(yè)和法律三方面因素,TikTok不可能按時完成權(quán)益剝離,因此該法實(shí)際上就是對TikTok的禁令,對言論自由構(gòu)成嚴(yán)重限制,需接受嚴(yán)格合憲性審查。在應(yīng)訴狀中,美司法部為論證“不賣就禁”的合憲性提出的論點(diǎn)之一,是這一措施符合并服務(wù)于最重要的國家利益,即應(yīng)對TikTok構(gòu)成的所謂“特殊的國家安全風(fēng)險”。為支持上述論點(diǎn),美司法部最初只援引了一些充滿臆測的媒體報道和智庫材料,后向法庭提交了一份長達(dá)174頁的國會內(nèi)部聽證發(fā)言記錄,但又以涉密為由拒絕讓原告查看這些所謂的事實(shí)證據(jù)。而就該論點(diǎn)的邏輯而言,“因?yàn)橹忻来嬖诟偁庩P(guān)系,所以中國未來可能利用一切手段傷害美國”,這是典型的“莫須有”。

如此缺乏事實(shí)基礎(chǔ)和邏輯性的敘事,在此前其他針對中國企業(yè)的案件中就已被美政府拋出,而其被不斷重復(fù)、擴(kuò)散后,逐漸便在美國公共政策話語中獲得近乎“常識”的認(rèn)知待遇。美國法院對此幾乎照單全收。2024年9月16日,哥倫比亞特區(qū)聯(lián)邦巡回上訴法院組織了該案初審的口頭辯論,主審法官在庭上甚至直接給作為被告的政府“支招”,提示其應(yīng)去查閱一個對其有利的先例。而在12月6日做出的初審判決中,撰寫附和意見的法官提出即便《保護(hù)美國人免受外國對手控制應(yīng)用程序侵害法》構(gòu)成基于內(nèi)容限制表達(dá)自由、應(yīng)適用最嚴(yán)格的合憲審查標(biāo)準(zhǔn),只要國會認(rèn)為有必要“假設(shè)”國家安全風(fēng)險的存在、判斷其他措施不足以應(yīng)對此種風(fēng)險,法院也便不宜置喙。TikTok在初審判決后緊急向美聯(lián)邦最高法院上訴,后者予以受理并加急審理。但在2025年1月17日做出的簡短一致判決中,美最高法院認(rèn)為“不賣就禁”的限制是針對所有權(quán)結(jié)構(gòu),并非針對言論內(nèi)容本身,只需適用中等水平審查;盡管政府在證成禁令時提到了內(nèi)容安全考量,但其同時提出了內(nèi)容中立的數(shù)據(jù)安全理由,后者足以支持該法的合憲性。

2025年1月19日,《保護(hù)美國人免受外國對手控制應(yīng)用程序侵害法》原定的“不賣就禁”期限達(dá)至,TikTok短暫在全美下線半天。但自特朗普1月20日就任以來,多次簽署行政令,要求美司法部暫停依據(jù)《保護(hù)美國人免受外國對手控制應(yīng)用程序侵害法》對TikTok執(zhí)法,以尋求與中方協(xié)商解決該公司相關(guān)股權(quán)與運(yùn)營安排。

(二)以數(shù)據(jù)安全捍衛(wèi)內(nèi)容安全:國家安全泛化的典型路徑

傳統(tǒng)上,數(shù)據(jù)安全治理針對的主要威脅是未經(jīng)許可的數(shù)據(jù)獲取行為,廣義上也涵蓋網(wǎng)絡(luò)攻擊導(dǎo)致的隱私侵害。而內(nèi)容安全治理主要針對可能致害的特定違法違規(guī)信息內(nèi)容,常見如誹謗、虛假廣告、兒童色情等。各國就數(shù)據(jù)安全和內(nèi)容安全形成了有區(qū)別的治理和監(jiān)管議題域。數(shù)據(jù)安全相關(guān)制度主要包含對數(shù)據(jù)控制者和基礎(chǔ)設(shè)施控制者提出的合規(guī)操作要求,從技術(shù)、流程、制度規(guī)范等方面追求控制泄露和惡意盜取等風(fēng)險,并結(jié)合通知、賬號被盜用的保護(hù)等機(jī)制為受影響人群提供救濟(jì)。而內(nèi)容規(guī)制則基于平臺運(yùn)用的類型極為豐富的審核、發(fā)布和傳播限制、問責(zé)等機(jī)制,尋求控制致害信息的負(fù)面影響,緩解社會保護(hù)與表達(dá)自由、文化多元之間的張力。只是出于價值取向不同,各國在認(rèn)定何種內(nèi)容足夠有害、必須受到何種限制方面常有差異。

數(shù)據(jù)安全與內(nèi)容安全的規(guī)制論域中各有部分牽涉國家安全。數(shù)據(jù)安全中的國家安全風(fēng)險,主要涉及外國發(fā)起的間諜情報活動,以及結(jié)合數(shù)據(jù)對網(wǎng)絡(luò)基礎(chǔ)設(shè)施實(shí)施的攻擊。而內(nèi)容安全中的國家安全風(fēng)險主要涉及外國勢力有針對性的宣傳、煽動和滲透。上述國家安全風(fēng)險傳統(tǒng)上隨時局變化起伏,但并非國內(nèi)治理場域中的常規(guī)議題。然而在TikTok案中,可以明顯看出,數(shù)據(jù)安全與內(nèi)容安全這兩大議題,在美國政府泛化國家安全的總體思路下已形成法律層面的相互綁定。在法律層面,這種綁定的后果直到TikTok事件才充分彰顯,即其導(dǎo)致美國憲法第一修正案對于媒體原本提供的保護(hù)在數(shù)字時代遭遇“短路”。傳統(tǒng)上,如果美國政府直接以特定媒體發(fā)表、傳播的內(nèi)容為對象出手規(guī)制,會面臨極高的合憲性審查要求。但正如本案中美國最高法院選擇的論證策略一樣,如果政府以保護(hù)上升為國家安全的數(shù)據(jù)安全作為理由規(guī)制社交媒體,即使相關(guān)規(guī)制措施會對平臺承載的表達(dá)產(chǎn)生影響,也更難被認(rèn)定違憲。根據(jù)學(xué)者的觀察,在國會支持下,美政府自2018年以來以國家安全名義干預(yù)跨境數(shù)據(jù)流動的權(quán)力持續(xù)擴(kuò)張。而在當(dāng)前法律體制下,數(shù)據(jù)安全規(guī)制實(shí)質(zhì)上就是內(nèi)容規(guī)制,卻又是更容易通過合憲審查的內(nèi)容規(guī)制,政府預(yù)計(jì)可以數(shù)據(jù)安全而非內(nèi)容安全的理由更多干預(yù)社交媒體平臺。

更一般而言,TikTok事件的法律紛爭突出展示了美國在人工智能治理領(lǐng)域中泛化國家安全的思維模式及其影響。這種泛化顯然不會止于社交媒體這種“老一代”人工智能的治理論域。至少就當(dāng)下最熱的生成式人工智能而言,其相關(guān)技術(shù)的核心原理仍可理解為“基于數(shù)據(jù)生成內(nèi)容”,因此政府出于內(nèi)容安全擔(dān)憂要求管控?cái)?shù)據(jù)、借助管控?cái)?shù)據(jù)謀求內(nèi)容規(guī)制的思路,定會延伸至此。甚至,由于生成式人工智能在結(jié)合推薦算法的基礎(chǔ)上,將進(jìn)一步放大內(nèi)容風(fēng)險,因此美國政府將視生成式人工智能為更大的國家安全風(fēng)險,其以內(nèi)容安全為實(shí)際目標(biāo)的管控措施也已超越了數(shù)據(jù)和算法,進(jìn)一步達(dá)至算力層面。而在TikTok事件中,企業(yè)本已主動提出建立將全部數(shù)據(jù)存放在可信第三方、允許政府對算法和數(shù)據(jù)行為深入監(jiān)控的安全方案,即所謂“德州計(jì)劃”(Project Texas),但仍不被美國政府接受。當(dāng)美國這種所謂傳統(tǒng)科技自由大國在治理思維上轉(zhuǎn)向國家安全泛化,包括歐盟、英國、澳大利亞等在內(nèi)的其他主要經(jīng)濟(jì)體,在人工智能治理領(lǐng)域同樣可能擴(kuò)張基于國家安全的投資經(jīng)貿(mào)限制措施。

預(yù)防原則與禁令規(guī)制:歐盟《人工智能法》中的安全絕對化思維

歐盟于2024年推出了全球首部人工智能立法,其基于風(fēng)險分級的立法模式獲得廣泛關(guān)注。有批評者認(rèn)為《人工智能法》的風(fēng)險分級本身科學(xué)性存疑,且缺乏對技術(shù)應(yīng)用風(fēng)險及其規(guī)制的必要場景化理解;有些認(rèn)為其過于死板、缺乏足夠靈活性;另一些則反過來認(rèn)為關(guān)注規(guī)制風(fēng)險會導(dǎo)致保護(hù)權(quán)利不足。本文無意就《人工智能法》的立法科學(xué)性和政策合理性做完整評述,而希望將其中部分規(guī)定——尤其是第5條——作為樣本,分析其反映的安全絕對化思維。盡管歐盟決策者意識到發(fā)展自身人工智能產(chǎn)業(yè)的戰(zhàn)略重要性,但其在人工智能安全治理問題上延續(xù)了厭惡風(fēng)險的預(yù)防原則進(jìn)路。這種絕對化強(qiáng)調(diào)安全的思路,在應(yīng)對社會情緒敘事方面或有價值,但可能過于輕易地放棄了在發(fā)展中尋求安全解法的機(jī)會。

(一)預(yù)防原則與“不可接受風(fēng)險”應(yīng)用禁令

在環(huán)境污染和食藥安全等傳統(tǒng)風(fēng)險規(guī)制議題上,歐美之間一直被認(rèn)為存在范式差異,前者奉行預(yù)防原則,后者則總體上采用成本收益分析,而何者更優(yōu)則是學(xué)術(shù)界持續(xù)爭論的話題。人工智能安全成為風(fēng)險規(guī)制新的核心主題后,二者間比較也變得愈發(fā)微妙。所謂“預(yù)防原則”,簡單說即在特定風(fēng)險的存在和嚴(yán)重程度無法科學(xué)確證的情況下,規(guī)制者不能因“不確定有害”就不積極作為,而應(yīng)推定其足夠危險并加以干預(yù)。成本收益分析則要求決策者在預(yù)防特定風(fēng)險的安全收益未必大于相應(yīng)預(yù)防措施自身成本時不要輕舉妄動,以避免導(dǎo)致更糟糕的未意圖后果。傳統(tǒng)討論中,成本收益分析經(jīng)常被視為更“理性”,而基于預(yù)防原則的風(fēng)險規(guī)制被認(rèn)為是決策者受困于“損失厭惡”或其他認(rèn)知偏誤的產(chǎn)物,甚至被稱為“恐懼之法”。

有關(guān)風(fēng)險的社會敘事對于公共決策等社會行動一向都有很強(qiáng)的驅(qū)動能力。除了常見的傳言或“都市傳說”(urban myth)外,不少風(fēng)險敘事是由專業(yè)精英或領(lǐng)域?qū)<医Y(jié)合專業(yè)知識建構(gòu)的,后者被經(jīng)濟(jì)學(xué)家席勒稱為“專業(yè)敘事”,其在公共政策層面產(chǎn)生的影響可能更大。在人工智能領(lǐng)域,包括曾獲諾貝爾物理學(xué)獎的“機(jī)器學(xué)習(xí)之父”辛頓(Geoffrey Hinton)和商界巨頭馬斯克(Elon Reeve Musk)在內(nèi),許多科技業(yè)內(nèi)人士近年都開始高調(diào)鼓吹人工智能毀滅人類文明的存亡風(fēng)險(existential risk)。而根據(jù)席勒(Robert Shiller)的梳理,自二戰(zhàn)以來至少出現(xiàn)過四波有關(guān)人工智能將替代大量勞動的敘事,這些敘事調(diào)高了人們對經(jīng)濟(jì)蕭條即將發(fā)生、自身即將失業(yè)的預(yù)期,由此均產(chǎn)生過抑制社會消費(fèi)的效果。

當(dāng)風(fēng)險敘事足夠強(qiáng)勁時,其底層的事實(shí)基礎(chǔ)再薄弱,也有較大可能影響到制度和政策實(shí)踐?!度斯ぶ悄芊ā芬匀斯ぶ悄芟到y(tǒng)應(yīng)用的風(fēng)險高低,分出“最小風(fēng)險”“有限風(fēng)險”“高風(fēng)險”和“不可接受的風(fēng)險”四檔,對應(yīng)匹配寬嚴(yán)有別的規(guī)制。盡管這種分級分類的結(jié)構(gòu)總體看追求差異化監(jiān)管,但進(jìn)入結(jié)構(gòu)內(nèi)部,卻不難發(fā)現(xiàn)其體現(xiàn)出絕對化強(qiáng)調(diào)安全的思維:如果某種人工智能系統(tǒng)應(yīng)用被立法者認(rèn)為可能導(dǎo)致“不可接受的風(fēng)險”,這些應(yīng)用便在原則上被該法禁止。而根據(jù)《人工智能法》第5條,“被禁止的人工智能實(shí)踐”包括:(1)侵入潛意識、尋求操控或欺騙;(2)利用個人弱點(diǎn);(3)社會評分;(4)犯罪風(fēng)險評估;(5)無區(qū)別地爬取面部圖像;(6)情緒推斷;(7)基于生物特征進(jìn)行分類;(8)公共場所實(shí)時遠(yuǎn)程生物識別。上述應(yīng)用當(dāng)然有不難想象的風(fēng)險,如可能危害個體安全、自由、權(quán)利。但除了(1)和(2)之外,前述實(shí)踐應(yīng)被一律禁止,還是應(yīng)在承認(rèn)可能有應(yīng)用價值的前提下被有效治理,并非無可爭議。

特別是,第5(1)(c)條所禁止的基于人工智能的“社會評分”(social scoring),之所以會被認(rèn)為構(gòu)成“不可接受的風(fēng)險”,與歐盟立法者近年來迷信的關(guān)于社會信用體系建設(shè)的風(fēng)險敘事脫不開干系。所謂“社會信用”(social credit),即基于傳統(tǒng)征信數(shù)據(jù)外的行為數(shù)據(jù)評估借款人違約風(fēng)險的做法,本身是西方首創(chuàng)。而如荷蘭、奧地利、法國等國,在社會保障等公共管理領(lǐng)域早已有基于評分開展篩查審核的做法。但基于意識形態(tài)及有關(guān)西方社會自身嚴(yán)重種族歧視等問題的憂慮,歐盟建構(gòu)出了有關(guān)“社會評分”的風(fēng)險敘事。

雖然第5(1)(c)條中針對社會評分的規(guī)則在原則上被表述為“禁令”,但細(xì)讀條文就能發(fā)現(xiàn),這一“禁令”到底禁止了什么并不清楚。該條號稱要禁止所有基于“社會行為”對個體或群體的評價或區(qū)別式評分,但“社會行為”概念極為寬泛,將與此相關(guān)的評分全部禁止不切實(shí)際。因此條文中又加上了諸多限定和豁免條款,指出被禁止的評分需要給人造成“不合比例”或“無法正當(dāng)化”的負(fù)面影響,且不包括那些符合歐盟或成員國法律、為特定目的開展的評分實(shí)踐。上述限定中,沒有一條足夠確切,各有巨大解釋空間。而歐盟委員會在2025年2月發(fā)布的指南中,更承認(rèn)該條的適用留有諸多“個案評估”空間,可能給許多實(shí)踐操作留出口子。

(二)風(fēng)險敘事及其應(yīng)對

《人工智能法》對“不可接受風(fēng)險”作出姿態(tài)上“一刀切”式禁令,在客觀應(yīng)對風(fēng)險的意義上未必合理,也無法真正落地?!度斯ぶ悄芊ā返牧⒎ㄕ哂幸夥艞壛死硇约僭O(shè),轉(zhuǎn)而更多關(guān)注風(fēng)險規(guī)制具有的社會溝通屬性。

理性主義規(guī)制假定只有以科學(xué)態(tài)度應(yīng)對風(fēng)險,才能真正有效管控風(fēng)險;用科學(xué)方式向公眾提供信息,能夠幫助公眾校正認(rèn)知;而只要理性政策取得最優(yōu)規(guī)制效果,就能贏得人心,化解“非理性”敘事對社會認(rèn)知和行動的影響。但在人工智能風(fēng)險面前,上述假設(shè)是否成立值得疑問。首先,人工智能風(fēng)險活動可能的傷害后果及傷害發(fā)生的概率均有較高不確定性,“理性”的風(fēng)險認(rèn)知在科學(xué)上有局限,甚至科學(xué)的態(tài)度本就意味著已有知識不足以支持選用某種特定應(yīng)對策略。其次,風(fēng)險本身不只是純粹的客觀事實(shí),而是一個具有主體間性的概念。脫離社會共同體及其成員的主觀感知與情緒反應(yīng),我們并不能對“風(fēng)險”及其影響實(shí)現(xiàn)全面理解。例如,針對某些病毒性傳染病,除了病毒“客觀”的生物屬性對其致病性和傳播速率有影響之外,公眾對相關(guān)疾病的認(rèn)知、理解及情感反應(yīng)本身也會影響病毒的實(shí)際傳播和致病后果。因此,將“非理性”的認(rèn)知和情緒排除出風(fēng)險規(guī)制的決策視野,可能意味著無法對癥下藥。再次,通過溝通、慎議確保社會認(rèn)知遵循理性往往是過于理想化的指望,而在社交媒體建構(gòu)的認(rèn)知環(huán)境下,對誤導(dǎo)信息實(shí)現(xiàn)有效干預(yù)的政策難度會更大。最后,想要繞開溝通、純憑規(guī)制效果說服公眾,也沒有直觀上那么簡單。理性的風(fēng)險規(guī)制追求權(quán)衡意義上的最優(yōu),這意味著必然有部分風(fēng)險會落實(shí)為損失。如果傷害事件仍然發(fā)生,公眾可能接受“風(fēng)險規(guī)制并未奏效、實(shí)際失敗”的敘事。而如果權(quán)威部門對公眾心理和情緒始終不聞不問,只是“悶頭開干”,那么敘事驅(qū)動下的公眾行為就可能成為理性風(fēng)險規(guī)制展開并見效的障礙。

基于此,在人工智能風(fēng)險成為重要社會話題時,如果監(jiān)管者和政策制定者明確提出某種特定風(fēng)險,例如歧視加劇風(fēng)險、致害事故失控風(fēng)險、大規(guī)模替代風(fēng)險等,尚無確鑿科學(xué)依據(jù),立法和監(jiān)管不宜妄動,這即便在客觀意義上是理性的,但政策實(shí)效也較為可疑。這是因?yàn)?,一旦有傷害事件?shí)際發(fā)生,而公眾認(rèn)為權(quán)威機(jī)關(guān)毫無作為,此時前者可能更多訴諸自發(fā)預(yù)防或防護(hù),但這些行為要么無效,要么有效也因分散、缺乏協(xié)調(diào)而不如集中、有序、充分協(xié)調(diào)的風(fēng)險應(yīng)對更有效率,反而耗費(fèi)更多社會資源。抑或,若權(quán)威決策者起初堅(jiān)持理性克制監(jiān)管的姿態(tài),但當(dāng)傷害事件發(fā)生后,公眾情緒反應(yīng)過度強(qiáng)烈,決策者被逼無奈要作180度轉(zhuǎn)彎,這又會導(dǎo)致法律、政策和監(jiān)管實(shí)踐波動過于劇烈。相比于穩(wěn)定的嚴(yán)格監(jiān)管姿態(tài),波動過大的制度環(huán)境可能反而更不利于產(chǎn)業(yè)發(fā)展和創(chuàng)新投入。在波動過大的監(jiān)管環(huán)境下,企業(yè)家會有動力追求在監(jiān)管寬松時期以最快速度套現(xiàn)獲利,在政策轉(zhuǎn)向的前夜迅速離場。而這不但不利于創(chuàng)新,本身也孕育風(fēng)險:產(chǎn)業(yè)主體會放棄長期主義,尋求把成本盡可能外部化,而不會致力于與公眾共同應(yīng)對或分擔(dān)技術(shù)變革的風(fēng)險。

兩種安全思維對治理的影響

人工智能等新興科技發(fā)展迅速,在任何給定時點(diǎn),人們對其應(yīng)用可能帶來的風(fēng)險達(dá)成客觀、充分甚至完整的認(rèn)知或理解都很困難。美歐在人工智能治理領(lǐng)域呈現(xiàn)出的“國家安全泛化”和“安全絕對化”兩種思維,各有其政治社會乃至文化基礎(chǔ)。而在充分理解其各自背后的驅(qū)動性社會訴求基礎(chǔ)上,我們還需要批判分析兩種安全思維對人工智能治理可能產(chǎn)生的影響。

(一)國家安全泛化與人工智能安全的困境

無論對于國內(nèi)還是國際治理而言,泛化國家安全的思維模式恰恰不利于推進(jìn)真正有效的人工智能安全治理。首先,國家安全泛化不利于國內(nèi)治理體系建設(shè)。如前所述,人工智能相關(guān)的數(shù)據(jù)風(fēng)險和內(nèi)容風(fēng)險,當(dāng)前在美國日益被主要作為國家安全問題來處理。當(dāng)國家安全泛化時,國內(nèi)監(jiān)管和治理難免投鼠忌器,各國均擔(dān)憂自身實(shí)施的監(jiān)管過于嚴(yán)格,會限制其國內(nèi)產(chǎn)業(yè)相對于他國產(chǎn)業(yè)的競爭力。特朗普第二次就任總統(tǒng)后立即廢止了拜登時期頒布的內(nèi)容較為全面的人工智能安全行政令,這雖有黨派政治斗爭的出發(fā)點(diǎn),但也明顯以為美國產(chǎn)業(yè)創(chuàng)新進(jìn)一步松綁為落腳點(diǎn)。過度監(jiān)管會限制技術(shù)進(jìn)步,但以保護(hù)創(chuàng)新為名徹底放任風(fēng)險也不合理。即使暫且擱置極端風(fēng)險不論,新型人工智能應(yīng)用的推廣本身也會導(dǎo)致數(shù)據(jù)安全和內(nèi)容安全風(fēng)險加劇,這些風(fēng)險雖不必然與國家安全關(guān)聯(lián),但本身足夠重要。例如,生成式人工智能在訓(xùn)練和輸出環(huán)節(jié)都可能涉及對個人數(shù)據(jù)的處理,而其輸出的內(nèi)容則可能包含有害信息。對于這些幾十年來網(wǎng)絡(luò)治理領(lǐng)域的頑疾,各國本可持續(xù)探索適當(dāng)監(jiān)管策略。但若受泛化國家安全的思維模式影響,將相關(guān)治理主要圍繞國家安全或外來威脅展開,可能會導(dǎo)致監(jiān)管同時過嚴(yán)和過松。以TikTok事件為例,一方面,只因其有所謂國家安全風(fēng)險,哪怕企業(yè)同意在“德州計(jì)劃”框架下接受美國政府嚴(yán)格監(jiān)管,也仍被認(rèn)定無法滿足“安全”要求;另一方面,可一般適用于美國老牌社交媒體平臺的聯(lián)邦數(shù)據(jù)隱私立法,多年來在游說阻力下無法出臺。

其次,國家安全泛化會阻礙必要的國際共識形成與合作開展。人工智能安全領(lǐng)域的許多議題固然有其文化性,但不意味著國家間無法形成任何共識。例如,就內(nèi)容安全問題而言,各國對于惡意欺詐消費(fèi)者的虛假信息的有害性和規(guī)制必要性就可以有共識。再如,各國對成年人是否可以接觸色情內(nèi)容并無共識,但對于禁止兒童色情,乃至禁止未成年人接觸色情制品,在較大范圍內(nèi)有共識。國家間需要通過溝通和對話識別、促成這類共識,并在相關(guān)共識基礎(chǔ)上形成合作。但囿于國家安全泛化的思維模式,對零和博弈的渲染遮蔽了這些共通性。2025年7月,特朗普政府發(fā)布了新的白宮人工智能政策,其開篇即將政策核心宗旨定調(diào)為贏得針對中國的人工智能競爭,這使得相關(guān)框架下人們很難尋找、開拓必要的合作空間。

而新型人工智能技術(shù)及其應(yīng)用的能力日益強(qiáng)大,且模型開源,這使得有致害可能的人工智能技術(shù)能力的擴(kuò)散存在失控風(fēng)險。與核擴(kuò)散失控風(fēng)險所明確對應(yīng)的共同毀滅性后果相比,人工智能應(yīng)用能力擴(kuò)散的積極和消極后果很難全面預(yù)估。競爭中的各國均有憑借技術(shù)優(yōu)勢壓倒對方而同時確保自身毫發(fā)無傷的指望,這使得各國間更可能陷入安全競爭的困境。在生成式人工智能廣泛應(yīng)用于社交媒體內(nèi)容生產(chǎn)后,可預(yù)計(jì)美國乃至更多國家都會進(jìn)一步尋求限制跨國數(shù)字媒體平臺在本國運(yùn)營。同時,“進(jìn)攻就是最好的防守”,為爭奪意識形態(tài)影響力優(yōu)勢,各國也將有動力投入更多資源開發(fā)基于人工智能的高強(qiáng)度認(rèn)知操控技術(shù)。

(二)安全絕對化思維的風(fēng)險

雖然歐盟《人工智能法》所體現(xiàn)出的缺乏靈活性的絕對化安全思維并非全然不理性,但追求以嚴(yán)格監(jiān)管姿態(tài)回應(yīng)社會情緒,也可能引發(fā)至少兩類未意圖后果。

第一,由于“確認(rèn)偏誤”(confirmation bias)的作用,嚴(yán)厲的法律和政策表態(tài),反而可能強(qiáng)化既有風(fēng)險敘事對公眾認(rèn)知和情緒的影響。所謂“確認(rèn)偏誤”,是指人們通常會傾向于用與其既有信念一致的方式搜尋或解讀新的信息。若權(quán)威機(jī)關(guān)對風(fēng)險敘事作積極迎合姿態(tài),公眾固然可能因看到前者與其認(rèn)知一致而感到寬慰,卻也可能認(rèn)為這種姿態(tài)恰恰印證了風(fēng)險敘事的可信性。在近年有關(guān)算法和人工智能的公共討論中,相關(guān)風(fēng)險敘事時常伴隨或引發(fā)人們的負(fù)面情緒。例如有關(guān)人臉識別、算法公共決策、自動駕駛、智能診療等應(yīng)用可能帶來嚴(yán)重風(fēng)險的討論,往往都有某種“人機(jī)雙標(biāo)”(human-machine double standard)傾向,即在相應(yīng)領(lǐng)域中人類行為同樣有致害風(fēng)險,公眾甚至專家卻對換用機(jī)器后可能導(dǎo)致的更小風(fēng)險格外看重并抵觸。根據(jù)研究者梳理,個體心理傾向、群體認(rèn)知習(xí)慣和特定任務(wù)屬性等因素都會導(dǎo)致或加劇社會話語與行動層面的“算法厭惡”。人工智能相關(guān)風(fēng)險敘事同樣會加劇“算法厭惡”。如不能有效、系統(tǒng)、全面對待與這些認(rèn)知相互強(qiáng)化的風(fēng)險敘事,嚴(yán)厲的監(jiān)管姿態(tài)可能進(jìn)一步強(qiáng)化認(rèn)知偏誤。

第二,在以立法形式做出嚴(yán)厲治理表態(tài)后,決策者或許同時寄望由監(jiān)管或司法機(jī)關(guān)借助實(shí)施細(xì)則、裁判規(guī)則等微觀制度工具,為人工智能研發(fā)和應(yīng)用活動提供相對寬松也更可預(yù)期的規(guī)制環(huán)境,構(gòu)造“音效隔離”。但這樣的制度結(jié)構(gòu)會為監(jiān)管俘獲制造條件。經(jīng)驗(yàn)意義上,風(fēng)險規(guī)制從來都是利益集團(tuán)密集投入資源尋求政策影響的領(lǐng)域,游說動力、游說行動和游說成果的存在,本不應(yīng)令人感到意外。規(guī)制機(jī)構(gòu)的中立性和專業(yè)性本應(yīng)有助于抑制監(jiān)管俘獲,但若這兩點(diǎn)本身得不到有效保證,且監(jiān)管規(guī)則制定和執(zhí)法開展的過程透明度不足,特別利益尋求俘獲公器的機(jī)會就相當(dāng)可觀。即便事實(shí)上不存在俘獲,一旦“音效隔離”失敗,民眾發(fā)覺立法嚴(yán)厲表態(tài)之下監(jiān)管和司法有意變通,這同樣可能推定這種變通實(shí)為監(jiān)管俘獲的結(jié)果。

思考人工智能安全治理的未來

以前述歐美思維模式為鑒,我國應(yīng)基于充分的制度自信,思考、探求形成更加務(wù)實(shí)、有效、符合人類命運(yùn)共同體長遠(yuǎn)利益的人工智能安全治理路徑。

(一)堅(jiān)持總體安全觀

有效防范、應(yīng)對人工智能技術(shù)及其應(yīng)用可能帶來的風(fēng)險,包括國家安全風(fēng)險,是我國人工智能治理的重要目標(biāo)。相對于其他各類安全利益,國家安全具有基礎(chǔ)性地位。新時代,我國國家安全工作以總體國家安全觀作為科學(xué)指引。在人工智能治理領(lǐng)域,堅(jiān)持總體國家安全觀意味著我們應(yīng)充分認(rèn)識到國際斗爭的現(xiàn)實(shí)性與嚴(yán)峻性,警惕外部勢力破壞、遏制我國在人工智能領(lǐng)域?qū)崿F(xiàn)正當(dāng)發(fā)展利益的企圖,并關(guān)注人工智能技術(shù)被用于破壞我國政權(quán)安全、制度安全和意識形態(tài)安全等安全利益的風(fēng)險。與此同時,我國應(yīng)在內(nèi)容、數(shù)據(jù)等常規(guī)安全治理場景中建構(gòu)科學(xué)有效、有針對性的制度和政策。我國向來堅(jiān)持“互聯(lián)網(wǎng)不是法外之地”,強(qiáng)調(diào)對數(shù)字空間各類風(fēng)險的常態(tài)化治理,既持續(xù)關(guān)注國家安全,又同時關(guān)照發(fā)展利益。在人工智能技術(shù)興起后,這樣的治理路徑得到了持續(xù)。無論是針對推薦算法,還是生成式人工智能,我國監(jiān)管的治理路徑都是在堅(jiān)持社會保護(hù)的基礎(chǔ)上,以具體應(yīng)用場景和行為為指向,有的放矢,力求提供穩(wěn)定監(jiān)管預(yù)期,避免在完全放任和過度限制之間劇烈搖擺。長期上看,我國應(yīng)繼續(xù)堅(jiān)持這一治理思路。

(二)把握社會情緒、應(yīng)對風(fēng)險認(rèn)知

歐盟以《人工智能法》堅(jiān)決對特定應(yīng)用加以“封殺”,首次立法就以禁令為起點(diǎn),可能導(dǎo)致治理部門不再有動力投入資源,從更具專業(yè)性的角度思考建構(gòu)更合理、平衡、務(wù)實(shí)的治理方案。

以此為鑒,我國人工智能治理應(yīng)堅(jiān)持以科學(xué)精神為基礎(chǔ)的“包容審慎”,決策部門尤其應(yīng)避免被風(fēng)險敘事及其誘發(fā)的情緒“帶節(jié)奏”。隨著對風(fēng)險主體間性的理解不斷深入,風(fēng)險規(guī)制經(jīng)驗(yàn)不斷積累,以及規(guī)制工具箱不斷豐富,在面對特定人工智能風(fēng)險敘事時,治理者也可考慮以積極能動的姿態(tài)關(guān)照、疏導(dǎo)社會心理,回應(yīng)、安撫公眾情緒。例如,某些在外觀或公眾感知層面看起來相當(dāng)嚴(yán)厲的制度,如對人工智能應(yīng)用侵權(quán)適用無過錯責(zé)任,其給產(chǎn)業(yè)界造成的實(shí)際負(fù)擔(dān)未必沉重。如果法律和政策在應(yīng)對風(fēng)險時采用從嚴(yán)姿態(tài),就應(yīng)對受風(fēng)險敘事影響的社會心理進(jìn)行疏導(dǎo),并同時借助特定制度技術(shù)避免在實(shí)質(zhì)層面抑制創(chuàng)新和發(fā)展,這無疑有助于提供穩(wěn)定預(yù)期、有利于創(chuàng)新和發(fā)展的監(jiān)管環(huán)境。但這種“兩全其美”是否可能達(dá)成,取決于治理者能否善用適當(dāng)法律技術(shù),并理解其局限和風(fēng)險。一個或可參照的先例是,《通用數(shù)據(jù)保護(hù)條例》雖在制定時被廣泛宣傳為“史上最嚴(yán)”的立法,但就其生效后幾年的實(shí)際執(zhí)行來看,由于成員國分散實(shí)施的執(zhí)法體制,企業(yè)享有一定的挑選管轄地的空間,這使得該法的執(zhí)法時常被數(shù)據(jù)隱私業(yè)內(nèi)人員批評不夠嚴(yán)格、一致。但與此同時,有調(diào)查發(fā)現(xiàn),法律生效后,盡管執(zhí)行力度不夠強(qiáng),公眾卻似乎僅由于立法的存在而感到更放心了。這一經(jīng)驗(yàn)有無可能遷移到人工智能治理,值得關(guān)注。

(三)共識積累與單邊立信

人工智能治理需要加強(qiáng)國際對話、積累共識。例如在未成年人保護(hù)議題上,各國對相關(guān)安全利益的認(rèn)知有較大重疊;像澳大利亞等西方國家,甚至已采取了比中國更為嚴(yán)格的限制措施。在這類議題上,我國應(yīng)積極與各國開展交流,讓他國了解我國的理念和經(jīng)驗(yàn)。而我國在對內(nèi)開展人工智能治理體系建設(shè)和監(jiān)管實(shí)踐的同時,應(yīng)有意識地對國內(nèi)治理議題進(jìn)行充分細(xì)致梳理,使其他國家能夠更清晰地看到我國在人工智能安全領(lǐng)域的關(guān)切,特別是看到其中與他國關(guān)切能夠形成重疊和共識的范疇。在2023年《布萊切利宣言》(The Bletchley Declaration)中,包括中國在內(nèi)的29國原則達(dá)成的一點(diǎn)共識即應(yīng)致力于識別有關(guān)人工智能安全風(fēng)險的“共享關(guān)切”。

基于此,盡管目前我國進(jìn)行全面、橫向統(tǒng)合各類場景的人工智能立法,在政策技術(shù)意義上仍需時日,但立法的一個可能價值在于創(chuàng)造有助于中國更深入?yún)⑴c人工智能安全治理國際合作的機(jī)制,向外界提供聚焦了解中國人工智能治理關(guān)切的窗口。其他國家可據(jù)此更有理由相信,中國確實(shí)將人工智能視為“造福人類的國際公共產(chǎn)品”,并正以負(fù)責(zé)任的態(tài)度著手應(yīng)對人類共同面臨的安全挑戰(zhàn)。此外,堅(jiān)持在人工智能領(lǐng)域支持開源,維護(hù)國內(nèi)科技界與國外技術(shù)界的溝通交流管道,對于提升中國在人工智能安全治理領(lǐng)域的可信度同樣至關(guān)重要。當(dāng)前有關(guān)人工智能發(fā)展的國際合作強(qiáng)調(diào)科技發(fā)展在全球范圍內(nèi)的包容、公正。我國2023年發(fā)出的《全球人工智能治理倡議》已明確提出“鼓勵全球共同推動人工智能健康發(fā)展,共享人工智能知識成果,開源人工智能技術(shù)”,此即對中國對人工智能發(fā)展秉持開放性的重要立場。

結(jié)語

在人工智能治理領(lǐng)域,中國已不再是法律移植的目的地,而是比較法模版的原產(chǎn)地。這既是中國自身經(jīng)濟(jì)與科技實(shí)力支撐的客觀事實(shí),也為國際社會所期待。即便在如今的美歐輿論中,主張對中國人工智能治理經(jīng)驗(yàn)更認(rèn)真對待甚至參考借鑒的論調(diào)也已經(jīng)相當(dāng)常見。

我國思考、探索符合本國和全人類長遠(yuǎn)利益的人工智能治理方案是一項(xiàng)高度復(fù)雜的工程,無法一蹴而就,也不能埋頭獨(dú)行。對于我國而言,持續(xù)關(guān)注美歐經(jīng)驗(yàn)依然具有重要價值。但這不僅意味著要以批判的視角審視其具體實(shí)踐,也要把握、提煉其實(shí)踐背后的思維模式,并深入剖析其后果。以此種比較法工作為基礎(chǔ),有助于生成具有自主性的治理知識和思路,為人工智能治理提供中國智慧、中國方案。

-向上滑動,查看完整目錄-

《環(huán)球法律評論》2025年第6期目錄

【馬克思主義法學(xué)專欄】

1.民營企業(yè)的刑法平等保護(hù)體系構(gòu)建

——以《民營經(jīng)濟(jì)促進(jìn)法》為背景

楊柳(5)

【主題研討:人工智能治理的思路與規(guī)則】

2.人工智能治理的兩種安全思維:批判與超越

戴昕(22)

3.大型語言模型生成虛假信息風(fēng)險的法律治理

蘇宇(36)

4.生成式人工智能搜索服務(wù)提供者侵權(quán)免責(zé)制度

姚志偉(53)

【理論前沿】

5.職場性騷擾中用人單位的侵權(quán)責(zé)任

楊嘉祺(69)

6.對待給付判決及其執(zhí)行的模式選擇

劉哲瑋(85)

7.禁令程序作為網(wǎng)絡(luò)侵權(quán)糾紛的訴前獨(dú)立信息披露程序

朱禹臣(102)

8.數(shù)字時代濫用共同市場支配地位的制度反思與完善

胥智仁(119)

9.論離線權(quán)的必要、限度與實(shí)現(xiàn)

王倩(134)

10.“司法鑒定法”的制定邏輯及其立法模式

陳如超(151)

11.電子數(shù)據(jù)完整性的功能擴(kuò)張及其反思

唐云陽(167)

12.數(shù)字身份認(rèn)證的法治化構(gòu)建

李丹(184)

【國際法研究】

13.國際經(jīng)貿(mào)條約治理新范式:軟約束規(guī)則的興起與實(shí)施

張耀元(200)

《環(huán)球法律評論》2025年總目錄

(218)

《環(huán)球法律評論》目前的宗旨是:比較研究中國法與外國法以及各國法之間的利弊得失,優(yōu)劣高下,以便同仁悟取舍之正道,得法意之真髓。本刊既倡導(dǎo)宏觀的、體系的、基礎(chǔ)理論的比較研究,也注重微觀的、個別的、具體的法律制度的比較研究。我們不僅要用中國法的眼光透視外國法,也要用外國法的眼光來透視中國法。改革開放以來,中國的國際地位不斷提高,國際影響力與日俱增,國際話語權(quán)越來越大。因此本刊將更加重視國際法。相應(yīng)地,我們開辟了“主題研討”、“理論前沿”、“環(huán)球評論”、“國際法研究”等欄目。經(jīng)過數(shù)年努力,本刊已成為以研究外國法、比較法、國際法為重點(diǎn)和特色的法學(xué)核心期刊。洋為中用,是本刊的出發(fā)點(diǎn)和歸屬。我們研究比較法和外國法是為了中國法學(xué)和法律的發(fā)展。在重點(diǎn)研究外國法的同時,本刊將更加關(guān)注中國法學(xué)和法律的重點(diǎn)問題和特色問題。本刊的改進(jìn)與發(fā)展,體現(xiàn)了與時俱進(jìn)、順應(yīng)潮流與需求的精神。

點(diǎn)擊進(jìn)入下方小程序

獲取專屬解決方案~

責(zé)任編輯 | 郭晴晴??????

審核人員 | 張文碩 韓爽

本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
11073文章數(shù) 17485關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠(yuǎn)方

無障礙瀏覽 進(jìn)入關(guān)懷版