国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

ChatGPT帶來的風(fēng)險挑戰(zhàn)及法律應(yīng)對

0
分享至




作者:皮勇 張凌寒 張吉豫以下內(nèi)容來自《人民檢察》。

  編者按:編寫代碼、創(chuàng)作詩歌、完成論文……最近,人工智能聊天機器人ChatGPT風(fēng)靡全網(wǎng)。ChatGPT憑借高超的數(shù)據(jù)搜集和數(shù)據(jù)整理輸出能力,迅速吸引了大量用戶注冊使用,掀起了人工智能發(fā)展應(yīng)用的新高潮。不過,ChatGPT在不斷開辟新的應(yīng)用場景的同時,也帶來了知識產(chǎn)權(quán)、個人信息保護(hù)、數(shù)據(jù)安全等一系列法律風(fēng)險,對此如何有效應(yīng)對?本刊特邀請專家學(xué)者對相關(guān)問題進(jìn)行探討,敬請關(guān)注。

  主持人:《人民檢察》編輯崔議文

  特 邀 嘉 賓

  皮勇:同濟大學(xué)上海國際知識產(chǎn)權(quán)學(xué)院教授

  張凌寒:中國政法大學(xué)數(shù)據(jù)法治研究院教授

  張吉豫:中國人民大學(xué)法學(xué)院副教授 

問題一:如何從法律層面看待ChatGPT?

  主持人:ChatGPT橫空出世,迅速席卷了各行業(yè)。ChatGPT將給智慧司法、數(shù)字法治建設(shè)帶來哪些便利?其快速發(fā)展可能引發(fā)哪些法律風(fēng)險?

  皮勇:ChatGPT的技術(shù)優(yōu)勢源于其先進(jìn)的算法、強大的算力和海量的數(shù)據(jù),如果將其用于智慧司法、數(shù)字法治建設(shè),將帶來諸多便利。

  第一,信息檢索更加便捷。ChatGPT的數(shù)據(jù)庫資源豐富,數(shù)量龐大,人機交互能力優(yōu)秀,自然語言處理能力強大,能提供相關(guān)信息,幫助司法工作人員收集信息資料,了解案件相關(guān)專業(yè)領(lǐng)域的基本知識?!?/p>

  第二,文書制作更加便捷。在司法活動中有大量的文書制作工作,ChatGPT在制作標(biāo)準(zhǔn)化文書方面具有較強優(yōu)勢,利用ChatGPT快速制作文書初稿,在其基礎(chǔ)上修改完善,可以提高文書的制作效率,在降低工作量的同時提升文書的質(zhì)量。

  第三,類案比對更加便捷。司法工作人員在分析、處理案件時需要考慮多方面涉案因素,ChatGPT的海量數(shù)據(jù)和算法功能有助于司法工作人員快速查找與案件相關(guān)的類案信息并進(jìn)行比對,同時可參考借鑒已生效判決的裁判理由和結(jié)果,減少辦錯案或裁量畸輕畸重的幾率。

  第四,輔助裁判更加便捷。ChatGPT的概率統(tǒng)計邏輯和算法是以類案作為基礎(chǔ)數(shù)據(jù),已有相關(guān)智能裁判系統(tǒng)在運用該算法邏輯生成輔助裁判結(jié)果?!?/p>

  第五,法治宣傳。ChatGPT運營者本質(zhì)上是網(wǎng)絡(luò)內(nèi)容信息服務(wù)提供商,其提供的信息服務(wù)可以用于法治宣傳。

  不過,ChatGPT的應(yīng)用也給用戶和社會帶來新的安全風(fēng)險。

  第一,ChatGPT生成信息所基于的概率統(tǒng)計的算法和已有的數(shù)據(jù)都有局限性,可能導(dǎo)致ChatGPT生成虛假、誤導(dǎo)、無意義或質(zhì)量差的信息,如果用戶盲目信任或者缺乏分辨能力,采信其錯誤信息,會面臨一定風(fēng)險。

  第二,濫用ChatGPT的風(fēng)險主要是用戶不當(dāng)使用ChatGPT的生成結(jié)果,如在國家考試過程中使用ChatGPT作弊、使用ChatGPT編制論文、制造假新聞或謠言。

  第三,ChatGPT會帶來知識產(chǎn)權(quán)侵權(quán)風(fēng)險。一方面,ChatGPT生成信息有可能侵犯他人知識產(chǎn)權(quán),如不當(dāng)泄露、提供他人商業(yè)秘密或者侵犯他人作品;另一方面,ChatGPT或其權(quán)利人對其生成的信息是否享有知識產(chǎn)權(quán),是否會產(chǎn)生知識產(chǎn)權(quán)法律風(fēng)險,目前還存在爭議。

  第四,ChatGPT用戶面臨的風(fēng)險。用戶使用ChatGPT過程中,會被收集個人信息或其他資料,存在泄露個人信息、商業(yè)秘密或國家秘密的風(fēng)險,即使是片段性或零碎的信息,也可能被ChatGPT與其他數(shù)據(jù)結(jié)合在一起進(jìn)行挖掘分析,從而推斷出關(guān)系國家安全、公共安全、個人和組織合法權(quán)益的情報信息。

  張凌寒:ChatGPT的出現(xiàn)是深度合成領(lǐng)域的重大技術(shù)進(jìn)步,極大地改變了信息獲取、人機交互的方式,并成為未來數(shù)字空間的基礎(chǔ)性技術(shù),ChatGPT的應(yīng)用無疑能夠為智慧司法建設(shè)帶來革命性改變。

  其一,ChatGPT應(yīng)用于法律咨詢,將極大提升公共法律服務(wù)的智能化水平。ChatGPT具備語義理解和文本生成的能力,并且能夠結(jié)合上下文,給出更合邏輯、合理的法律建議。此外,ChatGPT與之前技術(shù)的不同之處在于其是采用了海量數(shù)據(jù)訓(xùn)練的大規(guī)模人工智能模型,這使得其生成的文本更加具有創(chuàng)造性。更重要的是,這些模型通常設(shè)置了隨機元素,意味著它們可以不同的輸出應(yīng)對同一個輸入請求,使得ChatGPT看起來更加栩栩如生。

  其二,ChatGPT應(yīng)用于信息檢索,將極大提升法律從業(yè)者的工作效率。ChatGPT研發(fā)的本意不在于信息檢索,但支撐其深度學(xué)習(xí)的預(yù)訓(xùn)練語料庫極為龐大,與傳統(tǒng)的搜索引擎相比,其能精準(zhǔn)定位到具體的法律條款。

  其三,ChatGPT應(yīng)用于文本處理,將大幅節(jié)省法律從業(yè)者的時間和精力。ChatGPT能夠根據(jù)使用者輸入的設(shè)定條件,自動生成文本內(nèi)容,實踐中一些合同起草、法律文書撰寫、文獻(xiàn)翻譯等技術(shù)含量較低的文字性工作可以交由ChatGPT來完成??傮w而言,在智慧司法的3.0階段,以ChatGPT為代表的深度合成技術(shù)將通過支持、取代與重塑三種方式影響司法系統(tǒng)。在支持層面上,技術(shù)為司法實踐提供了信息與便利性支持;在取代層面上,技術(shù)可以部分取代由人類執(zhí)行的功能和活動;在重塑層面上,技術(shù)可以改變司法人員的工作方式,提供與以往不同的司法保障,革新司法流程和提供預(yù)測性分析。

  深度合成展現(xiàn)了其強大的能量和可能性,但其帶來效率和便利的同時,也帶來了伴生風(fēng)險。

  其一,人格權(quán)侵權(quán)風(fēng)險。ChatGPT的訓(xùn)練數(shù)據(jù)主要來源于互聯(lián)網(wǎng),其中可能包括個人隱私數(shù)據(jù),而此前GPT-2就發(fā)生過隱私泄露的問題。用戶生成合成內(nèi)容需要上傳照片、視頻或與人工智能機器直接明文的對話。生成合成類算法應(yīng)用曾經(jīng)發(fā)生過換臉換聲的欺詐、人格權(quán)侵權(quán)、隱私泄露等案件。在新一代以ChatGPT為代表的生成合成類應(yīng)用中,用戶對話的過程就是被收集信息的過程,尤其是用戶在與機器對話的過程中更可能袒露隱私。這些個人信息可能被用于用戶畫像和訓(xùn)練模型,從而使個人信息的收集、使用和傳輸都面臨安全挑戰(zhàn)。

  其二,數(shù)據(jù)安全風(fēng)險。ChatGPT的預(yù)訓(xùn)練大模型促進(jìn)了合成數(shù)據(jù)產(chǎn)業(yè)的發(fā)展,深度合成技術(shù)可以模擬真實用戶數(shù)據(jù)并規(guī)避高昂的隱私合規(guī)成本。深度合成技術(shù)也有可能通過預(yù)訓(xùn)練大模型的強大推理能力學(xué)習(xí)找到真實數(shù)據(jù)。而針對合成數(shù)據(jù)的治理,各國尚無針對性的規(guī)章制度,并且用戶與生成型人工智能模型的海量交互數(shù)據(jù)如果是跨境產(chǎn)生的,還會引發(fā)數(shù)據(jù)跨境安全問題。

  其三,知識產(chǎn)權(quán)侵權(quán)風(fēng)險。一方面,ChatGPT生成內(nèi)容存在被他人侵權(quán)的風(fēng)險。在我國現(xiàn)行法律框架下,難以認(rèn)定人工智能或者電腦算法為作品的作者,因而可能導(dǎo)致這部分內(nèi)容不能得到法律保護(hù)。另一方面,ChatGPT生成內(nèi)容存在侵犯他人權(quán)利的可能性。大多數(shù)生成式人工智能模型的訓(xùn)練,使用的是從互聯(lián)網(wǎng)上搜集的材料,這些材料并沒有取得許可或支付報酬,由此可能引發(fā)知識產(chǎn)權(quán)侵權(quán)風(fēng)險。

  張吉豫:一些專業(yè)人士認(rèn)為,ChatGPT這樣的通用模型體現(xiàn)出來的智慧涌現(xiàn),可能改變整個信息分發(fā)獲取的方式、革新內(nèi)容生產(chǎn)模式、全面升級人機交互方式,加速推動公眾的研究,等等??梢哉f,這樣的通用模型可能成為新一代的基礎(chǔ)設(shè)施,給各行各業(yè)帶來影響。其中,其將為智慧司法、數(shù)字法治建設(shè)帶來新的機遇,包括但不限于以下方面:

  一是智能檢索和推送。例如,ChatGPT可以用于智能法律搜索引擎,能夠更快速、智能地搜索出相關(guān)的法律條款和類案。

  二是智能法律咨詢。ChatGPT可用于開發(fā)智能法律問答機器人等智能法律咨詢產(chǎn)品,能夠更快速、準(zhǔn)確地回答用戶的法律問題,提供更高效、便捷的法律咨詢服務(wù)。用戶可以通過語音或文字與ChatGPT進(jìn)行交互,獲得法律方面的建議和指導(dǎo)。這有助于降低基礎(chǔ)法律服務(wù)的門檻,使公眾可以更加便利地獲得一般的法律服務(wù)。

  三是智能文本分析。ChatGPT可以幫助分析法律數(shù)據(jù)和文本,從中提取關(guān)鍵信息和模式。例如,ChatGPT可以被用于自動化合同審查和糾紛解決,能夠更快速地識別合同中的問題和糾紛,并提供解決方案。這類人工智能技術(shù)還可以用于生成摘要、綜述等工作,為法律問題的研究提供便利。

  四是智能文書撰寫。ChatGPT可以輔助撰寫合同等法律文件。

  當(dāng)然,ChatGPT在帶來便利和機遇的同時,也伴隨著許多維度的法律風(fēng)險。包括侵犯知識產(chǎn)權(quán)的風(fēng)險,生成的信息損害他人人格、財產(chǎn)權(quán)益的風(fēng)險,生成虛假或錯誤信息、違法不良信息、帶有歧視性內(nèi)容的風(fēng)險,數(shù)據(jù)安全風(fēng)險,等等。其在司法、公共事務(wù)等領(lǐng)域的應(yīng)用,還可能存在挑戰(zhàn)程序正義等風(fēng)險。

問題二:如何解決ChatGPT所引發(fā)的知識產(chǎn)權(quán)風(fēng)險?

  主持人:ChatGPT使用了大量互聯(lián)網(wǎng)數(shù)據(jù)和書籍文檔資料來訓(xùn)練大規(guī)模自然語言模型,并從人類的反饋中學(xué)習(xí)知識,因此具有強大的內(nèi)容生成能力。使用這項新技術(shù)生成的內(nèi)容是否有著作權(quán)?ChatGPT在什么情況下會侵犯知識產(chǎn)權(quán)(特別是著作權(quán))?其生成的作品如果涉及第三方權(quán)益,該如何處理?對于ChatGPT生成的文本內(nèi)容,用戶如何使用才能規(guī)避法律風(fēng)險?

  皮勇:ChatGPT運用海量數(shù)據(jù)訓(xùn)練其算法,在與用戶的人機對話過程中生成文本信息,由于這些信息不是人類創(chuàng)造的獨創(chuàng)性思想表現(xiàn),故其不應(yīng)享有著作權(quán)。ChatGPT在人機對話中表現(xiàn)得像人一樣,生成的信息接近人類的回復(fù),但是,其不是著作權(quán)法乃至法律上的人。包括ChatGPT在內(nèi)的人工智能系統(tǒng)處于弱人工智能階段,僅具有局限于特定領(lǐng)域的專用智能和感知智能,距離以通用智能、認(rèn)知智能為標(biāo)志的強人工智能特別是超級人工智能還有很長的路。而且,即使人工智能系統(tǒng)發(fā)展到強人工智能,由于其以工業(yè)品為載體,智能系統(tǒng)也可以與載體分離,甚至其智能系統(tǒng)本身也可以反復(fù)“起死回生”。這與人類有根本的差別,人類的身體由自然人生產(chǎn)且不能再生和更換,人類個體的智慧與身體同存同亡。因此,人工智能系統(tǒng)不是當(dāng)前乃至未來較長時間以人為本的法律體系中的主體,不能享有包括著作權(quán)在內(nèi)的人類權(quán)利。同時,由于ChatGPT生成的信息沒有表現(xiàn)其運營者、管理者或程序設(shè)計人員的獨創(chuàng)性思想,故也不能賦予以上主體著作權(quán)。

  著作權(quán)法保護(hù)獨創(chuàng)性思想的表現(xiàn)形式,由于ChatGPT已經(jīng)進(jìn)入商業(yè)運營而不是用于科研或?qū)W習(xí),如果其生成的信息與他人作品在形式上相同,則構(gòu)成對他人作品著作權(quán)的侵犯,應(yīng)由其運營者、管理者等責(zé)任主體承擔(dān)相應(yīng)的法律責(zé)任。如果ChatGPT生成的信息中泄露了他人的個人信息、商業(yè)秘密或國家秘密,應(yīng)當(dāng)由其運營者、管理者承擔(dān)損害賠償責(zé)任,違反相關(guān)行政法律的,應(yīng)當(dāng)對其進(jìn)行行政處罰。追究刑事責(zé)任需要行為人對其行為及后果存在罪過,其運營者、管理者只對ChatGPT產(chǎn)生的危害后果具有可能的、概括的認(rèn)識,不滿足犯罪故意或過失的構(gòu)成條件,不能按照傳統(tǒng)犯罪來認(rèn)定。

  ChatGPT應(yīng)當(dāng)作為有風(fēng)險的工具來使用,為了避免使用其生成的信息可能帶來的法律風(fēng)險,用戶應(yīng)當(dāng)將其生成的信息作為線索、提示或者參考來使用,保持對法律風(fēng)險的警惕性,在采信其蘊含的思想或信息的基礎(chǔ)上,遵守學(xué)術(shù)規(guī)范和法律規(guī)范,尊重他人合法權(quán)益,以自己的方式進(jìn)行再次創(chuàng)作、編寫,才能既有效規(guī)避相關(guān)法律風(fēng)險,又能提高創(chuàng)作效率。

  張凌寒:從著作權(quán)法角度看,GPT基本屬于重組式創(chuàng)新,尚不具有真正的創(chuàng)造力,不能成為著作權(quán)的主體,但并不意味著著作權(quán)法就不應(yīng)當(dāng)保護(hù)人工智能生成物(AIGC)。對于具有獨創(chuàng)性的人工智能生成物,可以參照著作權(quán)法上關(guān)于職務(wù)作品或雇用作品的規(guī)定,將創(chuàng)作過程中真正實施人工干預(yù)、人為編排或創(chuàng)制該算法的人認(rèn)定為作者。對于人工智能生成物應(yīng)當(dāng)考慮是否存在使用人工智能創(chuàng)作的人,且其在創(chuàng)作過程中是否付出了智力或創(chuàng)造性勞動。如果沒有付出,這個產(chǎn)品是否構(gòu)成作品是值得商榷的。目前國內(nèi)外的通行做法都會考慮除了人工智能之外,是否有人的智力或創(chuàng)造性勞動?!?/p>

  ChatGPT生成內(nèi)容引發(fā)的新型版權(quán)侵權(quán)風(fēng)險已經(jīng)成為整個行業(yè)發(fā)展所面臨的緊迫問題。人工智能要變得更加智能,一個必要的環(huán)節(jié)就是深度學(xué)習(xí)。這就需要一個龐大的人類作品數(shù)據(jù)庫,讓算法學(xué)會根據(jù)不同內(nèi)容題材等進(jìn)行創(chuàng)作的要領(lǐng)。如果未經(jīng)許可,復(fù)制或者通過網(wǎng)絡(luò)爬蟲爬取他人享有著作權(quán)的在線內(nèi)容,在我國現(xiàn)行著作權(quán)法沒有明確將數(shù)據(jù)挖掘等智能化的分析行為規(guī)定為合理使用的情況下,此行為可能構(gòu)成著作權(quán)侵權(quán)。ChatGPT生成的作品涉及第三方權(quán)益時,使用該作品需要遵守相關(guān)法律規(guī)范。例如,涉及他人已發(fā)表的作品時,需要取得原著作權(quán)人授權(quán),向其支付費用,并在授權(quán)范圍內(nèi)使用該作品,或者在著作權(quán)法允許的“為個人學(xué)習(xí)、研究或欣賞”等合理使用范圍內(nèi)使用該作品。

  用戶在使用ChatGPT時,需要滿足“兩個合規(guī)”。

  其一,輸入合規(guī)。在使用ChatGPT時,用戶自身的輸入行為需要嚴(yán)格遵守ChatGPT的開發(fā)者OpenAI的使用條款以及相關(guān)法律規(guī)范,例如,不得輸入他人隱私、敏感信息、商業(yè)秘密、國家機密等。

  其二,使用合規(guī)。根據(jù)OpenAI的使用條款,在輸入行為符合使用條款和相關(guān)法律規(guī)定的前提下,OpenAI將該文本內(nèi)容的所有權(quán)和利益轉(zhuǎn)讓給了用戶。但實際上用戶難以甄別該文本內(nèi)容是原創(chuàng)作品還是對他人作品的剽竊。此種情況下,如果擅自進(jìn)行復(fù)制、發(fā)表、改編或者傳播,可能會侵犯他人著作權(quán),因而用戶需要在合法前提下謹(jǐn)慎使用ChatGPT生成的文本內(nèi)容。

  張吉豫:人工智能生成的內(nèi)容是否具有著作權(quán),是一個有爭議的問題。一般而言,依據(jù)著作權(quán)法,作品應(yīng)具有獨創(chuàng)性,體現(xiàn)人類的編排取舍。2018年《北京市高級人民法院侵害著作權(quán)案件審理指南》,特別強調(diào)了作品是自然人的創(chuàng)作。我國“菲林訴百度案”中,法官即認(rèn)定,該案中威科先行自動生成的分析報告不構(gòu)成作品,軟件開發(fā)者和輸入關(guān)鍵詞的用戶都不能認(rèn)定為作者。但也并不是說,有人工智能的加入就一定不是自然人創(chuàng)作。在一些特定情況下,人工智能生成內(nèi)容可以認(rèn)為體現(xiàn)了人類的編排取舍,具有獨創(chuàng)性,可認(rèn)定為自然人創(chuàng)作。ChatGPT的研發(fā)者對于最終生成的內(nèi)容并沒有直接的編排取舍,用戶往往只是輸入問題進(jìn)行引導(dǎo),因而很難認(rèn)定具有著作權(quán)。此外,將人工智能認(rèn)定為作者,法律上基本不認(rèn)可。盡管有些書籍將人工智能署名為作者或者聯(lián)合作者,但并不表示法律上認(rèn)可。

  ChatGPT對于著作權(quán)的侵犯可能發(fā)生在兩個階段:訓(xùn)練階段和文本生成階段。在訓(xùn)練階段,Chat-GPT需要大量的文本進(jìn)行訓(xùn)練,涉及對大量作品的復(fù)制。許多國家有相關(guān)制度安排,但我國還未對此作出專門性的規(guī)定。時代發(fā)展到今天,著作權(quán)保護(hù)的邊界不僅關(guān)乎文學(xué)藝術(shù)創(chuàng)作,也關(guān)系人工智能科技的發(fā)展。ChatGPT這類大模型被視為新的重大智能基礎(chǔ)設(shè)施。我國在這方面的發(fā)展對各個產(chǎn)業(yè)發(fā)展升級以及國家安全都有深刻影響。然而,這類大模型通常建立在海量數(shù)據(jù)訓(xùn)練的基礎(chǔ)上。如果用于訓(xùn)練的作品都需要獲得許可,一方面,成本巨大;另一方面,如果一定的著作權(quán)人群體不愿意給予許可,被用于訓(xùn)練的數(shù)據(jù)可能因此產(chǎn)生缺失或偏頗,人工智能模型不能得到更加全面的訓(xùn)練,由此可能產(chǎn)生“偏見”。對此,美國版權(quán)法通過靈活的合理使用制度來解決這一問題。日本、歐盟也作了一些相關(guān)規(guī)定,安排了不同范圍的文本挖掘、數(shù)據(jù)挖掘方面的侵權(quán)例外制度。相比之下,歐盟更保守一些,對一些領(lǐng)域作了一定限制。我國著作權(quán)法雖然在“合理使用”條款中留有開放接口,但還有待著作權(quán)法實施條例或者其他法律法規(guī)修改時將該條款加以具體落實,以為技術(shù)發(fā)展盡可能減少不必要的障礙。

  在文本生成階段,盡管ChatGPT背后的技術(shù)機理并不是整段復(fù)制他人作品,但是也不排除生成侵犯他人著作權(quán)的內(nèi)容。生成侵權(quán)內(nèi)容這一行為實際上就涉及侵犯復(fù)制權(quán)。如果通過網(wǎng)絡(luò)提供還可能構(gòu)成侵犯信息網(wǎng)絡(luò)傳播權(quán)。需要討論的是,是否需要為此類大模型的侵權(quán)責(zé)任設(shè)置一定的避風(fēng)港,以及采取哪些措施促使其減少侵權(quán)。 

  用戶需要認(rèn)識到,ChatGPT生成的內(nèi)容一方面有侵權(quán)風(fēng)險,另一方面其也經(jīng)?!耙槐菊?jīng)地胡說八道”,因此在嚴(yán)肅的學(xué)術(shù)作品創(chuàng)作中,最多讓ChatGPT作為一個啟發(fā),相關(guān)內(nèi)容則需要自己去認(rèn)真求證。

問題三:如何解決ChatGPT引發(fā)的數(shù)據(jù)安全風(fēng)險?

  主持人:在人機交互的過程中,ChatGPT會獲取大量用戶或者業(yè)務(wù)相關(guān)數(shù)據(jù),并加以識別及存儲,可能導(dǎo)致相關(guān)信息泄露。對于由此帶來的侵犯個人信息、泄露個人隱私、商業(yè)秘密的風(fēng)險,法律如何應(yīng)對?OpenAI的使用條款并未對用戶輸入ChatGPT的機密信息提供保護(hù),如果出現(xiàn)侵權(quán)情形,OpenAI是否應(yīng)承擔(dān)相應(yīng)責(zé)任?

  皮勇:ChatGPT的算法學(xué)習(xí)包括對數(shù)據(jù)資料的無監(jiān)督學(xué)習(xí)、人工指導(dǎo)的有監(jiān)督學(xué)習(xí)和與用戶人機對話過程中的學(xué)習(xí),用戶輸入的信息會被記錄并成為機器智能的組成部分,從而對用戶的個人信息、秘密信息、商業(yè)秘密和其他秘密情報形成安全風(fēng)險。從技術(shù)上講,排除對用戶提供信息的吸納是不可能的,阻止其基于這些信息向管理者和其他用戶提供與之相關(guān)的生成信息,也是不現(xiàn)實的,因為這違反了機器學(xué)習(xí)的基本規(guī)律,因此,在OpenAI單方面擬出的使用協(xié)議下,用戶使用ChatGPT的確存在安全風(fēng)險。

  ChatGPT基于互聯(lián)網(wǎng)向用戶提供信息服務(wù),屬于網(wǎng)絡(luò)信息服務(wù)提供者,受網(wǎng)絡(luò)安全法、個人信息保護(hù)法和刑法相關(guān)規(guī)定的規(guī)制。根據(jù)上述法律規(guī)定,ChatGPT應(yīng)當(dāng)對用戶信息嚴(yán)格保密,不得違法收集、使用、向他人提供以及以其他方式處理用戶的個人信息,不得泄露、篡改、毀損其收集的個人信息,不得竊取個人信息,不得非法出售個人信息,也不得發(fā)布法律、行政法規(guī)禁止發(fā)布或者傳輸?shù)男畔ⅲ_保其收集的個人信息安全。國家網(wǎng)信部門和有關(guān)部門發(fā)現(xiàn)有法律、行政法規(guī)禁止發(fā)布或者傳輸?shù)男畔⒌模瑧?yīng)當(dāng)要求相關(guān)網(wǎng)絡(luò)運營者停止傳輸,采取消除等處置措施,保存有關(guān)記錄。由于ChatGPT發(fā)布的信息來源于我國境外,如果其含有以上違法信息,上述部門應(yīng)當(dāng)通知有關(guān)機構(gòu)采取技術(shù)措施和其他必要措施阻斷傳播。

  ChatGPT是智能服務(wù)系統(tǒng),當(dāng)其脫網(wǎng)運行時,不受網(wǎng)絡(luò)安全法及刑法關(guān)于網(wǎng)絡(luò)犯罪立法的規(guī)制。為了避免人工智能相關(guān)法律缺失導(dǎo)致OpenAI的使用協(xié)議成為侵犯合法權(quán)益的依據(jù),建議我國研究制定人工智能安全法,明確規(guī)定相關(guān)使用協(xié)議不得成為損害合法權(quán)益的豁免依據(jù),要求其提供的信息服務(wù)不能損害用戶合法權(quán)益,不得直接或間接提供對用戶權(quán)益和其他合法權(quán)益、公共安全和國家安全與利益構(gòu)成威脅的信息,否則,OpenAI及相關(guān)主體應(yīng)當(dāng)承擔(dān)民事、行政和刑事法律責(zé)任。

  張凌寒:針對用戶和ChatGPT交互過程中可能產(chǎn)生的一系列侵權(quán)風(fēng)險,應(yīng)重點規(guī)制兩方主體。一方為用戶,即依據(jù)網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個人信息保護(hù)法及其相關(guān)配套法規(guī),規(guī)制用戶輸入行為;另一方為深度合成服務(wù)提供者,也即ChatGPT的開發(fā)者OpenAI。除依據(jù)上述法律、行政法規(guī)外,還應(yīng)結(jié)合2021年國家互聯(lián)網(wǎng)信息辦公室等發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、2022年國家互聯(lián)網(wǎng)信息辦公室等發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等算法領(lǐng)域的專門性規(guī)定進(jìn)行監(jiān)督和管理。

  在現(xiàn)有的深度合成治理框架中,我國將深度合成服務(wù)提供者作為治理的樞紐。一方面,深度合成服務(wù)提供者應(yīng)盡到自身的安全管理義務(wù),如進(jìn)行深度合成內(nèi)容標(biāo)識,建立鑒偽與辟謠機制,完成算法備案等;另一方面,深度合成服務(wù)提供者要履行對上游技術(shù)支持者和下游服務(wù)使用者的管理責(zé)任,提示技術(shù)支持者和使用者承擔(dān)信息安全義務(wù),對使用者輸入數(shù)據(jù)和合成結(jié)果進(jìn)行審核,并提示使用者應(yīng)對深度合成做顯著標(biāo)識。如規(guī)定要求深度合成服務(wù)提供者和技術(shù)支持者提供人臉、人聲等生物識別信息編輯功能的,應(yīng)當(dāng)提示使用者(用戶)并取得其單獨同意。在OpenAI未履行對用戶的提示義務(wù)以及對用戶輸入內(nèi)容的審核義務(wù)的情況下,發(fā)生數(shù)據(jù)侵權(quán)情形,其應(yīng)承擔(dān)一定的法律責(zé)任。

  張吉豫:ChatGPT等大規(guī)模語言模型需要遵守個人信息保護(hù)法、數(shù)據(jù)安全法的相關(guān)規(guī)定。一些用戶可能意識不到個人信息、商業(yè)秘密被處理的可能性。此類模型應(yīng)當(dāng)提供選項,讓用戶選擇是否具有個人信息或商業(yè)秘密,對于涉及個人信息和商業(yè)秘密的,模型如需存儲信息或會涉及對模型的更新,應(yīng)當(dāng)征得用戶同意。

問題四:如何應(yīng)對ChatGPT回復(fù)錯誤信息的風(fēng)險?

  主持人:用戶隨手將看到的內(nèi)容、觀點上傳到平臺,ChatGPT在用戶海量信息提取過程中自主學(xué)習(xí)進(jìn)化,存在錯誤回復(fù)問題,若錯誤回復(fù)被應(yīng)用于商業(yè),可能造成嚴(yán)重后果。實踐中,如何應(yīng)對ChatGPT錯誤回復(fù)的風(fēng)險?隨著人工智能程度的不斷提高,ChatGPT是否可以作為獨立民事主體對其行為承擔(dān)相應(yīng)責(zé)任?如果ChatGPT被用作網(wǎng)絡(luò)犯罪工具,其開發(fā)者、設(shè)計者能否以“技術(shù)中立”為抗辯事由規(guī)避責(zé)任?

  皮勇:OpenAI將ChatGPT提供的信息符合真實性、無害性和有用性作為努力目標(biāo),但是,ChatGPT的算法和訓(xùn)練數(shù)據(jù)存在局限性,特別是來自互聯(lián)網(wǎng)的數(shù)據(jù)無法保證真實性、準(zhǔn)確性和專業(yè)性,其生成的信息難以排除虛假信息。OpenAI雖采取了一些技術(shù)措施對ChatGPT生成的信息進(jìn)行正確性檢測,也沒有完全消除前述因素的影響,并在較長時間內(nèi)不可能完全解決ChatGPT提供虛假、錯誤甚至有害信息的問題。對此,ChatGPT的運營者、管理者應(yīng)作出能夠引起用戶足夠重視的提示,告知其回復(fù)的信息可能是虛假、錯誤甚至有害的,用戶應(yīng)當(dāng)自行判斷、檢驗信息的正確性。如果不進(jìn)行以上提示,甚至誤導(dǎo)用戶盲目信任,就應(yīng)當(dāng)對其提供的信息所導(dǎo)致的損害后果承擔(dān)相應(yīng)的法律責(zé)任。

  關(guān)于ChatGPT發(fā)展到強人工智能階段能否成為民事法律主體的問題,筆者認(rèn)為除非對現(xiàn)有法律體系進(jìn)行根本性變革,否則,ChatGPT不能作為獨立民事主體承擔(dān)法律責(zé)任。ChatGPT提供的信息導(dǎo)致?lián)p害后果的,應(yīng)當(dāng)由其運營者、管理者承擔(dān)民事賠償責(zé)任。如果法律認(rèn)為有必要動用刑法手段防止ChatGPT引起廣泛的、嚴(yán)重的危害,有必要對其運營者、管理者規(guī)定安全管理義務(wù),違反該義務(wù)導(dǎo)致嚴(yán)重后果或者情節(jié)嚴(yán)重的,應(yīng)當(dāng)承擔(dān)刑事責(zé)任。目前我國刑法規(guī)定了網(wǎng)絡(luò)服務(wù)提供者拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪,該罪處罰的是網(wǎng)絡(luò)服務(wù)提供者不履行信息網(wǎng)絡(luò)安全管理義務(wù),防止其他主體妨害信息網(wǎng)絡(luò)安全管理秩序且情節(jié)嚴(yán)重的行為,而ChatGPT提供的信息服務(wù)是網(wǎng)絡(luò)服務(wù)提供者自營服務(wù),ChatGPT只是經(jīng)營工具而非法律主體,防止ChatGPT提供違法有害信息不屬于履行信息網(wǎng)絡(luò)安全管理義務(wù)的行為,因此,有必要將不履行智能服務(wù)安全管理責(zé)任導(dǎo)致嚴(yán)重事故的行為設(shè)置為獨立的犯罪,以給予充分、合理的刑法規(guī)制。

  在排除ChatGPT的運營者、管理者惡意影響其算法的情況下,ChatGPT可以被視為中性技術(shù)工具,如果其被作為網(wǎng)絡(luò)犯罪工具,不應(yīng)追究其開發(fā)者、設(shè)計者的法律責(zé)任。但是,如果ChatGPT的運營者、管理者發(fā)現(xiàn)其提供的信息服務(wù)被他人用于違法犯罪活動時,根據(jù)網(wǎng)絡(luò)安全法、個人信息保護(hù)法、刑法相關(guān)規(guī)定,其應(yīng)當(dāng)承擔(dān)信息網(wǎng)絡(luò)安全管理義務(wù),拒不履行該義務(wù)并導(dǎo)致嚴(yán)重后果或者具有其他嚴(yán)重情節(jié)的,應(yīng)當(dāng)承擔(dān)相應(yīng)的法律責(zé)任。如果ChatGPT的運營者、管理者惡意訓(xùn)練ChatGPT,使之成為歧視或損害特定人群、組織體合法權(quán)益或國家安全與利益的工具的,運營者、管理者等應(yīng)依法承擔(dān)相應(yīng)的民事、行政、刑事法律責(zé)任。

  張凌寒:實踐中,應(yīng)嚴(yán)格執(zhí)行深度合成治理中有關(guān)信息內(nèi)容安全的監(jiān)管措施,繼續(xù)要求人工智能生成物技術(shù)與服務(wù)提供者在相關(guān)人工智能自動生成內(nèi)容中,履行添加可識別水印或有效警示信息的義務(wù),在源頭上實現(xiàn)人工智能自動生成內(nèi)容的可識別。不過,對人工智能生成物的標(biāo)識應(yīng)提高要求。如對ChatGPT或類似軟件“以某人風(fēng)格”生成文本或圖像視頻等內(nèi)容時,應(yīng)當(dāng)在生成內(nèi)容的合理位置做出顯著標(biāo)識,以免公眾產(chǎn)生混淆或誤認(rèn)。生成內(nèi)容型的人工智能必然會發(fā)生內(nèi)容安全問題,盡管ChatGPT對基于惡意目的的使用作出了一些限制,但是有技巧的使用者仍然可以采取措施來繞開這些限制。因此,人工智能生成物不僅仍需配備人工過濾審核機制,而且需要在下游督促網(wǎng)絡(luò)平臺采取措施減少違法信息的產(chǎn)出。深度合成監(jiān)管中的辟謠機制和舉報機制同樣適用于ChatGPT等生成型人工智能。對于已經(jīng)或者準(zhǔn)備在網(wǎng)絡(luò)中傳播不實信息和可能危害公共秩序的內(nèi)容,平臺有義務(wù)停止傳輸,并且對于頻繁發(fā)布此類信息的用戶通過黑名單或其他機制加以限制和處罰。尤其是在人工智能生成物與機器人賬號結(jié)合可能帶來更大信息內(nèi)容安全風(fēng)險時,應(yīng)在現(xiàn)有賬號管理機制中強化對機器人賬號的身份識別監(jiān)管和對權(quán)威賬號的特殊認(rèn)定,減少機器人批量推送人工智能生成物。

  在我國現(xiàn)有的算法治理體系中,立法者和監(jiān)管者對ChatGPT等算法技術(shù)還具有明顯的“工具性”假設(shè)。深度合成中的生成型人工智能技術(shù)鏈條的參與者包括:開發(fā)者建模并預(yù)訓(xùn)練大模型;部署者根據(jù)應(yīng)用需求,或單獨或與開發(fā)者合作進(jìn)行參數(shù)微調(diào);用戶最終與生成型人工智能互動,并決定生成型人工智能的具體用途。即便ChatGPT發(fā)展到了能夠取得相當(dāng)一部分人信任的程度,按照現(xiàn)有責(zé)任規(guī)則,使用ChatGPT造成的虛假信息傳播的責(zé)任,主要還是在深度合成服務(wù)提供者、部署者和使用者之間分配。隨著ChatGPT人工智能程度的不斷提高,立法者可考慮賦予算法以法律主體地位,并制定一系列相應(yīng)制度以納入現(xiàn)有法律體系規(guī)制框架。在現(xiàn)行可能的規(guī)范手段中,對算法復(fù)雜性列出定性尺度,有助于評估算法自主程度并因應(yīng)性地予以規(guī)范。算法主體性不同于法人等法律擬制制度,而是人造物基于智能性而非為法律規(guī)制便宜性獲得的法律主體地位。算法法律主體化后,可承擔(dān)有限侵權(quán)責(zé)任。

  當(dāng)前,ChatGPT具有明顯的工具性質(zhì),不具備法律主體資格。在生成型人工智能的技術(shù)產(chǎn)出鏈條上,技術(shù)開發(fā)者是關(guān)鍵,應(yīng)當(dāng)承擔(dān)一定的深度合成合規(guī)責(zé)任。深度合成服務(wù)提供者是我國深度合成治理的樞紐,既要盡到自身的安全管理義務(wù),又要履行對上游技術(shù)支持者和下游服務(wù)使用者的管理責(zé)任。ChatGPT被用于實施網(wǎng)絡(luò)犯罪時,使用者即為網(wǎng)絡(luò)犯罪行為正犯,應(yīng)承擔(dān)刑事責(zé)任無疑。深度合成服務(wù)提供者、技術(shù)開發(fā)者或設(shè)計者客觀上為使用者提供了技術(shù)幫助行為,能否以技術(shù)中立為由出罪,不能簡單地以其主觀上是否明知來判斷,還應(yīng)當(dāng)考慮其是否履行了法定義務(wù),只有嚴(yán)格履行網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個人信息保護(hù)法、《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等法律、行政法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全管理義務(wù),才能以技術(shù)中立為由出罪。

  張吉豫:《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第23條規(guī)定了深度合成技術(shù)是指利用深度學(xué)習(xí)、虛擬現(xiàn)實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡(luò)信息的技術(shù),并明確了篇章生成、文本風(fēng)格轉(zhuǎn)換、問答對話等生成或者編輯文本內(nèi)容的技術(shù),為ChatGPT這類應(yīng)用提供了比較明確的監(jiān)管規(guī)則。

  《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中要求服務(wù)提供者建立健全用戶注冊、算法機制機理審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個人信息保護(hù)、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度,具有安全可控的技術(shù)保障措施;采取技術(shù)或者人工方式對深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進(jìn)行審核;建立健全用于識別違法和不良信息的特征庫;建立健全辟謠機制;設(shè)置便捷的用戶申訴和公眾投訴、舉報入口等,這一系列義務(wù)對深度合成治理的全鏈條進(jìn)行了規(guī)范。同時,要求對于具有輿論屬性或者社會動員能力的深度合成服務(wù)提供者,應(yīng)當(dāng)按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》進(jìn)行備案。 

  在面對用戶方面,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》也規(guī)定了深度合成服務(wù)提供者對于生成內(nèi)容的標(biāo)識和保存信息的義務(wù)。其中標(biāo)識義務(wù)是分級分類的,對于智能對話、智能寫作等模擬自然人進(jìn)行文本的生成或者編輯服務(wù),可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識,向公眾提示深度合成情況。未來可以進(jìn)行細(xì)化指引,特別是在涉及醫(yī)療、金融、教育等問答的時候,應(yīng)進(jìn)行更加顯著的風(fēng)險提示。

  目前,人工智不能被視為民事主體。在進(jìn)行了合理提示、盡到了合規(guī)義務(wù)的情況下,如果公眾仍有誤信,除非能夠證明過錯,否則不應(yīng)令通用語言模型提供者承擔(dān)責(zé)任。可根據(jù)具體情況,判斷最終服務(wù)提供者是否具有責(zé)任。

問題五:如何在鼓勵人工智能發(fā)展的同時完善相關(guān)領(lǐng)域立法?

  主持人:人工智能技術(shù)是科技發(fā)展的重要領(lǐng)域,有必要對其加強研究,完善相關(guān)法律體系。在對這一新興領(lǐng)域完善立法時,應(yīng)重點考慮哪些方面?如何解決技術(shù)快速發(fā)展與立法滯后之間的矛盾?除立法規(guī)制外,還可以通過哪些途徑規(guī)避人工智能所引發(fā)的風(fēng)險?檢察機關(guān)如何依法能動履職,有效應(yīng)對風(fēng)險挑戰(zhàn)?

  皮勇:對人工智能技術(shù)領(lǐng)域創(chuàng)設(shè)和完善相關(guān)立法時,應(yīng)堅持總體國家安全觀和新發(fā)展理念,深刻認(rèn)識發(fā)展是安全的基礎(chǔ)、安全是發(fā)展的條件,平衡好安全與發(fā)展兩方面需要。要保障我國新一代人工智能技術(shù)在內(nèi)的新興技術(shù)高質(zhì)量發(fā)展,為促進(jìn)其有益發(fā)展、快速應(yīng)用提供法律支持;同時,時刻保持安全風(fēng)險防控意識。檢視新一代人工智能技術(shù)對國家安全與發(fā)展利益、公共安全、公眾和國內(nèi)組織合法權(quán)益廣泛、深遠(yuǎn)的影響,以有益于本國國家和國民利益為立法導(dǎo)向,在發(fā)展和安全兩方面需要之間尋求適當(dāng)?shù)钠胶狻?/p>

  技術(shù)快速發(fā)展與立法滯后的矛盾問題,本質(zhì)上是社會發(fā)展與立法穩(wěn)定之間的矛盾。當(dāng)社會發(fā)展速度快而立法修改速度跟不上時,在不發(fā)生嚴(yán)重后果的情況下,可以允許在不長的時間內(nèi)維護(hù)立法的穩(wěn)定性。在不破壞國家法治原則的前提下,發(fā)揮理論解釋的能動性指導(dǎo)司法實踐是良法善治的體現(xiàn)。但是,當(dāng)社會的發(fā)展不適合于按照現(xiàn)有立法來治理時,特別是會給國家安全與發(fā)展利益、公共安全、社會進(jìn)步和廣大公眾合法權(quán)益造成嚴(yán)重的消極影響、阻礙新技術(shù)發(fā)展應(yīng)用、不利于充分保護(hù)新生重要利益時,應(yīng)及時創(chuàng)設(shè)必要的新法或者修改現(xiàn)有法律。我國應(yīng)將人工智能安全法列入立法研究和規(guī)劃的日程表,在五年或更短的時間內(nèi)制定該部法律。

  新一代人工智能技術(shù)應(yīng)用會給社會各領(lǐng)域活動帶來顛覆性變革,檢察機關(guān)應(yīng)緊跟這一輪新技術(shù)變革的步伐,實現(xiàn)檢察業(yè)務(wù)智能化升級,同時,全面、深入研究包括ChatGPT在內(nèi)的新一代人工智能研發(fā)與應(yīng)用給社會帶來的安全風(fēng)險,及其衍生的相關(guān)新形式違法犯罪,依法懲治ChatGPT相關(guān)違法犯罪活動,積極推動人工智能相關(guān)犯罪立法和司法規(guī)則的創(chuàng)設(shè)與完善。

  張凌寒:我國深度合成人工智能立法既要保障急用先行,避免新興技術(shù)帶來的問題,又不能急于推行過于嚴(yán)格的人工智能方案以提高制度的可用性。一方面,在算法監(jiān)管的經(jīng)驗與框架中,繼續(xù)推進(jìn)深度合成的治理;另一方面,在深度合成治理的探索中,逐步形成通用人工智能立法的經(jīng)驗,為未來統(tǒng)籌算法、算力、數(shù)據(jù)的人工智能治理進(jìn)行更多有益嘗試。

  技術(shù)發(fā)展的快速性與立法的滯后性之間的矛盾是無法避免的,這就要求立法具有一定的前瞻性,在解決現(xiàn)有社會矛盾的基礎(chǔ)上,防患于未然,適度超前立法。針對法律漏洞,應(yīng)及時出臺立法解釋,盡可能改善立法的滯后問題。當(dāng)然,我們也應(yīng)理性認(rèn)識到,立法無法解決所有由技術(shù)發(fā)展引發(fā)的社會問題。除了立法規(guī)制外,還應(yīng)發(fā)揮深度合成治理優(yōu)勢,根據(jù)生成型人工智能技術(shù)特點更新監(jiān)管邏輯,基于其通用性實施全鏈條治理;同時還需立足現(xiàn)行法規(guī)中分級分類治理架構(gòu),結(jié)合技術(shù)、產(chǎn)業(yè)和應(yīng)用建立有機體系和設(shè)置具體規(guī)則,以形成在全球更具影響力的深度合成治理法律制度體系。

  面對人工智能技術(shù)帶來的風(fēng)險,檢察機關(guān)應(yīng)著重從以下四個方面依法能動履職:

  其一,對涉人工智能刑事案件行使審查起訴權(quán),積極運用刑事辦案智能輔助系統(tǒng)審查事實、證據(jù)、程序等是否存在疑點;

  其二,推進(jìn)涉罪人工智能技術(shù)研發(fā)、應(yīng)用企業(yè)的合規(guī)整改,督促、引導(dǎo)、幫助涉案企業(yè)順利完成合規(guī)整改; 

  其三,行使法律監(jiān)督權(quán),監(jiān)督法官在人工智能技術(shù)輔助下作出的司法決策是否公平公正;

  其四,開展公益訴訟,有效防范侵犯個人信息、泄露隱私等問題。

  張吉豫:對于新興領(lǐng)域進(jìn)行立法完善時,既要考慮其發(fā)展是否有不合理的制度障礙,又要考慮適當(dāng)?shù)姆梢?guī)制模式。面對處在快速發(fā)展階段的ChatGPT這類大模型,我國需努力發(fā)展我們自己的大模型,一方面要排除數(shù)據(jù)訓(xùn)練等方面的不合理障礙,促進(jìn)數(shù)據(jù)要素的流通利用;另一方面要建立發(fā)展與安全相統(tǒng)籌、符合科學(xué)發(fā)展規(guī)律和發(fā)展階段的賦能型監(jiān)管理念和監(jiān)管模式,包括將彈性條款與具體規(guī)則、標(biāo)準(zhǔn)相結(jié)合,建立敏捷聯(lián)動的監(jiān)管關(guān)系及便利公眾監(jiān)督的渠道等具體結(jié)構(gòu)和路徑。

  在治理過程中,需充分調(diào)動多元主體共同治理,形成多元共治的格局。我國科技領(lǐng)域立法中特別注重多元共治。網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個人信息保護(hù)法中都有明確體現(xiàn)。2021年9月,國家互聯(lián)網(wǎng)信息辦公室、中央宣傳部等9部門聯(lián)合發(fā)布了《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,其中也專門指出要“打造形成政府監(jiān)管、企業(yè)履責(zé)、行業(yè)自律、社會監(jiān)督的算法安全多元共治局面”。

  在人工智能治理領(lǐng)域探索建立涉案企業(yè)合規(guī)不起訴制度,有助于建立預(yù)防與懲罰并舉的人工智能風(fēng)險防控系統(tǒng),在預(yù)防人工智能企業(yè)犯罪、加強企業(yè)自我監(jiān)管、實現(xiàn)企業(yè)依法依規(guī)經(jīng)營等方面發(fā)揮積極作用。

本文章僅限學(xué)習(xí)交流使用,版權(quán)歸原作者所有。

—— EDN ——

Serving national strategies, focusing on university research and the transformation of scientific and technological achievements

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
艾哈邁德·瓦希迪將擔(dān)任伊朗伊斯蘭革命衛(wèi)隊總司令

艾哈邁德·瓦希迪將擔(dān)任伊朗伊斯蘭革命衛(wèi)隊總司令

財聯(lián)社
2026-03-01 15:42:18
以軍稱已完成對伊朗各條戰(zhàn)線所有高級領(lǐng)導(dǎo)層“清除行動”

以軍稱已完成對伊朗各條戰(zhàn)線所有高級領(lǐng)導(dǎo)層“清除行動”

財聯(lián)社
2026-03-02 01:20:05
至少裁掉5人!男籃下一階段陣容大洗牌,保送郭士強搶下小組第一

至少裁掉5人!男籃下一階段陣容大洗牌,保送郭士強搶下小組第一

緋雨兒
2026-03-02 11:26:07
又空砍35+13+9,約基奇復(fù)出后僅5勝8負(fù)!4點原因丟卡位戰(zhàn)跌出前四

又空砍35+13+9,約基奇復(fù)出后僅5勝8負(fù)!4點原因丟卡位戰(zhàn)跌出前四

鍋子籃球
2026-03-02 13:09:56
“餓瘦”和“運動瘦”有什么區(qū)別?

“餓瘦”和“運動瘦”有什么區(qū)別?

馬拉松跑步健身
2026-02-21 20:56:17
汪小菲吐槽小汪寶心眼太多,回應(yīng)玥箖上學(xué)問題,筱梅或成了導(dǎo)火索

汪小菲吐槽小汪寶心眼太多,回應(yīng)玥箖上學(xué)問題,筱梅或成了導(dǎo)火索

查爾菲的筆記
2026-02-28 13:39:27
“00后”陳某某被押赴刑場 執(zhí)行死刑

“00后”陳某某被押赴刑場 執(zhí)行死刑

閃電新聞
2026-02-07 16:53:35
你有知道哪些炸裂的秘密?網(wǎng)友:我有個秘密說出來肯定大家要笑死

你有知道哪些炸裂的秘密?網(wǎng)友:我有個秘密說出來肯定大家要笑死

帶你感受人間冷暖
2026-01-29 00:10:05
中國男籃逆轉(zhuǎn)中國臺北引熱議!媒體人盛贊李弘權(quán)逆轉(zhuǎn)英雄

中國男籃逆轉(zhuǎn)中國臺北引熱議!媒體人盛贊李弘權(quán)逆轉(zhuǎn)英雄

狼叔評論
2026-03-01 18:26:08
綠議員批“二二八”紀(jì)念活動流于形式,桃園市府反問:怎么三年來沒參加過

綠議員批“二二八”紀(jì)念活動流于形式,桃園市府反問:怎么三年來沒參加過

海峽導(dǎo)報社
2026-03-01 10:42:02
41歲阿Sa真敢穿!紅白條紋泳裝秀22寸螞蟻腰,網(wǎng)友:沒身材別硬秀

41歲阿Sa真敢穿!紅白條紋泳裝秀22寸螞蟻腰,網(wǎng)友:沒身材別硬秀

葉公子
2026-03-02 12:06:04
內(nèi)塔尼亞胡:諸多跡象顯示哈梅內(nèi)伊已“不在人世”

內(nèi)塔尼亞胡:諸多跡象顯示哈梅內(nèi)伊已“不在人世”

財聯(lián)社
2026-03-01 03:39:04
美媒:美國再次成為唯一超級大國,中國曾有機會,但如今輸?shù)舾偁?>
    </a>
        <h3>
      <a href=縱擁千千晚星
2026-01-20 14:16:25
0.02平方公里擠著5萬人?警察不敢進(jìn)的九龍寨城,1987年被連根拔起

0.02平方公里擠著5萬人?警察不敢進(jìn)的九龍寨城,1987年被連根拔起

老杉說歷史
2026-02-06 00:17:10
中國新婚夫妻中東度蜜月突遇戰(zhàn)爭爆發(fā),新娘在領(lǐng)空關(guān)閉前離境,新郎滯留:不時傳來爆炸聲,買了餅干和水,機票改簽到10多天后

中國新婚夫妻中東度蜜月突遇戰(zhàn)爭爆發(fā),新娘在領(lǐng)空關(guān)閉前離境,新郎滯留:不時傳來爆炸聲,買了餅干和水,機票改簽到10多天后

大象新聞
2026-03-01 23:45:04
終于簽了!山東男籃新援搞定,CBA新面孔,擁有NBA履歷,能打硬仗

終于簽了!山東男籃新援搞定,CBA新面孔,擁有NBA履歷,能打硬仗

萌蘭聊個球
2026-03-02 09:08:23
這女的真不講究

這女的真不講究

太急張三瘋
2026-02-14 19:35:03
高考數(shù)學(xué)命題老師葛軍入駐抖音 評論區(qū)炸出一堆2003年的高考生

高考數(shù)學(xué)命題老師葛軍入駐抖音 評論區(qū)炸出一堆2003年的高考生

閃電新聞
2026-02-28 11:48:30
1200枚導(dǎo)彈從天而降,特朗普留下“退路”,伊朗全國哀悼,俄發(fā)聲

1200枚導(dǎo)彈從天而降,特朗普留下“退路”,伊朗全國哀悼,俄發(fā)聲

小嵩
2026-03-02 13:31:56
伊朗最高領(lǐng)袖遇害的悲劇,令人想起了一位中國秘密人物。

伊朗最高領(lǐng)袖遇害的悲劇,令人想起了一位中國秘密人物。

華人星光
2026-03-01 11:52:34
2026-03-02 14:20:49
科轉(zhuǎn)在線 incentive-icons
科轉(zhuǎn)在線
引領(lǐng)·傳播·連接·賦能
5713文章數(shù) 850關(guān)注度
往期回顧 全部

科技要聞

榮耀發(fā)布機器人手機、折疊屏、人形機器人

頭條要聞

牛彈琴:伊朗之戰(zhàn)比俄烏之戰(zhàn)更生猛 給世界5個深刻教訓(xùn)

頭條要聞

牛彈琴:伊朗之戰(zhàn)比俄烏之戰(zhàn)更生猛 給世界5個深刻教訓(xùn)

體育要聞

卡里克主場5連勝!隊史第2人通過最大考驗

娛樂要聞

美伊以沖突爆發(fā),多位明星被困中東

財經(jīng)要聞

中東局勢影響如何?十大券商策略來了

汽車要聞

預(yù)售11.28萬起 狐全新阿爾法S5標(biāo)配寧德時代

態(tài)度原創(chuàng)

旅游
房產(chǎn)
家居
游戲
數(shù)碼

旅游要聞

亭亭玉立、暗香浮動!醉白池白玉蘭驚艷綻放

房產(chǎn)要聞

濱江九小也來了!集齊海僑北+哈羅、寰島...江東教育要炸了!

家居要聞

萬物互聯(lián) 享科技福祉

曝戰(zhàn)神新作風(fēng)格將大變!比起戰(zhàn)神可能更像鬼泣

數(shù)碼要聞

掌閱iReader Tango 2 Pro墨水屏閱讀器發(fā)布,可插SIM卡

無障礙瀏覽 進(jìn)入關(guān)懷版