近期,ChatGPT爆火掀起了新一輪生成式人工智能(AIGC)熱潮,也引發了社會各界對于該領域規范發展與治理問題的廣泛關注。4月11日,為促進生成式人工智能技術健康發展和規范應用,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》(下稱《管理辦法》)。《管理辦法》明確提出,提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,并明確了生成式人工智能服務的提供者需要承擔的各項義務和責任。
(相關資料圖)
一旦《管理辦法》正式通過并生效,則預示著可信AIGC發展邁向新的臺階。目前,ChatGPT等AIGC技術仍是一把雙刃劍,其作為高度智慧化的人工智能(AI)形態,帶給人類社會的便捷與風險同在,而這些潛在風險,可能引發民眾對于AI技術應用的信任危機。ChatGPT等AI技術應用在給人們帶來便捷的同時,也存在泄露個人隱私的風險,并且可能成為“學術造假”、制造虛假信息和謠言的工具,引發人們對AIGC乃至整個AI產業的信任危機,而對AI的信任危機將不利于AI的進一步創新和發展。為此,有必要基于可能引發AIGC信任危機的問題所在,探索可信AIGC發展的治理基點。
AIGC引發信任危機的原因
在AI技術發展早期,人們對其產生信任危機主要緣于技術不成熟,譬如自動駕駛技術存在發生事故的可能,使用者的人身安全難以得到有效保障,由此會產生一種不信任。隨著ChatGPT等的出現,AI技術發展進入一個全新階段,人們發現AI技術具有無限可能性,可以完成一些人們從未想象過的任務,但這仍然可能引發人們對于AI技術的不信任。這種不信任,一方面緣于AI技術確實尚未成熟,另一方面則緣于AI技術生成的內容難辨真假,且在無形中會采集我們提供的大量數據。以ChatGPT為代表的AIGC技術為例,就可能引發下述問題:
其一,科技倫理問題。科技倫理是開展科學研究、技術開發等科技活動需要遵循的價值理念和行為規范,是促進科技事業健康發展的重要保障。ChatGPT等AIGC技術的發展使得AI應用擴展到了新聞、畫圖、寫作等領域,但這些領域尚未建立技術使用的行為規范,易導致在技術使用過程中出現違反倫理道德的行為。
以ChatGPT為例,它可以幫助用戶完成新聞報道、寫論文等多種任務,但也因此可能成為一些人用來制造謠言和偽造論文的工具。全球學術頂刊《自然》雜志(Nature)一周之內兩次發布有關ChatGPT的分析文章,探討諸如ChatGPT等大型語言模型(LLMs)給學術圈帶來的潛在混亂、生成內容存在的潛在侵權,以及如何規范使用等問題。
在此背景下,若不明確對AI技術在各領域應用需要遵循的價值理念和行為規范,那么學術規范問題、虛假信息和謠言傳播等科技倫理問題將會引發人們對于AI的不信任,這種不信任甚至可能會擴大到未使用AI技術的情形中,譬如對于一篇學術論文或者畫作,人們都可能懷疑其是不是由AI創作出來的。如此一來,由此引發的信任危機將對相關領域整體發展產生不可預估的影響。
其二,侵權責任問題。由于AIGC領域相關法律、倫理道德規范尚未健全,AIGC技術的濫用引發了諸多侵權事件發生。據媒體報道,澳大利亞墨爾本西部赫本郡的市長布賴恩·胡德(BrianHood)指控OpenAI旗下ChatGPT對其進行誹謗,或將對該公司提起訴訟。
而且,由于ChatGPT等AIGC技術的使用門檻較低,在一定程度上也提升了發生侵權事故的風險。以傳播謠言為例,在當前追求流量的互聯網環境下,可能會促使一些用戶為博眼球制造虛假信息,增加虛假信息傳播的頻率。
隨之而來的是AI侵權責任的承擔問題,即遭到AIGC技術參與的侵權行為,應當找誰承擔責任?是用戶還是提供AIGC產品服務的運營商?目前,傳統法律法規中的主體資格、責任追究等制度適用于AIGC應用場景面臨困境,若不能有效且合理地認定各方的侵權責任,同樣會引發人們對于AIGC技術的不信任,因為責任追究機制不明確可能導致行為人與運營商之間相互推諉責任,從而導致被侵權人的損失難以及時彌補。
其三,數據安全問題。AI技術的運行需要大量數據支持,主要使用的是公共爬蟲數據集和有著超過萬億單詞的人類語言數據集。OpenAI官網發布的《隱私政策》顯示,用戶在使用ChatGPT時,會被采集有關用戶訪問、使用或互動的信息。相關負責人也表示,ChatGPT會使用每個客戶的一小部分數據樣本來提高模型性能,用戶若不希望數據用于提高性能,需要通過郵件向OpenAI發送申請。這意味著,包含用戶隱私以及用戶對話的數據可能會被OpenAI采集并存儲在其數據中心,隨著ChatGPT用戶數量暴增,其采集和存儲的用戶數據量也將非常龐大。
雖然近年來數據安全保護技術愈加成熟,且提供AIGC服務的運營商也會承諾保障數據安全,但數據泄露隱憂始終存在。3月25日,OpenAI表示有1.2%的ChatGPTPlus用戶數據可能被泄露,一些用戶可能看到其他人聊天記錄的片段,以及其他用戶信用卡的最后四位數字、到期日期、姓名、電子郵件地址和付款地址等信息。可見,數據安全問題仍然難以避免,若數據安全得不到有效保障,AI技術就難以獲信,進而阻礙AI的發展和應用。
推進可信AI發展的治理基點
當前,騰訊、百度等國內科技巨頭紛紛表示將研發類ChatGPT的AIGC技術產品,在此背景下,必須正視可能引發AIGC信任危機的主要問題。應當以三方面作為治理基點,加快推進可信AIGC發展。
第一,加快建立多領域的科技倫理監管和規范,加強科技倫理審查。當前,我國AIGC相關領域的科技倫理治理存在體制機制不健全、制度不完善、領域發展不均衡等問題,難以適應AIGC領域科技創新發展的現實需要。
為此,一方面,需要針對不同的AIGC應用領域制定相應的科技倫理規范和標準,明確科技倫理要求,引導相關企業合規開展科技活動。
同時,加強對AIGC產品的事前審查。《管理辦法》規定,在利用生成式人工智能產品向公眾提供服務前,應當向國家網信部門申報安全評估,并履行算法備案和變更、注銷備案手續。通過事前審查的方式,不僅可以提升生成式人工智能產品向公眾提供服務的合法性,增加其安全、可靠、可解釋、可問責等可信性,還有助于更好地實現AIGC產品和技術適用的包容性,更好地預防風險,保障安全。事前審查還能夠彌補外部監督的缺陷,提前鑒別某個行為是否違法,對其實施監控更加有利和有力。此外,進行事前審查,可及時發現運作程序、服務內容存在的問題,提高生成式人工智能產品向公眾提供服務的可接受性。但同時,也可能由于事前審查效率及審查范圍設置不當,抑制AIGC產品的研發與訓練效能,客觀上導致AIGC發展降速。
另一方面,要加快建立科技倫理審查和監管制度。4月4日,科技部發布關于公開征求對《科技倫理審查辦法(試行)》意見的公告,其中提出科技倫理審查應堅持科學、獨立、公正、透明原則,公開審查制度和審查程序,客觀審慎評估科技活動倫理風險,依規開展審查,并自覺接受有關方面的監督。通過科技倫理審查等外部監管方式,能在一定程度上提升AI領域技術使用的規范性,建立人工智能領域道德層面的行為準則,對維護社會公平正義、保障公眾切身利益具有重要意義,也有助于提升人們對人工智能技術應用的信任。
第二,要完善AIGC侵權責任認定規則。AI自動化運行造成了“主體—行為—責任”傳統理論下的“責任鴻溝”,但AI算法技術的應用如算法的設計與部署是包含價值觀和主觀意圖的,這是法律追責之根本指向,也是承擔法律責任的主要依據,因此,可將AI算法設計部署的主觀過錯作為追責的基礎依據。在此基礎上,還需進一步提升《民法典》《刑法》《產品質量法》等傳統法律在AIGC具體應用場景中判定主體責任和產品質量缺陷等問題的適用性。
在責任判定過程中,需要根據行為人以及提供AIGC服務的運營商對于侵權行為和損害后果發生的實質作用進行判定。《管理辦法》第五條規定,利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(下稱“提供者”),需要承擔產品生成內容生產者的責任。這意味著在責任判定過程中,若損害發生,可以參照適用《民法典》中規定的產品生產者責任,即因產品存在缺陷造成他人損害的,生產者應當承擔侵權責任,并且被侵權人可以向產品的提供者請求賠償。這是對AIGC產品提供者通常是平臺主體應該盡到高度注意義務的規定,在一定程度上講,也只有賦予AIGC產品提供者相應的責任義務,才能更好對生成內容的合法合規做出要求。當然,如果平臺盡到相應義務,在責任的承擔上,鑒于其對創新發展的貢獻,不宜施加嚴格責任,否則不利于技術開發和未來商用。
第三,要加強AI領域的數據保障。在制度層面,需要結合AIGC底層技術所需數據的特性和作用,建立健全數據分類分級保護制度,譬如可根據數據主體、數據處理程度、數據權利屬性等方面對數據進行分類管理,根據數據對于數據權利主體的價值,以及數據一旦遭到篡改、破壞等對數據主體的危害程度進行分級。
在數據分類分級的基礎上,建立與數據類型和安全級別相配套的數據保護標準與共享機制。AIGC還涉及數據跨境流通問題,應當在考慮國際通行標準和做法的基礎上,制定合理的跨境數據安全執法規則,加強與其他國家和地區規則的銜接,促進數據安全跨境執法合作。
此外,還需進一步加強數據安全的事前保護,將保護鏈條前移。《管理辦法》規定,提供者應當根據國家網信部門和有關主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優化訓練數據的來源、規模、類型、質量等描述,人工標注規則,人工標注數據的規模和類型,基礎算法和技術體系等。通過事前保護的方式,能夠更加積極有效地規范AI訓練過程,以更好保障用戶的知情權、選擇權等權益,增強用戶信任度。
AIGC產業具有巨大的發展前景,能夠帶來更多數字化創新的發展機遇,也已成為未來全球競爭與創新的重點方向,但AIGC產業發展面臨的信任危機也值得重視。我國需進一步推進可信AIGC產業的發展建設,重視AIGC產業的科技倫理治理,建立健全相關行為規范和倫理指南,用系統觀念和法治思維及辦法來推動AIGC產業的規范健康持續發展,提升其安全、可靠、可解釋、可問責等可信性。
(陳兵系南開大學法學院副院長、教授,南開大學競爭法研究中心主任,南開大學數字經濟交叉科學中心研究員;林思宇系南開大學競爭法研究中心博士研究生)
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.fyuntv.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2020 By All Rights Reserved 皖ICP備2022009963號-10
聯系我們: 39 60 29 14 2@qq.com