作者:徐君鋒(中國傳媒大學計算機與網絡空間安全學院副研究員)
(相關資料圖)
在ChatGPT為代表的生成式人工智能時代,面對突如其來的機遇和挑戰(zhàn),除了享受它帶來的便利與效益,更重要的就是把握主動,將機遇真正轉化為自己所有,還要進一步思考新的監(jiān)管思路,突破法律滯后性局限,實現(xiàn)以技術推動法治,以法治促進技術的良性循環(huán)。
一、生成式人工智能的機遇與挑戰(zhàn)
自ChatGPT面世以來,它以極高的人工智能水平為人們的生活水平提高以及社會的發(fā)展帶來了機遇和挑戰(zhàn)。機遇主要表現(xiàn)在其自身所創(chuàng)造的價值,現(xiàn)如今生成式人工智能的生產內容是一種全新的模式即“AI生產內容模式”(AI Generated Content,AIGC)。AIGC以其高效、高質量、低成本的優(yōu)勢更新了當今的互聯(lián)網內容生產模式,并且針對元宇宙、3D技術等新興領域具有較大的發(fā)展?jié)摿?,成為了各國試圖搶占先進技術優(yōu)勢的最佳武器。
與此同時,生成式人工智能作為人工智能領域的全新產品,在一定程度上又重新加劇了傳統(tǒng)人工智能所造成的社會問題,除此之外還引發(fā)了一系列連帶性的新挑戰(zhàn)亟待克服。
從科技創(chuàng)新的角度,生成式人工智能更新?lián)Q代速度極快,從算法模型到深度合成技術再到如今的人工智能生成內容,每一次更新的背后都需要強大的技術支撐,而無論是現(xiàn)如今生成式人工智能的各種訓練算法,還是Transformer等訓練架構,基本固定掌握在幾個相關領域的核心企業(yè)之中。而要想在這場新一輪人工智能的浪潮中奮勇向前,就必須對科技創(chuàng)新進行重點關注。
從社會影響的角度,人工智能所帶來的失業(yè)問題與收入差距一直都是各國發(fā)展的攻堅點,針對失業(yè)問題,傳統(tǒng)的人工智能僅能替代一些交互性較弱、模型化較強的工作,但現(xiàn)如今以ChatGPT為代表的生成式人工智能已經展現(xiàn)出了強大的社交能力,并且能夠在依照指令(Prompt)的指示下檢索整合出更加符合要求的內容,因此有研究表示下一步能夠被替代的可能就是技能水平較高并且薪酬水平也較高的白領人群。
與此同時,生成式人工智能的出現(xiàn)已經使原有的人工智能法律體系受到了嚴重的沖擊,它不僅重新定義了法律主體和法律客體,重新定義了法律關系,還因此引發(fā)了一系列安全問題,主要包括數據安全與隱私安全。并且生成內容的歸屬與真實性也是需要關注的問題。
二、注重科技與法制并重的全局把控
(一)從研發(fā)到應用:分階段解析生成式人工智能的成長
以ChatGPT為代表的生成式人工智能技術的研發(fā)從最初利用自然語言處理系統(tǒng)進行交互的聊天機器人,到現(xiàn)階段有望在多個領域如醫(yī)療輔助、教育科研、無人駕駛以及生物識別等實現(xiàn)廣泛應用,其中關注的重點包括技術研發(fā)、政策支持以及應用規(guī)制等多方面的共同推進。
從技術研發(fā)的角度,從生成式人工智能的運行原理來看,它離不開算法、算力和數據的協(xié)調配合。在算法方面,以ChatGPT為代表的生成式人工主要采用“生成式預訓練轉換模型”(Generative Pre-trained Transformer),而這種模型則使用“利用人類反饋強化學習”(Reinforcement Learning from Human Feedback,RLHF)的訓練方式,通過人類與機器人交互回答逐漸生成答案。由此來看,如何提高人類反饋提高人工智能的生成水平實現(xiàn)迭代升級,是目前需要考慮的問題。就算法而言,ChatGPT所需算力需求巨大,這也決定了極高的資金要求,該問題涉及到企業(yè)如何協(xié)調自身電力儲備以及與公共資源之間的銜接。眾所周知,ChatGPT之所以能夠表現(xiàn)出如此強大的交互能力,主要取決于其大量的數據訓練,這種訓練無疑對數據數量具有較大的需求,而如何獲取和篩選數據則是該問題的重點。
除了技術本身的提升之外,政策支持和應用規(guī)制也是不可忽視的部分。目前我國針對生成式人工智能的政策和規(guī)制呈現(xiàn)出滯后性的特點,這種滯后性就決定了在面對技術的升級迭代時,無法良好全面的應對各種問題。目前我國也意識到了該問題,因此除了已有的《網絡音視頻信息服務管理規(guī)定》、《互聯(lián)網信息服務深度合成管理規(guī)定》等針對性政策規(guī)定之外,又于2023年4月出臺《生成式人工智能服務管理辦法(征求意見稿)》(簡稱《辦法》),用以解決現(xiàn)有問題并附帶一系列前瞻性規(guī)定。并且,除了相應的政策法規(guī),我國又將對人工智能的規(guī)制聚焦到安全標準上,目前我國首個人工智能安全國家標準《信息安全技術 機器學習算法安全評估規(guī)范》即將出臺,與此并行編制的還有《信息安全技術 人工智能計算平臺安全框架》等標準。
(二)從經驗到實踐:拓寬度搭建國際網絡空間命運共同體
在面對如此強大的生成式人工智能新沖擊,結合我國情況進行法律監(jiān)管構思的同時,配合國際組織方向,吸取面對同樣機遇和挑戰(zhàn)的別國經驗也成為了搭建國際網絡空間命運共同體的有效途徑之一。
聯(lián)合國教科文組織于2021年11月發(fā)布《人工智能倫理問題建議書》,旨在為和平使用人工智能系統(tǒng)、防范人工智能危害提供基礎。
歐盟堅持其對人權保護的傳統(tǒng),隨著生成式人工智能的不斷迭代,2021年4月,歐盟委員會發(fā)布了立法提案《歐洲議會和理事會關于制定人工智能統(tǒng)一規(guī)則(人工智能法)和修訂某些歐盟立法的條例》(以下簡稱《歐盟人工智能法案》),主要思路在于由政府主要針對人工智能可能產生的風險急性預防和管理,例如要求生成式人工智能的開發(fā)商在其內容中披露“來自人工智能”的標識等。
美國參議院、聯(lián)邦政府、國防部、白宮等先后發(fā)布《算法問責法(草案)》《人工智能應用的監(jiān)管指南》《人工智能道德原則》《人工智能權利法案》《國家網絡安全戰(zhàn)略》等文件,相較于歐盟也更加重視安全的因素,并且鼓勵“政府+企業(yè)”的合作監(jiān)管模式,既鼓勵了相關領域的自律發(fā)展,又加強了監(jiān)管體系。
除此之外,其他國家一部分更加強調創(chuàng)新,一部分仍舊更加側重于安全的考量,這實際上也為我國生成式人工智能的監(jiān)管提供了思路,即平衡科技創(chuàng)新與法律監(jiān)管兩者并重,能夠在更好的促進行業(yè)發(fā)展的同時,將倫理、安全、人權等因素進行保護,在同樣的思路上進行多邊合作探討,實現(xiàn)網絡空間命運共同體的搭建,并不斷擴展共識寬度。
三、提供護航生成式人工智能健康發(fā)展的中國方案
(一)科技創(chuàng)新能力的重視與提高
技術研發(fā)與政策支持并重才能夠繼續(xù)推進我國人工智能科技創(chuàng)新能力,進一步實現(xiàn)科技自立自強。
首先,應當從根本上搭建適合我國的技術框架,避免“卡脖子”的問題。在增加傳統(tǒng)技術科研項目的基礎之上,分類別從算法、算力以及數據的角度進行細化升級,將國內前沿學術理論與專利產品進一步落實,以解決目前學術界與實務界相對隔絕的現(xiàn)狀。
其次,完善相關配套制度以及輸送大量科研人才也是較為穩(wěn)妥的解決方式。考慮建立專門的關于生成式人工智能研發(fā)與規(guī)制的機構,主要作用在于整合和調配現(xiàn)有資源,可以參考美國成立的國防部高級研究計劃局(Defense Advanced Research Projects Agency,DARPA)。鼓勵跨學科、跨領域對話,利用多學科人才全方位對生成式人工智能技術予以解讀,從技術、倫理、法律各個層面實現(xiàn)對生成式人工智能技術創(chuàng)新以及生成內容規(guī)制問題的處理,從而完善相關科研協(xié)同制度。
最后,面對生成式人工智能除了按照傳統(tǒng)的技術創(chuàng)新和政策扶持外還應當思考背后的產研聯(lián)動模式,建議構建大型科技企業(yè)與重點科研機構的產研協(xié)同創(chuàng)新模式,引領技術攻關。這種模式旨在發(fā)揮科研機構在關鍵核心技術上的研究優(yōu)勢,同時發(fā)揮大型科技企業(yè)在產品化、工程化、場景化、商業(yè)化和數據化方面的優(yōu)勢。以此為基礎,進一步提出“人才+機器”的配合訓練,用以應對生成式人工智能可能出現(xiàn)的現(xiàn)實問題。
(二)法律監(jiān)管制度的更新與完善
就法律制度的監(jiān)管而言,我國目前已經出臺了一系列的規(guī)定和標準用以解決生成式人工智能來襲所帶來的一系列風險和問題。從生成式人工智能本身來看,它打破了傳統(tǒng)的法律主體與法律客體的概念。例如ChatGPT既能夠作為一種“勞務關系”的法律主體,利用其模型技術完成對方交辦的各項任務;還能夠作為一種新的技術類型被當作買賣關系或租賃關系的客體進行交易和流通。這些可能導致法律關系或法律監(jiān)管混亂的情形都有待進一步規(guī)制和監(jiān)管。從問題的不同類型來看,現(xiàn)階段生成式人工智能可能存在的突出問題主要包括知識產權權屬問題、數據隱私安全問題以及生成內容合法性問題。
第一,針對生成內容知識產權歸屬問題。有學者認為“應用算法、規(guī)則和模板的結果,不能體現(xiàn)創(chuàng)作者獨特的個性”。但是隨著ChatGPT的不斷升級,其所代表的生成式人工智能的輸出能力得到進一步提升,故近期又有學者認為這使得“程序算法和獨立思考的界限進一步模糊”。我國最近出臺的《辦法》意見稿中也提到了相關問題的處理,如要求生成內容中“不含有侵犯知識產權的內容”,但此規(guī)定仍然較為籠統(tǒng)。針對該問題在不具備立法背景的情況下,可以以相關規(guī)章辦法為基礎,提出進一步的細化措施予以指導,還可以由最高法出臺相應指導性判例的方式表明立法導向。
第二,針對數據隱私安全問題??梢越梃b歐盟的分階段處理模式,即事前評估、事中監(jiān)管和事后追責。我國已經出臺《數據安全法》、《個人信息保護法》以及相應的《市場準入負面清單(2022)》,應當充分以現(xiàn)有法規(guī)為基礎,全方位從服務準入、風險監(jiān)管和責任追究的角度進行把控。
第三,針對生成內容合法性問題。鼓勵提高技術水平的同時注重研發(fā)自監(jiān)測模型用于提前規(guī)制人工智能生成內容的合法性,并且注重多個法律部門聯(lián)動治理。具體舉措參考電信詐騙工作思路,將標識功能運用到該問題的處理上,在刑法、行政法等法律部門中補充協(xié)調相應內容。
標簽: