編者按:
(資料圖片僅供參考)
在2023年過去的幾個月里,各大公司搶灘大模型、GPT商用化探索、算力基礎設施看漲……如同15世紀開啟的大航海時代,人類交往、貿易、財富有了爆炸性增長,空間革命席卷全球。變革同時,也帶來了秩序的挑戰,數據泄露、個人隱私風險、著作權侵權、虛假信息......此外,AI帶來的后人類主義危機已然擺在桌面,人們該以何種姿態迎接人機混雜帶來的迷思?
此刻,尋求AI治理的共識、重塑新秩序成了各國共同面對的課題。南財合規科技研究院將推出AI契約論系列報道,從中外監管模式、主體責任分配、語料庫數據合規、AI倫理、產業發展等維度,進行剖析,以期為AI治理方案提供一些思路,保障負責任的創新。
Sam Altman走進了國會山。這位在過去幾個月贏得全球最多關注的年輕創業者,和他身后的OpenAI一起迎來了屬于自己的聽證會時刻。
近日,美國參議院司法機構隱私、技術和法律小組委員會舉行名為“AI監管:人工智能的規則(Oversight of AI: Rules for Artificial Intelligence)”的聽證會。在聽證會上,被譽為ChatGPT之父的OpenAI首席執行官兼聯合創始人Sam Altman提出了一個并不常見的訴求——請政府加大對人工智能領域的監管力度。
ChatGPT橫空出世,大型語言模型的驚艷表現讓一條未曾想象的道路在技術與產業面前徐徐鋪開。然而硬幣的另一面,是科技倫理、知識產權、數據安全等諸多問題亟待監管和治理的現實。
梳理發現,各國政府和監管機構已開始采取措施加強監管,以確保公眾利益和安全。然而,在面對日新月異的人工智能技術,監管層面仍面臨多重挑戰,全球也尚未形成通行、共識的人工智能治理規則和體系。
受訪專家表示,針對人工智能的風險監管或者治理,需多方參與,共同型構規制空間,協力促進人工智能良性發展。
AI要監管:千人聯名信與國會山里的呼吁
人工智能技術可能使人類歷史迎來一個“印刷機時刻”。5月16日,Sam Altman走入國會山,在聽證會中如是說道。
作為OpenAI的聯合創始人兼首席執行官,Sam Altman在過去幾個月隨著ChatGPT的出現和擴散逐步走到聚光燈下。與此前科技巨頭展露出的攻擊和防備不同,他認同議員們對風險的質疑,并積極地給出了自己的解決方案。
在這個以AI監管為主題的會議上,圍繞人工智能,對版權侵害、虛假內容、數據安全、政府監管等諸多活了議題進行了討論。
在聽證會上,Sam Altman表示,人工智能有潛力改善我們生活的方方面面,但同時也會帶來嚴重的風險。“我認為應該對我們施加監管壓力。”他直截了當地表示。
擔憂與ChatGPT的火爆相伴相生。泄露機密信息、撰寫虛假文章、剽竊人類創意……ChatGPT似乎打開了“潘多拉魔盒”。
會議上,Sam Altman提供了幾個監管建議。首先是成立一個新的機構,超過一定規模的功能研究和應用需要獲得該機構的許可才可進行;該機構也有將許可收回的權力。其次是構建一套人工智能安全標準,重點關注模型的危險能力評估,模型在部署到外部世界時需要通過具體的測試。另外,他還指出應該踐行獨立審計。在公司或機構的自我審查之外,監管需要廣泛聽取外部專家的評價意見。
人工智能的應用往往與大量隱私數據關聯,針對被用以研究和計算的數據,Sam Altman認為應當設立便捷的退出、刪除機制。用戶有權決定自己的數據是否用戶訓練,也能自由地刪除相關數據。
兩天前,OpenAI官網發布Sam Altman參與寫作的博文,主題仍是人工智能治理,其中提到:“現在是一個開始思考超級智能(Super Intelligence)監管的良好時機 —— 未來的 AI 系統將比 AGI 都要強大”。他提出,應當成立類似“國際原子能機構”的專門監管機構對超過一定能力(或計算資源等)超級人工智能進行監管。
在Sam Altman走進國會山之前,全球范圍內已有多方對當前人工智能技術表達了關切和擔憂。
3月,美國數千名人工智能領域企業家、學者、高管發出了一封題為《暫停大型人工智能研究》公開信,呼吁關注人工智能研發中產生的安全問題,并敦促各國政府及時介入人工智能的監管。同月,人工智能和數字政策中心向美國聯邦貿易委員會投訴,試圖阻止向消費者發布強大的AI系統。
監管進行時:禁用、調查和立法
各國政府和監管機構也已采取措施加強監管。
3月,意大利隱私監管機構宣布境內暫時禁用ChatGPT。4月,意大利、加拿大等國宣布將對OpenAI展開調查;同月,美國商務部就ChatGPT等人工智能技術相關的問責措施正式公開征求意見,包括具有潛在風險的新型人工智能模型在發布前是否應進行核準認證程序;中國國家互聯網信息辦公室發布的《生成式人工智能服務管理辦法(征求意見稿)》。
此外,英國、美國、日本、歐盟均在5月針對人工智能有所動作。其中,歐盟《人工智能法案》多個提案在歐洲議會通過,即將進入歐盟委員會、歐洲議會及歐盟理事會的“三方會談”(trilogue)階段。
事實上,人工智能是一把雙刃劍早已成為全球共識。梳理發現,在此輪AICG浪潮之前,全球范圍內關于人工智能已有多份立法及監管文件。
在斯坦福大學發布的《2023年人工智能指數報告》中提到,對127個國家的立法記錄調研的結果顯示,包含“人工智能”的法案被通過成為法律的數量,從2016年的僅1個增長到2022年的37個。報告還對81個國家2016年以來的人工智能議會記錄的分析也同樣表明,全球立法程序中提及人工智能的次數增加了近6.5倍。
隨著生成式人工智能研究和使用規模逐漸增長,建立新型的人工智能監管框架十分必要。
對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣就指出,監管框架的構建能夠保證在推動人工智能的負責任創新的同時化解新興技術應用時蘊含的風險。在市場機制無法很好地發揮作用的“野蠻生長期”,框架式的監管也能為行業指明健康發展的方向。
而據南方財經全媒體記者不完全統計,從2019年至今,多個國家、地區和國際組織就已經著手于建立人工智能的監管框架。
協同共治:構建多元規制空間
現如今,新型人工智能監管框架的構建在各國迅速推進,如何有效推動落地?在采訪中多位專家表示多方參與,協同共治是關鍵。
“由企業、第三方團體和公眾所組成的外部監督也是構成整個監管體系的重點。”張欣指出。
同濟大學法學院副教授、上海市人工智能社會治理協同創新中心研究員陳吉棟則表示,社會各主體構成的多元規制很重要,有了多元主體參與才能確定社會權益的分配邊界和規則。“總的來說,風險的監管或者風險社會的治理,是多種規制力量協力的結果,目前看,各方主體需要對話,共同型構一個規制空間。”他表示。
實際上,各方也已在發力。4月初,OpenAI發布《我們邁向人工智能安全的路徑》,闡述了他們在安全工作付出的努力,并從建立日益安全的人工智能系統、從實際應用中學習,以改進保障措施、保護兒童、尊重隱私、改善事實準確性、持續研究和合作七個方面做出了保證。在幾天前國會山的聽證會上,Sam Altman則宣布在未來六個月內不會訓練GPT-5,年內也可能不會再推出更強大的AI模型。
此外,4月,美國新聞/媒體聯盟發布“人工智能原則”,要求生成式人工智能必須尊重創作者對其內容的權利,其生成的內容必須對發布商和用戶透明并負責。
5月,人工智能初創企業Anthropic結合聯合國人權宣言、若干信任和安全“最佳實踐”等一系列文本制定了人工智能道德原則,并基于此開發了憲法AI“Claude”。
在我國,抖音也于近期發布了《關于人工智能生成內容的平臺規范暨行業倡議》,制定標識水印及元數據規范,呼吁全行業向公眾提示信息內容的合成情況以避免混淆或者誤認。
“監管、企業、媒體和公眾在人工智能治理框架下將扮演不同的角色。” 北京師范大學法學院博士生導師、中國互聯網協會研究中心副主任吳沈括指出,“監管作為秩序的建立者和維護者的角色,一方面提供關于業務運行的基本指引規則,另一方面突出對于紅線風險有效地研判、防范和干預。企業則通過積極履行主體責任,在合法合規層面通過有效的技術創新、有效的流程管理和有效的風險防范來構筑人工智能治理的生態底座。媒體和公眾作為監督和治理的第三極,發揮著凝聚共識的重要作用,通過有效均衡的治理結構推進人工智能的良性可持續發展。”
觀往知來,如何處理好監管與發展的雙生博弈,讓我們拭目以待。