中國日報3月20日電(記者 李薇) 隨著馬斯克(Elon Musk)所預言的“通用人工智能(AGI)元年”到來,AI正加速從輔助工具轉變為具備自主決策能力的“智能體”(Agent)。技術紅利與潛在風險并存,法律體系面臨全新挑戰。
3月19日,由中國政法大學人工智能法研究院、西南政法大學科技法學研究院等機構聯合主辦的“探尋人工智能法治研究的真問題(第二季)”研討會在線上舉行。會上正式發布了《人工智能法治研究十大議題(2026)》。
最高人民法院咨詢委員會副主任姜偉在致辭中強調,人工智能法治研究必須堅持問題導向,推動建構中國人工智能法治自主知識體系,實現“科技創新與良法善治雙向賦能”。
中國政法大學人工智能法研究院院長張凌寒介紹,本次議題力求“小切口深挖掘”,聚焦智能體授權、AI擬人化風險、出海合規等十個核心領域,不僅回應現實問題,更是“對未來的規則布局”。
發布的十大議題緊密圍繞技術落地中的新矛盾。
對外經濟貿易大學許可教授在發布“智能體的行為邊界、授權機制與競爭治理”議題時指出,智能體意味著AI從“會說話”走向“會辦事”,但其法律授權邊界與責任歸屬亟待厘清。浙江大學李汶龍教授認為,智能體“瓦解了傳統法律理論所依據的環境”,給現行授權與競爭規則帶來根本挑戰。
“生成式人工智能‘幻覺’致損風險防范與責任承擔”是另一焦點。西北政法大學楊建軍教授提出,當用戶因信賴AI生成內容而受損,法律需界定“合理性”的邊界,并平衡平臺提示義務與產業發展。許可教授補充,需在技術尚無法完全消除“幻覺”的前提下,根據各方控制力與獲利程度,細化責任分配。
針對未來挑戰,“前沿人工智能安全保障與極端風險防控的法治進路”議題將目光投向高階AI。湘潭大學文禹衡副教授指出,面對可能出現的“自主逃逸”等極端風險,傳統事后追責模式可能失靈,必須構建“事前可控”的法律治理范式,實現發展與安全的統籌。
中國政法大學舒國瀅教授在致辭中評價,這些議題精確瞄準了當前AI發展“最前沿、最迫切、最具有爭議的法律難題”。四川大學左衛民教授在研討中表示,這些議題是“未來中國的人工智能發展過程中必須要思考和解決的法律問題”。
此次議題發布是AI善治學術工作組活動的一部分。該工作組自成立以來,已產出多項立法建議與研究成果。會議同期宣布啟動“AI善治·新智新聲”人工智能法治在線課堂,將繼續推動跨學科青年人才的培養與協同研究。