◎ 文 《法人》雜志全媒體記者 王茜 見習記者 李遼
近日,智元機器人正式官宣,發(fā)布全球首個基于百萬真機數(shù)據(jù)訓練的人形機器人具身基座大模型——GO-1。“智元GO-1模型,無論是家庭中的餐食準備、桌面整理,還是工業(yè)環(huán)境中的復雜操作任務,都能輕松應對?!敝窃獧C器人合伙人姚卯青透露,家庭機器人等具身機器人有望在5年左右進入市場,預計定價30萬元以上。

▲CFP
當機器人推開千家萬戶的大門,科幻作家艾薩克·阿西莫夫提出的機器人三原則,正在加速走向現(xiàn)實。試想,當養(yǎng)老護理機械臂失誤導致老人受傷,當情感陪伴機器人存儲的私密對話遭黑客竊取,當健康管理機器人的推薦算法因為商業(yè)利益綁定而根據(jù)用戶體征向糖尿病患者推送高糖食品廣告······這些場景帶來的法律問題將不斷沖擊現(xiàn)行法律框架。
在不久前舉行的中關村論壇上,北京大學法學院教授、北京大學電子商務法研究中心主任薛軍表示,當傳統(tǒng)法律法規(guī)受到?jīng)_擊時,針對新領域的立法方法論也面臨挑戰(zhàn)?!拔覀儜捎酶哂袉栴}導向、試錯性質(zhì)、有彈性的立法思路,通過行業(yè)實踐等多種規(guī)制手段逐步探索形成數(shù)字經(jīng)濟發(fā)展所需要的法律制度。”
當法典遇到代碼,一場圍繞數(shù)字權利的保衛(wèi)戰(zhàn)已然打響。歐盟率先行動,其制定的《人工智能法案》確立了風險分級制度,而中國在《生成式人工智能服務管理暫行辦法》基礎上,今年3月接連出臺了《人工智能生成合成內(nèi)容標識辦法》和《人臉識別技術應用安全管理辦法》,為人類生物信息的應用加上了“安全鎖”,彰顯出AI治理的中國智慧。
AI背后有多少風險暗礁
2025年堪稱“AI大規(guī)模落地元年”。DeepSeek等國產(chǎn)大模型為人工智能在各行業(yè)加速落地注入了核心動能。平安集團部署的AI代碼系統(tǒng)借助該模型實現(xiàn)3天生成30萬行代碼,效率提升8%;引入大模型質(zhì)檢裝備后,內(nèi)蒙古包頭某稀土企業(yè)不僅有效降低了人力成本,良品率也大幅提高;廣東廣州某科技企業(yè)研發(fā)的服裝設計AI系統(tǒng),通過智能生成版型與面料匹配,將開款效率提升10倍······
在醫(yī)療健康領域,北京協(xié)和醫(yī)院的罕見病診斷模型已進入臨床驗證階段;上海市肺科醫(yī)院參與研發(fā)的智能手術規(guī)劃系統(tǒng)將實際手術規(guī)劃時間從數(shù)天縮短2至5分鐘;北京兒童醫(yī)院啟用的“AI兒科醫(yī)生”標志著智能診療正式進入日常醫(yī)療場景。養(yǎng)老服務方面,上海市靜安區(qū)搭建的長護險智能監(jiān)管平臺,通過AI算法優(yōu)化護理資源配置,大大提高了護理失能老人的服務質(zhì)量。
人形機器人作為具身智能的最佳載體,正在開啟服務產(chǎn)業(yè)新紀元。樂聚人形機器人已在江蘇蘇州低空經(jīng)濟展示館擔任智能講解員,魔法原子開發(fā)的人形機器人則變身“汽車銷售”,在汽車專賣店招攬顧客。上海清寶引擎機器人有限公司(以下簡稱“清寶”)創(chuàng)始人王磊接受《法人》記者采訪時稱:“我們的人形機器人應用于文旅場景,可做講解、導引、互動,還可以直播帶貨,而且流量很大。”他還表示,今年產(chǎn)品銷量非常好,第一季度幾乎完成去年全年的銷量,目前手里還有數(shù)千萬元的訂單。”
值得一提的是,AI技術還正在重塑社會治理模式。江蘇電信金湖分公司借助新一代AI技術,通過實時數(shù)據(jù)監(jiān)測助力基層治理智能化;北京豐臺新村街道上線的AI調(diào)解平臺,整合全國司法大數(shù)據(jù)資源,為物業(yè)糾紛、婚姻家庭等常見矛盾提供智能化解方案;福建移動依托DeepSeek大模型,為多地縣政府的政務服務平臺構建起智能政務中樞,群眾訴求發(fā)現(xiàn)率提升70%。
AI正以前所未有的深度與廣度改變?nèi)蚓蜆I(yè)生態(tài)。近日,世界經(jīng)濟論壇最新發(fā)布的《2025年未來就業(yè)報告》預測,至2030年,全球22%的就業(yè)機會將面臨變革,預計新增崗位1.7億個、9200萬個崗位或被替代。而職業(yè)重構則呈現(xiàn)雙向特征:一方面,臨床醫(yī)師、工程師等傳統(tǒng)職業(yè)通過智能增強實現(xiàn)能力躍遷;另一方面,算法工程師、數(shù)據(jù)標注師等職業(yè)成為新的增長極。
但硬幣的另一面則是全球AI風險事件頻發(fā)。南都大數(shù)據(jù)研究院梳理發(fā)現(xiàn),2024年,全球AI風險事件增加近五成,其中32.7%來自AI系統(tǒng)自身安全問題,如模型幻覺。還有67.3%是AI技術使用過程中衍生出的安全風險。其中,AI技術濫用或失控尤為引人關注。
2024年2月,一家英國跨國企業(yè)的香港分公司遭遇了精心設計的AI詐騙,騙子利用AI換臉和AI音頻合成視頻內(nèi)容,冒充總公司CFO,直接騙走了兩億港元。
AI倫理爭議也在持續(xù)發(fā)酵。2024年,某技術公司因非法利用已故歌手李玟的虛擬形象牟利,被其家屬公開譴責。而此類“AI復活”服務在電商平臺明碼標價,從幾元到數(shù)千元不等,引發(fā)公眾對逝者人格權益保護的激烈討論。
技術濫用現(xiàn)象在個人信息保護領域尤為突出。北京互聯(lián)網(wǎng)法院發(fā)布的數(shù)據(jù)顯示,2023年10月至2024年10月,該院受理的個人信息保護糾紛案件是2018年至2023年五年間受理此類糾紛的近兩倍。
對于普通人而言,從乘車進站、上班打卡到轉(zhuǎn)賬支付,甚至存包、取廁紙,“要臉”的地方越來越多,而更多的時候,大家卻無權決定是否“賞臉”。近日,消費者李云在北京市朝陽區(qū)某室內(nèi)游樂場準備寄存隨身物品時,前臺告訴他:“使用儲物柜必須通過人臉識別驗證?!边@讓他十分不滿:“連寄存物品都要采集人臉?這難道不是變相侵犯隱私權嗎?”
今年“3·15”晚會曝光的“火眼云”系統(tǒng),更揭露了醫(yī)美行業(yè)通過非法技術竊取用戶面容數(shù)據(jù)并進行灰色交易的產(chǎn)業(yè)鏈;金融領域也頻現(xiàn)信息安全漏洞,國家計算機病毒應急處理中心近期通報了14款違規(guī)金融APP,涉及未經(jīng)同意收集敏感信息、未明示數(shù)據(jù)用途等多項問題。
值得警惕的是,AI決策系統(tǒng)的不透明性正衍生新的風險:2025年春招中,多家銀行采用虛擬數(shù)字人面試官,雖提升了招聘效率,但算法偏見問題持續(xù)存在。近日,中國社會科學院法學研究所教授姚佳在接受記者采訪時表示,算法不透明問題由來已久,實踐中,利用大數(shù)據(jù)對特定群體存在偏見或歧視等情況時有發(fā)生,“例如,生成的招聘信息對特定性別、年齡等求職者存在不公平評價,生成的信貸信息可能對相關主體的還款能力和授信額度等存在不公平評價”。
包容審慎的中國智慧
在AI技術重塑全球治理格局的當下,歐盟與中國呈現(xiàn)出兩種不同的治理路徑。歐盟推出的《人工智能法案》以風險分級為核心,而中國采取“包容審慎”的治理哲學。
通過網(wǎng)絡安全法、數(shù)據(jù)安全法、個人信息保護法等基礎性法律框架以及相關頂層規(guī)劃的迭代升級,與地方試點和行業(yè)自律協(xié)同推進,中國在AI倫理規(guī)制與風險防范領域展現(xiàn)出獨特的治理智慧。
近年,我國人工智能治理工具箱持續(xù)豐富。2021年到2022年是AI倫理規(guī)范構建期,《新一代人工智能倫理規(guī)范》發(fā)布,構建了全面、系統(tǒng)的人工智能倫理框架。姚佳稱:“該規(guī)范提出了包括增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚?、強化責任擔當、提升倫理素養(yǎng)等基本倫理要求和涵蓋管理規(guī)范、研發(fā)規(guī)范、供應規(guī)范和使用規(guī)范等特定活動倫理規(guī)范。通過該規(guī)范,增強全社會的人工智能倫理意識與行為自覺,引導負責任的人工智能研發(fā)與應用活動,促進人工智能健康發(fā)展?!?/p>
2023年,AI進入監(jiān)管深化期,《生成式人工智能服務管理暫行辦法》正式施行,在監(jiān)管方式上,提出對生成式人工智能服務實行包容審慎和分類分級監(jiān)管,要求國家有關主管部門完善與創(chuàng)新發(fā)展相適應的科學監(jiān)管方式,制定相應的分類分級監(jiān)管規(guī)則或者指引,支持各方主體在生成式人工智能領域開展協(xié)作。
為構建數(shù)字內(nèi)容信任體系,今年3月,關于AI內(nèi)容治理機制建設重要探索的《人工智能生成合成內(nèi)容標識辦法》出臺。該辦法首創(chuàng)了“顯式+隱式”雙標識體系,構建了服務提供者、傳播平臺、應用商店共同履行標識義務的治理機制,推動產(chǎn)業(yè)合規(guī)發(fā)展。通過強制標識,有效遏制虛假行為、政治謠言等高風險內(nèi)容的傳播。
當前,人臉識別技術已在多個領域得到廣泛應用,隨著應用場景的不斷拓展,面臨的安全挑戰(zhàn)也愈發(fā)凸顯。3月21日,被稱為“數(shù)字時代面具法”的新規(guī)《人臉識別技術應用安全管理辦法》發(fā)布,對人臉識別領域中的合法性、正當性、必要性、比例、應用場景等原則作出了解釋,也明確了倫理責任、制度責任和技術責任。
AI的治理需要頂層設計與標準的雙重支撐。北京理工大學智能科技法律研究中心研究員王磊接受記者采訪時表示,標準在產(chǎn)業(yè)實踐中具有重要的指導作用,不僅彌補了法律法規(guī)的不足,還能通過企業(yè)參與形成行業(yè)共識,推動最佳實踐引導立法,形成良性循環(huán)?!坝绕涫窃贏I這一新興領域,合規(guī)性尤為關鍵。”
王磊曾主持《智能網(wǎng)聯(lián)汽車時空數(shù)據(jù)分類分級標準》制定。據(jù)他介紹,AI相關的標準既要明確紅線,又需調(diào)動行業(yè)自律,確保安全與發(fā)展并重,因此要兼顧到各方力量,涉及產(chǎn)業(yè)鏈上下游,如算法提供商,芯片、傳感器供應商等的協(xié)同。
在地方治理、行業(yè)自律、企業(yè)自治的協(xié)同推進下,我國人工智能應用治理體系正加速完善。北京、湖南等地明確禁止AI自動生成處方,劃定紅線機制;2024年12月,中國證監(jiān)會原主席肖鋼提出,算法模型需建立治理體系,人工智能無法消除金融風險;同月,科大訊飛、寒武紀等17家行業(yè)領軍企業(yè)簽署《人工智能安全承諾》,通過產(chǎn)業(yè)自律推動在技術創(chuàng)新與倫理約束之間的平衡探索。
此外,姚佳表示,企業(yè)需要“以技治技”,通過隱私計算、可解釋人工智能技術研發(fā)等,實現(xiàn)以人為本、智能向善。2024年11月,四部門聯(lián)合開展“清朗·網(wǎng)絡平臺算法典型問題治理”專項行動,將算法規(guī)則公開透明列為五大目標之一。美團、抖音、今日頭條等平臺相繼推出算法改進舉措,推進規(guī)則透明化,破除“信息繭房”。
如何面對未來挑戰(zhàn)
AI技術狂飆引發(fā)的治理焦慮,引起多位全國人大代表和全國政協(xié)委員的關注。他們呼吁,啟動立法研究并制定專門的人工智能綜合性法律,以應對AI技術發(fā)展帶來的種種挑戰(zhàn),確保AI技術在健康、有序的軌道上發(fā)展。
TCL董事長李東生針對模型幻覺問題,建議加快AI深度合成內(nèi)容標識管理規(guī)章制度的出臺;奇安信董事長齊向東建議從AI的技術保障、制度保障、成果應用三方面入手,系統(tǒng)提升安全能力;小米集團董事長雷軍則建議加大對利用AI技術實施犯罪行為的刑事處罰力度。
技術挑戰(zhàn)壓力使得動態(tài)監(jiān)管能力升級迫在眉睫。北京市社會科學院副研究員王鵬提出,試點“監(jiān)管沙盒”是平衡創(chuàng)新與監(jiān)管的有效舉措?!氨O(jiān)管沙盒”制度即創(chuàng)設一個受監(jiān)督的安全測試區(qū),通過以真實用戶為對象測試創(chuàng)新產(chǎn)品,減少創(chuàng)新進入市場的時間和成本,降低監(jiān)管的不確定性。“它能在保障創(chuàng)新的同時,有效控制潛在風險。”
為實現(xiàn)這一目標,王鵬建議,政府應建立跨部門協(xié)同機制,聯(lián)合科技、法律、倫理等多領域?qū)<?,共同制定“監(jiān)管沙盒”的實施細則和準入標準?!敖梃b國際先進經(jīng)驗,如英國金融行為監(jiān)管局的‘監(jiān)管沙盒’模式,結合我國國情,探索建立符合實際的AI監(jiān)管沙盒制度,并鼓勵地方先行先試,逐步推廣至全國?!蓖瑫r,他認為,政府應加大對AI產(chǎn)業(yè)的支持力度,通過稅收優(yōu)惠、資金扶持等政策,鼓勵企業(yè)參與“監(jiān)管沙盒”測試,推動AI技術的創(chuàng)新與應用,為產(chǎn)業(yè)健康發(fā)展提供有力保障。
技術向善還需要學校、技術、產(chǎn)業(yè)和社會的一體化構建?!半S著AI技術的廣泛應用,法律行業(yè)對既懂法律又懂技術的復合型人才需求激增。高校應肩負起培養(yǎng)復合型法治人才的重任?!蓖貔i建議,“高校需增設AI與法律相關的交叉學科課程,如人工智能法學、法律科技導論等,并加強校企合作,為學生提供實習實踐機會,提升其實踐能力?!?/p>
責編|白 馗
校對|張 波 張雪慧
編審|渠 洋

關于我們
聯(lián)系我們
微信公眾號
返回頭部