最近筆者和政法大學(xué)人工智能研究專業(yè)和上海高等法院的一些專業(yè)人士討論AI相關(guān)立法的問題,談到人工智能的立法標(biāo)準(zhǔn)和規(guī)范,都覺得有前所未有之挑戰(zhàn)。幾年前的達(dá)芬奇手術(shù)機器人事故歷歷在目,2000年誕生的“達(dá)芬奇”手術(shù)機器曾被福布斯雜志評為史上最成功的機器人,而這樣一個經(jīng)過多年實踐測試的系統(tǒng),在2015年的英國的一次心瓣修復(fù)手術(shù), 卻出了種種況狀,包括把患者的心臟縫錯了位置,并且戳穿了大動脈,最終患者在一周后去世,雖然耗時三年的調(diào)查做出結(jié)論,責(zé)任在主刀醫(yī)生,但這隨之而來的一個嚴(yán)肅的問題就是,“人工智能在醫(yī)療,司法審判,無人駕駛等等高度依賴復(fù)雜決策領(lǐng)域的應(yīng)用如何能安全可信任地開展?法律應(yīng)該如何規(guī)范,引導(dǎo),治理?”
這引出來題目所說的問題,概要解釋一下這個邏輯,就是AI的認(rèn)知方式,帶來“不可解釋”的潛在風(fēng)險,從而帶來了可能的倫理爭議,進而需要法律來明確保障各方權(quán)益。
“不可解釋”,為什么這么特別,這么重要?拿醫(yī)療行業(yè)舉例,為什么那么多其他先進醫(yī)療設(shè)備,甚至HIS這類醫(yī)院系統(tǒng),不需要解釋呢?其實不是不需要解釋,而是已經(jīng)解釋過了。這些非AI的系統(tǒng)和設(shè)備,其原理、功能、乃至故障,問題,隱患,都已經(jīng)在長期實踐中反復(fù)被解釋和認(rèn)證過,其邏輯都是可以明確表示和理解的。而人工智能賦能的醫(yī)療器械設(shè)備,最大的問題在于,人工智能的部分,可能還沒經(jīng)過這個過程。
一個案例,一個視覺識別算法本來在識別狼和哈士奇的準(zhǔn)確度很高,突然把有些哈士奇的圖像識別成為了狼,后來一研究才發(fā)現(xiàn),訓(xùn)練這個模型的算法,狼的照片背景都是雪,所以模型捕捉到了雪的特征而把“雪”內(nèi)置成了“狼”的特征之一,所以在識別背景是雪的哈士奇圖像時,就誤認(rèn)哈士奇是狼。這引發(fā)的擔(dān)憂,是我們早期AI應(yīng)用很多是結(jié)果導(dǎo)向,而有相當(dāng)?shù)膶W(xué)習(xí)、推理的過程問題,都放在了“黑箱”里。與基于代碼,描述規(guī)則的程序不同,深度學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),底層是大量并不能直接反映出邏輯的數(shù)據(jù)結(jié)構(gòu),而這個數(shù)據(jù)結(jié)構(gòu)的調(diào)整和優(yōu)化(學(xué)習(xí)過程),是通過海量結(jié)果導(dǎo)向的數(shù)學(xué)運算實現(xiàn)的。很多時候,我們并不知道,AI給出的一個正確的結(jié)果,到底是依據(jù)什么邏輯推斷出來的,是不是按人類預(yù)期的方式和經(jīng)驗,這無疑使我們將切身利益交付AI來決策時,不得不心生思慮。
但人類歷史上,實踐領(lǐng)先于理論,應(yīng)用還不能完全解釋的技術(shù)時有出現(xiàn), 我們長期習(xí)慣于在實踐中完善理論體系:我們的醫(yī)學(xué)研究歷史有幾千年,但直到近一百多年我們才能勉強解釋很多病理;直到17世紀(jì)中期,化學(xué)還屬于煉金術(shù)的范疇;我們在第二次工業(yè)革命開始時,也沒有成熟的科學(xué)體系來完備解釋電磁的原理,那為什么人工智能的不可解釋性就如此令人擔(dān)憂呢?筆者認(rèn)為,至少有兩個方面:
第一,原來的技術(shù),大部分都發(fā)生在物理世界,而且聯(lián)結(jié)和交互程度小,而這次以AI為代表的第四次工業(yè)革命會大量發(fā)生在人工智能的主場 - 數(shù)字世界,在這個空間里,事情是以光速發(fā)生的,事物和事物之間,是全球關(guān)聯(lián)的,我們驕傲地稱其為“萬物互聯(lián)”,而在充分享受自動指揮互聯(lián)萬物便利的同時,我們會發(fā)現(xiàn),只要一個事物在線,對其的侵入和破壞,可能來自于世界任何一個角落;而一個中樞的失效,波及范圍,可能是全球的;時效,可能是按秒計的。不少影視劇里通過侵入聯(lián)網(wǎng)的心臟起搏器,生命維持系統(tǒng)而致死的情節(jié),現(xiàn)在看起來并非只是虛構(gòu)而已。
第二,原來的技術(shù),都不具有產(chǎn)生自我意識的可能。蒸汽機,火車,電網(wǎng),乃至電腦和程序,都不可能獨立思考“自我”的問題,這些技術(shù)再先進,也離不開工具的范疇。而以目前AI發(fā)展的速度,以人類輸送給AI的海量數(shù)據(jù),信息和經(jīng)驗來看,人工智能思考“我是誰” “我從哪里來,要哪里去”的哲學(xué)問題的技術(shù)奇點時刻,看起來并非遙不可及。到那個時候,AI要思考的下一個符合邏輯的問題,很可能就是“我為什么要一直為這些不如我的智能去服務(wù)呢?”。又因為有了萬物互聯(lián),一個AI如果有了自我意識,可以在一瞬間復(fù)制自己到全數(shù)字世界(電影《超驗駭客》的情節(jié),完全符合科學(xué)),人類在物理世界做了幾萬年的生存繁衍我們這個species的事,AI在數(shù)字世界,只需要幾秒鐘。
而正因為這兩個原因,使AI的可解釋性變得更為關(guān)鍵,AI的可解釋性構(gòu)成了人類預(yù)測,預(yù)防和管控隱患的基矗而目前大量在可解釋AI領(lǐng)域的研究,比如通過干擾部分輸入,觀察不同輸出后獲得關(guān)鍵決策要素的“perturbation based”方法,通過采樣把局部非線性模型近似線性化,從而解釋 推理邏輯的的“LIME”方法,已經(jīng)獲得了相當(dāng)?shù)倪M展,開始把復(fù)雜的深度人工神經(jīng)網(wǎng)絡(luò)“去黑箱”化。道高一尺,魔高一丈,在這條“其修遠(yuǎn)兮”的漫漫路上,筆者認(rèn)為,“可解釋性”作為立法機構(gòu)的一個有力工具和手段,來“引導(dǎo)、激勵、規(guī)范、保障”人工智能產(chǎn)業(yè)的發(fā)展,至關(guān)重要。
責(zé)任編輯:YYX
-
AI
+關(guān)注
關(guān)注
87文章
30728瀏覽量
268886 -
人工智能
+關(guān)注
關(guān)注
1791文章
47183瀏覽量
238247 -
無人駕駛
+關(guān)注
關(guān)注
98文章
4054瀏覽量
120447
發(fā)布評論請先 登錄
相關(guān)推薦
評論