2021-04-07 16:40:53 來源:中國周刊
作者:鄭智航 山東大學法學院和網絡安全學院雙聘教授、博士生導師。
本文原載《法律科學(西北政法大學學報)》2021年第1期
隨著互聯網、大數據、云計算等科學技術的發展,人力、腦力和算力融合的程度愈來愈緊密,以生活要素數據化和機器自動化決策為核心的人工智能算法得到了越來越廣泛的應用。人工智能算法使得機器能夠通過可讀的指令程序,根據網絡痕跡、位置信息、消費記錄等數據,對人的行為進行評價和預測。這種自動化決策方式在人員招聘、教育培訓、無人駕駛、投資咨詢、司法判決、智能診療、新聞推薦等諸多領域得到了廣泛運用,極大地降低了人們的決策成本,提高了工作效率。然而,人工智能算法獨特的運行邏輯導致法律賴以生成與存在的社會結構性場景發生了重大變化,加劇了決策者與相對人之間的“數字鴻溝”,造成個人權利與算法權力之間的失衡,從而誘發了一系列的倫理問題。這些問題在一定程度上顛覆了傳統的法律認知,增加了傳統法律治理的難度。要想增強人工智能算法法律治理的有效性和克服“人工智能時代的法律功能危機”,就必須回到人工智能算法這一基本原點,探求人工智能算法倫理危機產生的結構性因素,并在此基礎上分析既有法律治理手段存在的限度,從而為人工智能算法法律治理的轉型升級探明方向。
一、人工智能算法運行的基本邏輯
現代意義上的算法技術源于1940年代克勞德·香農有關信息論和通信系統的思考。他解決了信道容量、信源統計特性、信源編碼、信道編碼等一系列基本技術問題,為算法技術的運用奠定了架構基礎。與此同時,麥卡洛克和匹茨推動了神經元計算科學的發展,提出大腦天然有著適合進行計算的結構,并認為所有可設想的有窮計算都可以被神經網絡計算出來,這在事實上否定了“意識/肉體二元論”的觀點。隨后,阿蘭·圖靈在此基礎上,發明了圖靈機,讓其執行被定義的算法任務。他在二戰期間還帶領數學家使用算法破譯了德國納粹分子的密碼。進入網絡時代后,人們逐步形成了一種以技術性和流動性為核心的在線生存樣態。在這種生存樣態中,人們日益被數據化和算法化。技術平臺往往會利用自身的技術優勢,生成一種隱性的支配權和控制權,從而形成人工智能算法獨特的運行邏輯。
(一)人工智能算法的嵌入邏輯
從本質上講,人工智能算法是一種利用機器深度自主學習能力對現實生活中大量分散的、碎片化的數據信息進行自動化處理的機制。從外在形式看,它主要體現為算法的研發者通過一系列的技術性指令作用于特定機器的活動。但是,這種活動具有較高的嵌入性。算法的研發者或運用者往往將虛擬世界的算法隱性地嵌入社會權力運行的結構中,并依托現實物理世界中的經濟權力或政治權力,以“持續控制形式”滲入日常社會互動中的微觀層面。在這種算法的嵌入邏輯中,傳統的經濟權力或政治權力借助算法技術的專業化和隔離化,形成技術與經濟、技術與政治的聯姻。如在經濟領域,算法嵌入平臺重構了消費者、平臺與服務提供者之間的關系。算法下探至每筆交易貫徹平臺交易規則,并對違約者予以即時處罰;在政治領域,算法可實時收集數據并持續運行,與公權力的實施具有高度契合性,并極大地增強了公權力運行的廣度、深度和效率。
人工智能算法運行的嵌入邏輯推動了算法的機制化。“算法的機制化”是指根據算法而生成的具有普遍性、連續性、穩定性和恒久性的自動決策化機制。人工智能算法的嵌入邏輯使網絡空間具有了卡斯特意義上的“無時間的空間”特質。算法在社會權力結構中的隱性嵌入,促進了所有數據被納入算法建模系統中,并通過機器的自主學習升級延展,從而被永久性保存下來。因此,算法將每個人發生在網絡中的相關信息和行為通過圖譜畫像方式變為連續性的常規動作,并被賦予預先設定的意義和內涵。以新聞智能推送算法為例,算法推薦新聞平臺將實現自身利益最大化的算法嵌入新聞傳播過程中,以便快速有效地檢測出新話題和熱點話題,以此構建一套新聞推送的日常機制。推送機制一旦形成,網絡用戶就逼迫接受算法篩選和推送的信息。
(二)人工智能算法的概率統計邏輯
從傳統物理社會到人工智能算法的轉變,意味著從牛頓的“大定律,小數據”技術范式向默頓的“大數據,小定律”技術范式的轉移。在“大定律,小數據”技術范式下,人們能夠對宏觀物體的運動規律進行把握,并將這種普遍性規律運用于具體場境中。而在“大數據,小定律”技術范式下,人們以量子力學為基礎,利用規則由小數據產生大數據,再由大數據練就“小定律”,通過“小定律”精準地掌握知識。人工智能算法正是利用了這種“大數據,小定律”技術范式。這種技術范式要求算法建立在概率統計的數理基礎上,并通過智能化的機器依據特定場景、語境和實用需要,從海量的“大數據”中,隨機提取特定的“小定律”,從而對行為形成一種反饋機制。這種概率統計邏輯要求算法的設計者采取二階語言描述的技術,而二階語言所描述的對象在原理上又可以轉換為一階語言所描述的對象。按照這種概率統計邏輯,斷定某種狀態是否滿足某個問題就等同于斷定某種模型是否滿足某個一階語言所描述的對象,而這種一階語言描述的對象的真值源于初始狀態是隨機選擇,并依賴于先驗命題為真的概率。因此,人工智能算法的概率統計邏輯具有強烈遞歸思維色彩,即通過重復將問題分解為同類子問題來加以解決。另一方面,人工智能算法充分利用機器自身的深度學習能力,將分散的個殊化數據重新聚集,并作為形成未來數據處理方法的重要參數。機器深度學習強調的是計算機程序對于某類任務T和性能度量P,在T上以P衡量的性能隨著經驗E而自我完善。這種深度學習,以貝葉斯概率理論和 Toulmin對推論的分析為基礎,并形成了從證據到結論的“泛化”過程。算法設計者往往將具有一階語言描述性質的分散數據之間的相關性解釋為“適當的大概率事件”,然后從某一個結論出發,來論證這一決策的正當性。因此,Schum認為人工智能算法的概率統計邏輯具有拓撲的性質和特征。
(三)人工智能算法的效率主導邏輯
人工智能算法是一個以效率為主導的法則。它主要通過計算機程序來對問題進行“一種有限、確定、有效”的處理。這種對待事物的態度決定了人們在運用算法建構認知模型,進行自動化決策時,需要盡可能降低認知負擔,并將其控制在合目的的范圍內,從而提高效率。有學者認為,滋養算法的大數據具有追求效率而非追求絕對精確、強調相關性而非因果性的特征。平臺和算法設計者也往往將效率與利益作為首要考慮因素。因此,人工智能算法的運行具有強烈的效率主導邏輯。究其原因,這既有架構和技術方面的客觀原因,也有平臺和算法設計者逐利的主觀原因。第一,網絡特殊的架構模式為人工智能算法的效率主導邏輯生成奠定了結構基礎。人工智能算法依托于網絡和信息技術的發展。目前,我們的網絡架構是一種對等網絡(P2P Network)架構模式。在這種架構模式中,網絡建立了以積分為核心的激勵機制。網絡會根據積分高低來分配獲取服務的順序。算法設計者必須要考慮這種特殊激勵機制以便有效地將算法嵌入到網絡架構中。第二,計算機有限的自主學習能力是選擇效率標準的一個重要原因。經過近半個世紀發展,計算機的自主學習能力得到了快速發展。但是,它仍然處于模仿人類的動作與感受的較低階段,這種有限的自主學習能力致使算法只能選擇一些最容易被量化的簡單標準。相對于其他標準而言,效率是最容易被量化的。它也更容易被析分為沒有爭議的數字變量,以符合數學計算的要求。例如,在人工智能輔助辦案系統中,算法更多處理的是程式化的不涉及價值判斷的表層概括工作,而對于更高級的互動交流、非經濟利益的價值評判等難以量化的工作則較少涉足。第三,平臺和算法設計者的利益訴求需要考慮算法運行的成本和效益。算法的設計和研發需要有大量的資金投入。平臺和設計者往往會從績效正當性角度出發來衡量算法設計的合理性。因此,他們在研發算法時會主動植入研發者的價值導向和利益意圖,以便用技術平臺來幫助其完成特定的利益訴求,實現利潤最大化的目標。以平臺媒體、互聯網巨頭和門戶網站為例,它們主要從績效正當性出發來構建算法系統。為了追求效率或效益,它們設計的算法篩選程序是以用戶興趣為基本導向的,并建立了一套可量化的經濟績效評價標準。這種算法設計極大地增強了生活、娛樂類資訊的供給量。
二、人工智能算法的倫理危機
人工智能算法獨特的運行邏輯正在深刻地改變著以往的生產方式和生活方式,并反客為主地對人的行為形成支配關系。人們可以借助于操縱數據與算法來實現控制人的目的。馬長山認為:“掌握了數據,就意味著掌握了資本和財富;掌握了算法(Algorithm),就意味著掌握了話語權和規制權。”這種具有隱蔽性的算法權力會給人們帶來系統性的不利后果,消解人的主體地位,侵犯公民的基本權利,誘發一系列的倫理危機。2014年美國白宮發布了一份題為《大數據:抓住機遇,保護價值》的報告。該報告認為,受數據來源特定性和算法設計者主觀意圖的影響,算法可能會系統性地減少個人獲得信貸、就業和教育的機會。數據科學家稱這些算法以及由此產生的算法權力為“數學毀滅性武器”。人工智能算法對以強調個人幸福和權利優先性為特點的現代倫理帶來了巨大挑戰,現代倫理以道德個人主義目的論方法論原則為指導,將個人幸福置于根本地位。這種方法論要求凸顯人的主體性地位,并用主體性原則來構建現代社會。它將“人為目的”的道德觀和權利優先性理念作為現代社會正義的基礎,將人的外在行為所直接產生的現實效應或實質結果,或者由它帶來的實際價值效應作為道德評價的依據。主體性、個體正義觀和實質結果判斷構成了現代倫理的基礎。然而,人工智能算法對作為現代倫理支撐的主體性原則、社會正義觀和實質結果主義提出了嚴峻挑戰。這種挑戰主要體現為人的主體性地位的消解、群組正義觀代替個人正義觀、人工智能在算法結果上的標簽化效應等。
(一)人工智能算法中人的主體性消解
現代社會是一個以主體性為支撐的社會。黑格爾把“主體性”原則直接概括為“現代性”原則,并認為主體性主要包括“個人(個體)主義”“批判的權利”“行為自由”和“把握自我意識的理念”四個方面的內涵。這種主體性要求用人道主義終結封建專制制度,用理性主義殺死宗教中的上帝,用個人主義謀劃自然解放。這三者最終可以歸結為主體主義的確立和現代人主體性的生成。因此。現代社會是一個強調個人主義、理性主義和人道主義的社會,它要求在人的生活領域全面貫徹個人主義、理性主義和人道主義等基本原則。“這一主體地位不僅關乎于人生活的安全,也是人類文明開展的根基,其主體地位一旦動搖,政治、經濟、文化、社會制度隨即分崩離析。”然而,人工智能算法卻在不斷消解著人的主體性,動搖人在世界中的主體地位。特別是未來社會,隨著人工智能通過深度學習具備了自身算法系統的反思能力和自己的萬能算法語言,人的主體性將遭受更大的挑戰。就目前而言,這種主體性消解主要體現在以下方面:
首先,算法使人面臨客體化的危險。人工智能算法中,個人逐步被數據化和被計算化。在數據處理和整合時,算法將人按照各種各樣的自動化區分標準進行排列,并賦予相應的意義。個人一旦進入這種數據化的“微粒社會”,就成為被算法定義的對象。這種新興的算法權力并不是從主體角度,而是從作為可以被計算、預測和被控制的客體的角度來看待個人的。1.滿足算法預設條件是用戶進入人工智能算法的前提。從性質上講,人工智能算法是一個網絡技術和信息技術結合而建構出來的虛擬世界。個人要想進入網絡接受平臺提供的服務,獲得平臺承諾的優惠和完成支付等,就必須接受通過代碼加以確定和規制的交易規則與支付規則。2.算法決定著人們在網絡空間中的自由度。網絡社會具有發達的信息篩選機制。這種機制通過設置技術障礙的方式,促進網絡空間的分區,限制個人訪問網絡空間信息的權利。它主要通過網絡巡查(CyberPatrol)、網絡監視(SurfWatch)等篩選軟件或利用瀏覽器的現有內置功能來實現控制。這些機制通過算法來定義網絡分級檢索方式和網絡文件分級標簽語法。人們要想在網絡空間享有更大的自由權,就必須符合算法所認可的代碼要求。3.算法將人類作為“計算組件”來增強算法自身的權威。例如,亞馬遜的勞務眾包平臺(MechanicalTurk)就將勞動者視為一個完整的計算組件來映射進算法函數中。在這個算法系統中,人類從屬于充當雇主的算法。算法系統按照評級標準自動分配勞務。美國和印度之外其他國家的勞動者通過亞馬遜禮品卡獲取報酬。這些勞動者可以用禮品卡兌換比特幣,從而獲得現金酬勞。Caitlin Lustig認為,這種勞務眾包平臺能夠運行下去的一個重要原因,是因為人們正在從對人的信任轉向對機器和算法的信任,從而導致了技術異化。其次,算法容易將人鎖定在自我編織的“信息繭房”中。“信息繭房”是桑斯坦提出的一個重要概念。他指出,在互聯網時代,伴隨網絡技術的發達以及信息量的劇增,每個人都能隨意選擇關注的話題,并可以根據自己的喜好打造一份“個人日報”,但這種信息選擇行為將會導致“信息繭房”的形成。他所謂的“信息繭房”,是指傳播體系個人化所導致的信息封閉的后果。當個體只關注自我選擇的或能夠愉悅自身的內容,而減少對其他信息的接觸時,久而久之,便會像蠶一樣逐漸桎梏于自我編織的“繭房”之中。這種信息的自我鎖定狀態,將引起以下不利后果:其一,算法推送的信息潛移默化地影響著人們的認知框架和價值選擇。張愛軍和王首航認為,算法作為一項技術手段,能夠起到重構公眾環境、規范人的行為的作用。算法的精準性在便于人們迅速獲得信息的同時,也塑造著個體的認知結構,使人們固守在自身的信息繭房,逐漸受到算法的“馴化”。其二,算法會進一步強化人的既有觀念和想法,不利于人的觀念的更新與發展。算法主要是利用對個人的圖譜畫像來實現學習和進化的。換言之,個人數據在喂養著算法。然而,這些數據往往具有時態上的慣性,并反映著人們對事物的看法。算法這種單向進化的學習思路,會進一步通過計算機強化這種刻板印象,從而“屏蔽”其他信息。因此,桑斯坦一再強調算法會“將用戶束縛在由興趣和先入之見所引導的狹隘的信息領域”。其三,算法容易加劇信息偏食現象,侵蝕個人對社會的認同。隨著算法技術的發展,信息“私人訂制”會變得更為普遍,個人信息偏食現象必將愈演愈烈,以致于侵蝕社會的共識基礎,危害民主社會的發展。
再次,人工智能算法在語言和思維層面愈來愈迫近人類。語言和思維是人類區別于其他物種而具有主體性地位的重要原因。趙汀陽認為,語言具有自身的生成規則,并且能夠在語言系統內部加以表達和解釋。任何一個語句或詞匯都能夠在元語言層次被分析為可判定的(所有可清楚界定的句子)或不可判定的(比如語義悖論)。它能夠生成無窮的語句并借以表達一切現實事物和可能性。語言的這些特性決定了語言具有構造世界的能力。因此,具備了等價于人類語言的任何一種語言能力就等于具有了思想的能力,并能夠構造世界。具備了語言能力的人工智能在地位上也會迫近人類,動搖人類的主體性地位。就人工智能算法發展來看,它大致經歷了從物理系統到仿生神經網絡系統的發展歷程。這種仿生神經網絡系統的人工智能算法模擬大腦中真實鏈接和處理信息的神經元結構。它改變了物理系統階段的顯式指令式編程的語言方式法,采取LISP語言實現算法深度學習的目的。這種從HOW型低級語言向WHAT型高級語言的進化,有助于計算機不斷從經驗感官刺激過程中形成抽象知識和概念,為聲明式編程語言、函數式編程語言和動態語言等未來計算機編程語言奠定了基礎。這勢必增強程序在運行過程中根據具體情勢改變結構的能力。這種算法的語言和思維會不斷靠近智能發展的“奇點”,甚至有可能具有哥德爾反思能力,從而迫近人類,對人類的主體性地位構成挑戰。
最后,算法可能將人擠出就業市場,造成更為徹底的“無用階層”。人工智能算法的高度智能化釋放出巨大的生產力,愈來愈突破了人類以往的計量體系,人類對算法的依賴程度也愈來愈高。原本由人從事的勞動和工作,愈來愈交由機器來完成。這會大大減少人類的工作崗位,從而沖擊人的實踐主體性的特質。“當勞動,特別以改造自然為目的的勞動不再成為生存的需要,那么人作為類的普遍性本質,人作為實踐主體的本質就部分地喪失。”另一方面,算法有助于財富進一步向少數精英集中。在算法集中財富的過程中,處于社會底層的“失能者”改變自己命運的難度便愈來愈大,社會階層固化現象會更為明顯。對此,尤瓦爾·赫拉利認為:“隨著算法將人類擠出就業市場,財富和權利可能會集中在擁有強大算法的極少數精英手中,造成前所未有的社會及政治不平等。”
(二)人工智能算法正義觀的危機
現代社會是一個追求正義的社會。它強調社會基本結構應當建立在正義所蘊涵的自由、平等和權利等價值基礎上。只有體現自由、平等和權利等價值的社會,才是正義的社會。按照這種社會正義的要求,現代社會應當確立“人為目的”的道德觀,應當樹立權利優先性的基本理念。然而,人工智能算法秉持的并不是這種以個人正義觀為核心的社會正義觀,而是一種以效率為核心的群組正義觀。“群組正義觀”是建立在統計奇偶性(statisticalparity)基礎上的正義觀。CynthiaDwork等人認為,統計奇偶性強調接受正負分類的人的人口統計學與總體人口統計學具有相同的特征,因此,統計均等性被等同于群體性的公平。就算法而言,它不太考慮個人的差異性,而是將群組作為分析單位,并對不同群組作同質化處理。即使群組和個人存在差異,算法也認為這些差異無法人為加以控制,因此,在算法決策時也應當將這些差異因素排除出去。這樣能夠抵消冗余的編程,減少算法設計和運行的成本。
然而,這種群組性社會正義觀對現代社會正義觀提出了嚴峻的挑戰。從本質上講,現代社會的正義觀是建立在道德目的論基礎上的。萬俊人認為,道德的根本意義是對人的行為本身的價值評價,而一行為善惡好壞的性質和程度,最終取決于該行為所產生的實際結果,該行為結果必須是實質性的、且首先是相對于行為主體自身而言,其次才是相對于其他相關群體或個體。因此,它以“人的道德行為的圓滿實現為根本價值目標和評價標準,所看重的是行為的最終結局(thefinality)或最高實現(thefinalrealization)”。算法群組正義觀則主要是從整體主義和工具主義角度來看待個人的。它主張人們對技術作去價值觀的理解,并將效率作為人類活動的首要標準。它把計算作為社會的本質,并用計算手段代替人的生活目的。因此,算法將人的理想和目的淹沒在電子忙碌中,這種理念將社會的精神價值技術化,從而與人類生活中的道德觀念和人的道德目的論格格不入。
算法對道德目的論的沖擊,動搖了社會正義觀中權利優先性這一核心理念。羅爾斯認為:“權利的優先性理念是一個根本要素,而在公平正義中,該理念作為公平正義觀點的一種形式具有其核心作用。”它倡導個人的基本權利應當優先于公共的“善”。個人只有在尊重權利的前提下,才能去追求自己的“善”。任何違背個人權利去追求特定“善”的行為,都是一種不正當的行為。算法群組社會正義觀往往從后果主義出發,注重決策行為的績效正當性,而無視個人權利。它將效率和便利凌駕于個人權利之上,認為效率應當優先于個人權利。為了獲得算法決策的便利,克減個人的一些權利具有后果主義上的正當性。例如,在算法驅動的路線導航實驗系統中,算法所使用的數據都是在缺乏用戶知情同意的前提下采集的,而且,整個算法系統更為傾向選擇那些信息較少的用戶作為實驗對象。
(三)人工智能算法的標簽化效應
人工智能算法具有極強的分類篩選能力和超乎想象的預測能力。它主要是通過選擇與各種行為具有密切關聯性的數據的顯著特征來工作的。因此,算法極有可能基于分類篩選機制而形成“大數據黑名單”。這些“黑名單”不恰當地將個人或群體標記為具有某種風險或傾向,進而限制或排除他們的權利或機會。例如,美國有些法院利用Northpoint公司開發的犯罪風險評估算法COMPAS對犯罪人的再犯風險進行評估。法官可以根據這個再犯風險分值來決定犯罪人應受的刑罰。又如,Gogle算法通過過去的搜索行為模式,以非洲裔美國人相關姓名進行搜索,要比以高加索人相關姓名進行搜索顯示的犯罪信息多得多。這極有可能給某些個人或群體貼上標簽,形成一種不好的“刻板印象”。
這種標簽化對寬恕這一現代社會的基本倫理價值提出了重大挑戰。慈繼偉將人的生活邏輯分為“正義的邏輯”和“超越正義的邏輯”。“正義的邏輯”強調人與人之間的“等利害交換關系”和“互惠性”,以及建立在此基礎上的正義感,而“超越正義的邏輯”強調人有向善的可能性。它承認了人們應當在尊重道德人格主體平等和價值多元化前提下對傷害行為作出一定的理解和容讓。然而,在人工智能算法中,一旦某個個體或群體具有了污名化的算法身份,就會一直被帶進下一輪的運算中。“基于算法身份的算法決策會產生關于個體的新推斷,并影響個體的行為,進而形成更多的數據,而這些新數據則會成為算法再一次對個體進行分類、確定算法身份并作出推斷的數據基礎。如此一來,劣勢則會越累積越多。與此同時,算法在劣勢累積影響下所作出的推斷與決策結果還將導致對少數群體或受保護群體的負面成見,即污名化與自我應驗預言的實現。”這種算法的標簽化和污名化既沒有考慮個體或群體具有向善的一面,也沒有考慮人因過錯而接受懲罰應該是有期限的一面,從根本上否定了人有做錯事的權利。
三、人工智能算法法律規制遇到的挑戰
(一)運用法律主體制度規制人工智能算法的難題
算法自動化決策在推動社會進步的同時,也帶來一系列的社會問題和法律問題。人們試圖通過既有的法律主體性制度來解決這些問題。2017年2月歐盟表決通過的《歐盟機器人民事責任法律規則》提出了“非人類的代理人”的概念。這一概念的實質是將人工智能作為一個有目的性的系統,并在實質上將工人智能體作為民事主體。是年,沙特阿拉伯給我國香港HansonRobotics公司研發的表情機器人“索菲亞”授予公民資格。我國制定的《新一代人工智能發展規劃》也提出“明確人工智能法律主體以及相關權利、義務和責任”。這些制度構想和法律實踐的核心就是要運用現代法律主體制度,通過賦予作為算法載體而存在的人工智能體相應的法律主體資格來解決財產權利歸屬、法律責任承擔等問題。這種法律主體性制度構想體現了進一步捍衛現代社會主體性倫理基礎的努力,但是,它難以適應人工智能算法運行的基本邏輯。這種“生硬”的制度“嫁接”,既難以在法學理論上實現邏輯自洽,也難以對人工智能算法的健康發展進行有效引導。
現代法律主體制度是建立在對人的哲學理解基礎上的。它強調人除了具有認知、判斷和選擇等能力以外,還具備道德、良心、良知、倫理等要素。因此,法律主體制度是以人具有獨立的人格為前提的,并將人作為一個不證自明的法律目的。運用法律主體制度來解決算法誘發的倫理問題與社會問題會存在諸多障礙。首先,人類設計算法和發明作為算法載體而存在的人工智能體的目的并不是為了創制一個目的性存在,而是要為人類生活服務。換言之,算法及作為算法載體而存在的人工智能體始終是一種工具性存在。盡管算法系統經歷了從物理系統到仿生神經網絡系統的發展,并不斷迫近人類的神經認知系統,但是,它“沒有上升到有生命的狀態,不具備生命所要求的能夠利用外界物質形成自己的身體和繁殖后代,按照遺傳的特點生長、發育并在外部環境發生變化時及時適應環境的能力”。而人自然生命的目的神圣性是法律主體制度建立的基礎。賦予作為算法載體而存在的人工智能法律主體地位,既會冒犯人的自然生命的目的神圣性,又顛倒了目的與工具的關系。其次,運用法律主體制度規制算法,無法實現權利義務統一性原則。權利與義務相統一原則是現代法律的一項基本原則,也是法律主體的核心內涵。賦予作為算法載體的人工智能體法律主體地位,是一種授予權利的行為。但是,既有的法學理論無法回答人工智能體獨立承擔相應的法律責任的問題。“法學家目前設想的方案是像機動車強制保險那樣為人工智能進行投保或設置某種基金,但這種責任仍然是人類的財產責任而不是AI的獨立責任。因此,‘主張人工智能具有主體資格......不具有現實性意義’,人工智能達到權利義務相統一的法教義要求幾乎不可能,體系性思考的缺失只會顧此失彼、不可能拼湊出一個法律上的新主體。”最后,算法目前通過深度學習難以進化出人的自由意志和情感。現代法律主體制度深受康德自由意志學說影響,并將自由意志和情感作為法律主體的必備要件。隨著科學技術的發展,算法的學習能力得到大幅度提高,并形成了一定的語言和思維能力。但是,要想在短期內進化出反思能力,具有同人類一樣的自由意志與情感則幾乎不可能。
(二)運用透明性原則規制人工智能算法的難題
為了規制算法權力,揭開“算法黑箱”,人們愈來愈傾向于運用透明性原則,因為透明性原則能夠彌補決策者與相對人之間形成的“數字鴻溝”,避免信息的過度不對稱導致技術劣勢一方依附于技術強勢一方,從而演變成數字經濟時代的精英統治。美國聯邦貿易委員會認為,信息掌握在消費者手中,能夠提高其合理購買的決策能力,這是我們經濟體系的基本原則。這對于經濟的有效運作來說,是絕對必要的。因此,美國政府及司法機關極力倡導與宣傳算法透明度的重要性,例如,美國聯邦貿易委員會技術研究和調查辦公室就強調算法透明度的重要性,并向FTC消費者保護調查員和律師提供有關算法透明度的培訓和技術專業知識。算法透明度主要包括算法源代碼的透明性和開放性;公布用于做出相關算法決策的輸入和輸出過程;以簡明易懂的方式公開輸入到輸出的中間過程,以便被決策對象充分知悉并認同算法的正當合理性等內容。2017年,美國計算機學會公眾政策委員會公布了知情原則、質詢和申訴原則、算法責任認定原則、解釋原則、數據來源披露原則和可審計原則等六項原則。歐盟也積極加強透明度原則的實踐,并在歐盟《通用數據保護條例》中試圖通過賦予人們算法解釋權來確保透明度原則的實現。該《條例》第71條規定:“在任何情況下,該等處理應該采取適當的保障,包括向數據主體提供具體信息,以及獲得人為干預的權利,以表達數據主體的觀點,在評估后獲得決定解釋權并質疑該決定。”這種透明性原則實質是現代信息公開制度在人工智能算法領域的援用。它雖然在防止算法技術異化方面起到了一定的作用,但仍然會受到算法性質、公眾認知能力和算法自身的可解釋性等因素的影響。1.就算法的性質而言,各國法院傾向于認為它是一種商業秘密。在 State訴Lomis案中,美國威斯康星州最高法院認為,COMPAS評估算法屬于商業秘密,魯米斯提出的初審法院依賴COMPAS評估算法作出判決侵犯他的正當程序權利和平等保護權的訴求不合法。在德國,聯邦最高法院也認為,算法是公司的核心商業秘密(Geschftsgeheimnis),當事人要求信用卡公司公開信用評估核心公式(Scoreformel)是不合理的。法院之所以要將算法看作是一種商業秘密,主要是基于人工智能算法運作的效率邏輯考慮。算法的設計和運行都需要大量資金投入,而且一旦公開透明,就極有可能出現“搭便車”現象,好的算法、收益率高的算法、行業領導者的算法可能會引起業界的效仿,從而會出現“羊群效應”,加大順周期的風險。這極有可能影響算法公司對算法的開發,阻礙科技的發展和進步。2就公眾的認知能力而言,絕大多數非專業人士都不具備讀懂算法語言的基本能力。透明性原則的核心是通過公眾的知曉和理解來防止決策的失誤和不公正。看懂和理解則是公眾監督的前提。人們依憑看懂和理解的信息,并結合生活中的常識判斷,能夠作出一個較為客觀公允的結論。然而,算法極強的專業性和嵌入性,極大地超越了普通人的常識判斷,絕大多數非專業人士根本無法看懂和理解算法。換言之,人工智能算法是一個自我封閉的“孤島”,要想理解算法,就必須具備相應的知識體系和認知能力。因此,運用透明性原則來規制算法的效果不會十分理想。3就算法自身的可解釋性而言,它是運用透明性原則規制人工智能算法的前提。某一事物只有具有可解釋性,才既能夠在公眾面前得到有效的開示,又能使專業技術人員對自身行為的正當性進行有效辯解。從本質上講,算法是在特定的網絡架構模式中,通過計算機語言進行具體編程而組合成一套源代碼系統。簡單的算法具有可控性,是可以解釋的,但是,復雜的算法對于數據和硬件設施的依賴程度會很高,并且它們在不斷地進行學習和自我進化。這使算法得出的結論的可解釋性變得愈來愈孱弱。另一方面,對于涉及一些隨機因素的決策過程,即使將系統源代碼、輸入、操作環境和結果完全透明公開,也不排除算法結果可能會以一種不可檢測的方式被不恰當地固定下來。JoshuaAKrol等人以經典彩票為例論證了這一觀點。他們認為一種完美透明的算法,隨機數生成器每次都會生成不同的隨機數。這種算法結果是難以復制或驗證的。這種技術上的難以復制性降低了透明性原則在規制算法方面作用的發揮。
(三)運用數據權約束人工智能算法的難題
在人工智能算法中,數據與算法的關系極為密切,以致于“數據喂養著人工智能”成為一個基本的共識。計算機只有吸收大量的數據,算法才能運行起來,并得到學習和進化。而算法又能夠將數據加以轉化和控制,從而形成一種“準公權力”,這是算法異化的一個重要原因。因此,人們認為運用數據權的保護模式能夠有效地解決人工智能算法的倫理危機。例如,《歐盟通用數據保護條例》從個人對數據的自決權出發建構了一套個人數據權利體系來約束算法行為。該條例第2條提出,通過保護數據流動和數據處理過程中自然人所享有的數據權利來規范算法行為。為了實現這一目標,該條例規定數據權人享有知情權、要求更正權、要求刪除權和限制處理權等具體權利形態。學者們也認為,中國應當盡快出臺保護數據和數據生產者合法權利的法律法規,明確數據的產權主體,建立使用者付費制度,防止資本對于公民數據和國家數據的濫用。這種制度設計和制度構想,并不適合人工智能算法的運行邏輯。因為,人工智能算法的嵌入邏輯和效率主導邏輯產生了新的知識生產和治理模式。它模糊了數據權利的主體范圍、架空了個人數據保護的知情同意原則、阻礙著個人的更正權。具體來講,運用數據權來約束人工智能算法存在以下難題:第一,數據權的內容和歸屬界定困難。權利內容清晰和歸屬明確是權利有效行使的前提,而算法運用的數據非常復雜。它近似于一個倉庫、可以分為數據運營層、數據倉庫層和數據產品層等層級。不同的數據層對數據的管理和使用方式也不同,相應地涉及具體的權利內容也較為模糊。另一方面,平臺數據的權利主體難以通過法律條文和法律教義的分析來明確,也難以基于正當性與后果主義的分析來界定,因為平臺數據既可以被認為是個人所有、平臺所有、個人與平臺共有,也可以被認為是互聯網空間的公共數據。第二,算法技術可以繞開數據權主體。隨著算法學習能力的不斷增強,它愈來愈能夠對海量的無結構數據(包括百度搜索記錄、淘寶購物記錄、手機GPS信息等各種電子痕跡)進行分析和處理。個人身份的已識別或可識別狀態往往成為數據分析的結果而不是起點。特別是到了數據倉庫層和數據產品層,算法所處理的數據距離數據源中的原始數據愈來愈遠,因為算法在最接近原始數據的數據運營層就進行了去噪、去重、提臟、業務提取、單位統一、砍字段等多項工作。因此,算法技術繞開了數據權主體,致使“從數據是否已包含個人身份信息入手來規制算法無法達到保護個人權益的目的”。第三,數據權是一種以個人為中心的救濟模式,難以應對算法權力的復雜性。從本質上講,運用數據權制約算法權力的思路是一種以單個的個體為中心來對抗“準公權力”的思想。這種思路忽視了算法權力的技術性和資本性兩大基本特性。
算法權力的技術性增加了普通民眾的認知難度。算法權力的資本性,決定了普通民眾難以用數據權來制約算法權力。算法設計者和研發者往往是一支龐大的專業團隊,并且擁有雄厚的財力支持。無論是法官,還是律師都難以應對專業化的算法問題。這種認知上和財力上的懸殊,使個人數據權難以對抗日益膨脹的算法權力。
四、人工智能算法法律規制的基本路徑
人工智能算法獨特的運作邏輯致使運用法律主體制度、透明性原則和數據權等方式化解人工智能算法的倫理危機和社會危機的思路難以奏效。因此,應當調整傳統法律制度的規制理念,構建符合人工智能算法運作基本邏輯的規制路徑。
(一)人工智能算法法律規制的基本理念
1.從用戶注意力到用戶數字福祉
受效率主導邏輯的支配,算法設計者和開發者往往將注意力集中在吸引甚至迎合用戶上。這種偏好原則可能將用戶鎖定在“信息繭房”中,從而忽視了用戶的數字福祉(digitalwel-being)。數字福祉主要包括以下兩大內涵:一方面是人人都可享受到數字技術帶來的紅利,最大化地實現普惠和賦能;另一方面是促進個人對數字技術和網絡服務的高質量使用,減小、防止數字技術對個人的負面影響。2017年,英國科學院和皇家學會明確提出將促進數字福祉的日益增長和人類繁榮作為數據開發、利用和管理的首要原則。這種數字福祉的范圍要大于數據權的范圍,體現在算法及作為算法載體而存在的人工智能體在認識、動機、結果、組織評價等多方面滿足善的要求。它能夠在社會提出的倫理原則或指導方針與算法設計者或開發者提出的目標技術之間進行一種反思性的平衡,并應該在特定數據技術的開發、部署和使用等各個關鍵階段都發揮核心作用。隨著網絡技術和算法技術的發展,人們愈來愈強調算法設計者和開發者應當依循“經由設計的數字福祉(digital well-being by design)”理念,將對用戶數字福祉的保障和促進融入產品和服務的設計中去。這種算法中嵌入數字福祉的做法在醫療保健、教育和就業、治理和社會發展以及媒體和娛樂等領域愈來愈得到運用。特別是數據技術所具有的積極計算能力,促進了道德規范在算法設計過程中的嵌入,因為它建立在積極心理學研究的基礎上。
2.從二元結構到三元結構
傳統的法律規制手段還是建立在國家與社會、公權力與私權利的二元結構基礎上的。它強調國家以自主性為核心的“專斷性權力”和個人基本權利所具有的排除公權力侵害的防御功能。具體到算法規制領域,它主要體現為試圖建立一套以結果責任認定為核心的政府事后監管模式和以個人為中心的權利救濟模式。這些方式和手段雖然在一定程度上能夠起到糾正算法偏差的作用,但是對于嵌入到算法技術過程中的更為隱蔽的算法偏差的作用并不大。這需要我們重新認識國家與社會、公權力與私權利、行政權力與技術權力的關系,并建立一種“政府—平臺—商戶(消費者)、公權力—社會權力—私權利的三元結構”。三元結構中的國家與社會、公權力與私權利不再是簡單的消極對抗關系,政府權力也不應該是一種高專斷性權力。人工智能算法構造了一個信息社會,信息成為了權力的中心,產生一種信息權力,這種信息權力制約和阻礙著以科層制為核心的政府權力的運作,并在事實上改變了政府權力的運作形態和人們對權力的認識。〔75〕 算法平臺具有的經營權、財產權和知識產權等一系列私權利會在這種信息優勢和技術優勢下演變為一種“準公權力”。“與以往工商業時代的壟斷企業不同,它們不再局限于身為某個領域、某個行業的巨頭,而是具有超強滲透、覆蓋能力的全方位‘霸主’;它們不再局限于經濟目標上的經營管理,而是通過制定平臺規則、處理平臺糾紛、行使平臺監管權等賦有了‘準立法權’‘準行政權’‘準司法權’。”政府在算法規制過程中,也需要借助算法平臺、程序員和人工智能專家的信息優勢和技術優勢,實現合作性治理。因此,算法平臺企業、程序員和人工智能專家不僅是政府監管的對象,也是政府監管的參與者、決策者和執行者。國家有關算法規制法律規范的制定和執行都離不開他們的積極參與,而且這種參與的深度和力度要遠遠超過二元結構中的公眾參與。
3.從依靠政府管控到政府克制
人工智能算法運作的效率主導邏輯以及由此衍生出來的群組正義觀決定了算法治理過程中必須高度重視權利保護與科技創新之間的平衡問題。而法律規制因遵循集權邏輯、權利邏輯和客觀認定事實邏輯而與人工智能算法運作所奉行的基本邏輯存在較大差異。如果一味地運用法律規制特別是運用政府管制手段,勢必會以犧牲算法科技的活力和創造力為代價,進而影響算法技術的發展。例如,對于無人駕駛的刑法規制就應當采取克制與審慎的態度,因為碰撞算法還處于發展之中,算法技術之爭導致算法規范的爭議,目前碰撞算法對于事故參數還處于初步應用階段,對于這種算法采取刑事規制無疑會阻礙算法創新。而且,算法自身也正在按照運作的基本邏輯逐步衍生出一套約束和治理機制。例如,為了保護消費者的身心健康,AndroidP、iOS12和Facebok等都設置了“屏幕使用時間”,以幫助用戶將手機和網絡使用時間控制在合理限度。算法企業也可以通過行業技術標準和倫理道德規范來減少或克服算法帶來的風險和危害。這些機制既能降低法律運作的成本,又可以避免法律規制給技術創新可能帶來的負面效應。因此,政府進行算法規制時,應當樹立權力克制的基本理念,堅持多元主義的治理方向,并為技術治理、倫理治理和其他治理留下必要的空間。
另一方面,傳統政府管控手段的合法性正在受到人工智能算法專業性的挑戰。在傳統集權體制下,政府管控手段的合法性來源于其基于縱向層級式結構而形成的一種知識與信息壟斷。然而,在人工智能算法中,知識與信息的碎片化和分散化消解了傳統管控手段的合法性。更為重要的是,算法問題“可能會涉及到有著高度不確定性的未知事項,所要求的不僅僅是從‘事實’到‘法律’的推理,還要求在復雜模型和統計學幫助下,在純技術‘事實’間的推演。面對法律和事實的混合問題,面對法律和科技的絞結,法院很難肩負起對技術標準進行司法審查的重擔。”這種政府認知能力不足的客觀現實,需要權力保持必要的克制。
(二)人工智能算法法律規制的主要路徑
人工智能算法法律規制基本理念的轉變必然帶來法律規制路徑的變化。具體來講,人工智能算法的法律規制應當強調元規制治理,突出數據控制者的自我控制義務;加強政府、平臺和社會三方的合作治理,通過第三方參與實現對算法的協同治理;完善算法責任分擔機制,建立算法安全風險的保險制度等。
1.人工智能算法的元規制治理
按照鮑德溫等人的界定,元規制治理是規制對象在政府外在規制作用下,由規制客體轉變為規制主體,從而采取具有內控性質的一種自我規制形式。這種規制形式具有政府規制和自我規制雙重面向。它既能防止自我規制出現自利性傾向,又能解決政府規制能力不足問題。在這一治理過程中,政府主要扮演著“掌舵者”的角色,它不斷地對規制系統進行監督與管理,并在發現問題時,要求自我規制者及時制定應對方案,對自身施加內部式的規制。自我規制者則充分發揮其在專業技術方面的優勢,并根據自身行業的特點,制定相應的規制方案。這既能減少規制上的知識障礙,又能增加規制執行的靈活性,還能降低政府的規制成本。
就算法的元規制治理而言,應當強調通過激勵機制來促使數據控制者針對問題進行內控式的自我規制。在此過程中,數據控制者應當通過數據保護影響評估和“經由設計的數據保護”等方式來履行數據保護義務。數據保護影響評估是對算法進行的一種事先規制。它強調數據控制者對軟件產品和過程是否符合適用的法規標準、指南、計劃、規格和過程進行獨立評估。為了強化評估的作用,只有那些通過專家、公共機構和受算法決策影響的社區代表審查評估的算法,才能在一組實體之間共享或在公共站點上發布。在具體評估過程中,不但應當評估基于目的使用算法的必要性和相稱性,而且應當評估算法可能帶來的侵害自主權、差別性待遇、財產損失等風險。算法擁有者應當根據評估結果提出處理風險的預想方案。
“經由設計的數據保護”是由歐盟《通用數據保護條例》提出來的。該《條例》第25條第1款規定:“考慮到行業最新水平、實施成本及處理的性質、范圍、目的和內容以及處理給自然人的權利與自由造成的影響,數據控制者應當在決定數據處理方式以及進行處理時以有效的方式采取適當的組織和技術措施。”從本質上講,該條款就是要將數據保護嵌入到算法的基礎架構和具體實踐中。它為政府規制算法確定了基本目標,但保留了政府采取規制算法的具體措施的權力。當下的算法規制應當進一步強化“經由設計的數據保護”這一措施,在兼顧算法行業特點的前提下,要求數據控制者采取具體的適當措施來確保算法決策的科學性和公正性。
社會責任披露機制是人工智能算法元規制治理的重要組成部分。它通過在被規制者與規制受益群體之間建立激勵機制來推動人工智能算法開發者和運用者增強自我規制的能力,從而在市場上獲得更大的份額。這種信息披露機制要求“公司披露其社會責任表現能夠創造一種使利益相關者約束公司行為的情形。如果根據特定利益相關群體所期望遵守的行業規制標準來看,公司披露的社會責任信息是令人滿意的,那么它的后果可能是積極的。比如,公眾對公司聲譽的認知可能會改善,對公司的投資可能會增加,或者公司將會獲得更大的市場份額。但如果評價是負面的,則可能會導致公司的聲譽受損,繼而帶來的是投資的減少以及市場份額的下降”。具體來講,政府監管部門可以要求人工智能算法企業和平臺定期發布社會責任報告,強制披露風險活動,公開數據處理的目的、數據處理者的身份、數據接收者等相關信息。
2.人工智能算法的合作治理
隨著政府-平臺-商戶、公權力-社會權力-私權利三元結構治理理念的確立,除了政府需要改變過去單向度的“命令加控制”的管控方式外,還需要構建算法規制的合作治理路徑。在這種合作治理中,政府監管機構應當通過“提高標準化程度和自動化程度”,使用“司法測試和新技術”來敦促算法相關企業遵守法律法規和其他內控性質的規范。社會第三方力量應當提供全自動的算法風險分析和控制技術。算法平臺和企業,應當嚴格履行防范算法風險的義務,不斷調整信息技術系統,制定個性化的內部算法風險管理流程。在此,筆者將著重分析如何構建社會第三方力量在算法合作治理中的參與機制。
首先,明確社會第三方力量的參與權限。算法往往涉及到設計者、開發者和平臺的經濟利益,具有商業秘密的性質。因此,第三方力量參與算法治理應當是有限度的。具體來講,社會第三方力量可以就訪問協議的嚴密性、商定數字管理的道德準則、任命專人監管信息、在線跟蹤個人信息再次使用的情況,允許用戶不提供個人數據、為數據訪問設置時間軸、未經同意不得將數據轉賣給第三方等問題進行監督和審核。社會第三方力量也可以就是否執行數據保護影響評估、進行數據保護影響評估采用什么方法、數據保護影響評估是內部操作還是外包、采取哪些技術上的和組織結構上的措施能夠減少對數據主體的權利和利益的負面影響、數據保護影響評估是否能正確執行等問題提出建議。社會第三方力量還享有就算法侵權行為提出申訴的權利。《歐盟通用數據保護條例》第80條規定,社會第三方機構可以代表數據主體就算法侵權行為提出申訴和行使司法救濟權。這在一定程度上能夠克服以個人為中心的救濟模式在算法認知能力和權利救濟能力方面存在不足的問題。
其次,細化社會第三方力量的參與程序。(1)參與時間。應當強化社會第三方力量全程參與的基本理念,并在算法事先審查和評估階段就應當介入。例如,美國政府規定只有經過社會第三方力量參與審查和評估的算法才是合法的算法,才能在實體間共享。《歐盟通用數據保護條例》規定數據控制者或數據處理者在進行數據保護影響評估時,必須征求數據保護官的意見。(2)參與決定權。由于算法技術的專業性和侵權行為的隱蔽性,單個個體的維權成本較高。法律試圖通過激活社會第三方力量來實現侵害雙方力量的平衡。因此,《歐盟通用數據保護條例》規定第三方機構可以在接受數據主體委托和無須獲得數據主體同意兩種情況下向數據監管機構提出申訴和行使救濟權。(3)參與方式。社會第三方力量可以通過聽證、驗證、檢查、提供咨詢意見等方式進行參與。
再次,對社會第三方力量進行監督。除了應當加強社會第三方算法科技方面的職業倫理素養和法律思維能力外,還應當加強政府對他們的監督。具體來講,政府除了應當對第三方機構的資質進行認定外,還應當聯合平臺和其他力量制定覆蓋數據投入、數據處理和數據產出全過程中的算法質量標準。這些質量標準應當成為社會第三方力量參與算法治理的行為標準。否則,第三方機構可能因為利益因素而淪為數據生產者的同盟者或擺設。
3.算法安全風險的保險機制
算法系統的復雜性對傳統的以因果關系為基礎的法律責任體系形成了嚴峻挑戰。當某個產品匯聚多種算法系統時,要想找到損害結果與損害行為之間的因果關系,難度會更大。在未來相當多的情況下,通過傳統產品責任來解決智能算法及智能系統致人損害問題愈來愈不可能。吳漢東預測,未來社會以過錯責任為基礎建立的“風險分配”責任體系,將在某些領域不復存在。例如,對于算法引發的交通事故的認定,歸責事由只有結果的“對與錯”,而無主觀上的“故意”或“過失”。倘若讓算法及其智能系統的開發者或經營者承擔無過錯責任,就勢必加大產品的生產成本,阻礙算法技術的發展。因此,筆者主張逐步建立算法安全風險的保險機制。作為算法載體而存在的人工智能體的生產者或所有者應當購買一定份額的保險,以分擔算法引發的安全風險。以無人駕駛汽車風險防范為例,傳統汽車發生交通事故的原因主要有車輛原因、人為原因和道路原因,而無人駕駛汽車發生交通事故的原因除了上述原因外,還有智能系統的原因。因此,我們應當針對汽車制造商設定一份智能系統的法制性保險,以分攤算法安全險。
《數字法治》專題由華東政法大學數字法治研究院供稿。專題統籌:秦前松
編輯:海洋