欧美老少欢杂交另类_va天堂_天天狠天天透天干天天怕处_果冻文化传媒www一欢迎您 - 免费国产一区

中國周刊

數字法治:人工智能倫理治理亟需邁向實踐階段

2021-04-15 15:33:39 來源:中國周刊

作者:曹建峰,騰訊研究院高級研究員,華東政法大學數字法治研究院特聘研究員。本文原載《法制日報》互聯網法治專欄。


當今社會,數字產業化與產業數字化持續推動數字世界與物理世界深度融合發展,人類的生活和生產方式日益被重塑。人工智能算法與數據作為這場經濟與社會領域變革的核心推動力,將是未來數年的話題制造者。毫無疑問,數據與人工智能算法的結合,嵌入恰當的應用場景,將帶來顯著的經濟與社會效益。

但也必須重視人工智能算法在公平、安全、隱私、透明、責任、就業等方面可能帶來的問題。算法系統的輸出結果可能對特定個體或群體造成歧視、不公平、排斥等,例如人臉識別算法被指在識別有色人種上準確性較差,廣告算法、招聘算法被指排斥女性勞動者。算法分發可能助長虛假信息的傳播、擴散,也能限制用戶對信息的自由選擇,進而造成“信息繭房”效應。同時,算法也可能被濫用或惡用,給個人權益、公共利益、國家安全等帶來威脅,如過度采集與分析人臉信息、大數據殺熟、深度偽造等。

在這些背景下,人工智能的發展應用迫切需要倫理價值來提供引導與約束,這在國內外已經成為人工智能領域的一項基本共識。


三個階段

2016年以來,伴隨著人工智能技術的快速發展應用,人工智能倫理大致經歷了三個發展階段,當前迫切需要邁向“實踐”階段。

第一階段從2016年開始,可以稱之為原則大爆炸階段。這個階段的核心是各界紛紛提出或制定倫理原則。以人工智能需要遵循一定的倫理原則為出發點,上到國家、政府機構與國際組織,下到科技公司、行業組織與學術團體,各界紛紛提出或制定AI倫理原則。國內外的主流科技公司如微軟、谷歌、IBM、騰訊等也都積極響應,陸續提出了各自的AI倫理原則。據不完全統計,相關的AI原則文件超過百份。總之,在這個階段,各界都在積極倡導AI倫理原則,但缺乏必要的共識與具體的實踐。

第二個階段從2018年開始,可以稱之為共識尋求階段。不同的國家、不同的組織提出了眾多的AI原則和倫理框架,這些原則和框架不盡相同,甚至存在一定程度的分歧與沖突。但人工智能與數字經濟是全球化的,所以人們希望達成、制定全球共同認可的AI原則。OECD和G20的人工智能原則便是這一階段的產物。

第三個階段從2019年開始,可以稱之為AI倫理實踐階段。在這個階段,產業界開始思索如何實施、執行AI原則,探索可以把AI原則轉化為實踐的機制、做法、工具等。目前,谷歌、微軟、IBM等科技公司已在積極推進AI倫理方面的落地工作,讓AI原則操作化、落地化,真正融入、嵌入AI研發流程與業務應用。總之,AI倫理實踐應成為當前以及未來AI倫理工作的核心方向,因為要真正把AI倫理落到實處,僅僅倡導AI倫理原則是不足夠的,下一階段需要著力探索把抽象的AI原則“翻譯”為或“轉變”為具體的實踐的治理路徑。

 

五個路徑

從原則到實踐,是AI倫理領域的發展方向。目前,我國已提出了AI倫理相關的原則、框架等,如《新一代人工智能治理原則——發展負責任的人工智能》。一些科技公司也提出了類似的倡議。在此基礎上,需要進一步探索AI倫理的落地實施方案,更多依靠倫理治理的相關實踐來促進負責任、安全可信AI的發展應用。結合國內外的相關探索與研究,AI倫理治理主要有以下五個實踐路徑。

一是倫理委員會。如果說人工智能是未來智能社會的基石,那么可以說倫理就是使這一基石穩固的必要保障。所以,考慮到不同AI系統的不同影響,以及立法滯后、法律不健全等因素,科技公司需要在法律合規這一最低要求之外,積極履行倫理責任。倫理委員會是科技公司履行AI倫理責任的最基礎機制。成立倫理委員會,對AI相關業務與應用進行必要的倫理審查,已經成為了科技行業的“必選項”,例如微軟的AETHER委員會、谷歌的AI原則審查小組、IBM的AI倫理委員會等。倫理委員會的主要職責是制定AI倫理相關的內部標準與流程,并基于此對AI相關業務進行倫理審查,以識別、預防、消除AI相關應用在安全、公平、隱私等方面風險。在具體運作上,倫理委員會需要多元參與,即技術、法律、倫理等不同專業領域人士的協作配合;倫理委員會負責建立案例、標準、程序、工具、資源等,成為制度知識的資料庫,發揮治理主體的作用。此外,倫理委員會比政府立法反應快,能夠及時跟進技術創新與應用的快速發展。

二是倫理實踐框架。除了對AI業務進行倫理審查,國外科技公司也在落實AI倫理相關的實踐框架,以解決人工智能帶來的歧視、不透明、不可解釋、隱私等問題。例如,在算法透明性方面,谷歌推出了面向人工智能的“模型卡片”機制,IBM則推出了“AI事實清單”機制,這些機制類似于產品的說明書與食品的營養成分表,對人工智能模型相關的模型細節、用途、影響因素、指標、訓練數據、評估數據、倫理考慮、警告與建議等方面進行解釋說明,以便人們可以更好地理解、認知AI模型。再如,在隱私保護方面,聯邦學習框架(federated learning)既能促進數據利用,又能很好地保護個人隱私。簡言之,聯邦學習是指在進行機器學習的過程中,各參與方可借助其他方數據進行聯合建模,但卻無需共享其數據資源。借助聯邦學習,可以解決數據不完整、數據不充分等問題,同時保護個人隱私及數據安全。聯邦學習在車險定價、信貸風控、銷售預測、視覺安防、輔助診斷、隱私保護廣告、自動駕駛等方面具有很大應用前景。此外,AI倫理檢查清單、AI公平性檢查清單等機制也日益得到科技公司的重視,在確保AI符合倫理要求方面將發揮越來越重要的作用。

三是倫理工具。倫理工具側重從技術上尋找針對透明性、可解釋、公平性、安全性、隱私保護等問題的技術解決方案。此外,還包括針對人臉偽造在內的深度偽造的鑒別工具。從倫理工具的開源發展到商業化服務,大型科技公司和AI倫理創業公司正在彌補AI領域缺失的一環,為AI倫理落地提供了全新的思路。目前,谷歌、微軟、IBM以及一些AI倫理創業公司等都在積極開發多元化的AI倫理工具并集成到云服務中,提供AI倫理服務(ethic as a service,簡稱EaaS),賦能客戶與產業。EaaS將來有望成為云服務與云AI的標配。

四是標準認證。就像現在的隱私保護一樣,人工智能倫理也可以采取標準認證的方式來推進,符合AI倫理標準的AI產品與服務可以申請相應的認證。目前,IEEE、ISO等國際標準化組織在積極組織制定相關的標準,并嘗試推出認證項目。未來我國在這方面也需要積極投入,搶占標準高地,以標準認證的方式鼓勵、促進可信的、負責任的AI的發展應用。

五是倫理培訓。技術研發人員處在AI業務一線,是對技術負責的第一人,需要培養他們的倫理意識,幫助他們在AI業務實際中積極踐行倫理要求,把倫理要求嵌入產品開發設計與運作的全流程。所以政府與企業也要對其技術人員加強倫理培訓,高校則要加強AI倫理相關教育培訓體系的搭建。


三管齊下

對于AI治理,倫理治理、法律治理及技術治理都有各自的作用空間,不可偏廢。但就當前而言,人工智能治理需要更多依靠倫理治理的方式。因為考慮到AI算法的復雜性與持續迭代性,在不宜草率推出強制性立法時,倫理治理對于應對AI算法應用帶來的問題無疑是最適合也是最有效的方式。

AI倫理固然重要,是確保實現負責任、安全可信AI的重要路徑。但也不能片面強調倫理及立法規制,以免影響AI技術的創新應用及其經濟社會效益的最大化。

例如,過度強調個人信息與隱私保護,可能導致AI應用獲取不到足夠的可用數據,進而阻礙AI應用及其對個人與社會的價值;過度強調算法的透明性,可能降低算法的準確性或效率,進而阻礙規模化應用;片面強調在所有場景下都要求人類最終決策與控制,可能無法充分發揮AI解決既有決策環節中人類決策者相關的偏見、歧視等問題。而且很多高風險的AI應用,往往也是高價值的AI應用,所以要在權衡不同利益追求的基礎上,做到倫理與發展的平衡,實現負責任的技術創新與應用。


圖片1.png

《數字法治》專題由華東政法大學數字法治研究院供稿。專題統籌:秦前松

 


編輯:海洋

已經到底部