人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,為促進人工智能健康發(fā)展,我國相繼發(fā)布《新一代人工智能治理原則》《新一代人工智能倫理規(guī)范》等文件,明確提出發(fā)展負責任的人工智能。企業(yè)作為技術創(chuàng)新應用的關鍵主體,將負責任理念融入人工智能基礎研發(fā)到應用的全生命周期,既是人工智能企業(yè)樹立“科技向善”理念、實現(xiàn)可持續(xù)發(fā)展的重要表現(xiàn),更是構(gòu)建多元共治的人工智能治理體系的需要。
【資料圖】
今天,曠視聯(lián)合中國科學技術信息研究所(簡稱:“中信所”)發(fā)布了《企業(yè)負責任的人工智能實踐》報告。經(jīng)過近一年的研究,雙方從國內(nèi)外企業(yè)負責任的人工智能實踐現(xiàn)狀出發(fā),探索企業(yè)開展人工智能治理應具備的責任框架和行動路徑,推動企業(yè)自覺踐行負責任的人工智能理念,使之成為企業(yè)、行業(yè)和經(jīng)濟社會可持續(xù)發(fā)展的內(nèi)生動力。
企業(yè)負責任的人工智能概念和框架構(gòu)建
負責任的人工智能屬于人工智能倫理治理的重要內(nèi)容,要求人工智能活動不僅滿足法律規(guī)范的底線,也要符合社會的倫理期待。它是一種在管理、研發(fā)、供應、使用人工智能時綜合考慮倫理、法律、文化和社會經(jīng)濟等影響的動態(tài)治理框架,包含可信、公平、非歧視、決策自主等多種倫理原則,在實踐中根據(jù)政府、企業(yè)、研究機構(gòu)等不同主體的目標定位而采用不同的實施機制。
企業(yè)負責任的人工智能治理理念與企業(yè)社會責任密切相關。環(huán)境、社會及公司治理(ESG)不僅能展現(xiàn)企業(yè)履行社會責任的情況,也是衡量企業(yè)負責任的人工智能實踐狀況的重要標準?!癆I+ESG”使得負責任的人工智能由外在要求轉(zhuǎn)化為企業(yè)治理內(nèi)生動力。企業(yè)負責任的人工智能具有雙重目標,一方面以合法合規(guī)經(jīng)營為基礎,防范人工智能研發(fā)應用風險,促進企業(yè)自身發(fā)展;另一方面,推動環(huán)境、社會和經(jīng)濟的可持續(xù)發(fā)展,增進人類福祉。
以我國相關政策文件、國際組織發(fā)布的共識性規(guī)范文件為依托,以實現(xiàn)企業(yè)自身發(fā)展與增進社會福祉為目標,企業(yè)負責任的人工智能實踐框架可從三個層次進行設計。一是人工智能全生命周期的ESG理念,在人工智能全生命周期活動中融合環(huán)境保護、社會責任及公司治理三大維度協(xié)同增效。二是企業(yè)內(nèi)部多層治理設計,包括綠色化的基礎設施、負責任的數(shù)據(jù)使用、負責任的模型設計、負責任的開發(fā)部署、負責任的倫理審查以及問責制等。三是內(nèi)外雙循環(huán)的治理網(wǎng)絡,除了企業(yè)內(nèi)部治理多層設計之外,還需推動形成“政府監(jiān)管—行業(yè)服務—企業(yè)自律—公眾參與”的協(xié)同治理網(wǎng)絡。
企業(yè)負責任的人工智能實踐框架
實踐路徑:承擔共同但有區(qū)別的治理責任
在國家人工智能治理原則宏觀指導下,企業(yè)踐行負責任的人工智能既存在普適性、共識性的框架,也受企業(yè)具體業(yè)務類型、規(guī)模大小、治理能力等因素影響,不同企業(yè)踐行負責任的人工智能的能力和具體路徑存在一定差異,承擔“共同但有區(qū)別的治理責任”。
從人工智能產(chǎn)業(yè)鏈環(huán)節(jié)看?;A層人工智能企業(yè)注重數(shù)據(jù)收集處理、計算基礎設施應用等方面的倫理治理。技術層人工智能企業(yè)主要圍繞技術研發(fā)開展,重點關注研發(fā)端強化負責任實踐。應用層人工智能企業(yè)的業(yè)務開展同時聚焦產(chǎn)品的研發(fā)和市場化兩大階段,除關注研發(fā)端的治理外,還應強化在應用端貫徹負責任理念。
從人工智能全生命周期環(huán)節(jié)看。研發(fā)端企業(yè)關注重點包括:(1)數(shù)據(jù)處理的脫敏機制、被遺忘機制等;(2)算法模型的可解釋性、算法影響評估、算法安全測試、算法適用邊界、監(jiān)督審查算法實現(xiàn)過程和結(jié)果;(3)建立數(shù)據(jù)集選擇、算法選取等關鍵決策的記錄和回溯機制。人工智能產(chǎn)品生產(chǎn)商關注重點包括:(1)為用戶提供解釋算法結(jié)果的服務,針對不同背景知識和要求的用戶提供常識性與個性化定制相結(jié)合的解釋;(2)針對人工智能產(chǎn)品或服務的使用建立日常監(jiān)測機制。使用人工智能產(chǎn)品和服務的企業(yè),主要從以下四方面開展治理:(1)堅持決策自主可控,不盲目依賴算法決策結(jié)果;(2)堅持善意使用相關產(chǎn)品及服務,不違規(guī)惡用;(3)主動反饋使用人工智能產(chǎn)品與服務過程中發(fā)現(xiàn)的技術安全漏洞、倫理風險等問題;(4)積極學習人工智能相關知識,提高使用能力。
從企業(yè)規(guī)模大小和資源能力水平看。人工智能領軍企業(yè)、中小企業(yè)和初創(chuàng)企業(yè)可以采取“規(guī)定動作”(在遵守法律法規(guī)、監(jiān)管政策、行業(yè)自律規(guī)范等基礎上,開展治理實踐)與“自選動作”(重構(gòu)一套完整的負責任治理戰(zhàn)略和組織架構(gòu),或采用漸進式治理模式,以將倫理原則納入商業(yè)倫理制度和日常運營)相結(jié)合的方式開展負責任的治理。
企業(yè)踐行負責任的人工智能的一般路徑
曠視致力于發(fā)展負責任的人工智能,堅持人工智能向善向上
目前,國內(nèi)外人工智能企業(yè)紛紛圍繞負責任的人工智能開展治理實踐。一直以來,曠視致力于發(fā)展負責任的人工智能,以“長期主義的態(tài)度、理性的關注、深度的研究、建設性的討論和堅持不懈的行動”為指引,務實推動負責任的人工智能治理落地,促進企業(yè)及行業(yè)可持續(xù)發(fā)展。一是建立組織管理架構(gòu)。曠視搭建了以人工智能道德委員會和人工智能治理研究院為核心,研發(fā)學術、產(chǎn)品工程、客戶渠道、公司運營共同參與的組織結(jié)構(gòu),推動人工智能治理在公司落地。二是制定制度規(guī)范。2019年曠視在業(yè)界率先公布基于企業(yè)自身管理標準的《人工智能應用準則》,從正當性、人的監(jiān)督、技術可靠性和安全性、公平和多樣性、問責和及時修正、數(shù)據(jù)安全與隱私保護六個維度,對人工智能正向有序發(fā)展作出明確規(guī)范。三是注重全流程治理?;谌斯ぶ悄苤卫硖攸c,優(yōu)化產(chǎn)研集成產(chǎn)品開發(fā)流程,在多個關鍵階段嵌入倫理風險、個人信息影響評估,并開發(fā)了面向產(chǎn)品人員、技術人員、客戶等不同角色的治理評估工具。搭建與客戶充分交流的“Know-Your-Customer”客戶管理流程,在合同簽訂、產(chǎn)品運維等過程中向客戶和合作伙伴積極倡導《正確使用人工智能產(chǎn)品倡議書》《人工智能技術合規(guī)應用指引》等文件。四是開展治理技術研究和落地。曠視自主研發(fā)的前端圖像脫敏方案,是業(yè)內(nèi)率先實現(xiàn)在采集端完成圖像的不可逆脫敏,且脫敏數(shù)據(jù)仍可用于算法調(diào)優(yōu)升級的創(chuàng)新技術方案,從數(shù)據(jù)源頭消除個人信息泄露風險。五是參與行業(yè)共治。曠視作為主要單位參與《網(wǎng)絡安全標準實踐指南——人工智能倫理安全風險防范指引》《生物特征識別信息保護基本要求》《機器學習算法安全評估規(guī)范》等多項國家和行業(yè)標準規(guī)范的制定。連續(xù)三年在全網(wǎng)發(fā)起“全球十大人工智能治理事件”評選,共同探討人工智能治理實踐方向。
曠視負責任的人工智能治理實踐
負責任的人工智能:企業(yè)發(fā)展的內(nèi)在動力和行業(yè)可持續(xù)發(fā)展的共同愿景
發(fā)展負責任的人工智能作為世界主要人工智能國家和國際組織共同的治理愿景,越來越受到重視。未來,企業(yè)負責任的人工智能將呈現(xiàn)出五大趨勢:一是負責任的人工智能治理將與ESG進一步融合。將人工智能系統(tǒng)的透明度、可解釋性等數(shù)據(jù)、算法治理指標納入ESG評價體系中,能夠建立負責任的人工智能客觀衡量標準,更好地建立用戶信任,推動企業(yè)可持續(xù)發(fā)展。二是以技治技的源頭治理將進一步強化。加強人工智能安全可信、隱私保護等技術研發(fā),做好技術檢測與故障應對,是進一步強化人工智能倫理治理和風險防范的技術支撐,實現(xiàn)源頭治理的重要舉措。三是全生命周期交叉治理將進一步完善。隨著技術的發(fā)展,企業(yè)內(nèi)部和產(chǎn)業(yè)鏈各環(huán)節(jié)之間的聯(lián)系將更加密切,以完備的組織架構(gòu)、人員、流程及工具形成人工智能技術全生命周期的一體化治理。四是領軍企業(yè)治理將進一步帶動行業(yè)實踐。通過領軍企業(yè)先行探索,帶動眾多缺乏治理體系和治理能力的人工智能初創(chuàng)企業(yè)、中小企業(yè)進行負責任的人工智能治理實踐,最終實現(xiàn)整個行業(yè)的健康發(fā)展。五是負責任的人工智能生態(tài)將進一步塑造。企業(yè)實現(xiàn)負責任的人工智能目標需要多方協(xié)同共治,政府、行業(yè)、智庫、公眾等多主體將結(jié)合自身發(fā)展,運用政策法規(guī)、倫理規(guī)范、技術標準手段等多種方式,對人工智能進行積極引導、風險控制和源頭治理。
關鍵詞: 人工智能 生命周期 可持續(xù)發(fā)展 社會責任