近年來我國人工智能技術(shù)快速發(fā)展,技術(shù)自主性也不斷提高。高度普及的移動網(wǎng)絡(luò)終端催生了萬物互聯(lián)的數(shù)據(jù)技術(shù),算力和存儲從用戶端向云端轉(zhuǎn)移降低了步入數(shù)字生活的門檻,深刻改變了人的生產(chǎn)生活方式。目前人工智能已經(jīng)普遍應用于社會生活的各個方面,從出行路徑規(guī)劃、網(wǎng)絡(luò)購物選擇到知識內(nèi)容獲取、信貸申請審批,人工智能也在改變?nèi)祟悜T常的決策方式,但在提高效率的同時也帶來了系統(tǒng)性的問題,比如人工智能技術(shù)不夠安全、穩(wěn)定,影響了系統(tǒng)的可靠性;人工智能決策目標單一,難以滿足多元的社會需求;人工智能使用的數(shù)據(jù)和模型復雜不透明,結(jié)果難以解釋等。
揭開人工智能的面紗,不斷解決其發(fā)展應用中的諸多挑戰(zhàn)和問題,是人類社會的共識。我國近年來不斷加強對人工智能治理的要求,結(jié)合我國實際情況出臺了《新一代人工智能倫理規(guī)范》《關(guān)于加強科技倫理治理的意見》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等一系列政策規(guī)范,確立了我國人工智能倫理治理的核心目標和基本原則,創(chuàng)設(shè)并完善了人工智能影響評估、備案、分級分類等治理管理工具,引導科技企業(yè)評估人工智能技術(shù)研發(fā)應用風險,健全全生命周期倫理治理體系,為社會提供更為安全、更負責任的人工智能產(chǎn)品服務。
幫助提高人的勞動效率,增加勞動價值。人工智能技術(shù)本身處在快速發(fā)展的過程之中,從專家系統(tǒng)到深度學習、從有監(jiān)督學習到無監(jiān)督的自主學習,機器在不斷模擬人類智能的過程中智能化水平不斷提高,對人的勞動方式和價值實現(xiàn)產(chǎn)生了影響。一方面,人工智能創(chuàng)造了新的生產(chǎn)生活方式,促進了職業(yè)模式的創(chuàng)新,新業(yè)態(tài)的產(chǎn)生帶來了新的就業(yè)機會。比如,通過人工智能技術(shù)對分散的勞動資源進行線上化整合和實時性調(diào)度,催生了網(wǎng)約車司機、外賣配送員等新職業(yè),通過連接消費者、商戶建設(shè)起共享性的零工經(jīng)濟,但新的勞動生產(chǎn)方式也帶來了勞動保障不足、勞動權(quán)益被忽視等問題。另一方面,人工智能降低了知識獲取和利用的門檻,對部分傳統(tǒng)勞動產(chǎn)生擠出效應和替代效果,例如自然語言學習算法的不斷優(yōu)化讓人工智能系統(tǒng)的語音轉(zhuǎn)譯、外語翻譯能力有了顯著提升,目前線上會議軟件已經(jīng)實現(xiàn)了實時記錄和翻譯功能,提高了對會議內(nèi)容的記錄效率,但也一定程度上降低了對速記、翻譯等人員的需求??傮w來看,人工智能技術(shù)目前在創(chuàng)造性、感知性等方面和人類智能還有較大的差距,完全替代人類的強人工智能尚不具備可能。但人工智能技術(shù)會持續(xù)影響人類的知識學習和生產(chǎn)工作方式。一是人工智能技術(shù)的發(fā)展可能將替代部分重復性高、規(guī)律性強的人類勞動;二是創(chuàng)造新的、非傳統(tǒng)的工作形態(tài),影響現(xiàn)有的勞動價值分配方式和勞動保障制度;三是可能擴大技術(shù)賦能與技術(shù)失能兩大群體間的差距。人工智能治理需要關(guān)注其對人的勞動的替代以及對勞動價值的影響,讓技術(shù)方案更便捷、友好、易用,幫助更多的人提高勞動效率;同時,進一步完善針對新就業(yè)形態(tài)的勞動保障,讓人工智能驅(qū)動的勞動者享受到更為充分全面的勞動權(quán)益保障。
尊重人的權(quán)益,做到有克制、不傷害。隨著人工智能的廣泛應用,人工智能下的公共決策更加精準,人們生活更為便捷,社會效率也得到提升,但技術(shù)滲入社會生活也改變了人們的溝通交流方式,產(chǎn)生了一系列新問題、新挑戰(zhàn)。一是個人隱私受到威脅。和物理空間一樣,數(shù)字社會中人們的隱私也受到保護,但人工智能技術(shù)需要大量的數(shù)據(jù)進行模型訓練,不加約束地收集和利用數(shù)據(jù)侵入了人們在數(shù)字社會中的隱私空間,對數(shù)字身份帶來了安全風險。二是公平公正難以保障。當人工智能被用于調(diào)配生產(chǎn)生活資料、分配社會資源的時候,人們期待其能夠做出公平、不帶偏見的決定。然而受制于有限的數(shù)據(jù)分布和數(shù)據(jù)質(zhì)量,以及在模型設(shè)計和部署實施中的人為錯誤,人工智能存在難以避免的偏差,而當被用于決定資源分配的時候,技術(shù)的偏差就可能造成結(jié)果的不公平。三是信任機制存在缺失。人工智能系統(tǒng)的設(shè)計、部署和應用比較復雜,機器學習更增加了技術(shù)的不透明性,給人們留下了“黑箱”的印象,普通用戶很難理解人工智能系統(tǒng)如何做出決策,當決策影響到其權(quán)益的時候,也很難要求說明、提出申辯、獲得救濟,往往是被動接受而不是主動選擇人工智能的決策結(jié)果。
人工智能治理需要重點關(guān)注人工智能對隱私、公平的侵犯,提高人工智能技術(shù)的透明度,讓包括數(shù)據(jù)使用、模型設(shè)計、影響評估等在內(nèi)的人工智能決策過程更清晰、可解釋,為人們提供溝通反饋的渠道、并對產(chǎn)生的負面效果提供及時充分有效的救濟,變?nèi)斯ぶ悄?ldquo;黑箱”為好用、受信任的“工具箱”。
促進社會包容可持續(xù)發(fā)展。當人工智能成為人類社會生產(chǎn)生活的基本工具,除了考慮此項技術(shù)當前的問題,還需面向未來,探討其在中長期對人的生存和發(fā)展帶來的影響。在環(huán)境保護方面,人工智能技術(shù)可以讓能源的生產(chǎn)和使用符合可持續(xù)發(fā)展目標要求,比如通過控制物聯(lián)網(wǎng)設(shè)備實現(xiàn)實時的能源消耗調(diào)節(jié),幫助創(chuàng)建更為智慧和低碳的城市;通過智能電網(wǎng)整合可再生能源,實現(xiàn)更為穩(wěn)定的替代電能供應;利用圖像識別技術(shù)實時監(jiān)控分析衛(wèi)星圖,確定荒漠化和海洋污染情況,并提出針對性的方案。但同時,人工智能技術(shù)的發(fā)展也推高了能源消耗,比如適用于自然語言處理的預訓練大模型,在訓練過程中算力消耗較大,帶來了過多的碳排放。在人的發(fā)展方面,人工智能以及更為廣義的數(shù)據(jù)智能改變了人認識和理解世界的方法,在不同的領(lǐng)域驅(qū)動新的創(chuàng)新和創(chuàng)造。目前在醫(yī)學領(lǐng)域,通過人工智能設(shè)計藥物分子式、預測藥物的理化性質(zhì)和生物活性,節(jié)約了大量的實驗成本,而圖像識別技術(shù)應用于醫(yī)學影像分析也會大大提高了診療的準確性。在文化領(lǐng)域,人工智能創(chuàng)作音樂、影視作品的藝術(shù)表現(xiàn)力不斷提高。但上述應用對藥物研發(fā)和診療監(jiān)管、知識產(chǎn)權(quán)等針對創(chuàng)新活動的監(jiān)管制度也帶來了挑戰(zhàn),以人的創(chuàng)新為對象的治理體系難以適配人工智能驅(qū)動的創(chuàng)新。因此,從長期來看,人工智能的發(fā)展需要充分考慮可持續(xù)發(fā)展目標、推動創(chuàng)新創(chuàng)造,人工智能的開發(fā)使用者應當主動承擔社會責任,讓技術(shù)應用服務更為先進的生產(chǎn)力;另一方面,也需要調(diào)整現(xiàn)有制度,以適應人工智能對人的生產(chǎn)發(fā)展帶來的積極改變。
構(gòu)建“以人為本”的人工智能治理體系,讓人工智能堅持以人為中心的價值目標,需要多方協(xié)同、共商共治。政府應當做好頂層設(shè)計,確定人工智能發(fā)展的價值目標和治理的總體要求,加強對影響隱私、公平等權(quán)益的人工智能的監(jiān)督管理,在勞動保障、環(huán)境保護、知識創(chuàng)新等方面引導人工智能的發(fā)展方向。企業(yè)應該強化審慎自律,加強人工智能倫理教育培訓,對人工智能進行全生命周期管理,防范人工智能對人帶來的各種風險,開發(fā)和利用更負責任的人工智能。社會應當增進對人工智能技術(shù)的理解,對人工智能治理形成共識,積極反饋意見、提供建議,讓每一個人成為人工智能的使用者、受益者,也讓每一個人成為人工智能的設(shè)計者、治理者。