【摘要】人工智能正深度嵌入全球網(wǎng)絡(luò)空間治理體系,以高效的數(shù)據(jù)處理和風(fēng)險(xiǎn)識(shí)別能力重塑治理的主體結(jié)構(gòu)、方法流程與模式機(jī)制,有效提升治理效率。必須清醒地認(rèn)識(shí)到,人的作用在全球網(wǎng)絡(luò)空間治理中仍具有不可替代性,因?yàn)槿斯ぶ悄苌胁痪邆湟?guī)范判斷與制度設(shè)計(jì)能力,其透明性、倫理性與權(quán)責(zé)屬性仍依賴人類塑造。未來(lái)全球網(wǎng)絡(luò)空間治理將呈現(xiàn)人機(jī)協(xié)同趨勢(shì),即技術(shù)負(fù)責(zé)初步識(shí)別與響應(yīng),人類完成價(jià)值設(shè)定、制度構(gòu)建并承擔(dān)最終責(zé)任。人機(jī)共治的關(guān)鍵在于通過(guò)結(jié)構(gòu)嵌套、規(guī)則共創(chuàng)與責(zé)任協(xié)同等機(jī)制,構(gòu)建開(kāi)放、透明、可問(wèn)責(zé)的全球網(wǎng)絡(luò)空間治理新范式。
【關(guān)鍵詞】人工智能 網(wǎng)絡(luò)空間治理 技術(shù)嵌入 人類主導(dǎo) 人機(jī)協(xié)同
【中圖分類號(hào)】D820/TP393 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.13.004
【作者簡(jiǎn)介】蔡翠紅,復(fù)旦大學(xué)國(guó)際問(wèn)題研究院、美國(guó)研究中心教授、博導(dǎo)。研究方向?yàn)榫W(wǎng)絡(luò)空間治理、數(shù)字治理、數(shù)字戰(zhàn)略、網(wǎng)絡(luò)政治與中美關(guān)系,主要著作有《全球網(wǎng)絡(luò)空間治理》《Cyber Politics in US-China Relations》《中美關(guān)系中的網(wǎng)絡(luò)政治研究》《網(wǎng)絡(luò)時(shí)代的政治發(fā)展研究》《美國(guó)國(guó)家信息安全戰(zhàn)略》《信息網(wǎng)絡(luò)與國(guó)際政治》等。
引言
在數(shù)字技術(shù)迅猛發(fā)展的當(dāng)下,全球網(wǎng)絡(luò)空間治理正面臨深刻的結(jié)構(gòu)性變革。全球網(wǎng)絡(luò)空間治理是指通過(guò)制定和實(shí)施政策、規(guī)則及技術(shù)標(biāo)準(zhǔn),協(xié)調(diào)各國(guó)政府、國(guó)際組織、私營(yíng)部門和公眾等多方主體,共同管理和規(guī)范網(wǎng)絡(luò)空間,以維護(hù)其安全、穩(wěn)定與繁榮的活動(dòng)。[1]以人工智能(Artificial Intelligence, AI)為代表的新興技術(shù),正從單一工具型手段演變?yōu)榍度胧街卫硪?,深度參與政策執(zhí)行、內(nèi)容監(jiān)管、風(fēng)險(xiǎn)預(yù)警、數(shù)據(jù)管理等多個(gè)關(guān)鍵環(huán)節(jié)。這種變化不僅顯著提升了治理效率和響應(yīng)能力,而且給傳統(tǒng)治理邏輯、權(quán)力結(jié)構(gòu)與制度安排帶來(lái)前所未有的挑戰(zhàn)與重塑壓力。
人工智能之于網(wǎng)絡(luò)空間治理,不僅是一場(chǎng)技術(shù)革新,更是一種治理范式轉(zhuǎn)型,對(duì)于網(wǎng)絡(luò)空間治理而言是一把“雙刃劍”。[2]一方面,依托強(qiáng)大算力與可持續(xù)優(yōu)化的算法,人工智能在信息甄別、趨勢(shì)識(shí)別、行為監(jiān)測(cè)等方面具備獨(dú)特優(yōu)勢(shì),推動(dòng)治理從被動(dòng)響應(yīng)走向主動(dòng)預(yù)測(cè),從集中管理走向去中心化協(xié)作;另一方面,人工智能技術(shù)治理應(yīng)用中的透明性缺失、倫理模糊、問(wèn)責(zé)困難等問(wèn)題,也引發(fā)了各界對(duì)治理正當(dāng)性與責(zé)任歸屬的深層憂慮。這意味著,我們正進(jìn)入一個(gè)技術(shù)推動(dòng)與人的協(xié)調(diào)監(jiān)管并舉的人機(jī)共治新階段。然而,技術(shù)本身并不具備自治能力。治理本質(zhì)上是一種集合法律制度、社會(huì)共識(shí)與政治判斷于一體的復(fù)雜工程。在人工智能廣泛介入全球網(wǎng)絡(luò)空間治理實(shí)踐的同時(shí),人類在價(jià)值設(shè)定、規(guī)則制定、道德判斷與多邊協(xié)商中的不可替代性愈加凸顯。從平臺(tái)內(nèi)容審查中的倫理分歧,到跨國(guó)數(shù)據(jù)流動(dòng)中的主權(quán)博弈,從技術(shù)濫用引發(fā)的風(fēng)險(xiǎn)糾錯(cuò),到未來(lái)治理機(jī)制的制度前瞻,人類始終是治理鏈條中的最終責(zé)任者與價(jià)值“守門人”。
因此,理解人工智能時(shí)代的網(wǎng)絡(luò)空間治理變革,不僅要關(guān)注技術(shù)賦能與效率提升,而且必須正視人類主導(dǎo)作用的持續(xù)必要性,并思考人機(jī)協(xié)同的新制度形態(tài)。本研究擬從技術(shù)嵌入、人類主導(dǎo)、人機(jī)協(xié)同三個(gè)維度出發(fā),系統(tǒng)探討全球網(wǎng)絡(luò)空間治理的結(jié)構(gòu)性轉(zhuǎn)型邏輯。首先,聚焦人工智能對(duì)網(wǎng)絡(luò)空間治理的結(jié)構(gòu)性變革,分析其在治理效率、主體結(jié)構(gòu)、流程機(jī)制與制度模式等方面的深度介入與重塑。其次,討論網(wǎng)絡(luò)空間治理中的人類不可替代性,強(qiáng)調(diào)在倫理判斷、規(guī)則設(shè)計(jì)、政治協(xié)調(diào)與公眾參與等關(guān)鍵領(lǐng)域,人工智能無(wú)法取代人類的規(guī)范性與判斷力。再次,展望邁向“人機(jī)協(xié)同共治”的網(wǎng)絡(luò)空間治理圖景,提出一種更具前瞻性的制度設(shè)想,即人類主導(dǎo)、人工智能輔助的人機(jī)協(xié)同機(jī)制。[3]通過(guò)上述分析,本文希望為理解人工智能驅(qū)動(dòng)的全球網(wǎng)絡(luò)空間治理提供一套兼具結(jié)構(gòu)觀察與規(guī)范反思的理論框架,進(jìn)而為未來(lái)制度設(shè)計(jì)提供啟示與參考。
人工智能對(duì)全球網(wǎng)絡(luò)空間治理的嵌入
隨著人工智能技術(shù)的快速演進(jìn),全球網(wǎng)絡(luò)空間治理正經(jīng)歷深層次的結(jié)構(gòu)性轉(zhuǎn)型。人工智能不僅提升了治理效率,更在悄然重塑治理主體格局、操作流程與制度架構(gòu)。下面以效率、主體、過(guò)程、模式四個(gè)維度為線索,系統(tǒng)分析人工智能如何嵌入網(wǎng)絡(luò)治理體系,并揭示其在權(quán)力分布、制度路徑和治理邏輯等方面的重塑機(jī)制。
治理效率的躍升:從人工操作到智能驅(qū)動(dòng)。人工智能技術(shù)的嵌入,顯著改變了網(wǎng)絡(luò)空間治理的效率邏輯。傳統(tǒng)治理依賴人工操作,在數(shù)據(jù)處理、內(nèi)容審核、安全防護(hù)等方面面臨人力成本高、響應(yīng)速度慢、覆蓋面有限等結(jié)構(gòu)性困境。人工智能的引入,使網(wǎng)絡(luò)空間治理從依賴人類的點(diǎn)狀響應(yīng),轉(zhuǎn)變?yōu)槿旌?、高速率、廣覆蓋的系統(tǒng)性機(jī)制,開(kāi)啟了治理效率躍升的新階段。
在內(nèi)容治理方面,人工智能極大提升違規(guī)內(nèi)容的篩查和響應(yīng)速度。以Meta公司為例,其在2022年第四季度報(bào)告中指出,旗下平臺(tái)使用人工智能識(shí)別并處理約90%以上的仇恨言論和暴力內(nèi)容,且多數(shù)能在用戶舉報(bào)前實(shí)現(xiàn)系統(tǒng)捕捉。[4]YouTube與TikTok也廣泛使用圖像識(shí)別與語(yǔ)義分析技術(shù),在上傳初期對(duì)內(nèi)容進(jìn)行分類和處理。盡管人類仍需在復(fù)雜內(nèi)容判斷中參與復(fù)核,但人工智能顯著減輕了審核負(fù)擔(dān),提升了響應(yīng)速度。
在網(wǎng)絡(luò)安全領(lǐng)域,人工智能可提高對(duì)威脅的即時(shí)監(jiān)控與主動(dòng)防御能力。例如,微軟的“Azure Sentinel”安全平臺(tái)利用自動(dòng)化整合技術(shù)可在毫秒級(jí)別識(shí)別異常網(wǎng)絡(luò)行為并自動(dòng)啟動(dòng)防御機(jī)制。[5]該系統(tǒng)利用機(jī)器學(xué)習(xí)訓(xùn)練識(shí)別“零日攻擊”“釣魚(yú)郵件”等潛在威脅,有效提高了網(wǎng)絡(luò)防御的敏捷性。中國(guó)國(guó)家計(jì)算機(jī)網(wǎng)絡(luò)應(yīng)急技術(shù)處理協(xié)調(diào)中心(CNCERT)也在探索將人工智能算法引入國(guó)家級(jí)態(tài)勢(shì)感知平臺(tái),實(shí)現(xiàn)關(guān)鍵基礎(chǔ)設(shè)施的風(fēng)險(xiǎn)自動(dòng)識(shí)別與響應(yīng)。
在數(shù)據(jù)治理方面,人工智能顯著增強(qiáng)數(shù)據(jù)融合與決策支持能力。新加坡的“Smart Nation Sensor Platform”集成了交通、環(huán)境、公共安全等多維數(shù)據(jù),輔助政府使用人工智能實(shí)時(shí)分析交通與城市運(yùn)行數(shù)據(jù),為城市管理提供支持。[6]人工智能作為治理效能提升的加速器,正推動(dòng)全球網(wǎng)絡(luò)空間治理自動(dòng)化、智能化并向前瞻治理演進(jìn)。
治理主體的轉(zhuǎn)型:從人類主導(dǎo)到人機(jī)共治。隨著人工智能深度嵌入全球網(wǎng)絡(luò)空間治理,傳統(tǒng)由人類主導(dǎo)的治理格局正經(jīng)歷著轉(zhuǎn)向“人機(jī)協(xié)同、多元共治”的重大變革。在新的治理體系中,人工智能不再只是被動(dòng)執(zhí)行的技術(shù)工具,而成為具備輔助判斷、主動(dòng)識(shí)別、風(fēng)險(xiǎn)預(yù)警等能力的輔助治理主體。人工智能開(kāi)始在數(shù)據(jù)分析、內(nèi)容篩查、風(fēng)險(xiǎn)建模等前端環(huán)節(jié)發(fā)揮關(guān)鍵作用,提升治理系統(tǒng)的響應(yīng)效率與覆蓋能力,而政策制定、價(jià)值判斷與責(zé)任追究等規(guī)范性環(huán)節(jié)仍由人類主導(dǎo)完成。二者相輔相成,構(gòu)成“技術(shù)驅(qū)動(dòng)—人類裁量”的復(fù)合型治理結(jié)構(gòu)。無(wú)論是在網(wǎng)絡(luò)安全領(lǐng)域,還是在平臺(tái)自我規(guī)制與技術(shù)倫理治理中,越來(lái)越多的實(shí)踐印證了這一協(xié)同治理模式的發(fā)展與落地。
全球網(wǎng)絡(luò)安全巨頭卡巴斯基旗下的卡巴斯基工業(yè)網(wǎng)絡(luò)安全(KICS)和異常檢測(cè)機(jī)器學(xué)習(xí)(MLAD)產(chǎn)品都使用人工智能算法來(lái)識(shí)別特定工業(yè)環(huán)境中的間接攻擊指標(biāo)和細(xì)微活動(dòng)異常。[7]其托管檢測(cè)和響應(yīng)(MDR)平臺(tái)則采用基于人工智能的自動(dòng)分析器,該分析器接收安全運(yùn)營(yíng)中心團(tuán)隊(duì)收到的警報(bào)后能自動(dòng)對(duì)警報(bào)內(nèi)容進(jìn)行處理。據(jù)統(tǒng)計(jì),經(jīng)過(guò)訓(xùn)練和分析師評(píng)估后,MDR平臺(tái)能夠較為可靠地過(guò)濾錯(cuò)誤警報(bào),從而將減少安全運(yùn)營(yíng)中心約25%的工作量。[8]這一實(shí)踐展示了人機(jī)協(xié)作在網(wǎng)絡(luò)安全治理中的有效性,即人工智能負(fù)責(zé)初步篩查和風(fēng)險(xiǎn)標(biāo)注,人類專家進(jìn)行復(fù)審和決策,從而提升治理的效率、精度和可靠性,構(gòu)建起一個(gè)分工互補(bǔ)、責(zé)任清晰的協(xié)同治理模式。
人工智能不僅提升平臺(tái)內(nèi)部監(jiān)管的精度與覆蓋率,也賦予平臺(tái)更大的規(guī)制能力,重塑治理邊界。例如,阿里巴巴于2022年設(shè)立“科技倫理治理委員會(huì)”,并引入外部顧問(wèn)機(jī)制,推動(dòng)包括算法審查、風(fēng)險(xiǎn)評(píng)估、數(shù)據(jù)隱私保護(hù)等在內(nèi)的技術(shù)治理框架。該委員會(huì)主導(dǎo)制定了“科技倫理六大準(zhǔn)則”,明確要求重要算法上線前需進(jìn)行倫理與合規(guī)評(píng)估,確保平臺(tái)在“可控、可信、安全”基礎(chǔ)上運(yùn)行治理機(jī)制。[9]這一實(shí)踐展示了阿里巴巴如何通過(guò)人工智能技術(shù)和內(nèi)部治理機(jī)制的完善,提升平臺(tái)治理能力,從而在商業(yè)組織基礎(chǔ)上承擔(dān)更多治理主體責(zé)任。
治理過(guò)程的重構(gòu):從線性流程到智能自動(dòng)化。人工智能的介入,正在深刻重塑全球網(wǎng)絡(luò)空間治理的流程架構(gòu)。傳統(tǒng)治理模式通常遵循“問(wèn)題發(fā)現(xiàn)—人工介入—響應(yīng)處理”的線性鏈條,嚴(yán)重依賴人力審批和多部門協(xié)同,導(dǎo)致流程遲滯、反饋滯后與資源浪費(fèi)等治理瓶頸。在傳統(tǒng)架構(gòu)下,內(nèi)容審核、風(fēng)險(xiǎn)識(shí)別、違規(guī)處置等任務(wù)往往由不同部門各自為政,形成“治理孤島”。在人工智能介入的新治理范式中,平臺(tái)不再僅僅是承載治理任務(wù)的執(zhí)行載體,而是逐步演化為集感知、調(diào)度、決策于一體的智能中樞。人工智能對(duì)治理流程的重構(gòu),不僅提升治理效率,更促成從人工審批線性鏈向以平臺(tái)為中樞的并行自治范式轉(zhuǎn)變。
TikTok的廣告審核流程結(jié)合了自動(dòng)化審核與人工復(fù)核,以提高審核效率和準(zhǔn)確性。廣告提交后,系統(tǒng)通常會(huì)在24小時(shí)內(nèi)完成初步審核。對(duì)于低風(fēng)險(xiǎn)內(nèi)容,人工智能可自動(dòng)批準(zhǔn),而高風(fēng)險(xiǎn)或復(fù)雜內(nèi)容則交由人工復(fù)核處理。這種協(xié)同機(jī)制避免了資源浪費(fèi)與誤判過(guò)度,體現(xiàn)了人工智能在治理任務(wù)智能分流與并行處理方面的應(yīng)用價(jià)值。[10]
百度推出的內(nèi)容審核平臺(tái),集成人工智能內(nèi)容審核系統(tǒng),實(shí)現(xiàn)多業(yè)務(wù)線的統(tǒng)一風(fēng)控調(diào)度。該平臺(tái)支持對(duì)圖像、文本、語(yǔ)音、視頻等多模態(tài)內(nèi)容進(jìn)行審核,具有審核模型精準(zhǔn)、審核維度豐富和規(guī)則配置靈活等特點(diǎn)。通過(guò)界面化選擇審核維度、個(gè)性化調(diào)整松緊度,自動(dòng)檢測(cè)涉黃、涉恐、惡意推廣等違規(guī)內(nèi)容,降低業(yè)務(wù)違規(guī)風(fēng)險(xiǎn)。這一實(shí)踐充分展示人工智能可推動(dòng)以平臺(tái)為中樞的智能治理中臺(tái)建設(shè),整合原本分散的資源與模塊,提升內(nèi)容安全治理的效率與精準(zhǔn)度??梢哉J(rèn)為,百度內(nèi)容審核平臺(tái)在部分流程節(jié)點(diǎn)中實(shí)際上獲得了“自治執(zhí)行權(quán)”,成為流程中的代理治理者。管理員的職責(zé)從“執(zhí)行者”轉(zhuǎn)為“規(guī)則設(shè)計(jì)者”,人工智能負(fù)責(zé)持續(xù)運(yùn)作并自我學(xué)習(xí),形成智能化流程的微觀自治單元。[11]
治理模式的重塑:從靜態(tài)規(guī)制到動(dòng)態(tài)適應(yīng)。人工智能的引入正在深刻重塑網(wǎng)絡(luò)空間的治理模式,不僅變革治理工具與流程,也重構(gòu)治理的根本邏輯。傳統(tǒng)的治理框架通常依賴于靜態(tài)、線性的規(guī)制設(shè)計(jì),在應(yīng)對(duì)已知風(fēng)險(xiǎn)方面尚可運(yùn)作,但面對(duì)快速演進(jìn)的技術(shù)生態(tài)與多元不確定的風(fēng)險(xiǎn)情境,常常顯得滯后、低效、缺乏彈性。在這種背景下,人工智能憑借其高頻感知、多源整合和快速反饋等能力,正成為網(wǎng)絡(luò)空間治理系統(tǒng)動(dòng)態(tài)調(diào)節(jié)的核心引擎。其不僅能在治理流程前端發(fā)揮實(shí)時(shí)監(jiān)測(cè)與識(shí)別功能,還可以嵌入制度設(shè)計(jì)后端,推動(dòng)治理結(jié)構(gòu)實(shí)現(xiàn)“反饋—調(diào)整—再執(zhí)行”的循環(huán)更新機(jī)制;更進(jìn)一步,人工智能的獨(dú)特能力還使部分制度具備在監(jiān)管不確定情境下進(jìn)行政策試驗(yàn)的可能。
傳統(tǒng)治理側(cè)重于對(duì)既成違規(guī)行為的事后處置,而人工智能則推動(dòng)風(fēng)險(xiǎn)識(shí)別和資源調(diào)度向前置部署轉(zhuǎn)型。例如,百度公司通過(guò)其安全態(tài)勢(shì)感知系統(tǒng),可針對(duì)全網(wǎng)文字、圖片、視頻、代碼等進(jìn)行智能建模和7×24小時(shí)實(shí)時(shí)監(jiān)控,對(duì)欺詐、違法、風(fēng)險(xiǎn)等惡意網(wǎng)站及第三方瀏覽器、第三方APP、社交平臺(tái)、短信網(wǎng)址有害信息采取風(fēng)險(xiǎn)標(biāo)注、攔截提示、搜索屏蔽等攔截措施,其治理邏輯轉(zhuǎn)變?yōu)?ldquo;事前監(jiān)控—事中攔截—事后追溯”,為用戶提供了更為完善的安全保障體系。[12]
面對(duì)不斷變化的技術(shù)生態(tài)和社會(huì)需求,人工智能助力構(gòu)建以反饋為核心的動(dòng)態(tài)治理模式。例如,歐盟于2022年通過(guò)了《數(shù)字服務(wù)法案》(Digital Services Act, DSA),要求大型在線平臺(tái)建立動(dòng)態(tài)風(fēng)險(xiǎn)評(píng)估體系,持續(xù)依據(jù)算法反饋和輿情數(shù)據(jù),調(diào)整內(nèi)容審核機(jī)制、推薦邏輯和用戶提示方式,從而創(chuàng)建一個(gè)更安全的數(shù)字空間。[13]在技術(shù)尚未成熟、風(fēng)險(xiǎn)尚不明確的生成式人工智能、元宇宙等新興領(lǐng)域,傳統(tǒng)規(guī)制模式可能導(dǎo)致監(jiān)管真空或創(chuàng)新受限。為兼顧探索與合規(guī),部分國(guó)家引入“治理沙盒”“彈性監(jiān)管”等柔性制度架構(gòu)。英國(guó)政府于2023年3月發(fā)布了《支持創(chuàng)新的人工智能監(jiān)管方式》(A pro-innovation approach to AI regulation)政策文件,提出基于原則的人工智能治理方法,強(qiáng)調(diào)在現(xiàn)有法律框架下對(duì)人工智能進(jìn)行監(jiān)管,并提出可信人工智能、監(jiān)管沙盒等舉措,以在防范潛在風(fēng)險(xiǎn)的同時(shí)促進(jìn)產(chǎn)業(yè)發(fā)展。[14]
綜上所述,人工智能技術(shù)推動(dòng)網(wǎng)絡(luò)空間治理從靜態(tài)規(guī)則走向動(dòng)態(tài)彈性機(jī)制,從一次性部署走向持續(xù)調(diào)試,從封閉式制定走向開(kāi)放式共建,為構(gòu)建適應(yīng)型、學(xué)習(xí)型全球網(wǎng)絡(luò)空間治理體系提供了關(guān)鍵支撐,也使全球網(wǎng)絡(luò)空間治理更具彈性與適應(yīng)力。但與此同時(shí),人工智能技術(shù)應(yīng)用也帶來(lái)了新的制度難題:誰(shuí)主導(dǎo)規(guī)則迭代?反饋數(shù)據(jù)是否公開(kāi)透明?政策試驗(yàn)失敗由誰(shuí)負(fù)責(zé)?這些問(wèn)題仍需人類在制度設(shè)定與監(jiān)督過(guò)程中行使終極裁量權(quán),發(fā)揮責(zé)任擔(dān)當(dāng)。
全球網(wǎng)絡(luò)空間治理中的人類不可替代性
在人工智能廣泛嵌入網(wǎng)絡(luò)空間治理的當(dāng)下,其在數(shù)據(jù)處理、風(fēng)險(xiǎn)預(yù)測(cè)、內(nèi)容識(shí)別等領(lǐng)域展現(xiàn)出卓越效率。人工智能在發(fā)揮極大賦能增效作用的同時(shí),也日益暴露出數(shù)字控制、權(quán)力剝奪、價(jià)值偏好偏差等消極影響,暗藏頗為危險(xiǎn)的技治主義傾向。[15]治理本質(zhì)并非單純的技術(shù)工程,還關(guān)涉制度設(shè)定、權(quán)力協(xié)調(diào)與價(jià)值判斷。特別是在多主權(quán)并存、技術(shù)快速演化的全球網(wǎng)絡(luò)空間,人類在治理中的主導(dǎo)角色非但未被削弱,反而在制度建構(gòu)、倫理決策與國(guó)際協(xié)商等關(guān)鍵環(huán)節(jié)中更加不可替代。
制度設(shè)計(jì)中的人類規(guī)范判斷作用。人工智能的廣泛應(yīng)用正在重塑全球網(wǎng)絡(luò)空間治理的技術(shù)圖景。治理制度不僅是對(duì)運(yùn)行機(jī)制的設(shè)定,更是對(duì)社會(huì)價(jià)值、權(quán)力關(guān)系與規(guī)范邊界的系統(tǒng)構(gòu)造。在網(wǎng)絡(luò)空間這一跨文化、多主體、高變動(dòng)性的場(chǎng)域中,制度設(shè)計(jì)遠(yuǎn)非技術(shù)性輸入輸出所能替代,必須由具備歷史意識(shí)、價(jià)值判斷與政治理性的主體親自把關(guān)與主導(dǎo)。人工智能雖擅長(zhǎng)數(shù)據(jù)演繹與模式識(shí)別,卻難以處理涉及倫理爭(zhēng)議、文化沖突與社會(huì)期望的規(guī)范性問(wèn)題,這些構(gòu)成了其難以逾越的認(rèn)知邊界。法律與政策等治理規(guī)范的制定,并非模型單獨(dú)推導(dǎo)出的技術(shù)解法,而更是一場(chǎng)社會(huì)協(xié)商與道德評(píng)估的集體實(shí)踐。
歐盟《人工智能法案》(Artificial Intelligence Act)體現(xiàn)了這種人類主導(dǎo)的制度判斷過(guò)程。自2021年其草案提出以來(lái),歐洲議會(huì)、理事會(huì)與成員國(guó)歷經(jīng)多輪辯論,最終在2023年12月達(dá)成政治共識(shí)。立法過(guò)程中設(shè)立的人工智能倫理框架將所有人工智能系統(tǒng)應(yīng)用場(chǎng)景劃分為“不可接受”“高風(fēng)險(xiǎn)”“有限風(fēng)險(xiǎn)”“最低風(fēng)險(xiǎn)”四類,并明確禁止用于社會(huì)信用評(píng)分、實(shí)時(shí)遠(yuǎn)程面部識(shí)別等“不可接受風(fēng)險(xiǎn)”用途。這一制度構(gòu)造的背后,是圍繞“人類尊嚴(yán)”“基本權(quán)利”“民主穩(wěn)定”等核心價(jià)值展開(kāi)的政治與法律協(xié)商,而非算法所能自主設(shè)定的技術(shù)邏輯。[16]
在我國(guó),《中華人民共和國(guó)個(gè)人信息保護(hù)法》亦展現(xiàn)了在本土社會(huì)邏輯中對(duì)制度價(jià)值的多重考量。該法案于2021年正式施行,既參考了歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)中的部分經(jīng)驗(yàn),如數(shù)據(jù)最小化原則、跨境傳輸限制等,又根據(jù)中國(guó)國(guó)情強(qiáng)調(diào)了“國(guó)家安全”“社會(huì)穩(wěn)定”“政府作用”等理念。在跨境數(shù)據(jù)流動(dòng)部分,該法規(guī)定“關(guān)鍵信息基礎(chǔ)設(shè)施運(yùn)營(yíng)者”和處理個(gè)人信息量達(dá)到國(guó)家網(wǎng)信部門規(guī)定數(shù)量的“個(gè)人信息處理者”必須接受國(guó)家網(wǎng)信部門安全評(píng)估,體現(xiàn)出對(duì)國(guó)家主權(quán)與公共利益的制度性偏好。這些條款體現(xiàn)了集體主義文化、秩序?qū)蛐椭卫碛^念在制度設(shè)計(jì)中的深層嵌入。[17]
更具國(guó)際層面制度張力的是聯(lián)合國(guó)政府專家組(UNGGE)在網(wǎng)絡(luò)空間國(guó)際規(guī)則制定中的工作實(shí)踐。UNGGE多輪談判圍繞“國(guó)家主權(quán)是否適用于網(wǎng)絡(luò)空間”“武力使用是否涵蓋網(wǎng)絡(luò)攻擊”等問(wèn)題展開(kāi)激烈討論。美國(guó)堅(jiān)持強(qiáng)調(diào)“自由開(kāi)放的網(wǎng)絡(luò)空間”,反對(duì)“國(guó)家主權(quán)過(guò)度擴(kuò)張”;而俄羅斯與部分發(fā)展中國(guó)家主張國(guó)家政府在網(wǎng)絡(luò)空間治理中的作用,反對(duì)技術(shù)霸權(quán)。這些立場(chǎng)分歧反映出不同國(guó)家的戰(zhàn)略利益與治理觀念,其制度文本的最終形成依賴的是人類外交代表在談判、協(xié)商與利益妥協(xié)中的經(jīng)驗(yàn)判斷和價(jià)值權(quán)衡,而這種互動(dòng)難以由人工智能代理。[18]
人類始終在制度構(gòu)建的核心判斷中發(fā)揮著不可替代的作用。人工智能可在制度形成過(guò)程中提供輔助分析,但制度的合法性、正當(dāng)性與文化適應(yīng)性,必須源于人類社會(huì)的理性協(xié)商與規(guī)范共識(shí)。即便未來(lái)人工智能進(jìn)一步嵌入治理過(guò)程,也無(wú)法改變?nèi)祟愒谌蚓W(wǎng)絡(luò)空間治理中擁有制度主導(dǎo)權(quán)的核心邏輯。
價(jià)值沖突中的人類倫理判斷作用。在全球網(wǎng)絡(luò)空間治理實(shí)踐中,倫理判斷是無(wú)法由算法替代的關(guān)鍵環(huán)節(jié)。特別是在不同社會(huì)價(jià)值觀發(fā)生沖突時(shí),只有人類才能憑借其倫理感知、社會(huì)共識(shí)與文化理解能力作出更具合法性與可接受性的決策。人工智能可以識(shí)別模式、執(zhí)行規(guī)則,但缺乏主動(dòng)提出倫理問(wèn)題、衡量文化后果與承擔(dān)社會(huì)責(zé)任的能力。諸如隱私保護(hù)與國(guó)家安全之間的張力、言論自由與社會(huì)穩(wěn)定的平衡、人權(quán)保障與內(nèi)容審查的界限,這些議題往往處于灰色地帶,難以依靠邏輯演算或統(tǒng)計(jì)模型得出唯一答案。
Meta(原Facebook)平臺(tái)的內(nèi)容審核機(jī)制充分揭示了該問(wèn)題的復(fù)雜性。盡管該平臺(tái)部署了大規(guī)模人工智能系統(tǒng)以自動(dòng)識(shí)別暴力、恐怖主義、仇恨言論等內(nèi)容,并可在用戶舉報(bào)前完成大部分初步篩查,但在處理政治異議、人權(quán)表達(dá)和宗教敏感內(nèi)容時(shí),人工智能系統(tǒng)顯得力不從心。為應(yīng)對(duì)這一挑戰(zhàn),Meta于2020年正式設(shè)立“內(nèi)容監(jiān)督委員會(huì)”(Oversight Board),負(fù)責(zé)復(fù)審關(guān)鍵內(nèi)容爭(zhēng)議案件。該委員會(huì)強(qiáng)調(diào)審查標(biāo)準(zhǔn)需依據(jù)《世界人權(quán)宣言》與區(qū)域法律框架,明確了人工智能判斷之外,人類在政治表達(dá)與文化張力中的裁定責(zé)任。[19]
另一個(gè)體現(xiàn)倫理判斷主導(dǎo)技術(shù)決策的事件,是谷歌(Google)在“Project Maven”項(xiàng)目中的戰(zhàn)略退出。該項(xiàng)目由美國(guó)國(guó)防部于2017年啟動(dòng),旨在利用人工智能圖像識(shí)別技術(shù)提升無(wú)人機(jī)軍事偵察與目標(biāo)打擊的效率。谷歌在該項(xiàng)目中負(fù)責(zé)提供機(jī)器學(xué)習(xí)平臺(tái)工具,協(xié)助軍方進(jìn)行目標(biāo)識(shí)別。然而,自2018年起,谷歌內(nèi)部爆發(fā)大規(guī)模員工抗議,逾4000名員工聯(lián)名反對(duì)公司參與該項(xiàng)目,認(rèn)為這違反了公司“不從惡”("Don't be evil")的核心理念。在道德壓力與公眾爭(zhēng)議下,谷歌最終決定退出該項(xiàng)目,并在公開(kāi)聲明中表示“人工智能必須服務(wù)于和平與人類價(jià)值,而非被濫用于武力控制”。這一事件清晰說(shuō)明,即使在高科技公司內(nèi)部,倫理價(jià)值仍然是最終決策的主導(dǎo)因素,而非由技術(shù)理性決定。[20]
制度層面更為突出的案例是新西蘭政府在“基督城清真寺槍擊案”(2019)后發(fā)起的“基督城呼吁”(Christchurch Call)倡議。在該事件中,兇手通過(guò)社交平臺(tái)直播其行兇過(guò)程,震驚全球。事件之后,新西蘭聯(lián)合法國(guó)等歐盟國(guó)家與多家科技公司,共同呼吁建立全球互聯(lián)網(wǎng)內(nèi)容治理機(jī)制。該倡議明確提出:“應(yīng)在人類監(jiān)督下加強(qiáng)極端內(nèi)容的識(shí)別與處理,反對(duì)將此類工作完全外包給人工智能系統(tǒng)”,強(qiáng)調(diào)平臺(tái)責(zé)任、人類干預(yù)與跨國(guó)合作的制度性路徑,代表當(dāng)前國(guó)際社會(huì)對(duì)人工智能內(nèi)容治理邊界的基本共識(shí)。[21]
在涉及社會(huì)敏感議題的治理過(guò)程中,人工智能固然可以作為技術(shù)支持工具,但最終的倫理決策權(quán)必須由人類掌握。尤其在跨文化背景下,全球社會(huì)對(duì)“自由”“暴力”“安全”等概念的理解存在巨大差異,人工智能模型在此情境下往往無(wú)法提供廣泛認(rèn)可的方案,反而可能激化信任危機(jī)。因此,全球網(wǎng)絡(luò)空間治理中,人類在倫理判斷中的主導(dǎo)地位不可替代。
公眾參與中的人類民主組織作用。在全球網(wǎng)絡(luò)空間治理中,政策制定早已超出技術(shù)執(zhí)行的范疇,成為一項(xiàng)涉及多元價(jià)值沖突、利益平衡與制度正當(dāng)性的復(fù)雜政治工程。公眾是否以及如何被有效納入治理結(jié)構(gòu),不僅關(guān)乎程序正義,也決定了治理機(jī)制的合法性與可持續(xù)性。盡管人工智能在輿情識(shí)別、意見(jiàn)聚類與參與動(dòng)員等方面展現(xiàn)出巨大潛力,但仍無(wú)法替代人類在公眾參與和公共協(xié)商中的核心作用。
首先,公眾參與而非簡(jiǎn)單的技術(shù)采樣或數(shù)據(jù)建模,是民主政治的基石。2017年,美國(guó)聯(lián)邦通信委員會(huì)(FCC)就“網(wǎng)絡(luò)中立性”政策改革展開(kāi)公共咨詢,收到了約2200萬(wàn)條公眾評(píng)論。然而,事后調(diào)查發(fā)現(xiàn),其中近1800萬(wàn)條評(píng)論為虛假提交,很多使用了偽造的身份信息。這揭示了在政策制定過(guò)程中,雖然人工智能可以輔助分析評(píng)論內(nèi)容,但對(duì)于評(píng)論的真實(shí)性驗(yàn)證、代表性評(píng)估以及程序的公平性判斷,仍需依賴人類的制度裁定和監(jiān)督。[22]這一事件表明,治理合法性依賴的不是算法生成的統(tǒng)計(jì)概率,而是人類社會(huì)對(duì)過(guò)程正義的信任。
其次,在技術(shù)與民主并存的場(chǎng)域中,人工智能可作為“協(xié)助組織者”嵌入?yún)⑴c機(jī)制,但不具有決策主體地位。法國(guó)政府于2019年發(fā)起“全國(guó)大辯論”(Grand Débat National)項(xiàng)目,旨在回應(yīng)“黃背心”抗議,促進(jìn)全國(guó)性對(duì)話以化解社會(huì)沖突。[23]政府在全國(guó)范圍內(nèi)組織了超過(guò)1萬(wàn)場(chǎng)線下集會(huì),并結(jié)合人工智能技術(shù)對(duì)約200萬(wàn)條在線提交的意見(jiàn)進(jìn)行文本分析與分類。數(shù)字化后的民意數(shù)據(jù)被委托給調(diào)查公司OpinionWay及其人工智能合作伙伴Qwam處理,他們通過(guò)人工智能工具識(shí)別民眾共識(shí)與爭(zhēng)議焦點(diǎn),輔助政府制定改革優(yōu)先事項(xiàng)。[24]然而,這一人工智能輔助機(jī)制始終以“意見(jiàn)歸納工具”而非“政策決策者”角色存在,最終的制度調(diào)整仍由總統(tǒng)與議會(huì)通過(guò)民主協(xié)商裁定。
再次,公眾參與在人權(quán)與道德議題中更具有不可替代性。英國(guó)在制定《在線安全法案》(Online Safety Bill)期間,廣泛征求民意、組織聽(tīng)證會(huì),并設(shè)立跨黨派監(jiān)督小組,以處理平臺(tái)責(zé)任、算法偏見(jiàn)與未成年人保護(hù)等復(fù)雜問(wèn)題。該法案涉及“如何界定有害內(nèi)容”“平臺(tái)是否過(guò)度審查”“人工智能在內(nèi)容治理中的合法邊界”等多重倫理風(fēng)險(xiǎn)。[25]盡管技術(shù)專家參與算法模型與風(fēng)險(xiǎn)評(píng)級(jí)設(shè)計(jì),但最終法律文本仍由議會(huì)通過(guò),體現(xiàn)出人類在價(jià)值判斷、權(quán)力設(shè)計(jì)和制度運(yùn)行中的絕對(duì)主導(dǎo)地位。
人工智能可以在全球網(wǎng)絡(luò)空間治理中作為信息賦能的工具,擴(kuò)展參與范圍、優(yōu)化議題聚合、發(fā)現(xiàn)意見(jiàn)沖突,但規(guī)則設(shè)定、協(xié)商引導(dǎo)與責(zé)任歸屬的制度構(gòu)建仍需由人類主導(dǎo)完成。特別是在多元文化、價(jià)值觀沖突的全球網(wǎng)絡(luò)空間,公眾參與仍然不可替代。
跨境多方博弈中的人類協(xié)調(diào)作用。全球網(wǎng)絡(luò)空間治理不僅關(guān)涉技術(shù)部署,更深刻映射出國(guó)際體系中的主權(quán)沖突、權(quán)力再分配與制度競(jìng)爭(zhēng)。在這一多極互動(dòng)的場(chǎng)域中,治理不再是行政命令的線性輸出,而是一個(gè)充滿政治張力的“協(xié)商—妥協(xié)—再協(xié)商”過(guò)程。人工智能雖然可以提供數(shù)據(jù)支持、語(yǔ)言翻譯與風(fēng)險(xiǎn)評(píng)估,但缺乏政治敏感性、文化理解力與妥協(xié)能力,無(wú)法勝任高風(fēng)險(xiǎn)、多變量的跨境協(xié)調(diào)任務(wù)。
以TikTok與美國(guó)政府圍繞“數(shù)據(jù)主權(quán)”與“國(guó)家安全”問(wèn)題的爭(zhēng)議為例,人類談判的作用在其中展現(xiàn)得尤為明顯。2019年,美國(guó)外國(guó)投資委員會(huì)(CFIUS)對(duì)字節(jié)跳動(dòng)收購(gòu)Musical.ly并將其整合為TikTok的交易展開(kāi)了國(guó)家安全審查。盡管TikTok采取措施將美國(guó)用戶數(shù)據(jù)存儲(chǔ)在美國(guó)和新加坡,并退出香港市場(chǎng)以爭(zhēng)取美方信任,但CFIUS仍認(rèn)為TikTok構(gòu)成國(guó)家安全風(fēng)險(xiǎn),要求其剝離美國(guó)業(yè)務(wù),甚至將其封禁。[26]在這一過(guò)程中,關(guān)鍵決策并非基于事實(shí)理性,而是由美國(guó)國(guó)家安全委員會(huì)、法律顧問(wèn)、企業(yè)高管等人類行為體根據(jù)所謂“邏輯”作出,更多是基于政治考量和無(wú)端猜測(cè),目的是維護(hù)美國(guó)數(shù)字霸權(quán)。
歐盟與Meta(原Facebook)圍繞“跨境數(shù)據(jù)傳輸合法性”的法律沖突驗(yàn)證了這一點(diǎn)。在“Schrems II”案中,歐洲法院于2020年裁定美國(guó)的監(jiān)控機(jī)制違反歐盟隱私權(quán)標(biāo)準(zhǔn),宣布《隱私盾協(xié)議》無(wú)效,直接影響了Meta等公司數(shù)據(jù)在歐美之間的自由流動(dòng)。[27]盡管Meta使用人工智能協(xié)助分析法規(guī)適配性與合規(guī)風(fēng)險(xiǎn),但其應(yīng)對(duì)策略,包括數(shù)據(jù)本地化、協(xié)議談判、隱私政策修改等,均由法律顧問(wèn)、數(shù)據(jù)保護(hù)官與歐盟監(jiān)管機(jī)構(gòu)共同主導(dǎo)完成。這類法律與政治高度交織的治理沖突,離不開(kāi)人類在規(guī)范解釋、信任建構(gòu)與司法策略中的協(xié)調(diào)作用。
在更具制度性與全球性的場(chǎng)域,聯(lián)合國(guó)“互聯(lián)網(wǎng)治理論壇”(IGF)提供了一個(gè)高度人類主導(dǎo)的協(xié)商機(jī)制范式。自2006年設(shè)立以來(lái),IGF匯聚了各國(guó)政府、技術(shù)組織、企業(yè)與公眾,圍繞數(shù)字主權(quán)、技術(shù)標(biāo)準(zhǔn)、互聯(lián)網(wǎng)資源分配等問(wèn)題展開(kāi)多輪討論。發(fā)展中國(guó)家持續(xù)要求改革現(xiàn)有治理結(jié)構(gòu),如擴(kuò)大其在互聯(lián)網(wǎng)名稱與數(shù)字地址分配機(jī)構(gòu)(ICANN)的影響力,而歐美國(guó)家則主張維持“多利益攸關(guān)方”機(jī)制的現(xiàn)狀。[28]人工智能雖可輔助完成文本分析、會(huì)議記錄與議程規(guī)劃,但在面臨地緣戰(zhàn)略分歧與制度訴求碰撞時(shí),真正影響談判進(jìn)程的,是各方代表所展現(xiàn)的談判意志、歷史記憶與政治信仰。
全球網(wǎng)絡(luò)空間治理的本質(zhì)是多主權(quán)下的動(dòng)態(tài)制度生成,其推進(jìn)邏輯根植于人類社會(huì)對(duì)規(guī)則、秩序與正義的長(zhǎng)期協(xié)商。在這一過(guò)程中,人工智能可以提供輔助性信息、提升談判效率,但無(wú)法擔(dān)任政治意圖的表達(dá)者、妥協(xié)機(jī)制的建構(gòu)者與責(zé)任體系的承載者。因此,構(gòu)建可持續(xù)的全球網(wǎng)絡(luò)空間秩序,仍需依賴人類在跨境事務(wù)中發(fā)揮協(xié)調(diào)功能。
監(jiān)督與糾錯(cuò)機(jī)制中的人類最終責(zé)任。在全球網(wǎng)絡(luò)空間治理中,人工智能系統(tǒng)被廣泛應(yīng)用于提升效率、擴(kuò)大覆蓋面、增強(qiáng)風(fēng)險(xiǎn)預(yù)測(cè)能力,尤其在行政決策、內(nèi)容審查與資源分配等領(lǐng)域日益發(fā)揮核心作用。然而,越是深入推進(jìn)技術(shù)嵌入的自動(dòng)化治理,人類作為制度監(jiān)督者與最終責(zé)任承擔(dān)者的角色就越顯關(guān)鍵。人工智能的判斷依據(jù)來(lái)自訓(xùn)練數(shù)據(jù)與模型邏輯,而這些基礎(chǔ)事項(xiàng)本身就可能包含偏見(jiàn)、盲區(qū)和邏輯缺陷。一旦人工智能作出錯(cuò)誤決策,其帶來(lái)的后果不僅限于技術(shù)層面,更可能波及公民權(quán)利與制度公信力。因此,人類仍是治理責(zé)任鏈條中不可替代的“最終責(zé)任方”——人工智能所造成的偏誤,必須由人類識(shí)別、修復(fù)與追責(zé)。
澳大利亞的“Robodebt”案件是高度自動(dòng)化治理失誤的典型案例。2016年,澳大利亞政府引入自動(dòng)數(shù)據(jù)匹配系統(tǒng),以檢測(cè)社會(huì)福利欺詐。然而,該系統(tǒng)在缺乏人工復(fù)核的情況下,簡(jiǎn)單對(duì)比稅務(wù)與福利數(shù)據(jù),自動(dòng)判定大量低收入者涉嫌騙保,并下發(fā)追繳令。這一過(guò)程中超過(guò)50萬(wàn)人受到影響,許多人陷入財(cái)務(wù)困境,甚至引發(fā)個(gè)體心理創(chuàng)傷和個(gè)別自殺事件。[29]2023年,澳大利亞皇家委員會(huì)裁定該系統(tǒng)“非法且缺乏基本正當(dāng)程序”,政府隨后公開(kāi)道歉并啟動(dòng)了賠償計(jì)劃。[30]該事件表明,人工智能可自動(dòng)生成決策,卻無(wú)法承擔(dān)由此引發(fā)的制度責(zé)任與政治后果。
類似的情況也出現(xiàn)在英國(guó)簽證系統(tǒng)中。英國(guó)內(nèi)政部曾使用人工智能對(duì)申請(qǐng)人進(jìn)行自動(dòng)化風(fēng)險(xiǎn)評(píng)分,以加速審批流程。調(diào)查發(fā)現(xiàn),該系統(tǒng)以國(guó)籍、申請(qǐng)模式等敏感變量為特征,將特定國(guó)家的申請(qǐng)人標(biāo)記為高風(fēng)險(xiǎn),導(dǎo)致大量合法申請(qǐng)被無(wú)理由拒簽。[31]2020年,多個(gè)民權(quán)團(tuán)體起訴政府系統(tǒng)存在算法歧視,倫敦高等法院裁定其違反反歧視法,系統(tǒng)隨即被廢除。[32]此事件再次表明,算法“效率”不能凌駕于程序正義與反歧視原則之上,而人類必須作為最終監(jiān)管者介入與糾偏。
平臺(tái)領(lǐng)域亦存在類似困境。微軟于2016年推出的人工智能聊天機(jī)器人“Tay”,在上線不到24小時(shí)內(nèi)即因用戶操縱而開(kāi)始發(fā)布種族主義、性別歧視和極端政治言論。微軟雖迅速下線系統(tǒng)并道歉,但事件暴露出平臺(tái)人工智能產(chǎn)品設(shè)計(jì)中缺少對(duì)價(jià)值防護(hù)機(jī)制的考量。[33]人工智能雖能生成內(nèi)容,但無(wú)法把握社會(huì)語(yǔ)境與倫理邊界,其生成邏輯不具備自主道德判斷能力,必須由人類制定限制、明確責(zé)任與建立動(dòng)態(tài)干預(yù)機(jī)制。
上述三個(gè)案例雖涉及不同國(guó)家與治理領(lǐng)域,卻揭示出同一個(gè)本質(zhì)問(wèn)題:人工智能是治理工具或輔助者而非問(wèn)責(zé)主體。全球網(wǎng)絡(luò)空間治理的合法性、透明性與正義性,最終仍需依靠人類制度設(shè)計(jì)者與政治責(zé)任人來(lái)守護(hù)。因此,構(gòu)建有效的全球網(wǎng)絡(luò)空間治理體系,必須以“人類可監(jiān)督、可介入、可糾偏”為前提。治理的每一個(gè)環(huán)節(jié)都應(yīng)設(shè)有人類可觸達(dá)的“責(zé)任接口”,確保當(dāng)人工智能系統(tǒng)運(yùn)行失效時(shí),能夠及時(shí)回歸人類干預(yù)機(jī)制,從而維護(hù)制度運(yùn)行的韌性與正當(dāng)性。
制度滯后與技術(shù)治理中的人類前瞻作用。在全球網(wǎng)絡(luò)空間治理中,技術(shù)的快速發(fā)展往往超前于制度的完善,形成制度滯后的現(xiàn)象。人工智能、元宇宙等新興技術(shù)的崛起,拓寬了人類社會(huì)的行為和價(jià)值邊界,但相應(yīng)的法律體系、治理機(jī)制和倫理規(guī)范卻未能同步更新,導(dǎo)致出現(xiàn)“制度真空”。這種滯后不僅源于政策工具的缺乏,更反映出人類對(duì)技術(shù)帶來(lái)的不確定性和潛在風(fēng)險(xiǎn)的認(rèn)知不足。在此背景下,治理的關(guān)鍵在于“預(yù)見(jiàn)未知”——即人類主動(dòng)識(shí)別新問(wèn)題,預(yù)設(shè)制度框架,填補(bǔ)規(guī)則盲區(qū)。這種前瞻性功能需要判斷力、價(jià)值設(shè)定和政治洞察力,而這些正是當(dāng)前人工智能所不具備的。
一個(gè)典型的制度盲區(qū)是人工智能在內(nèi)容審核中的應(yīng)用。例如,YouTube等視頻平臺(tái)利用人工智能技術(shù)自動(dòng)檢測(cè)并刪除涉嫌侵犯版權(quán)的內(nèi)容。然而,這些人工智能系統(tǒng)有時(shí)會(huì)錯(cuò)誤地刪除合法內(nèi)容,或未能及時(shí)識(shí)別新的侵權(quán)形式,導(dǎo)致內(nèi)容創(chuàng)作者和權(quán)力持有者之間的爭(zhēng)議。這反映了在內(nèi)容審核領(lǐng)域,單純依賴人工智能可能導(dǎo)致過(guò)度刪除或漏判,需要人類制定前瞻性的審核標(biāo)準(zhǔn)和糾錯(cuò)機(jī)制,以平衡版權(quán)保護(hù)與言論自由。[34]因?yàn)槿斯ぶ悄軣o(wú)法提出“什么是可接受行為”或“虛假信息應(yīng)如何界定和治理”等問(wèn)題,這類判斷超出模式學(xué)習(xí)范疇,需人類憑借經(jīng)驗(yàn)、倫理與社會(huì)洞察作出。
類似前瞻性機(jī)制也體現(xiàn)在國(guó)家監(jiān)管層面。英國(guó)政府2023年發(fā)布的《人工智能監(jiān)管白皮書(shū)》明確拒絕“一刀切”式立法,而主張“輕觸監(jiān)管”(light-touch regulation)與“部門自適應(yīng)”(sector-specific flexibility)相結(jié)合的模式。該文件強(qiáng)調(diào),人工智能作為尚未完全成型的通用技術(shù),應(yīng)在治理上保留“實(shí)驗(yàn)空間”,由各行業(yè)根據(jù)風(fēng)險(xiǎn)特征與成熟度進(jìn)行規(guī)則試點(diǎn)。[35]這背后體現(xiàn)的是一種政治判斷:人工智能的治理邊界不能由人工智能自身設(shè)定,而需人類制度設(shè)計(jì)者在風(fēng)險(xiǎn)外溢前構(gòu)建緩沖帶,主動(dòng)設(shè)定規(guī)則演化節(jié)奏。
在全球治理層面,制度前瞻性尤為關(guān)鍵。世界經(jīng)濟(jì)論壇(World Economic Forum)于2022年啟動(dòng)了“定義和構(gòu)建元宇宙”倡議,旨在構(gòu)建元宇宙的治理框架。這份報(bào)告探討了元數(shù)據(jù)身份,倡導(dǎo)采用安全、包容和注重隱私的方法。報(bào)告強(qiáng)調(diào),需要以平等和無(wú)障礙為基礎(chǔ)構(gòu)建元宇宙,強(qiáng)調(diào)負(fù)責(zé)任的數(shù)據(jù)實(shí)踐和包容性設(shè)計(jì),體現(xiàn)了人類在預(yù)設(shè)未來(lái)治理規(guī)范方面的制度努力。[36]該文件的產(chǎn)生并非技術(shù)專家閉門造車,而是由來(lái)自全球各地的150多位專家通過(guò)多輪磋商達(dá)成。這一過(guò)程本質(zhì)上是人類通過(guò)政治、文化與價(jià)值對(duì)話共同“預(yù)設(shè)未來(lái)治理規(guī)范”的制度努力。
無(wú)論是在企業(yè)平臺(tái)設(shè)定內(nèi)容邊界,還是國(guó)家層面制定行業(yè)規(guī)范,抑或在國(guó)際社會(huì)達(dá)成治理共識(shí),制度前瞻性的邏輯始終是人類主動(dòng)識(shí)別風(fēng)險(xiǎn)、提出規(guī)范,并創(chuàng)造性地設(shè)定邊界。人工智能可以優(yōu)化執(zhí)行路徑,但無(wú)法承擔(dān)制度開(kāi)創(chuàng)的職責(zé)。制度前瞻性不是對(duì)現(xiàn)有規(guī)則的泛化延伸,而是對(duì)全新問(wèn)題作出結(jié)構(gòu)性響應(yīng)。“制度前瞻”,正是人類能力的制度化表達(dá),是確保技術(shù)發(fā)展不脫離價(jià)值軌道的關(guān)鍵保障。
邁向“人機(jī)協(xié)同共治”的全球網(wǎng)絡(luò)空間治理
前面內(nèi)容揭示了人工智能如何在效率、流程與結(jié)構(gòu)層面重塑全球網(wǎng)絡(luò)空間治理體系,以及人類在價(jià)值判斷、制度設(shè)定與風(fēng)險(xiǎn)監(jiān)督中的不可替代性。這一雙重動(dòng)力交匯的關(guān)鍵問(wèn)題是:在人工智能時(shí)代的全球網(wǎng)絡(luò)空間治理中,如何推動(dòng)人類與人工智能的有效協(xié)作?如何避免“替代幻想”與“人類依賴”的雙重極端?下面將從理念、結(jié)構(gòu)、制度與風(fēng)險(xiǎn)四個(gè)維度,探討人機(jī)協(xié)同治理的內(nèi)在邏輯與實(shí)現(xiàn)路徑。
從任務(wù)分工到角色互補(bǔ):人機(jī)協(xié)同的治理理念。在全球網(wǎng)絡(luò)空間治理的早期階段,人工智能多被視為“自動(dòng)化工具”,承擔(dān)信息篩查、風(fēng)險(xiǎn)識(shí)別和流程管理等標(biāo)準(zhǔn)化任務(wù),治理權(quán)力與責(zé)任依然集中在人類決策者手中。但隨著深度學(xué)習(xí)、多模態(tài)分析等技術(shù)突破,人工智能開(kāi)始具備在政策建議、內(nèi)容風(fēng)險(xiǎn)評(píng)估、趨勢(shì)預(yù)測(cè)等方面的主動(dòng)性能力,推動(dòng)治理理念從“人控人工智能”的線性分工向“人機(jī)共治”的角色互補(bǔ)演化。這一轉(zhuǎn)變不僅涉及技術(shù)能力的提升,更反映出治理責(zé)任結(jié)構(gòu)與認(rèn)知體系的系統(tǒng)重構(gòu)。
從認(rèn)知結(jié)構(gòu)上看,人工智能擅長(zhǎng)處理大規(guī)模、跨平臺(tái)數(shù)據(jù),在識(shí)別虛假信息擴(kuò)散路徑、仇恨言論聚集區(qū)域等方面展現(xiàn)出高效性。例如,Meta表示其內(nèi)容審核人工智能系統(tǒng)近幾年對(duì)一般類別違規(guī)內(nèi)容的主動(dòng)檢測(cè)率達(dá)到90%以上,顯示了人工智能在內(nèi)容審核中的重要作用。[37]然而,人工智能在理解文化語(yǔ)境、隱喻含義和歷史背景等復(fù)雜信息方面存在局限性。同一句話在不同文化中可能具有完全不同的含義或敏感度,這種細(xì)微差別仍需人類參與者的經(jīng)驗(yàn)和倫理直覺(jué)來(lái)判斷。因此,“人機(jī)協(xié)同”需結(jié)合人工智能的高效數(shù)據(jù)處理能力和人類的深度理解與價(jià)值判斷,實(shí)現(xiàn)優(yōu)勢(shì)互補(bǔ)。
在全球網(wǎng)絡(luò)空間治理中,人工智能與人類的協(xié)同合作已成為提升內(nèi)容審核效率和準(zhǔn)確性的關(guān)鍵策略。傳統(tǒng)上,人工智能被視為中立的工具,其錯(cuò)誤通常由系統(tǒng)設(shè)計(jì)者或操作者承擔(dān)責(zé)任。然而,在“人機(jī)共治”的框架下,人工智能不再僅僅是執(zhí)行流程中的一環(huán),而是成為治理鏈條的重要組成部分。這要求建立制度,納入人工智能推理與人類判斷的協(xié)作機(jī)制,實(shí)現(xiàn)“動(dòng)態(tài)授權(quán)+審慎監(jiān)督”的組合模式。還以Meta為例,該公司在內(nèi)容審核中采用了人類與人工智能協(xié)同的策略。人工智能系統(tǒng)首先對(duì)內(nèi)容進(jìn)行初步篩選,識(shí)別潛在的違規(guī)內(nèi)容。隨后,人類審核員對(duì)人工智能標(biāo)記的內(nèi)容進(jìn)行復(fù)核,以確保決策的準(zhǔn)確性和上下文理解。[38]這種協(xié)作模式結(jié)合了人工智能的高效處理能力和人類的復(fù)雜判斷力,提高了內(nèi)容審核的質(zhì)量和效率。
此外,研究人員也在探索人機(jī)協(xié)作的新方法。例如,一項(xiàng)研究提出了“條件委派”(conditional delegation)的概念,即人類制定規(guī)則,指定在哪些情況下信任人工智能的判斷,在哪些情況下需要人類介入。[39]這種方法在內(nèi)容審核領(lǐng)域展開(kāi)實(shí)驗(yàn),結(jié)果表明,通過(guò)人機(jī)協(xié)作,結(jié)合人工智能的高效處理能力和人類的復(fù)雜判斷力,可以同時(shí)提高決策的準(zhǔn)確性和效率。這些實(shí)踐顯示,“人機(jī)共治”并非職責(zé)替代,而是以優(yōu)勢(shì)互補(bǔ)為基礎(chǔ)、以人類價(jià)值判斷為核心的新型治理結(jié)構(gòu)。
從平臺(tái)調(diào)度到結(jié)構(gòu)嵌套:治理主體的組織協(xié)同。隨著數(shù)字平臺(tái)逐漸成為網(wǎng)絡(luò)空間的基礎(chǔ)設(shè)施,其調(diào)度能力也逐步轉(zhuǎn)化為全球網(wǎng)絡(luò)空間治理體系中的核心依托。從內(nèi)容審核到數(shù)據(jù)監(jiān)管,從賬號(hào)治理到信息披露,平臺(tái)承擔(dān)的治理職能不斷拓展。然而,這種治理機(jī)制雖顯著提高了響應(yīng)效率,卻引發(fā)了對(duì)治理權(quán)力過(guò)度集中、“技術(shù)公司即監(jiān)管者”的正當(dāng)性質(zhì)疑。人工智能賦予平臺(tái)更強(qiáng)大的決策與執(zhí)行力,使其能通過(guò)算法系統(tǒng)調(diào)控內(nèi)容排序、識(shí)別風(fēng)險(xiǎn)行為、預(yù)測(cè)輿情波動(dòng)。然而,當(dāng)治理決策開(kāi)始影響公共利益、觸及基本權(quán)利時(shí),僅靠企業(yè)內(nèi)部流程無(wú)法保障治理的透明度與正當(dāng)性。因此,需要引入外部力量與公共制度,實(shí)現(xiàn)權(quán)力的嵌套分布與功能協(xié)調(diào)。
Meta(原Facebook)設(shè)立的“監(jiān)督委員會(huì)”(Oversight Board)便是典型的結(jié)構(gòu)嵌套機(jī)制實(shí)踐。作為一家技術(shù)平臺(tái)公司,Meta通過(guò)此機(jī)制引入獨(dú)立第三方機(jī)構(gòu)來(lái)對(duì)其內(nèi)容管控決策進(jìn)行再審查。監(jiān)督委員會(huì)由前國(guó)際法院法官、人權(quán)專家、學(xué)者及媒體代表組成,獨(dú)立處理平臺(tái)標(biāo)記為爭(zhēng)議性或具有廣泛社會(huì)影響的內(nèi)容案件,具備有限但實(shí)質(zhì)的“準(zhǔn)司法”功能。委員會(huì)有權(quán)推翻平臺(tái)的初始決定,并提出政策建議,而Meta則承諾對(duì)所有裁定予以公開(kāi)回應(yīng)。[40]這種“平臺(tái)決策—外部復(fù)核—政策反饋”的結(jié)構(gòu)設(shè)計(jì),使平臺(tái)內(nèi)部審核機(jī)制與外部社會(huì)監(jiān)督形成嵌套協(xié)同,有效緩解了平臺(tái)公司“既當(dāng)運(yùn)動(dòng)員又當(dāng)裁判員”的合法性困境。
新加坡的“可信數(shù)據(jù)共享框架”(Trusted Data Sharing Framework)展示了政府與平臺(tái)之間協(xié)作治理的數(shù)據(jù)嵌套模式。該框架由新加坡資訊通信媒體發(fā)展局(IMDA)牽頭,于2020年正式發(fā)布,旨在建立一種可持續(xù)、透明、受信任的數(shù)據(jù)交換環(huán)境。平臺(tái)需在其技術(shù)架構(gòu)中集成政府設(shè)定的監(jiān)控API模塊,實(shí)時(shí)報(bào)告數(shù)據(jù)流轉(zhuǎn)情況,政府則基于人工智能模型對(duì)數(shù)據(jù)活動(dòng)進(jìn)行風(fēng)險(xiǎn)評(píng)估與合規(guī)監(jiān)測(cè),并對(duì)平臺(tái)的數(shù)據(jù)使用行為進(jìn)行認(rèn)證與審計(jì)。該框架還通過(guò)責(zé)任共擔(dān)機(jī)制明確平臺(tái)在數(shù)據(jù)濫用、違規(guī)收集數(shù)據(jù)時(shí)的問(wèn)責(zé)路徑,捍衛(wèi)數(shù)據(jù)治理中的權(quán)力邊界與協(xié)調(diào)機(jī)制。[41]
相較于傳統(tǒng)平臺(tái)自律模式,結(jié)構(gòu)嵌套治理的優(yōu)勢(shì)在于制度性分權(quán)與程序性監(jiān)督。平臺(tái)的“執(zhí)行效率”、政府的“合規(guī)把關(guān)”、公眾的“外部監(jiān)督”、人工智能系統(tǒng)的“技術(shù)中樞”得以整合為一個(gè)多元分工、動(dòng)態(tài)互動(dòng)的治理生態(tài)系統(tǒng)。這種模式既能保障治理效率,又能在程序正義、權(quán)力約束與多元代表性之間取得相對(duì)平衡。
從規(guī)制統(tǒng)一到協(xié)商調(diào)優(yōu):規(guī)則共創(chuàng)的實(shí)踐機(jī)制。在網(wǎng)絡(luò)空間治理中,傳統(tǒng)模式通常由政府或平臺(tái)單方面制定規(guī)則,通過(guò)法律或服務(wù)條款約束用戶行為。然而,隨著技術(shù)的快速發(fā)展和文化的多元化,這種“規(guī)制統(tǒng)一”模式逐漸暴露出合法性不足、響應(yīng)滯后和治理僵化等問(wèn)題。平臺(tái)規(guī)則難以涵蓋復(fù)雜語(yǔ)境下的價(jià)值沖突,政府立法往往滯后于技術(shù)更新迭代,用戶也缺乏實(shí)際參與的渠道。這些挑戰(zhàn)推動(dòng)全球網(wǎng)絡(luò)空間治理從“規(guī)制統(tǒng)一”向“協(xié)商調(diào)優(yōu)”轉(zhuǎn)變,即將規(guī)則視為可反饋、可演化的共創(chuàng)機(jī)制。
“協(xié)商調(diào)優(yōu)”指的是規(guī)則制定不再是一成不變的文本,而是在多方參與的基礎(chǔ)上,通過(guò)持續(xù)反饋和動(dòng)態(tài)修正不斷完善的治理過(guò)程。人工智能技術(shù)在其中發(fā)揮了關(guān)鍵作用:一方面,人工智能通過(guò)對(duì)用戶行為、輿論變化和風(fēng)險(xiǎn)態(tài)勢(shì)的實(shí)時(shí)分析,提供高頻率、結(jié)構(gòu)化的治理反饋;另一方面,這些數(shù)據(jù)又能反哺規(guī)則優(yōu)化,形成“數(shù)據(jù)—規(guī)則—反饋”的閉環(huán)系統(tǒng),塑造出“可學(xué)習(xí)”的治理結(jié)構(gòu)。
以美國(guó)社交新聞和網(wǎng)絡(luò)社區(qū)公司Reddit為例,其社區(qū)管理機(jī)制允許用戶依據(jù)設(shè)定條件上報(bào)爭(zhēng)議內(nèi)容,后臺(tái)人工智能系統(tǒng)據(jù)此評(píng)估風(fēng)險(xiǎn)等級(jí)并提出處理建議,最終由社區(qū)管理員與用戶代表共同決定是否執(zhí)行操作。[42]這一“算法+協(xié)商”結(jié)構(gòu)既增強(qiáng)了社區(qū)自律,又避免了平臺(tái)獨(dú)斷,為社群賦予了規(guī)則演繹空間。
另一個(gè)案例是美國(guó)眾議院于2022年頒布的《算法問(wèn)責(zé)法案》(Algorithmic Accountability Act of 2022),要求使用自動(dòng)化決策系統(tǒng)的企業(yè)研究并報(bào)告這些系統(tǒng)對(duì)消費(fèi)者的影響,包括是否存在偏見(jiàn)或歧視性決策。[43]該法案推動(dòng)形成企業(yè)、監(jiān)管機(jī)構(gòu)和公眾之間的協(xié)商機(jī)制,確保算法決策的透明度和公平性。值得強(qiáng)調(diào)的是,協(xié)商調(diào)優(yōu)并不意味著規(guī)則松動(dòng)或治理弱化,而是將動(dòng)態(tài)反饋和協(xié)商調(diào)優(yōu)嵌入規(guī)范生成中,從而提升規(guī)則適應(yīng)力與治理包容性。
從算法執(zhí)行到責(zé)任共擔(dān):治理責(zé)任的協(xié)同分布。傳統(tǒng)治理中,責(zé)任集中在人類治理主體上,而人工智能系統(tǒng)的引入打破了這一清晰歸屬邏輯。若治理偏差、技術(shù)誤判等問(wèn)題出現(xiàn),僅將責(zé)任推給“算法”或“平臺(tái)”既不具備倫理正當(dāng)性,也難滿足公共治理的法律要求。因此,全球網(wǎng)絡(luò)空間治理正在轉(zhuǎn)向多方主體責(zé)任共擔(dān)的制度階段,形成覆蓋平臺(tái)、政府、開(kāi)發(fā)者與公眾的責(zé)任協(xié)同體系。
首先,平臺(tái)企業(yè)作為系統(tǒng)設(shè)計(jì)與運(yùn)營(yíng)的核心主體,必須承擔(dān)首要責(zé)任。無(wú)論是內(nèi)容審核還是風(fēng)控系統(tǒng),平臺(tái)對(duì)其人工智能模型的邏輯、邊界與偏差風(fēng)險(xiǎn)負(fù)有直接責(zé)任。在2023年,IBM發(fā)布了《信任和透明度原則》(IBM's Principles for Trust and Transparency),明確提出平臺(tái)企業(yè)在開(kāi)發(fā)和部署人工智能系統(tǒng)時(shí)必須承擔(dān)首要責(zé)任,特別是在模型的透明性、公平性和問(wèn)責(zé)機(jī)制方面。IBM強(qiáng)調(diào),企業(yè)在設(shè)計(jì)人工智能系統(tǒng)時(shí)應(yīng)對(duì)其邏輯、邊界和潛在偏差進(jìn)行全面評(píng)估,并對(duì)系統(tǒng)可能帶來(lái)的社會(huì)影響負(fù)責(zé)。[44]
其次,政府監(jiān)管機(jī)構(gòu)需履行制度框架責(zé)任。他們不僅制定治理底線,還必須對(duì)人工智能系統(tǒng)執(zhí)行審查、風(fēng)險(xiǎn)預(yù)警與糾錯(cuò)監(jiān)督。2024年正式生效的歐盟《人工智能法案》(AI Act)將資格審核、司法協(xié)助等領(lǐng)域納入“高風(fēng)險(xiǎn)人工智能”分類,要求企業(yè)進(jìn)行事前評(píng)估與事后問(wèn)責(zé),保障公眾利益。[45]該法案明確政府需構(gòu)建“算法問(wèn)責(zé)鏈”,降低“黑箱治理”帶來(lái)的影響。
再次,算法開(kāi)發(fā)者與模型訓(xùn)練人員應(yīng)承擔(dān)源頭責(zé)任,確保人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)和建模邏輯的公正性和準(zhǔn)確性。2020年,荷蘭稅務(wù)機(jī)關(guān)人工智能系統(tǒng)在識(shí)別社會(huì)福利欺詐時(shí),因算法存在偏見(jiàn),錯(cuò)誤處罰了數(shù)千個(gè)少數(shù)族裔家庭,造成嚴(yán)重后果,最終導(dǎo)致政府高層集體辭職。[46]該事件揭示了開(kāi)發(fā)階段對(duì)數(shù)據(jù)偏誤與建模邏輯把控不足造成的嚴(yán)重后果,推動(dòng)多國(guó)出臺(tái)了“模型文檔留存”“可解釋性標(biāo)準(zhǔn)”等技術(shù)責(zé)任規(guī)范。
此外,用戶與公眾也需在全球網(wǎng)絡(luò)空間治理中扮演“反饋責(zé)任者”角色。在日益復(fù)雜的網(wǎng)絡(luò)空間中,人工智能系統(tǒng)的判斷雖能提高效率,但其所依賴的算法邏輯、訓(xùn)練數(shù)據(jù)與規(guī)則設(shè)定往往難以覆蓋所有社會(huì)語(yǔ)境,極易產(chǎn)生偏差、遺漏或誤導(dǎo)。在這種背景下,公眾作為規(guī)則接受者和實(shí)際使用者,往往最早察覺(jué)算法運(yùn)行中的異常與隱患。許多治理失效的早期信號(hào),都來(lái)自用戶的日常體驗(yàn)與個(gè)體反饋。正是公眾的主動(dòng)投訴、集體抗議與社會(huì)輿論的推動(dòng),促使平臺(tái)與監(jiān)管機(jī)構(gòu)及時(shí)調(diào)整策略,彌補(bǔ)制度短板。以YouTube為例,其曾因推薦算法引導(dǎo)用戶觀看極端內(nèi)容而遭批評(píng),最終通過(guò)調(diào)整推薦機(jī)制并開(kāi)放部分評(píng)估數(shù)據(jù),加強(qiáng)了平臺(tái)治理的透明度與公眾監(jiān)督的可行性。[47]這些舉措體現(xiàn)出一個(gè)重要趨勢(shì),即公眾反饋不僅是治理效果的測(cè)量標(biāo)尺,更是治理機(jī)制自我糾偏、自我進(jìn)化的重要?jiǎng)恿υ础?/p>
平臺(tái)設(shè)計(jì)者、政府監(jiān)管者、技術(shù)開(kāi)發(fā)者與用戶群體共同構(gòu)建責(zé)任鏈條,使“人機(jī)共治”不僅體現(xiàn)在操作層面,也落實(shí)在價(jià)值判斷與權(quán)責(zé)分配之中。只有當(dāng)責(zé)任不再空懸,人機(jī)協(xié)同治理才能實(shí)現(xiàn)合法性、透明性與可持續(xù)性的動(dòng)態(tài)平衡。
結(jié)語(yǔ)
人工智能正以前所未有的深度嵌入全球網(wǎng)絡(luò)空間治理體系。憑借強(qiáng)大的數(shù)據(jù)處理能力、模式識(shí)別技術(shù)與即時(shí)響應(yīng)速度,人工智能在內(nèi)容審核、數(shù)據(jù)監(jiān)管、智能合約等領(lǐng)域大幅提升了治理執(zhí)行力與適應(yīng)性,推動(dòng)治理機(jī)制從人工驅(qū)動(dòng)向智能驅(qū)動(dòng)演化。然而,治理不僅關(guān)乎效率,更關(guān)乎規(guī)范設(shè)定、價(jià)值判斷與責(zé)任歸屬。這一張力正是人工智能參與全球網(wǎng)絡(luò)空間治理面臨的核心困境:其可以優(yōu)化路徑,卻難以判斷方向;可以支持響應(yīng),卻難以解決沖突;可以執(zhí)行操作,卻無(wú)法承擔(dān)責(zé)任。
因此,全球網(wǎng)絡(luò)空間治理的本質(zhì)從未脫離政治與制度的核心屬性。人工智能賦能不應(yīng)被誤解為人類角色的讓渡,而應(yīng)視為治理邏輯、責(zé)任結(jié)構(gòu)與價(jià)值共識(shí)的重構(gòu)契機(jī)。技術(shù)能力的提升,對(duì)治理者提出了更高要求:如何引導(dǎo)人工智能服務(wù)公共利益、限定邊界、保障糾錯(cuò)機(jī)制——這些問(wèn)題的答案將決定全球網(wǎng)絡(luò)空間治理秩序的穩(wěn)定與韌性。
未來(lái)的全球網(wǎng)絡(luò)空間治理需警惕兩個(gè)極端:一是“技術(shù)決定論”或“技治主義”,盲目推崇人工智能主導(dǎo)治理,忽視制度設(shè)定與價(jià)值約束;[48]二是“技術(shù)恐懼論”,因風(fēng)險(xiǎn)憂慮而拒絕技術(shù)介入,錯(cuò)失變革式發(fā)展契機(jī)。[49]真正前瞻性的路徑,是構(gòu)建人類主導(dǎo)、人工智能輔助的人機(jī)協(xié)同治理體系:重大規(guī)范與價(jià)值判斷由人類協(xié)商決定;人工智能專注于執(zhí)行操作與初步識(shí)別,人類則負(fù)責(zé)監(jiān)督與復(fù)審,形成責(zé)任閉環(huán);任何治理失誤最終仍由人類承擔(dān)制度責(zé)任。
總之,人機(jī)協(xié)同治理不僅意味著治理工具升級(jí),更是治理哲學(xué)與制度倫理的再定義。問(wèn)題不在于人工智能能做什么,而在于人類應(yīng)讓人工智能做什么;不在于人工智能能否取代人類,而在于人類如何智慧地引導(dǎo)和規(guī)范人工智能。唯有在人類價(jià)值主導(dǎo)的治理框架下,我們才能在高度數(shù)字化的時(shí)代,實(shí)現(xiàn)效率與正義、自動(dòng)化與人本治理的動(dòng)態(tài)平衡。人工智能不應(yīng)是治理的終點(diǎn),而應(yīng)成為制度進(jìn)化的新起點(diǎn),推動(dòng)我們重新定義權(quán)力結(jié)構(gòu)、責(zé)任邊界與治理價(jià)值的未來(lái)。
(本文系國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目“健全網(wǎng)絡(luò)綜合治理體系研究”的階段性成果,項(xiàng)目編號(hào):23ZDA086)
注釋
[1]全球網(wǎng)絡(luò)空間治理的相關(guān)具體內(nèi)容可參見(jiàn)蔡翠紅:《全球網(wǎng)絡(luò)空間治理》,上海:復(fù)旦大學(xué)出版社,2024年。
[2]M. Taddeo; T. McCutcheon and L. Floridi, "Trusting Artificial Intelligence in Cybersecurity Is a Double-Edged Sword," Nature Machine Intelligence, 2019, 1(12).
[3]詹海寶、孫江、郭夢(mèng)圓:《基于人機(jī)協(xié)同的網(wǎng)絡(luò)文化安全治理新模式》,《傳媒》,2023年第15期;劉銳、劉芾:《短視頻內(nèi)容生態(tài)的人機(jī)協(xié)同治理網(wǎng)絡(luò)分析》,《青年記者》,2024 年第12期;謝耘耕、李丹珉:《從經(jīng)驗(yàn)決策到人機(jī)協(xié)同:輿情決策模式的變革研究》,《新媒體與社會(huì)》,2021年第1期。
[4]Meta, "Integrity and Transparency Reports: Q4 2022," 23 February 2023, https://about.fb.com/news/2023/02/metas-integrity-and-transparency-reports-q4-2022/.
[5]Microsoft, "What Is Microsoft Sentinel?" 22 May 2024, https://learn.microsoft.com/en-us/azure/sentinel/overview.
[6]G. Deep and J. Verma, "Embracing the Future: AI and ML Transforming Urban Environments in Smart Cities," Journal of Artificial Intelligence, 2023, 5(57).
[7]Kaspersky, "Kaspersky Overview: Our Values, Business, Solutions and Services," 19 December 2024, https://media.kasperskycontenthub.com/wp-content/uploads/sites/100/2024/12/19085748/Kaspersky_Overview_Q4-2024.pdf.
[8]Kaspersky, "AI in Cybersecurity Automation," 17 October 2024, https://usa.kaspersky.com/blog/ai-role-in-cybersecurity-automation/30612/?srsltid=AfmBOopn_Da6v4M7_krpmC_elC4Hvf6RfMDRcTG_1sOdqembLnj1uCx8.
[9]阿里研究院:《“做好”科技,做“好科技”》,2022年10月18日,http://www.aliresearch.com/ch/information/informationdetails?articleCode=390673563344048128&type=%E6%96%B0%E9%97%BB&organName=。
[10]TikTok for Business, "Ensuring Creative Integrity in the Age of Generative AI," 21 November 2024, https://ads.tiktok.com/business/en-US/blog/creative-integrity-generative-ai?redirected=1.
[11]百度AI開(kāi)放平臺(tái):《內(nèi)容審核平臺(tái)》,https://ai.baidu.com/solution/censoring。
[12]《百度用AI對(duì)抗AI濫用:可識(shí)別70余種詐騙套路》,2021年9月28日,https://m.huanqiu.com/article/44xDDSIKZfR。
[13]European Commission, "The Digital Services Act: Ensuring a Safe and Accountable Online Environment," 27 October 2022, https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_en.
[14]Department for Science, Innovation & Technology, "A Pro-Innovation Approach to AI Regulation," 3 August 2023, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper.
[15][48]鄔曉燕:《數(shù)字治理中的技治主義:困境、根源與突破》,《云南社會(huì)科學(xué)》,2024 年第6期。
[16]European Commission, "European Approach to Artificial Intelligence," 18 February 2025, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence.
[17]《中華人民共和國(guó)個(gè)人信息保護(hù)法》,2021年8月20日,https://www.gov.cn/xinwen/2021-08/20/content_5632486.htm。
[18]UN Secretary-General, "Developments in the Field of Information and Telecommunications in the Context of International Security, and Advancing Responsible State Behaviour in the Use of Information and Communications Technologies: Report of the Secretary-General," 8 June 2022, https://digitallibrary.un.org/record/3982519?ln=en&v=pdf.
[19]Oversight Board, "Improving How Meta Treats People and Communities Around the World," https://www.oversightboard.com/.
[20]D. Wakabayashi and S. Shane, "Google Will Not Renew Pentagon Contract That Upset Employees," 1 June 2018, https://www.nytimes.com/2018/06/01/technology/google-pentagon-project-maven.html.
[21]New Zealand Government, "The Christchurch Call Commitments," 15 May 2019, https://www.christchurchcall.org/the-christchurch-call-commitments/.
[22]L. James, "Attorney General James Issues Report Detailing Millions of Fake Comments, Revealing Secret Campaign to Influence FCC's 2017 Repeal of Net Neutrality Rules," 6 May 2021, https://ag.ny.gov/press-release/2021/attorney-general-james-issues-report-detailing-millions-fake-comments-revealing.
[23]G. Wetherall-Gruji, "The Lost Contributions to France's Great Debate: Lessons From the Grievances Five Years on," 21 March 2024, https://democracy-technologies.org/participation/lost-contributions-to-great-debate/.
[24]A. Bouverot, "Great National Debate: Artificial Intelligence at the Service of Collective Intelligence?" 12 April 2019, https://www.institutmontaigne.org/en/expressions/great-national-debate-artificial-intelligence-service-collective-intelligence.
[25]UK Parliament, "Preparedness for Online Safety Regulation," 21 February 2024, https://publications.parliament.uk/pa/cm5804/cmselect/cmpubacc/73/report.html.
[26]W. Reinsch; P. Saumell; I. Frymoyer and J. Caporal, "TikTok Is Running Out of Time: Understanding the CFIUS Decision and Its Implications," 2 September 2020, https://www.csis.org/analysis/tiktok-running-out-time-understanding-cfius-decision-and-its-implications?utm_source.
[27]The CJEU Judgment in the Schrems II Case, "The Court of Justice Invalidates Decision 2016/1250 on the Adequacy of the Protection Provided by the EU-US Data Protection Shield," 16 July 2020, https://curia.europa.eu/jcms/upload/docs/application/pdf/2020-07/cp200091en.pdf.
[28]UNESCO, "2022 Internet Governance Forum Stakeholders Champion the Value of Inclusive Digital Internet Governance," 10 January 2023, https://www.unesco.org/en/articles/2022-internet-governance-forum-stakeholders-champion-value-inclusive-digital-internet-governance.
[29]F. Mao, "Robodebt: Illegal Australian Welfare Hunt Drove People to Despair," 7 July 2023, https://www.bbc.com/news/world-australia-66130105.
[30]Robodebt Royal Commission, "Overview of Final Report," 19 February 2024, https://www.apra.gov.au/sites/default/files/2024-02/Robodebt%20Royal%20Commision%20-%20Overview%20of%20Final%20Report.pdf.
[31]H. McDonald, "AI System for Granting UK Visas Is Biased, Rights Groups Claim," 29 October 2019, https://www.theguardian.com/uk-news/2019/oct/29/ai-system-for-granting-uk-visas-is-biased-rights-groups-claim.
[32]BBC, "Home Office Drops Racist Algorithm from Visa Decisions," 4 August 2020, https://www.bbc.com/news/technology-53650758.
[33]P. Lee, "Learning From Tay's Introduction," 25 March 2016, https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/.
[34]C. Broughan, "A Washing Machine Chime & Copyright Fraud on YouTube," 31 July 2024, https://marksgray.com/intellectual-property/a-washing-machine-chime-copyright-fraud-on-youtube/.
[35]O. Yaros; R. Randall et al., "UK Government Response to AI Regulation Consultation," 5 March 2024, https://www.mayerbrown.com/en/insights/publications/2024/03/uk-government-response-to-ai-regulation-consultation.
[36]World Economic Forum, "Metaverse Identity: Defining the Self in a Blended Reality," 13 March 2024, https://www3.weforum.org/docs/WEF_Metaverse_Identity_Defining_the_Self_in_a_Blended_Reality_2024.pdf.
[37]Meta Transparency Center, "How Technology Detects Violations," 18 October 2023, https://transparency.meta.com/en-us/enforcement/detecting-violations/technology-detects-violations/.
[38]Meta, "Here's How We're Using AI to Help Detect Misinformation," 19 November 2020, https://ai.meta.com/blog/heres-how-were-using-ai-to-help-detect-misinformation/.
[39]ACM SIGCHI, "Human-AI Collaboration via Conditional Delegation: A Case Study of Content Moderation," 3 April 2022, https://www.youtube.com/watch?v=4W2ed8C9LYM.
[40]Oversight Board, "Improving How Meta Treats People and Communities Around the World," https://www.oversightboard.com/.
[41]Infocomm Media Development Authority, "About the Trusted Data Sharing Framework," 1 July 2024, https://www.imda.gov.sg/how-we-can-help/data-innovation/trusted-data-sharing-framework.
[42]Reddit Inc., "Reddit Transparency Report: January to June 2023," https://redditinc.com/policies/2023-h1-transparency-report.
[43]J. Mökander; P. Juneja1 et al., "The US Algorithmic Accountability Act of 2022 vs. the EU Artificial Intelligence Act: What Can They Learn from Each Other?" Minds and Machines, 2022, 32.
[44]IBM, "IBM's Principles for Trust and Transparency," 30 May 2018, https://www.ibm.com/policy/trust-transparency.
[45]European Commission, "Artificial Intelligence-Questions and Answers," 1 August 2024, https://ec.europa.eu/commission/presscorner/detail/en/qanda_21_1683.
[46]M. Heikkilä, "Dutch Scandal Serves as a Warning for Europe over Risks of Using Algorithms," 29 March 2022, https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/.
[47]M. Ledwich and A. Zaitsev, "Algorithmic Extremism: Examining YouTube's Rabbit Hole of Radicalization," 24 December 2019, https://arxiv.org/abs/1912.11211.
[49]王斌、孔燕:《技術(shù)恐懼的演變規(guī)律分析》,《東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》,2023年第4期。
Cyberspace Governance in the Age of Artificial Intelligence:
Technological Embedding, Human Primacy, and Human-AI Collaboration
Cai Cuihong
Abstract: Artificial Intelligence is becoming deeply embedded into the global cyberspace governance architecture. With its capacity for high-efficiency data processing and risk detection, AI is transforming key dimensions of governance—ranging from operational effectiveness and actor configurations to procedural dynamics and institutional design. It is essential to recognize that human agency remains indispensable. AI lacks the capacity for normative reasoning and institutional foresight; its legitimacy, transparency, and accountability still hinge on human stewardship. This article argues that the future of global cyberspace governance will be defined by a model of human-AI collaboration: AI systems will provide preliminary detection and response, while humans will retain responsibility for value formulation, rulemaking, and ultimate accountability. The key to such collaborative governance lies in establishing a new paradigm for global cyberspace governance—one that is open, transparent, and accountable—through mechanisms such as structural embedding, co-creation of rules, and shared responsibility.
Keywords: Artificial Intelligence, cyberspace governance, technological embedding, human primacy, human-AI collaboration
責(zé) 編∕桂 琰 美 編∕梁麗琛
