6月11日,香港個人資料私隱專員公署發(fā)布《人工智能 (AI): 個人資料保障模范框架》(下稱《模范框架》)。
《模范框架》涵蓋4大范疇,具體包括:制訂AI策略及管治架構(gòu);進(jìn)行風(fēng)險評估及人為監(jiān)督;實行AI模型的定制與AI系統(tǒng)的實施及管理;以及促進(jìn)與持份者的溝通及交流。
個人資料私隱專員鐘麗玲12日向媒體表示,香港企業(yè)使用AI呈現(xiàn)上升的趨勢,希望《框架》為機(jī)構(gòu)使用人工智能系統(tǒng)時提供指引,持續(xù)監(jiān)督AI系統(tǒng),降低個人資料外泄的風(fēng)險,特別是風(fēng)險高的環(huán)節(jié),應(yīng)加強(qiáng)人為監(jiān)督。
據(jù)悉,《模范框架》是亞太區(qū)首個在人工智能領(lǐng)域針對保障個人資料隱私制定的指引性框架。
2021年9月26日,中國國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》(以下簡稱“《規(guī)范》”),旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關(guān)活動的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供倫理指引。
《規(guī)范》提出了增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)等6項基本倫理要求。其中,數(shù)據(jù)與隱私安全內(nèi)容貫穿了人工智能管理、研發(fā)、供應(yīng)等特定活動的具體倫理要求。
相比于《規(guī)范》,《模范框架》給出的建議更加細(xì)化。其中對機(jī)構(gòu)提供包括制定、進(jìn)行、實行和促進(jìn)四個階段的調(diào)整反饋機(jī)制,在四個階段中,又分別提出了細(xì)化的步驟和考慮項目。
比如,在第一部分《AI策略及管治》中,《模范框架》指出,AI策略可包含:界定AI系統(tǒng)在機(jī)構(gòu)的科技生態(tài)系統(tǒng)中提供的功能、參考AI道德原則,制定特定適用于機(jī)構(gòu)在采購、實施及使用AI方案方面的道德原則、列明AI系統(tǒng)在機(jī)構(gòu)中不可接受的用途等等。
而在“列明AI系統(tǒng)在機(jī)構(gòu)中不可接受的用途”一條中,《模范框架》特別指出,機(jī)構(gòu)應(yīng)識別潛在風(fēng)險高至應(yīng)禁止采用的AI用例,這些用例應(yīng)隨著AI技術(shù)的發(fā)展、新風(fēng)險的出現(xiàn)及/或新風(fēng)險緩解措施的采用而增加、刪除或調(diào)整用例。
《模范框架》作為指引性框架,也對打算投資購入AI方案的機(jī)構(gòu)提出了可供參考的建議,其中包括方案使用AI的目的、預(yù)計使用AI的用例,AI供應(yīng)商應(yīng)遵循的有關(guān)隱私和保安的主要責(zé)任和道德規(guī)定、技術(shù)性和管治方面的國際標(biāo)準(zhǔn)等等。
針對風(fēng)險因素,《模范框架》也給出了較為細(xì)化的指導(dǎo)。其中包括識別和評估AI系統(tǒng)可能帶來的各種風(fēng)險,采取措施減少AI系統(tǒng)帶來的隱私風(fēng)險。此外《模范框架》指出,對于AI方案需要以風(fēng)險為本的方式進(jìn)行人工監(jiān)督。
《模范框架》建議,在決定人工監(jiān)督的程度時,需要考慮AI系統(tǒng)的風(fēng)險程度,若是高風(fēng)險AI系統(tǒng),即可能對個人或群體造成嚴(yán)重及長期的損害、輸出結(jié)果可能影響到個體的基本權(quán)利和自由,包括財務(wù)損失、身體傷害、歧視、個人資料控制權(quán)的喪失、自主權(quán)的缺乏、心理傷害等的系統(tǒng),則應(yīng)采用“人在環(huán)中”(human-in-the-loop)模式,在此模式中,人類在決策過程中保留控制權(quán),以防止或減少AI出錯或作出不當(dāng)?shù)臎Q定。
高風(fēng)險AI系統(tǒng)包括用于醫(yī)療診斷、信用評估、工作或求職評估等對個人或社會有重大影響的領(lǐng)域。
若是低風(fēng)險AI系統(tǒng),則可以采用“人在環(huán)外”(human-out-of-the-loop)模式,在此模式中,AI系統(tǒng)在沒有人為介入的情況下作出決定,以實現(xiàn)完全自動化的決策過程。
若這兩者都不適用,則可以使用適中風(fēng)險AI系統(tǒng),例如當(dāng)風(fēng)險程度不可忽視或“人在環(huán)中”方式不符合成本效益或不可行時,可以采用“人為管控”(human-in-command)模式。在此模式中,人類決策者利用AI系統(tǒng)的輸出結(jié)果監(jiān)控其運(yùn)作,并在需要時介入。