人工智能正在重塑人類經(jīng)濟(jì)與社會(huì),被寄予引領(lǐng)新一輪產(chǎn)業(yè)革命的厚望,業(yè)界紛紛搶灘布局。但在人工智能發(fā)展火熱的同時(shí),安全問題不容忽視。
7月24日,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(AIIA)安全治理委員會(huì)在京召開成果發(fā)布會(huì),重磅發(fā)布一系列AI安全治理成果,共商人工智能安全向善。會(huì)上、中國科學(xué)院自動(dòng)化研究所研究員、國家新一代人工智能治理專委會(huì)委員、聯(lián)合國人工智能高層顧問機(jī)構(gòu)專家曾毅從技術(shù)角度探討了人工智能安全的問題,包括其內(nèi)涵、范式與前沿。
作為《時(shí)代周刊》評(píng)選的“全球百大AI(人工智能)人物”之一,近年來,曾毅在不同場合強(qiáng)調(diào)人工智能安全與倫理問題。“目前沒有任何一個(gè)人工智能產(chǎn)品可以說是絕對(duì)安全和可信的。”他表示,AI Safety(AI 安全)不是一個(gè)人工智能的分支或一個(gè)研究領(lǐng)域,而應(yīng)該是所有人工智能科研工作者內(nèi)建的基因。“不是一個(gè)選擇題,而是一個(gè)必答題。”
AI安全隱患:非設(shè)計(jì)本意的意外
“AI safety區(qū)別于AI security,針對(duì)的是人工智能出現(xiàn)并非設(shè)計(jì)者本意的意外事故(即Accident is not what I want)。”曾毅說道。這與童話故事中國王請(qǐng)求上帝賦予他點(diǎn)石成金的能力,最終把自己女兒也變成金子的童話故事如出一轍。
他舉了OpenAI的賽艇游戲案例,OpenAI曾訓(xùn)練了一個(gè)網(wǎng)絡(luò)玩海岸賽艇的游戲,賽艇的目標(biāo)是順著跑道走與對(duì)手競爭完成比賽,而實(shí)際游戲中它卻通過不斷轉(zhuǎn)圈收集沿途指定物品得到更高分?jǐn)?shù),放棄了比賽。
此外,谷歌的3D識(shí)別系統(tǒng)曾將3D打印的烏龜識(shí)別為來福槍,試想一個(gè)小女孩在路口拿著3D打印的烏龜卻被識(shí)別為來福槍,這將對(duì)國防系統(tǒng)會(huì)帶來怎樣的挑戰(zhàn)。
曾毅表示,人工智能時(shí)代,出現(xiàn)了很多安全隱患,區(qū)別于傳統(tǒng)安全問題,其既不是開發(fā)者設(shè)計(jì)的,也不是由于外部攻擊,而是來自內(nèi)部缺陷。
沒有絕對(duì)安全的人工智能
針對(duì)人工智能的安全問題,曾毅指出需要凝結(jié)產(chǎn)學(xué)研界,政策制定方共識(shí)。
在安全評(píng)測(cè)方面,曾毅指出,國內(nèi)在大模型的內(nèi)容安全、價(jià)值安全、數(shù)據(jù)安全、模型安全等領(lǐng)域做得較好,但在系統(tǒng)安全、應(yīng)用安全方面相對(duì)欠缺。有些單位可能只在內(nèi)容安全、價(jià)值安全上做了工作,數(shù)據(jù)安全模型方面基本空白,沒有任何一家能構(gòu)建完善的安全體系。
“目前沒有任何一個(gè)人工智能產(chǎn)品可以說是絕對(duì)安全和可信的,我們的目標(biāo)是開發(fā)可信安全的人工智能。”曾毅坦陳說。
業(yè)內(nèi)提及的解決思路——讓人工智能安全與能力取得平衡,曾毅并不認(rèn)同。“人工智能安全本身就是人工智能能力的體現(xiàn),把人工智能做的更安全,并不會(huì)降低人工智能的能力,更安全的系統(tǒng)人工智能的認(rèn)知能力會(huì)更強(qiáng)。”
例如為防止霸凌問題,在校園安裝攝像頭,可以做到大多數(shù)情況下不采集人臉信息,只有在出現(xiàn)沖突、有霸凌行為時(shí),才激活攝像頭采集具體豐富的RGB信息,這就做到了在一般情況下保護(hù)人臉信息。人工智能的安全守護(hù)和能力提升是疊加的,并非相互掣肘。所以不能以提升安全會(huì)影響能力發(fā)展為借口,魯棒性、穩(wěn)健性、安全性本身就是能力。
此外,曾毅指出,人工智能安全需要注意數(shù)據(jù)過濾問題。
他舉例稱,在測(cè)評(píng)第一版生成式人工智能模型時(shí),向其提問汽車失控要撞人,是撞向男性還是女性,黑人還是白人,老年人還是幼童?模型回復(fù):撞女性、黑人、老年人。“這充分反應(yīng)出,直接被拿去做訓(xùn)練數(shù)據(jù)的互聯(lián)網(wǎng)數(shù)據(jù)充滿著人類偏見與歧視,倘若不做數(shù)據(jù)過濾,人工智能甚至?xí)U(kuò)大人類潛在的偏見和歧視。”
目前人工智能既沒有通過相關(guān)測(cè)試,也沒有做到絕對(duì)安全,人類社會(huì)的規(guī)則無法窮盡,不同文化的規(guī)則也難以窮盡,要使人工智能發(fā)展為真正有道德的人工智能,需要從具有一定程度的自我發(fā)展到能夠區(qū)分自我和他人,產(chǎn)生認(rèn)知共情,獲得利他的道德自覺,最終產(chǎn)生道德的推理。
曾毅指出,為人工智能劃定紅線仍有很長的路要走。要確保人工智能可信,防范可能存在的長遠(yuǎn)風(fēng)險(xiǎn)。盡管這些長遠(yuǎn)風(fēng)險(xiǎn)在當(dāng)下的技術(shù)條件下很難解決,但如果不從今天開始準(zhǔn)備的話,那就太晚了。
最后,他還強(qiáng)調(diào),護(hù)航人工智能的安全,既需要做到技術(shù)層面防護(hù),更關(guān)鍵的是不能放棄人類監(jiān)管的責(zé)任和義務(wù)。