您所在的位置: 首頁 >
新聞資訊 >
技術前沿 >
人工智能安全風險的內外根由與治理路徑
一、導 言
黨的十九屆四中全會明確提出“建立健全運用互聯(lián)網、大數(shù)據、人工智能等技術手段進行行政管理的制度規(guī)則。推進數(shù)字政府建設,加強數(shù)據有序共享,依法保護個人信息”。人工智能作為一項新技術,既可賦能安全,又會伴生安全問題。英國技術哲學家大衛(wèi)?科林格里奇在其《技術的社會控制》一書中闡述的“科林格里奇困境”,一項技術的社會后果不能在技術生命的早期被預料到,然而當不希望看到的后果被發(fā)現(xiàn)以后,技術往往已經成為整個經濟和社會的一部分,此時想要控制它將會十分困難。人工智能的安全問題伴生效應也會表現(xiàn)在兩個方面:一是新技術的脆弱性導致系統(tǒng)自身出現(xiàn)問題,無法達到預設的功能目標,稱之為新技術的“內生安全”;另一個是新技術脆弱性并沒有給系統(tǒng)自身運行帶來風險,但其脆弱性卻被利用引發(fā)其他領域安全問題,這稱之為“衍生安全”。綜上所述,人工智能技術具有安全賦能與安全伴生兩個效應。其中,安全賦能效應是指人工智能技術系統(tǒng)足夠強大,可以提升安全領域的防御能力,也可以被應用于安全攻擊;安全伴生效應是指人工智能技術存在問題或其可控性方面存在脆弱性,前者可以導致人工智能系統(tǒng)的運行出現(xiàn)問題,后者可以導致人工智能系統(tǒng)危及到其他領域的安全。本質上說,賦能攻擊與衍生安全的外顯行為都是人工智能系統(tǒng)會危及到其他領域的安全,差別僅僅是內因的不同:賦能攻擊是攻擊者利用人工智能技術的強大特性來主動提升破壞性效果;衍生安全是由于人工智能技術的脆弱性被利用,或者人工智能系統(tǒng)在可控性方面的脆弱性導致自身“意外”地形成破壞性效果,或者自主地形成破壞性效果,從而影響到其他領域的安全狀況。
二、人工智能安全風險產生的內外根由
人工智能安全風險分為內生與衍生兩種。內生安全是指人工智能技術存在問題或其可控性方面存在脆弱性,導致系統(tǒng)運行出現(xiàn)問題,無法達到預設的功能目標;衍生安全是指人工智能技術的脆弱性被利用,導致其危及到其他領域的安全。
(一)人工智能的內生安全
人工智能內生安全指的是人工智能系統(tǒng)自身存在脆弱性。部分原因是因為新技術自身不成熟,存在著一些安全漏洞,包含人工智能框架、數(shù)據、算法、模型任一環(huán)節(jié)都能給系統(tǒng)帶來脆弱性,但這些漏洞通常會被發(fā)現(xiàn)并且可被改進;還有一種情況是新技術存在著天然的缺陷,使得某些客觀存在的問題無法通過改進的方法來解決,此時只能采取其他手段加以防護。例如,在框架組件方面,難以保證框架和組件實現(xiàn)的正確性和透明性是人工智能的內生安全問題??蚣苁情_發(fā)人工智能系統(tǒng)的基礎環(huán)境,相當于人們熟悉的Visual C++的SDK庫或Python的基礎依賴庫,重要性不言而喻。當前,國際上已經推出了大量的開源人工智能框架和組件,并得到了廣泛使用。然而,由于這些框架和組件未經充分安全評測,可能存在漏洞甚至后門等風險。一旦基于不安全框架構造的人工智能系統(tǒng)被應用于關乎國計民生的重要領域,這種因為“基礎環(huán)境不可靠”而帶來的潛在風險就更加值得關注。此外,就云計算環(huán)境而言,由于云服務商擁有云資源,該資源僅僅是提供給云的租戶使用而已,使得計算資源的使用者與擁有者分開,導致可信根的擁有者與需要保障安全的使用者不再是同一個對象,從而使可信根的模式在云計算平臺上不再適用。同樣,量子的塌陷效應使之難以用于通信,因為一旦出現(xiàn)監(jiān)聽,通信就被中止,致使通信的可靠性成為量子通信系統(tǒng)的軟肋,使其大大降低了用量子通信系統(tǒng)構建傳輸通道的可行性。事實上,這種情況一直伴生在各種技術中。例如,對抗樣本就是一種利用算法缺陷實施攻擊的技術,自動駕駛汽車的許多安全事故也可歸結為由于算法不成熟而導致的。由于互聯(lián)網上的系統(tǒng)必須通過開放端口來提供服務,而開放端口本質上就相當于引入了一個攻擊面,從而形成了脆弱性,這就是互聯(lián)網服務的內生安全問題。
(二)人工智能的衍生安全
衍生安全其本質就是新技術自身的一些缺陷或脆弱性,并不會影響新技術自身的運行,但卻會被攻擊者利用而危害到其他的領域。例如既然人工智能模型是一個可復制、可修改的實體文件,就存在被盜取和被植入后門的安全風險,從而導致其他領域的安全問題。再如,物聯(lián)網的傳感部件具有信息輻射的特點,這并不影響物聯(lián)網的正常運行,卻使得信息泄露成為新的風險;社交網絡不支持強制實名制時并不影響社交網絡的正常運轉,但卻有可能被利用而助力了謠言的傳播,從而無助于抑制負面行為,導致群體性事件的發(fā)生;近場通信在幫助人們便捷通信的時候,沒有設置強制性通信握手環(huán)節(jié)以確認通信的發(fā)起是否自愿,盡管這并不影響NFC的正常使用,但不法分子卻有可能利用這個缺失的環(huán)節(jié)來近距離盜刷用戶的手機錢包等。
如上所述,衍生安全絕大多數(shù)情況下指的是新技術的脆弱性被攻擊者所利用,從而引發(fā)其他領域的安全問題。人工智能技術當然也存在著同樣的情況。近幾年,智能設備安全事故頻發(fā):2018年3月優(yōu)步(Uber)的自動駕駛汽車在美國亞利桑那州坦佩市撞死一名在人行道外過馬路的婦女。因為人工智能的智能化判定需要高度依賴輸入數(shù)據,自動駕駛的前提是要對環(huán)境參數(shù)進行正確的感知,一旦感知出現(xiàn)錯誤,如沒有感知到對面的障礙物,其決策就是錯誤的。因此,這種依賴輸入的現(xiàn)象可以被視為人工智能系統(tǒng)的一種脆弱性。這種脆弱性并不影響人工智能系統(tǒng)自身的運行,但攻擊者可以利用這一點,如干擾自動駕駛汽車的雷達等傳感設備,從而達到讓自動駕駛汽車肇事的目的。
此外,人工智能技術還是一個十分少見的特例。這是因為人工智能的脆弱性不一定都被攻擊者所利用,而是以一種“事故”的形式形成了對人類的直接威脅。人們經常看到的那些“機器人傷人”“自動駕駛出事故”的現(xiàn)象,本質上都是人工智能脆弱性所帶來的問題,這時即便沒有被攻擊者有意利用,但由于“人工智能行為體”在運行狀態(tài)下往往具有可傷害人類的“動能”,所以其自身就可以“自主”傷人。更有甚者,由于“人工智能行為體”具有自主學習能力,使得其可能在自我進化的過程中脫離人類控制,進而危及人類安全。而且,人工智能行為體系統(tǒng)功能越強大,其帶來的威脅往往也會越大。由此可見,凡是具備自我進化能力的系統(tǒng),都可能在不被他人主動利用其脆弱性的前提下引發(fā)安全問題,而人工智能技術的特殊性就在于其可成為打開“自我進化之門的鑰匙”。因此,確保人工智能技術發(fā)展過程“安全可控”無疑是至關重要的。
三、人工智能安全風險的應對策略
技術是把雙刃劍,我們要發(fā)揮主觀能動性激發(fā)人工智能帶來的積極影響。針對人工智能技術的控制困境和安全風險,必須重視準入制度和標準規(guī)范建設,確保公眾知情權,呼吁社會各界共同努力,提升高精尖人才自主培養(yǎng)質量。
(一)宏觀:應對策略的理論考量——利益相關者理論
1984年著名管理學者弗里曼在他的著作《戰(zhàn)略管理:利益相關者分析》里,第一次把利益相關者分析引進管理學中,并將利益相關者定義為“任何能影響組織目標的實現(xiàn)或受這種實現(xiàn)影響的團體和個人?!彼雇R則定義利益相關者為“受組織活動的影響并且有能力影響組織活動的人?!崩嫦嚓P者理論的核心觀點在于,組織應當綜合平衡各個利益相關的利益要求,而不僅專注于財富的積累。不能一味強調財務業(yè)績,還應該關注其本身的社會效益。管理者應當了解并尊重所有與組織行為和結果密切相關的個體,盡量滿足他們的需求。根據利益相關者理論,將各利益相關者納入組織決策,既是一種倫理要求,也是一種戰(zhàn)略資源,而這兩點都有助于提升組織的競爭優(yōu)勢。利益相關者是指影響組織行為及組織目標的實現(xiàn),或是受到組織目標實現(xiàn)及其過程影響的個體和群體。根據這種解釋寬泛的定義,任何個體和群體都可以稱為人工智能安全風險治理的利益相關者。
宏觀上,一方面要繪制人工智能安全風險利益相關者圖。人工智能安全風險利益相關者圖清晰地描繪誰是利益相關者集團,在采取新的風險防控戰(zhàn)略時,代表哪個集團的利益,他們是否可能阻礙變革,他們的力量如何,應該怎樣對待他們。繪制時首先確定所有利益相關者,標出他們之間的重要關系,然后分析這張圖表所顯示的風險與機會,識別任何可能的變化對這張圖的影響,以便為此做好準備。另一方面,隨著利益相關者理論不斷深入,要區(qū)分出人工智能安全風險防控的主要利益相關者和次要利益相關者,平衡各方利益相關者的取向,從不同的利益相關者的角度評價治理績效。研究也應聚焦于利益相關者的整體角度,展開諸如對利益相關者及其需求的了解、利益相關者與治理主體的互動、以及涉及利益相關者需求的決策等問題的探討。對利益相關者的了解包括認清主要的利益相關者,并優(yōu)先考慮他們的需求。另外,治理主體應當重點關注那些掌握權力、具有合法性、有緊迫需求或者兼有以上特性的利益相關者。
(二)微觀:人工智能安全風險應對策略的主體行動
1.重視準入制度和標準規(guī)范建設,搶占智能安全控制權。人工智能作為高精尖技術,無疑是國家創(chuàng)新能力和核心競爭力的重要體現(xiàn),通過積極參與人工智能行為規(guī)范、倫理準則的研究與制訂,積極爭取人工智能安全治理的主導權和話語權。一方面,國家應設置市場準入制度,強制要求人工智能必須按照標準規(guī)范預留接口以支持“保險箍”的接入,否則不允許入境或進入市場銷售。準入制度主要針對的是人工智能設備制造商及零件制造商,判斷其是否支持“保險箍”的接入也需要從多個角度判斷。為了加速“保險箍”發(fā)展,應該優(yōu)先為具有破壞能力的機器人設置準入制度并強制執(zhí)行。例如,可以制定相應法律,要求具有破壞能力的機器人必須安裝有“保險箍”這類的制約系統(tǒng),就如同汽車必須設有剎車系統(tǒng)一樣,并且這一要求應該成為市場準入前提,以便保護人類不受機器人的潛在威脅。另一方面,比準入制度更重要且實施難度更大的是制定與“保險箍”相關的標準規(guī)范。如果沒有統(tǒng)一的標準規(guī)范,人工智能設備制造商就不知道應該預留何種接口、如何對“保險箍”認證、內置算法如何接受干預、采用何種協(xié)議來通信、傳感器采集的數(shù)據如何共享、能源如何按需供給等,“保險箍”自然也就無法集成。在全球、全國、行業(yè)范圍內制定標準規(guī)范是“保險箍”可以存在和發(fā)揮作用的基本前提,需要各國秉持開放共贏的精神,通過在國際范圍內建立人工智能規(guī)范和標準,避免技術和政策不兼容導致的安全風險,積極推動各國人工智能安全發(fā)展。
2.確保公眾知情權,多元工程主體共同努力實現(xiàn)人工智能安全可控。實現(xiàn)人工智能安全可控需要多元工程主體共同貢獻自己的力量。從政府決策者角度,制定人工智能安全可用的頂層方案至關重要,從政策、法律法規(guī)層面可以推進人工智能安全發(fā)展,限制人工智能惡意利用等;從企業(yè)角度,遵守人工智能安全的相關標準和規(guī)范研發(fā)智能系統(tǒng),保障人工智能系統(tǒng)的安全可用;從科研院所角度,大力研究保障人工智能安全的基礎理論,突破智能算法設計、數(shù)據評估、安全測評等關鍵技術;從社會輿論角度,加大人工智能安全的宣傳力度,讓社會大眾樹立正確的人工智能技術安全應用意識,并時刻提防人工智能帶來的安全隱患。與此同時,由于人工智能技術的應用涉及不同文化對信息保護、公平正義、民主治理以及社會發(fā)展趨勢等方面的理解,所以必須要加強科技界、產業(yè)界、政策研究界的通力合作。作為和每一個自然人密切相關的技術,公眾對于人工智能的發(fā)展及安全方面的信息、知識的獲取,不但是其融入社會生活的一個充分條件,也是維護自身合法權益的必然要求。因此,每位社會公民都應當能夠及時獲取相關信息,對人工智能技術的發(fā)展、應用與推廣享有充分的知情權,保證其知曉因人工智能技術進步而產生的社會經濟利益以及可能衍生的安全風險。
3.提升高精尖人才自主培養(yǎng)質量,提高我國創(chuàng)新力和競爭力。創(chuàng)新驅動實質上是人才驅動,高精尖人才自主培養(yǎng)質量關系著國際競爭主動權掌握和社會主義現(xiàn)代化強國建設。當前,根據人工智能技術發(fā)展態(tài)勢,聚焦國家重大戰(zhàn)略需求,動態(tài)調整優(yōu)化高等教育學科設置,有的放矢培養(yǎng)國家戰(zhàn)略人才和急需緊缺人才,提升教育對高質量發(fā)展的支撐力、貢獻力至關重要。智能新技術人才自主培養(yǎng)是一種重要的策略,對于國家、企業(yè)和社會組織來說,能夠更好地適應快速發(fā)展的技術環(huán)境,提高自身的競爭力和創(chuàng)新能力。在智能新技術人才自主培養(yǎng)的過程中,我們需要采取以下措施:首先,建立培訓計劃,制定詳細的培訓計劃,包括培訓目標、培訓內容、培訓時間、培訓方式等,以確保培訓的針對性和有效性;其次,建立學習平臺,通過建立在線學習平臺,提供相關的學習資源和實踐機會,以幫助人才更好地掌握智能新技術知識和技能;再次,重視招聘、選拔和實踐,需要注重對人才在智能新技術領域的技能和經驗的考察,以確保招聘到的人才能夠適應市場和應用需求,同時注重實踐和積累項目經驗,為人才培養(yǎng)提供實踐和項目經驗的機會,以幫助他們更好地掌握智能新技術知識和技能,并將所學知識應用到實際工作中;最后,必須建立激勵和獎勵機制,鼓勵員工主動學習和掌握智能新技術知識和技能,并對他們的學習成果和貢獻進行獎勵。通過以上措施更好地實現(xiàn)智能新技術人才自主培養(yǎng)的目標,增強我國人工智能領域的競爭力和創(chuàng)新能力。
四、啟 示
人工智能技術會在國家安全、網絡安全、社會生活各方面帶來挑戰(zhàn)和沖擊,將利益相關者理論作為人工智能安全治理的理論基礎,關注狹義的和廣義的利益相關者戰(zhàn)略,從不同的利益相關者的角度評價治理績效和提出應對策略。誠然,人工智能的發(fā)展會帶來各種風險,其他風險問題依然需要重視和研究,我們主要基于人工智能技術引致安全風險提出了相應解決對策,期望對人工智能研究的長遠性發(fā)展有所貢獻,提高技術治理成效。(文 | 北京林業(yè)大學紀委辦 李嘉豪)
來源:中國社會科學網