任何事物往往都具有兩面性,ChatGPT 在帶來(lái)技術(shù)發(fā)展紅利的同時(shí),也引發(fā)對(duì)此類(lèi)技術(shù)的使用規(guī)范、監(jiān)督和風(fēng)險(xiǎn)管理等問(wèn)題的討論。認(rèn)清 ChatGPT 的本質(zhì)和局限性、研判潛在的風(fēng)險(xiǎn)和挑戰(zhàn),結(jié)合信息安全和倫理道德的約束,提出相應(yīng)的風(fēng)險(xiǎn)評(píng)判標(biāo)準(zhǔn),以及推進(jìn)人工智能技術(shù)健康發(fā)展的對(duì)策建議,對(duì)同類(lèi)人工智能技術(shù)的發(fā)展規(guī)劃和落地實(shí)施,具有必要的作用。
一、人工智能發(fā)展進(jìn)入新階段
一、人工智能發(fā)展進(jìn)入新階段
生成式人工智能的本質(zhì)是通過(guò)從數(shù)據(jù)中學(xué)習(xí)數(shù)據(jù)的概率分布,從而生成新的數(shù)據(jù)或預(yù)測(cè)未來(lái)的數(shù)據(jù)。生成式人工智能大多使用生成模型,例如傳統(tǒng)的高斯混合模型、隱馬爾可夫模型,其中,深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)、對(duì)抗生成神經(jīng)網(wǎng)絡(luò)也是重要的生成模型。在 ChatGPT 出現(xiàn)之前,生成式人工智能就已經(jīng)開(kāi)始應(yīng)用在不同場(chǎng)景,例如股票預(yù)測(cè)、智能對(duì)話、機(jī)器翻譯等。但是,生成式模型在實(shí)際應(yīng)用過(guò)程中存在推理速度慢、長(zhǎng)距離依賴(lài)等問(wèn)題。因此,在生產(chǎn)活動(dòng)中,依然以分析式人工智能為主。隨著近年來(lái)科研成果的推陳出新,人工智能的落地應(yīng)用開(kāi)始從分析式人工智能逐步轉(zhuǎn)向生成式人工智能,其原因在于:第一,數(shù)據(jù)量的增加。互聯(lián)網(wǎng)和物聯(lián)網(wǎng)技術(shù)的發(fā)展生成了大量可用的數(shù)據(jù),豐富了生成式人工智能的數(shù)據(jù)資源,為大規(guī)模預(yù)訓(xùn)練模型的出現(xiàn)奠定了基礎(chǔ)。第二,計(jì)算能力的提升。現(xiàn)代計(jì)算機(jī)和云計(jì)算技術(shù)的發(fā)展,使原來(lái)的摩爾定律不再適用,也使訓(xùn)練更深、更大的深度神經(jīng)網(wǎng)絡(luò)成為可能。第三,算法的改進(jìn)。上述環(huán)境的改變,促使大規(guī)模預(yù)訓(xùn)練模型誕生。這意味著模型具備更豐富的知識(shí),而其計(jì)算和推理的能力也大幅的提升,更準(zhǔn)確地模擬真實(shí)世界的數(shù)據(jù)分布。這些原因并不能直接促使人工智能發(fā)展方向的改變,卻為生成式人工智能被更好地應(yīng)用到工業(yè)生產(chǎn)和真實(shí)生活中埋下了種子。而且,ChatGPT 產(chǎn)品的成功應(yīng)用,則意味著這顆種子的生長(zhǎng)進(jìn)入了一個(gè)新的階段。
一是基于大數(shù)據(jù)的大模型。Transformer 模型保證了 ChatGPT 的基本生成能力。GPT 系列的模型本體是基于 Transformer 模型的解碼器堆疊而成的,相較于原本的 Transformer 解碼器,GPT 模型移除了多頭編碼器-解碼器注意力模塊,僅保留了多頭掩碼自注意力模塊和前饋神經(jīng)網(wǎng)絡(luò)模塊;多頭掩碼自注意力模塊保證輸出語(yǔ)義信息的多樣性和自回歸生成的過(guò)程?;?Transformer 模型的自注意力機(jī)制和位置編碼等特性,GPT 模型能更好捕捉長(zhǎng)距離依賴(lài)關(guān)系和上下文信息,生成連貫的語(yǔ)言表達(dá)。而且,大數(shù)據(jù)保證了 ChatGPT 的知識(shí)儲(chǔ)備。GPT 的訓(xùn)練數(shù)據(jù)包含了文本語(yǔ)料庫(kù)、網(wǎng)絡(luò)文章、社交媒體、電子書(shū)籍、維基百科等多領(lǐng)域多類(lèi)型的海量文本數(shù)據(jù),保證了 GPT 模型有足夠的“知識(shí)”和強(qiáng)大的“推理”能力。GPT 本質(zhì)是自回歸生成的語(yǔ)言模型。Prompt Tuning 作為一種微調(diào)預(yù)訓(xùn)練模型技術(shù),幫助預(yù)訓(xùn)練模型更好地適應(yīng)具體的任務(wù)和應(yīng)用場(chǎng)景,生成更加精準(zhǔn)的語(yǔ)言,保證了 ChatGPT 的適應(yīng)能力。InstructGPT 引入的基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)(RLHF)模型促進(jìn)生成符合人類(lèi)觀點(diǎn)和價(jià)值觀的內(nèi)容,保證了 ChatGPT 生成文本的精確性和真實(shí)性??梢?jiàn),ChatGPT 背后的技術(shù)依然是在深度學(xué)習(xí)的框架內(nèi),其效果也是在一次次訓(xùn)練迭代和人工的指導(dǎo)下完成的,其知識(shí)儲(chǔ)備更多是來(lái)自訓(xùn)練數(shù)據(jù)。
二是滿(mǎn)足內(nèi)容生成需求。隨著人們接受新鮮事物的渠道越來(lái)越多,承受能力越來(lái)越強(qiáng),傳統(tǒng)的專(zhuān)家生成內(nèi)容(PGC)和用戶(hù)生成內(nèi)容(UGC)已經(jīng)不能滿(mǎn)足人們的信息需求。在 ChatGPT 之前,已經(jīng)有基于對(duì)比語(yǔ)言-圖像預(yù)訓(xùn)練(CLIP)模型的迪斯科擴(kuò)散(Disco Diffusion)、達(dá)利-2(DALLE-2)的人工智能繪畫(huà)軟件,而基于人工智能的生成內(nèi)容(AIGC)在傳媒、電商、影視、娛樂(lè)、教育等領(lǐng)域都得到了廣泛的應(yīng)用。AIGC 的出現(xiàn)正在彌補(bǔ)內(nèi)容生產(chǎn)的缺口,諸如 ChatGPT 之類(lèi)的產(chǎn)品也確實(shí)展現(xiàn)了更加人性化和智能化的創(chuàng)作水平。這些幾乎沒(méi)有準(zhǔn)入技術(shù)門(mén)檻的產(chǎn)品,使每個(gè)人都可能成為創(chuàng)作者;而海量的訓(xùn)練數(shù)據(jù)也在一定程度上改善了生成內(nèi)容的質(zhì)量。目前,ChatGPT 之類(lèi)的產(chǎn)品創(chuàng)作依然受限于人的“指令引導(dǎo)”。根據(jù)用戶(hù)的輸入,模型會(huì)根據(jù)從海量訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的“知識(shí)”生成用戶(hù)所需要的內(nèi)容。該過(guò)程從以往需要用戶(hù)自己負(fù)責(zé)創(chuàng)意產(chǎn)生、內(nèi)容創(chuàng)作,發(fā)展到現(xiàn)在只需要用戶(hù)有一個(gè)想法就可實(shí)現(xiàn)初步的創(chuàng)作。
三是改進(jìn)人機(jī)交互體驗(yàn)。ChatGPT 采用了基于語(yǔ)言模型的生成式對(duì)話系統(tǒng),通過(guò)多輪對(duì)話、上下文感知、模型優(yōu)化等技術(shù),實(shí)現(xiàn)了更加自然、流暢和智能的對(duì)話,從而使用戶(hù)感覺(jué)在與一個(gè)真正的人進(jìn)行交流。這種自然的交流方式突破了傳統(tǒng)文本輸入的限制,使對(duì)話更加順暢,主要表現(xiàn)在:第一,多輪對(duì)話。從用戶(hù)的反饋看,ChatGPT 相較于過(guò)往的對(duì)話系統(tǒng),能進(jìn)行更多輪對(duì)話,聊天主題也不會(huì)發(fā)生偏離。第二,上下文感知。ChatGPT 能夠有效將上下文信息與用戶(hù)的輸入進(jìn)行結(jié)合,理解用戶(hù)的意圖和需求,并生成相應(yīng)的回復(fù),從而使用戶(hù)感覺(jué)自己在與一個(gè)真正理解自己的人進(jìn)行對(duì)話。第三,模型優(yōu)化。ChatGPT 采用了大規(guī)模語(yǔ)料訓(xùn)練、預(yù)訓(xùn)練-微調(diào)等優(yōu)化技術(shù),提高了模型的生成能力和準(zhǔn)確性,使 ChatGPT 可以生成更加準(zhǔn)確、有條理和自然的回復(fù),并具有更好的魯棒性和泛化能力。
四是實(shí)現(xiàn)多維數(shù)據(jù)融合。ChatGPT 可以從多個(gè)不同維度獲取數(shù)據(jù),通過(guò)將訓(xùn)練階段的社交媒體、新聞、百科、論壇、網(wǎng)站、社區(qū)等數(shù)據(jù)與部署階段的搜索引擎實(shí)時(shí)數(shù)據(jù)的深度融合,更好地理解用戶(hù)的意圖和需求,生成更加準(zhǔn)確和自然的回復(fù)。從本質(zhì)上講,ChatGPT 是對(duì)現(xiàn)有數(shù)據(jù)的深度融合,并不存在創(chuàng)造力,所回答的內(nèi)容并不會(huì)超出現(xiàn)有的知識(shí)范圍,而且機(jī)器本身并不能真正理解所提問(wèn)題的真實(shí)含義,以及它所表達(dá)的真實(shí)邏輯。因此,既要肯定 ChatGPT 在技術(shù)層面的巨大進(jìn)步,也要認(rèn)識(shí)它的局限性。本質(zhì)上,ChatGPT 是一個(gè)基于大數(shù)據(jù)人工智能的階段性成果,并不具有真正意義上的創(chuàng)造力,要實(shí)現(xiàn)人工智能領(lǐng)域質(zhì)的飛躍,還需要相關(guān)專(zhuān)家學(xué)者的進(jìn)一步技術(shù)“深耕”。
二、ChatGPT 帶來(lái)的風(fēng)險(xiǎn)
二、ChatGPT 帶來(lái)的風(fēng)險(xiǎn)
與 ChatGPT 強(qiáng)大的生成能力相伴而生的是一系列風(fēng)險(xiǎn)和挑戰(zhàn)。充分認(rèn)識(shí)并應(yīng)對(duì)這些問(wèn)題,需要深入了解 ChatGPT 面臨的風(fēng)險(xiǎn)挑戰(zhàn),并采取相應(yīng)的措施確保其安全、可靠和有益的應(yīng)用。
(一)信息安全風(fēng)險(xiǎn)
ChatGPT 的訓(xùn)練數(shù)據(jù)和算法模型決定了它的內(nèi)容和輸出。由于 ChatGPT 訓(xùn)練數(shù)據(jù)大多來(lái)自網(wǎng)絡(luò),其內(nèi)容本身的真實(shí)性、完備性、嚴(yán)謹(jǐn)性無(wú)法得到保證,易導(dǎo)致生成內(nèi)容存在片面、虛假或誤導(dǎo)性信息,帶來(lái)信息混亂,干擾用戶(hù)獲取科學(xué)權(quán)威信息。此外,如果訓(xùn)練數(shù)據(jù)中存在特定價(jià)值判斷、政治偏見(jiàn)或帶有意識(shí)形態(tài)宣傳性質(zhì)的數(shù)據(jù)內(nèi)容,就會(huì)導(dǎo)致輸出的內(nèi)容呈現(xiàn)特定政治立場(chǎng)觀點(diǎn),甚至成為某些國(guó)家和組織進(jìn)行輿論操控、干擾選舉、挑起事端、顛覆活動(dòng)的意識(shí)形態(tài)工具,威脅國(guó)家安全和社會(huì)穩(wěn)定。美國(guó)黑莓公司 2023 年 2 月的研究報(bào)告《信息技術(shù)領(lǐng)袖預(yù)測(cè) ChatGPT 驅(qū)動(dòng)的網(wǎng)絡(luò)攻擊即將到來(lái)》(IT Leaders Predict ChatGPT-Enabled Cyberattacks AreImminent)的問(wèn)卷調(diào)查數(shù)據(jù)表明,71% 的接受調(diào)查人員認(rèn)為,一些國(guó)家可能已經(jīng)將該技術(shù)應(yīng)用于針對(duì)其他國(guó)家的惡意目的。
(二)網(wǎng)絡(luò)安全風(fēng)險(xiǎn)
ChatGPT 所用過(guò)的訓(xùn)練數(shù)據(jù)包含了大量的編程語(yǔ)言和技術(shù)文檔,這就意味著 ChatGPT 具備生成惡意代碼的能力。公開(kāi)資料顯示,ChatGPT 被刻意用于創(chuàng)建編寫(xiě)用于間諜、勒索軟件、垃圾郵件、社會(huì)工程攻擊、撞庫(kù)攻擊等惡意代碼,降低了實(shí)施網(wǎng)絡(luò)攻擊的技術(shù)門(mén)檻,成為網(wǎng)絡(luò)攻擊者的有力助手。ChatGPT 不斷催生新的“一鍵式”“傻瓜式”的網(wǎng)絡(luò)攻擊手段和工具,加劇了網(wǎng)絡(luò)犯罪活動(dòng)自動(dòng)化、智能化、隱蔽化、大眾化,給網(wǎng)絡(luò)空間安全帶來(lái)諸多不確定性。記錄未來(lái)(Recorded Future)公司的一篇名為《我,聊天機(jī)器人》的研究報(bào)告指出,已在暗網(wǎng)和封閉論壇發(fā)現(xiàn)了 1500 多條使用 ChatGPT 進(jìn)行惡意代碼開(kāi)發(fā)的記錄。
(三)數(shù)據(jù)安全風(fēng)險(xiǎn)
非法收集數(shù)據(jù)、侵犯?jìng)€(gè)人隱私風(fēng)險(xiǎn)。ChatGPT 的訓(xùn)練數(shù)據(jù)的來(lái)源主要是互聯(lián)網(wǎng),可能未經(jīng)過(guò)用戶(hù)同意和授權(quán)進(jìn)行數(shù)據(jù)訓(xùn)練,并用于提供商業(yè)化服務(wù),存在非法收集數(shù)據(jù)、侵犯?jìng)€(gè)人隱私的風(fēng)險(xiǎn)。開(kāi)發(fā)商 OpenAI 并沒(méi)有對(duì) ChatGPT 的數(shù)據(jù)來(lái)源做詳細(xì)說(shuō)明。OpenAI 的使用條款規(guī)定了 OpenAI 對(duì)用戶(hù)輸入和輸出內(nèi)容擁有廣泛使用權(quán),目的是將其納入訓(xùn)練數(shù)據(jù)庫(kù)、用于改善 ChatGPT。截至目前,OpenAI 并未詳細(xì)說(shuō)明該機(jī)制將如何有效運(yùn)行。ChatGPT 具備連續(xù)問(wèn)答功能,收集用戶(hù)提問(wèn)軌跡,使用戶(hù)存在被以熟人式誘導(dǎo)方式推送更多精準(zhǔn)信息,獲取用戶(hù)行為習(xí)慣、興趣偏好等隱私信息,進(jìn)而進(jìn)行用戶(hù)“精準(zhǔn)畫(huà)像”,加劇“信息繭房”效應(yīng),給用戶(hù)隱私保護(hù)和生命健康帶來(lái)潛在影響。
敏感數(shù)據(jù)泄露風(fēng)險(xiǎn)。在發(fā)現(xiàn) ChatGPT 生成的文本中含有疑似商業(yè)機(jī)密的情況后,微軟與亞馬遜先后禁止公司員工向 ChatGPT 發(fā)送公司機(jī)密信息。若用戶(hù)在輸入請(qǐng)求時(shí)輸入個(gè)人相關(guān)信息、業(yè)務(wù)數(shù)據(jù)或涉及商業(yè)秘密等的內(nèi)容,將增加相關(guān)數(shù)據(jù)泄露的風(fēng)險(xiǎn)。這種數(shù)據(jù)泄露風(fēng)險(xiǎn)具體可體現(xiàn)在直接泄露與間接泄露兩方面。直接泄露與通常意義上的隱私泄露類(lèi)似,攻擊者通過(guò)一些手段,竊取了用戶(hù)的對(duì)話內(nèi)容。間接泄露則是因?yàn)椴捎糜脩?hù)的對(duì)話內(nèi)容(如商業(yè)機(jī)密、隱私、核心算法等)訓(xùn)練 GPT 模型后,模型具備了上述能力,導(dǎo)致隱私內(nèi)容可能被其他 ChatGPT 用戶(hù)獲取到。
催生新的“數(shù)據(jù)霸權(quán)”。隨著 ChatGPT 的廣泛應(yīng)用,用戶(hù)規(guī)模的快速上漲和數(shù)據(jù)的頻繁交互,ChatGPT 背后的科技公司不斷積攢其計(jì)算資源更豐富、算法模型更先進(jìn)、數(shù)據(jù)質(zhì)量更優(yōu)質(zhì)的先發(fā)優(yōu)勢(shì),不斷構(gòu)筑全球數(shù)據(jù)收集、信息處理、大模型訓(xùn)練的壟斷式競(jìng)爭(zhēng)優(yōu)勢(shì),逐步形成“強(qiáng)者恒強(qiáng)”的馬太效應(yīng),催生新的“數(shù)據(jù)霸權(quán)”“算法霸權(quán)”,繼而形成大型科技平臺(tái)公司的壟斷權(quán)力,威脅政府公信力。
(四)社會(huì)穩(wěn)定風(fēng)險(xiǎn)
倫理道德。ChatGPT 模型對(duì)世界的理解和表現(xiàn)可謂是基于海量數(shù)據(jù)的一種經(jīng)驗(yàn),其道德行為是由它所使用的算法和在決策過(guò)程中內(nèi)置的價(jià)值觀和道德原則決定的。例如,為自動(dòng)駕駛汽車(chē)設(shè)計(jì)的人工智能系統(tǒng)可能會(huì)優(yōu)先考慮安全問(wèn)題,然而,車(chē)內(nèi)人員與車(chē)外人員安全的優(yōu)先級(jí)孰輕孰重則很大程度上由設(shè)計(jì)和執(zhí)行人工智能系統(tǒng)的人決定,所以,人工智能系統(tǒng)的倫理最終取決于創(chuàng)建它的人的倫理。人工智能系統(tǒng)規(guī)模日趨龐大,截至目前,仍缺乏對(duì) ChatGPT 等人工智能生成模型進(jìn)行審查的系統(tǒng)性方法。如果將生成式人工智能技術(shù)用于政治謠言、污蔑抹黑,就會(huì)給政治安全和國(guó)家安全帶來(lái)重大危害。
知識(shí)產(chǎn)權(quán)。ChatGPT 之所以能夠回答不同領(lǐng)域的各類(lèi)問(wèn)題,是因?yàn)樗旋嫶蟮恼Z(yǔ)料庫(kù)和知識(shí)庫(kù)做支撐。利用 ChatGPT 根據(jù)輸入提示自動(dòng)生成內(nèi)容的特性,用戶(hù)可實(shí)現(xiàn)代寫(xiě)課程作業(yè)甚至撰寫(xiě)學(xué)術(shù)論文等創(chuàng)造性工作。從著作權(quán)法的角度看,這些通過(guò)人工智能技術(shù)拼接、整合得到的“答案”是否構(gòu)成作品、是否存在侵權(quán)風(fēng)險(xiǎn),如何有效評(píng)估人工智能創(chuàng)作中的知識(shí)產(chǎn)權(quán)原創(chuàng)性以及平衡二者之間的矛盾等,都是亟需認(rèn)真考慮的問(wèn)題。
三、對(duì)策建議
三、對(duì)策建議
生成式人工智能如 ChatGPT 正逐漸展現(xiàn)出其無(wú)限潛力和廣闊前景。然而,隨著其應(yīng)用范圍的不斷擴(kuò)大,多方面的風(fēng)險(xiǎn)挑戰(zhàn)逐漸顯現(xiàn)。因此,需要進(jìn)行引導(dǎo)和管理。
一是完善人工智能發(fā)展的頂層設(shè)計(jì)。以 ChatGPT 為代表的生成式人工智能將成為未來(lái)研究熱點(diǎn)和產(chǎn)業(yè)化新方向,應(yīng)緊抓發(fā)展機(jī)遇,完善頂層設(shè)計(jì),統(tǒng)籌資源配置,夯實(shí)產(chǎn)業(yè)根基,規(guī)范健康發(fā)展,打造人工智能安全發(fā)展良性生態(tài)。充分發(fā)揮科技創(chuàng)新的引領(lǐng)作用,加快核心技術(shù)創(chuàng)新突破,鼓勵(lì)人工智能優(yōu)勢(shì)企業(yè)加大科研投入,推動(dòng)新場(chǎng)景、新應(yīng)用的落地實(shí)踐,增強(qiáng)我國(guó)在人工智能領(lǐng)域的國(guó)際競(jìng)爭(zhēng)力。建議進(jìn)一步健全相應(yīng)知識(shí)產(chǎn)權(quán)保護(hù)機(jī)制,明確人工智能創(chuàng)作內(nèi)容的權(quán)利歸屬。既要鼓勵(lì)人工智能創(chuàng)作,促使人工智能生成技術(shù)為社會(huì)創(chuàng)造更大價(jià)值,又要防止人工智能生成內(nèi)容的侵權(quán)以及大量同質(zhì)化內(nèi)容影響自然人創(chuàng)新的積極性。
二是加強(qiáng)風(fēng)險(xiǎn)評(píng)估和監(jiān)督管理。建議從主動(dòng)鑒別和被動(dòng)鑒別兩個(gè)維度,研發(fā)高效可靠人工智能生成內(nèi)容鑒別方法。在主動(dòng)鑒別方面,加強(qiáng)對(duì)相關(guān)企業(yè)的監(jiān)管,督促落實(shí)信息安全主體責(zé)任,建立健全用戶(hù)注冊(cè)、信息發(fā)布審核、應(yīng)急處置等技術(shù)保障措施,規(guī)范開(kāi)展生成信息內(nèi)容的標(biāo)識(shí)以及針對(duì)敏感重要數(shù)據(jù)的安全評(píng)估工作,確保深度合成類(lèi)應(yīng)用符合國(guó)家和大眾利益。在被動(dòng)鑒別方面,加強(qiáng)隱藏編碼識(shí)別、水印加注等技術(shù)手段建設(shè),提升人工智能生成內(nèi)容鑒別準(zhǔn)確性,完善針對(duì)網(wǎng)絡(luò)謠言、蓄意抹黑等不良信息內(nèi)容的治理,凈化網(wǎng)絡(luò)空間。
三是倫理道德治理。人工智能系統(tǒng)所表現(xiàn)出的倫理道德很大程度上由模型的設(shè)計(jì)者決定。因此,應(yīng)加強(qiáng)人工智能倫理治理,建設(shè)人工智能系統(tǒng)智能評(píng)測(cè)平臺(tái)(體系),將“科技向善”等倫理融入人工智能全生命周期。建議將計(jì)算機(jī)和人工智能從業(yè)人員的思想道德建設(shè)作為第一道防線,在研發(fā)階段做好治理策略的融入;將人工智能相關(guān)企業(yè)、行業(yè)的自律作為第二道防線,建立企業(yè)、行業(yè)的自律組織,出臺(tái)行業(yè)自律規(guī)范,促使相關(guān)企業(yè)在技術(shù)工程的開(kāi)發(fā)、設(shè)計(jì)、應(yīng)用方面均恪守正確的價(jià)值觀、科技倫理基本原則;將智能評(píng)估作為第三道防線,構(gòu)建嚴(yán)格的倫理領(lǐng)域的風(fēng)險(xiǎn)控制體系和專(zhuān)業(yè)的倫理風(fēng)險(xiǎn)控制機(jī)制,建立高效可靠的人工智能系統(tǒng)智能評(píng)測(cè)平臺(tái),實(shí)現(xiàn)產(chǎn)品立項(xiàng)、發(fā)布、運(yùn)營(yíng)等全生命周期的人工智能倫理審核;將倫理、政策與法律的多維度監(jiān)管作為最后一道防線,綜合運(yùn)用社會(huì)輿論、政策引導(dǎo)、法律規(guī)范等多種力量,引導(dǎo)人工智能技術(shù)的安全有序發(fā)展。
四是構(gòu)建完備中文知識(shí)體系。ChatGPT 在中文交互服務(wù)上存在“知識(shí)盲區(qū)”“政治偏見(jiàn)”,直接原因是 ChatGPT 的訓(xùn)練數(shù)據(jù)主要以外文為主,根本原因是中文知識(shí)體系在全球知識(shí)體系的占比較低。截至 2020 年 3 月,W3Techs 預(yù)測(cè),前一百萬(wàn)互聯(lián)網(wǎng)網(wǎng)站使用的語(yǔ)言文字百分比中,英語(yǔ)占 59.3%,中文僅占 1.3%。要構(gòu)架更加強(qiáng)大豐富的中文知識(shí)體系,一方面,要加強(qiáng)中文推廣使用,講好“中文故事”,另一方面,要加強(qiáng)世界知識(shí)體系的中文吸收和轉(zhuǎn)化的能力,用中文“講述世界故事”,提升中文在世界知識(shí)體系的占比。
五是加強(qiáng)數(shù)據(jù)保護(hù)。在技術(shù)層面,建議進(jìn)一步規(guī)范互聯(lián)網(wǎng)數(shù)據(jù)的獲取使用,提升數(shù)據(jù)使用方式的透明度。模型研發(fā)過(guò)程需保證訓(xùn)練數(shù)據(jù)獲取的合法性,包括合法使用爬蟲(chóng)技術(shù)、合法處理個(gè)人信息等;模型應(yīng)用后應(yīng)嚴(yán)格保護(hù)企業(yè)商業(yè)秘密和個(gè)人隱私,對(duì)存在泄露用戶(hù)隱私風(fēng)險(xiǎn)的場(chǎng)景,應(yīng)提前征得用戶(hù)同意。在政策層面,建議進(jìn)一步加強(qiáng)相關(guān)技術(shù)標(biāo)準(zhǔn)體系中隱私保護(hù)內(nèi)容的構(gòu)建,建立隱私數(shù)據(jù)分類(lèi)保護(hù)制度。在數(shù)據(jù)的收集和存儲(chǔ)、共享和交換、使用和加工等層面,應(yīng)建立全生命周期的安全標(biāo)準(zhǔn)和規(guī)范。同時(shí),應(yīng)進(jìn)一步建立健全如隱私條款、合規(guī)評(píng)估等政策措施,從法律層面確保個(gè)人數(shù)據(jù)的安全。
六是加強(qiáng)人才培養(yǎng)和技能培訓(xùn)。科技競(jìng)爭(zhēng)的實(shí)質(zhì)是人才,擴(kuò)大創(chuàng)新型、復(fù)合型人才培養(yǎng)。科學(xué)技術(shù)的競(jìng)爭(zhēng),歸根結(jié)底是人才與教育的競(jìng)爭(zhēng)。要圍繞人工智能等新興技術(shù)建設(shè)一支規(guī)模大、結(jié)構(gòu)合理、素質(zhì)優(yōu)良的創(chuàng)新人才隊(duì)伍,用足用好國(guó)家人才引進(jìn)政策,加強(qiáng)國(guó)外高水平創(chuàng)新團(tuán)隊(duì)的引進(jìn),注重國(guó)內(nèi)“高素質(zhì)、拔尖”人才的培養(yǎng),同時(shí)增大我國(guó)高(中)等院校在新興技術(shù)人才培養(yǎng)規(guī)模,擴(kuò)大本土創(chuàng)新融合性人才培養(yǎng)。深入推進(jìn)《提升全民數(shù)字素養(yǎng)與技能行動(dòng)綱要》實(shí)施,完善職業(yè)技能培訓(xùn)體系,提升高效率,消解“職業(yè)恐慌”。引導(dǎo)支持新興職業(yè)群體,積極利用 5G、人工智能、虛擬現(xiàn)實(shí)、大數(shù)據(jù)、區(qū)塊鏈等數(shù)字技術(shù)創(chuàng)新創(chuàng)業(yè)。
原文來(lái)源:中國(guó)信息安全