您所在的位置: 首頁 >
新聞資訊 >
技術(shù)前沿 >
ChatGPT引發(fā)互聯(lián)網(wǎng)治理新變局
ChatGPT是結(jié)合了人類反饋強化學(xué)習(xí)與大數(shù)據(jù)預(yù)訓(xùn)練語言模型的自然語言處理工具。ChatGPT的問世,引發(fā)了國內(nèi)外的廣泛關(guān)注,同時也正在人工智能領(lǐng)域引發(fā)新一輪的科技競賽。
實現(xiàn)交互模式上的革新
作為預(yù)訓(xùn)練語言模型、大模型“出圈”的代表,ChatGPT實現(xiàn)了自然語言處理領(lǐng)域的新突破,成功結(jié)合算法、算力和數(shù)據(jù),將大規(guī)模的預(yù)訓(xùn)練與人工反饋相結(jié)合,實現(xiàn)了與用戶的多輪對話、理解上下文、根據(jù)用戶特征不斷適應(yīng)新的需求等多種先進特征,也使得ChatGPT能夠更好地理解對話語境,輸出文本也更符合語言邏輯與人類習(xí)慣、習(xí)俗。
與以往的預(yù)訓(xùn)練語言模型相比,ChatGPT使用了45TB的文本數(shù)據(jù),可以更好地捕捉人類語言的復(fù)雜性;使用了算力等同于數(shù)萬張高性能GPU的計算資源,以獲得更好的訓(xùn)練效果;使用了更通用的預(yù)訓(xùn)練方式,使其對不同場景不同任務(wù)具有更高的適應(yīng)性;可以在不斷接觸新語料的過程中持續(xù)提高自己的性能,具有更強的自我學(xué)習(xí)能力。與傳統(tǒng)搜索引擎僅能通過用戶輸入的關(guān)鍵詞輸出搜索結(jié)果相比,結(jié)合了人工智能的搜索引擎將通過以ChatGPT與用戶對話為主、傳統(tǒng)引擎提供資料來源與驗證準(zhǔn)確性為輔的方式,實現(xiàn)搜索引擎交互模式上的革新,這也將極大地提高交互模式下的用戶搜索體驗。
ChatGPT的發(fā)布在互聯(lián)網(wǎng)行業(yè)掀起了巨大熱潮,國內(nèi)外眾多科技公司均看好ChatGPT及其競品有望成為AI“殺手級”應(yīng)用,并有可能顛覆互聯(lián)網(wǎng)業(yè)務(wù)現(xiàn)有格局。在傳媒領(lǐng)域,ChatGPT可以幫助新聞媒體工作者智能生成報道,將部分勞動性的采編工作自動化,更快、更準(zhǔn)、更智能地生成內(nèi)容,提升新聞的時效性;在影視領(lǐng)域,可以根據(jù)大眾喜好為劇本創(chuàng)作提供新思路,以激發(fā)創(chuàng)作者的靈感并提高內(nèi)容創(chuàng)作效率;在電商領(lǐng)域,可以打造虛擬主播、虛擬客服等提高客戶的服務(wù)體驗,減少訂單退換貨率,擴大品牌知名度;此外,在教育、金融、醫(yī)療等各領(lǐng)域ChatGPT均有望發(fā)揮積極作用,促進行業(yè)發(fā)展。ChatGPT的應(yīng)用,不僅能提高各行業(yè)生產(chǎn)效率與生產(chǎn)質(zhì)量,也將有可能替代文秘、會議記錄等人類勞動力。
互聯(lián)網(wǎng)治理面臨復(fù)雜化趨勢
在ChatGPT被熱炒的氛圍中,我們應(yīng)當(dāng)理性地看到,作為一種新型互聯(lián)網(wǎng)服務(wù)的ChatGPT仍存在技術(shù)上的局限性。ChatGPT不具備實時查證的功能,其回答完全來自預(yù)先設(shè)置的數(shù)據(jù)庫。ChatGPT缺少行業(yè)數(shù)據(jù)的訓(xùn)練,對于專業(yè)領(lǐng)域如法律、醫(yī)療行業(yè)的回答無法保證準(zhǔn)確率。ChatGPT所提供的答案并不可靠,其并不擅長數(shù)學(xué)邏輯,也沒有能力分辨一些信息的真假。這種技術(shù)上的局限性可能導(dǎo)致互聯(lián)網(wǎng)治理的局面變得日益復(fù)雜。
同時,ChatGPT帶來的倫理及監(jiān)管問題也令人憂慮。如何對類似于ChatGPT的AI服務(wù)進行合理監(jiān)管,成為監(jiān)管者需要面對的新課題。
第一,最直接的風(fēng)險是數(shù)據(jù)泄露問題。ChatGPT本質(zhì)上是以海量數(shù)據(jù)為基礎(chǔ)進行訓(xùn)練的大模型,這意味著其數(shù)據(jù)越多、時效性越強,它的功能就越好,能給予用戶更優(yōu)質(zhì)的交互體驗。但用于ChatGPT或其他類似應(yīng)用的訓(xùn)練數(shù)據(jù),有可能會涉及商業(yè)機密、國家機密及個人隱私信息。那么,獲取相關(guān)敏感信息的途徑是否合法合規(guī)?如果造成敏感信息泄露,所造成的影響及后果該由誰來承擔(dān)?目前,美國的一些公司為防止數(shù)據(jù)泄露的情況出現(xiàn),已經(jīng)要求公司職員在使用ChatGPT過程中嚴(yán)禁泄露商業(yè)機密,并正在著手制定相關(guān)的措施和規(guī)范。
第二,ChatGPT帶來的學(xué)術(shù)倫理問題引起教育界及學(xué)術(shù)界的擔(dān)憂。自ChatGPT發(fā)布以來,越來越多的學(xué)生利用ChatGPT完成學(xué)業(yè)和功課,甚至將其用于作弊。教育工作者擔(dān)心類似ChatGPT的互聯(lián)網(wǎng)服務(wù)將導(dǎo)致學(xué)術(shù)不端行為的泛濫,使得培養(yǎng)學(xué)生的批判思維及創(chuàng)新能力變得愈發(fā)困難,且無法正確有效評估學(xué)生的能力和知識水平,進而影響到構(gòu)建公平的學(xué)術(shù)氛圍和學(xué)術(shù)環(huán)境。
第三,ChatGPT及類似的業(yè)務(wù)可能會輸出危及社會公共安全的有害信息。在誘導(dǎo)式提問下,ChatGPT類的應(yīng)用可能為違法甚至犯罪活動提供便利。這可能使違法犯罪的門檻大大降低。監(jiān)管者需要對這類有害信息及其可能造成的嚴(yán)重危害給予足夠的重視。
第四,ChatGPT及類似的業(yè)務(wù)可能帶來意識形態(tài)問題。ChatGPT的輸出由其模型所決定,而模型又來自算法選擇以及用于模型訓(xùn)練的龐大數(shù)據(jù)庫,這也就使得模型開發(fā)者能夠相對容易地將自己所偏好的價值觀植入訓(xùn)練數(shù)據(jù),或通過算法選擇呈現(xiàn)某種價值觀。假若模型開發(fā)者的價值觀存在著歷史曲解、文化偏見以及種族歧視,那么這種曲解、偏見與歧視將會隨著模型與用戶的交互對用戶產(chǎn)生潛移默化的影響,甚至是誤導(dǎo)。因此,在當(dāng)今國際國內(nèi)各種思潮交織碰撞、東西方意識形態(tài)博弈的背景下,ChatGPT這類互聯(lián)網(wǎng)服務(wù)可能會受到國家行為體以及非國家行為體的操控,成為意識形態(tài)傳播的工具。
ChatGPT作為由海量數(shù)據(jù)訓(xùn)練得到的人工智能模型,代表著AI技術(shù)取得的突破和AI行業(yè)的最新成果,其強大的產(chǎn)業(yè)應(yīng)用能力、廣泛的場景適用性勢必極大提升人類社會各行業(yè)、各場景的內(nèi)容生產(chǎn)效率。與此同時,ChatGPT及與其類似的互聯(lián)網(wǎng)服務(wù)所帶來的相關(guān)倫理及監(jiān)管問題使得互聯(lián)網(wǎng)治理面臨新的挑戰(zhàn),需要政府、產(chǎn)業(yè)界、學(xué)界以及每個互聯(lián)網(wǎng)用戶認(rèn)真審視和應(yīng)對。(文 | 北京大學(xué)信息管理系 郭豐 北京郵電大學(xué)計算機學(xué)院 李賢達)
來源:中國社會科學(xué)報