ChatGPT的生成特性及其意義作者:楊慶峰,復(fù)旦發(fā)展研究院研究員、中國(guó)科協(xié)-復(fù)旦大學(xué)科技倫理與人類未來(lái)研究院教授來(lái)源:澎湃新聞-復(fù)旦通識(shí)網(wǎng)址:https://m.thepaper.cn/baijiahao_2209 隨著聊天程序ChatGPT成為時(shí)下關(guān)注的焦點(diǎn),人們意識(shí)到人工智能正在影響著各個(gè)領(lǐng)域與學(xué)科,正在成為推動(dòng)人類文明進(jìn)入一段新旅程的力量。復(fù)旦大學(xué)通識(shí)教育中心組織“人工智能”系列,邀請(qǐng)校內(nèi)外不同領(lǐng)域的學(xué)者,從多學(xué)科視角入手、以平實(shí)的語(yǔ)言,嘗試與讀者一起了解有關(guān)人工智能的方方面面。以下是中國(guó)科協(xié)-復(fù)旦大學(xué)科技倫理與人類未來(lái)研究院楊慶峰教授的文章《ChatGPT的生成特性及其意義》。 ChatGPT是一種內(nèi)容生成式的嵌入性工具,本文將重點(diǎn)討論生成特性,對(duì)于嵌入不加討論。生成主要是過(guò)程生成和內(nèi)容生成。前者是算法的生成機(jī)制,后者是指借助算法進(jìn)行話語(yǔ)、文本生成,如可以寫電子郵件、書籍大綱和修改文章??梢哉f(shuō)這項(xiàng)技術(shù)把我們正帶入一個(gè)智能生成的時(shí)代,不斷產(chǎn)生新物的過(guò)程。但是這個(gè)新物并不是存在之新,而是注意之新。換句話說(shuō),新是從舊的東西中發(fā)現(xiàn)未曾見(jiàn)過(guò)的過(guò)程,本質(zhì)上仍是舊的東西,是重新注意的過(guò)程。最近喬姆斯基認(rèn)為ChatGPT本質(zhì)上是高科技剽竊,這引起了我們的關(guān)注,希望對(duì)此進(jìn)行分析和反思。 一、ChatGPT能做什么? 我曾經(jīng)詢問(wèn)過(guò)兩個(gè)問(wèn)題:第一個(gè)是“吃了嗎”,第二個(gè)是數(shù)據(jù)倫理學(xué)的大綱。第一個(gè)問(wèn)題多少是有些無(wú)聊和刁難,因?yàn)檫@是一個(gè)日常問(wèn)題,對(duì)于ChatGPT來(lái)說(shuō),怎么回答都是有問(wèn)題的。ChatGPT回答“吃了”,雖說(shuō)回應(yīng)了問(wèn)題,卻又給我們留下疑惑:ChatGPT不需要吃東西,當(dāng)它回答吃了,是否意味著一種不誠(chéng)實(shí)的表達(dá)呢?如果說(shuō)它的回應(yīng)只是回應(yīng)一個(gè)問(wèn)題,但是“吃了嗎”很顯然不是一個(gè)一般問(wèn)題。大多數(shù)人都知道這只是打招呼用的,顯示了人們?cè)谏钍澜鐚用娴慕煌?。我們?nèi)粘R?jiàn)面,“吃了嗎”幾乎是一句帶疑問(wèn)的問(wèn)候,回答“吃了”也只是無(wú)實(shí)際內(nèi)容的回應(yīng),更重要的是回應(yīng)對(duì)方的問(wèn)候。通過(guò)這種方式實(shí)現(xiàn)了人類之間的交流。我最擔(dān)心它的回答是“吃了吃了”,帶重復(fù)的兩個(gè)回應(yīng)那簡(jiǎn)直是人類一樣的回應(yīng),而且這種回應(yīng)最為精準(zhǔn)地表達(dá)了一種問(wèn)候的回應(yīng)。很可惜,ChatGPT的“吃了”的回應(yīng)是以一種常見(jiàn)方式回答了問(wèn)題,而不是實(shí)現(xiàn)人與人之間的問(wèn)候。另一個(gè)問(wèn)題是讓它生成一份數(shù)據(jù)倫理的教材大綱。很快,它給我們一份帶有導(dǎo)論的大綱。說(shuō)實(shí)話,當(dāng)我看到生成的結(jié)果時(shí)有點(diǎn)震驚了,這個(gè)大綱像模像樣。大綱包括導(dǎo)論和章節(jié)內(nèi)容。導(dǎo)論說(shuō)“當(dāng)我們繼續(xù)倚重技術(shù)和它生產(chǎn)的數(shù)據(jù)時(shí),這種趨勢(shì)的倫理意義逐漸變得重要。數(shù)據(jù)倫理是一個(gè)檢驗(yàn)在搜集、存儲(chǔ)、分析和使用數(shù)據(jù)過(guò)程中的研究領(lǐng)域。本大綱目的是提供數(shù)據(jù)倫理中關(guān)鍵問(wèn)題和理念的面貌性概覽,并對(duì)哲學(xué)的、社會(huì)的和技術(shù)方面做出勾勒。”可以看出導(dǎo)論簡(jiǎn)潔而清楚;章節(jié)包括七章,包括數(shù)據(jù)倫理介紹、數(shù)據(jù)搜集中的倫理問(wèn)題、數(shù)據(jù)分析中的倫理問(wèn)題、數(shù)據(jù)使用中的倫理問(wèn)題、數(shù)據(jù)倫理方法、數(shù)據(jù)倫理中的新興問(wèn)題以及結(jié)論。這個(gè)大綱從專業(yè)角度看,確實(shí)有些窄了,緊扣數(shù)據(jù)處理的倫理問(wèn)題進(jìn)行生成而且不全。通過(guò)這兩個(gè)問(wèn)題可以確定ChatGPT作為一種智能生成工具,能夠生成各式文本,能夠借助生成的文本進(jìn)行互動(dòng)交流。 然而,喬姆斯基卻不看好,他認(rèn)為ChatGPT是從海量數(shù)據(jù)中發(fā)現(xiàn)規(guī)律,然后依據(jù)規(guī)則將數(shù)據(jù)進(jìn)行連接,形成類似人寫的內(nèi)容,在此基礎(chǔ)上他指出ChatGPT是剽竊工具。這個(gè)看法有些不準(zhǔn)確。對(duì)于新的認(rèn)識(shí)存在一種情況:新是從舊的東西中發(fā)現(xiàn)未曾見(jiàn)過(guò)的過(guò)程,換句話說(shuō),本質(zhì)上仍是舊的東西,但卻是重新注意的過(guò)程。AIGC使用了交叉注意力的機(jī)制,這種注意力機(jī)制可以執(zhí)行自注意力提取和執(zhí)行交叉注意力提取,從而確保了新的內(nèi)容的出現(xiàn)。谷歌是從一篇《注意力就是你全部需要的》(Attention is all you need)提出了transformer。從Midjourney等看,這種生成也并非完全是一種剽竊,它可以生成圖像,如2022年9月,杰森·艾倫(Jason Allen)使用AI工具M(jìn)idjourney生成的繪畫作品《太空歌劇院》在美國(guó)科羅納州博覽會(huì)上獲得藝術(shù)比賽一等獎(jiǎng),它所生成的作品令人驚異。另外,從對(duì)話生成來(lái)說(shuō),它依靠算法的推理,所產(chǎn)生的結(jié)果并非是剽竊所能概括的。比如楊立昆(Yann LeCun)的增強(qiáng)語(yǔ)言模型(augmented language Models)在很大程度上依靠將一個(gè)潛在復(fù)雜任務(wù)分解成更簡(jiǎn)單子任務(wù)的推理。 二、ChatGPT是否是顛覆性技術(shù)? 在描述第四次工業(yè)革命的時(shí)候,有一個(gè)概念是值得關(guān)注的,這就是數(shù)智時(shí)代。對(duì)這個(gè)概念我們給出兩種解釋,其一數(shù)智時(shí)代是數(shù)據(jù)和智能的并列,這是從國(guó)家戰(zhàn)略的角度來(lái)說(shuō)的,如今大數(shù)據(jù)與人工智能分別是國(guó)家重大科技戰(zhàn)略,因此在地位上有種等同性。然而這種描述只是外在描述,而且沒(méi)有把握住數(shù)據(jù)和智能的內(nèi)在關(guān)聯(lián)。從二者的內(nèi)在關(guān)聯(lián)就構(gòu)成了第二種解釋,即相關(guān)關(guān)系,對(duì)于智能體而言,智能的生成離不開(kāi)數(shù)據(jù)。盡管有很多學(xué)者如斯圖爾特·羅素(Stuart Russell)已經(jīng)指出,更多的數(shù)據(jù)和更多的算力不能帶來(lái)真正的智能。但是從經(jīng)驗(yàn)生成角度來(lái)說(shuō),智能的生成離不開(kāi)記憶,而這一點(diǎn)與過(guò)去的數(shù)據(jù)無(wú)法分開(kāi)。而如今AIGC就成為典型代表,而其中文本生成就是GPT系列,其中包括今天最為火爆的ChatGPT。 智能生成是從兩個(gè)意義上來(lái)說(shuō)的。其一是從內(nèi)容生產(chǎn)的方面來(lái)講,ChatGPT的意義就是進(jìn)行內(nèi)容生成。它有兩個(gè)特征,一是具有自主學(xué)習(xí)特征,它是在對(duì)海量數(shù)據(jù)進(jìn)行分析、組合而進(jìn)行的生成;二是智能生成的特征,ChatGPT在生成中進(jìn)化,從而獲得“心智”。美國(guó)學(xué)者米切·康辛斯基(Michal Konsinski)認(rèn)為ChatGPT擁有9歲左右兒童心智。這讓我們想到LaMDA,布萊克·勒蒙(Blake Lemoine)認(rèn)為它具有靈魂。其二是從與機(jī)械復(fù)制時(shí)代相對(duì)的角度來(lái)講。德國(guó)學(xué)者本雅明曾經(jīng)提出機(jī)械復(fù)制時(shí)代的觀念,并用這一觀念來(lái)描述工業(yè)社會(huì)中藝術(shù)生產(chǎn)的特性,藝術(shù)作品可以實(shí)現(xiàn)無(wú)限復(fù)制。我們用智能生成來(lái)描述的恰恰是智能社會(huì)的產(chǎn)品生產(chǎn)特征。此時(shí)范圍更為寬廣,不僅包括藝術(shù)作品,還有日常生活的對(duì)話文本以及包括醫(yī)學(xué)在內(nèi)的治療文本。此時(shí),對(duì)于這個(gè)范疇的闡述有利于我們重新認(rèn)識(shí)文本的概念。我們?cè)岬綌?shù)字文本,但是時(shí)代發(fā)展使得超越了這個(gè)范疇,而需要新的范疇來(lái)理解我們所面對(duì)的對(duì)象。 我們已經(jīng)確立了ChatGPT具有的特性,然后再來(lái)看這項(xiàng)技術(shù)本身。我們問(wèn)題是:ChatGPT是否是顛覆性技術(shù)(disruptive technology)?美國(guó)學(xué)者羅素·芬克(Russell Funk)曾經(jīng)提到鞏固性技術(shù)(Consolidating technology)和顛覆性技術(shù)等兩類技術(shù)的分類,并稱之為CD模式。他指出,目前科學(xué)技術(shù)發(fā)展的特征不再是創(chuàng)新、顛覆,而更多是一種鞏固。換句話說(shuō),科學(xué)技術(shù)發(fā)展呈現(xiàn)出的圖景是科學(xué)技術(shù)的突破性都在隨時(shí)間流逝而下降。從這個(gè)觀點(diǎn)來(lái)看,ChatGPT是否是對(duì)以往技術(shù)的顛覆和突破就成為一個(gè)問(wèn)題。從其發(fā)展歷史來(lái)看,ChatGPT具有延續(xù)性,是OpenAI公司的GPT系列。2018年發(fā)布GPT-1,包括1.17億個(gè)參數(shù),預(yù)訓(xùn)練數(shù)據(jù)量達(dá)到5GB;2019年發(fā)布GPT-2,包括15億個(gè)參數(shù),預(yù)訓(xùn)練數(shù)據(jù)量達(dá)到40G;2020年發(fā)布GPT-3包括1750億個(gè)參數(shù),預(yù)訓(xùn)練數(shù)據(jù)量45TB;隨后推出了GPT-3.5。從算法來(lái)看,ChatGPT是Transformer的應(yīng)用,可以做到通過(guò)重新注意舊數(shù)據(jù)從而產(chǎn)生新東西。所以ChatGPT作為一種技術(shù)類型,也并不是全新的,而是屬于鞏固性技術(shù)范疇。楊立昆也認(rèn)為這項(xiàng)底層技術(shù)并不是革命性的。目前對(duì)它的應(yīng)用的期望和技術(shù)的過(guò)度想象造成了當(dāng)前的迷思局面。 三、ChatGPT在什么意義上是可信的? 2023年2月13日,英國(guó)哲學(xué)家薩夫拉斯庫(kù)(Julian Savulescu)發(fā)表了《比得洛夫悖論:GhatGPT時(shí)代的道德責(zé)任》(The Petrov dilemma: Moral responsibility in the age of ChatGPT)。在這篇文章中他把ChatGPT看作是從人類對(duì)話中搜集信息和做出快速反應(yīng)的機(jī)器智能。他從ChatGPT思考人類面對(duì)AI應(yīng)該做三件事情:先思考、承擔(dān)責(zé)任和合乎倫理的行動(dòng)。先思考是涉及機(jī)器信任,生成的答案、文本是否值得相信;承擔(dān)責(zé)任涉及某人負(fù)責(zé)任的程度依靠他們確保福利或者避免傷害的努力和承諾;合乎倫理的行動(dòng)涉及行動(dòng)要合乎倫理,而這一點(diǎn)的前提是需要意識(shí)到技術(shù)的價(jià)值,然而要確保風(fēng)險(xiǎn)是合理的。他這篇文章非常應(yīng)景,尤其是他提到的信任問(wèn)題是最為重要的問(wèn)題之一。而這一點(diǎn)取決于ChatGPT給出的回答是否正確的。然而,他忽略了ChatGPT的透明性問(wèn)題,這也是信任的另一個(gè)基礎(chǔ)。 回答正確是ChatGPT可信的根據(jù)之一,因?yàn)镃hatGPT可以做到事實(shí)正確,所以我們可以信賴它。從提問(wèn)-回答本身來(lái)說(shuō),目前在很多使用者那里提出的問(wèn)題希望ChatGPT回答正確而不出錯(cuò),也只有在這個(gè)基礎(chǔ)上,人類才能夠信任并且接受它。這在搜索領(lǐng)域是如此,我們希望獲得正確而有效的答案。當(dāng)然,事實(shí)正確并無(wú)法保證道德正確。從倫理要求角度來(lái)說(shuō),我們希望它們的回答是友好的、無(wú)偏見(jiàn)的。無(wú)偏見(jiàn)是人類對(duì)于人工智能的基本倫理要求,希望在執(zhí)行任務(wù)時(shí)表現(xiàn)得公正。友好的是一種基于人類自身的要求,我們總希望對(duì)話者表達(dá)友好,而不至于懟我們,以至于讓我們情感上難以接受。然而,目前在使用ChatGPT過(guò)程中已經(jīng)出現(xiàn)不友好的表現(xiàn),比如不會(huì)回應(yīng)、無(wú)視問(wèn)題等等。這可以看作是無(wú)法做到道德正確的表現(xiàn)。事實(shí)正確與道德正確的完全是一個(gè)外在于ChatGPT的要求,這是人工智能倫理的要求,換句話說(shuō),是人類把自己的道德期望作為一種必然的要求給予它??梢钥闯觯@種要求不是必然的。 透明性問(wèn)題也是會(huì)影響ChatGPT的可信的。這一點(diǎn)為薩夫拉斯庫(kù)忽略了。ChatGPT學(xué)習(xí)的數(shù)據(jù)來(lái)自人類歷史數(shù)據(jù),充滿了各式各樣的偏見(jiàn)。此外,ChatGPT的黑箱問(wèn)題尤其明顯,羅素非常明確地指出,我們不清楚ChatGPT的工作原理和機(jī)制,他也不認(rèn)為語(yǔ)言大模型讓我們距離真正的智能更近。面對(duì)比如Stable Diffusion、LaMDA和ChatGPT等生成式AI的迅速發(fā)展,歐盟即將出臺(tái)新的人工智能法規(guī),強(qiáng)迫AI公司闡明其人工智能模型的內(nèi)部運(yùn)作原理,違反者將面臨高達(dá)其全年收入6%的罰款。但是,事實(shí)上,那些試圖讓ChatGPT變得更加透明的想法有可能是一種奢望。 四、ChatGPT是否是可錯(cuò)的? 一般說(shuō)來(lái),ChatGPT是可錯(cuò)的(fallible),它的回答可以模糊、錯(cuò)誤、帶有偏見(jiàn)。上面的分析指出,ChatGPT無(wú)法做到道德正確,它的回答明顯充滿了偏見(jiàn)。還有一種情況是ChatGPT的幻覺(jué),即會(huì)產(chǎn)生不準(zhǔn)確的、誤導(dǎo)或錯(cuò)誤的信息。OpenAI的首席執(zhí)行官山姆·阿爾特曼(Sam Altma)承認(rèn)ChatGPT給人一種誤導(dǎo)性印象。在科學(xué)家的眼里,這一缺陷是可以通過(guò)技術(shù)方式來(lái)解決和彌補(bǔ)的。面對(duì)這種缺陷和有限,他們通過(guò)對(duì)改進(jìn)現(xiàn)有架構(gòu)或者AI方法論變更來(lái)解決這一問(wèn)題。 可以看出,技術(shù)的可錯(cuò)性有其自身特性,能夠通過(guò)技術(shù)方式加以解決。這與人類的可錯(cuò)性存在極大區(qū)別。人類的有限性是人自身的先天特性,斯蒂格勒將這種有限性稱之為先天的缺陷;此外,人類的有限性是無(wú)法徹底克服,換句話說(shuō),人類無(wú)法做到完美,通過(guò)各種技術(shù)手段無(wú)法實(shí)現(xiàn)完美;最后,人類的有限性是主體意志的必然結(jié)果。在保羅·利科的哲學(xué)中,“可錯(cuò)的人”是一個(gè)專有的概念用來(lái)描述人的特征,人的可錯(cuò)與人的意志相關(guān)。 ChatGPT的出錯(cuò)與意志沒(méi)有任何關(guān)系,是參數(shù)和數(shù)據(jù)導(dǎo)致的偏差,甚至是神秘的黑箱導(dǎo)致的無(wú)法避免的結(jié)果。在這個(gè)分析中,我們把ChatGPT的可錯(cuò)性分析與意志的關(guān)系完全剝離出來(lái)。畢竟它只是一個(gè)智能體,而不是主體。我們需要做的是把ChatGPT可錯(cuò)程度控制到一定范圍內(nèi),完全不犯錯(cuò)誤是不可能的。 國(guó)家社科基金重大項(xiàng)目“當(dāng)代新興增強(qiáng)技術(shù)前沿的人文主義哲學(xué)研究”(20ZD&045)階段性成果。 |