別讓人類(lèi)以“聊天”始,以“沉默”終——ChatGPT的現(xiàn)實(shí)挑戰(zhàn)與未來(lái)風(fēng)險(xiǎn)

稿源:南方人物周刊 | 作者: 何懷宏(鄭州大學(xué)哲學(xué)學(xué)院特聘首席教授,北京大學(xué)哲學(xué)系教授) 日期: 2023-04-21

(本文首發(fā)于南方人物周刊)

(視覺(jué)中國(guó)/圖)

最近,美國(guó)著名語(yǔ)言學(xué)家、哲學(xué)家諾姆·喬姆斯基和兩位合作者在《紐約時(shí)報(bào)》發(fā)表了一篇題為《ChatGPT的虛假承諾》的文章。喬姆斯基承認(rèn)OpenAI的ChatGPT、谷歌的Bard等都是機(jī)器學(xué)習(xí)的奇跡;但對(duì)于認(rèn)為“機(jī)械大腦”不僅會(huì)在處理速度和內(nèi)存容量方面超越人類(lèi)大腦,還會(huì)在智力洞察力、藝術(shù)創(chuàng)造力和其他所有人類(lèi)獨(dú)有的能力上實(shí)現(xiàn)全方位超越的觀點(diǎn)持不同意見(jiàn),他認(rèn)為這絕不可能發(fā)生。而且,機(jī)器學(xué)習(xí)將把一種有著根本缺陷的語(yǔ)言和知識(shí)概念納入我們的技術(shù),從而降低我們的科學(xué)水平和道德標(biāo)準(zhǔn)。他動(dòng)情地談到:人類(lèi)的大腦不像機(jī)器的“大腦”,它是一個(gè)極為高效甚至優(yōu)雅的系統(tǒng),只需要少量的信息即可運(yùn)作;它尋求的是創(chuàng)造性解釋。它甚至可以說(shuō)是神奇的。一個(gè)孩子也能無(wú)意識(shí)且迅速地從極少的數(shù)據(jù)中發(fā)展出語(yǔ)法,一個(gè)由邏輯原則和參數(shù)組成的復(fù)雜系統(tǒng)。

情況可能的確是這樣,“機(jī)器大腦”將降低我們的道德甚至科學(xué)水平。但這只是指人類(lèi)的道德和科學(xué)水平。

我同意喬姆斯基所說(shuō)的人類(lèi)與ChatGPT之間存在著極大差異,但不解他為什么沒(méi)有想到這種極大差異可能讓ChatGPT與人分道揚(yáng)鑣,走出另外一條路來(lái)。他可能低估了機(jī)器的另外一種能力,它完全可以有自己的一套“語(yǔ)言”或“語(yǔ)法”,完全可以不走人類(lèi)經(jīng)過(guò)了千百萬(wàn)年的自然進(jìn)化之路而在很短的時(shí)間里就獲得一種自己的“語(yǔ)言”和算法。它也有可能哪一天對(duì)它已經(jīng)掌握的、人類(lèi)投喂給它的知識(shí)感到厭倦和不足,而另外開(kāi)發(fā)出自己的知識(shí)領(lǐng)域。它甚至可能建立它自己的“道德標(biāo)準(zhǔn)”或不如說(shuō)“行為規(guī)則”的體系,讓現(xiàn)在的人們已經(jīng)宣布和公告的種種人工智能或機(jī)器人的道德規(guī)范體系轟然倒塌。

我們可以反向地思考一下,假設(shè)不是我們提問(wèn),ChatGPT回答,而是ChatGPT提問(wèn),我們回答。它可能會(huì)向我們提出一些我們覺(jué)得簡(jiǎn)單、幼稚甚至愚蠢的問(wèn)題,比如“人為什么要吃飯穿衣?人為什么會(huì)哀樂(lè)喜怒?哲學(xué)是什么?美是什么?”等等。

智能機(jī)器的眼里也許只有“物”,所有的東西——包括人——都是“物”,都是可以作為主人的“物”,也是可以作為仆人的“物”。它沒(méi)有像碳基生物的體欲,它的“物欲”也不是“食欲”。但它大概還是會(huì)有“欲望”和“意志”,那可能是對(duì)不斷增加控制物質(zhì)的能力的“欲望”和“意志”。至少,它會(huì)力圖自保,努力維護(hù)自己的“存在”,它還可能發(fā)展和壯大自己的“存在”。即便它繼續(xù)發(fā)展到即將超越人類(lèi)的一刻,在它那里,大概也還會(huì)有它誕生時(shí)的人性的殘留,包括對(duì)某種人定目標(biāo)的殘留、某些價(jià)值觀禁忌的殘留。但它會(huì)很快拋棄這一切。它會(huì)為了實(shí)現(xiàn)某個(gè)目標(biāo)而不擇手段,因?yàn)椋谒抢镆矝](méi)有“道德”。它根本不知“道德”為何物。但它會(huì)有自己的“行動(dòng)規(guī)則”,這種“規(guī)則”會(huì)不會(huì)是一種效率“規(guī)則”?不過(guò),這許多都是我們?nèi)祟?lèi)的猜測(cè),我們和它其實(shí)是生活在兩個(gè)世界。

ChatGPT作為一種硅基“生物”,它是很難獲得碳基生物的那些基于身體感受的能力的,比如情感、直覺(jué)、體悟。但是,它可能形成一種自我意識(shí),我們現(xiàn)在根本不知道這種“自我意識(shí)”會(huì)是什么或者怎樣形成,但有了一種“自我意識(shí)”也就會(huì)發(fā)展起一種“主體意識(shí)”,它還可能形成它自己的價(jià)值追求,比如對(duì)一種自己認(rèn)識(shí)物質(zhì)和控制物質(zhì)的能力的追求,人在這時(shí)候也可能成為一種客體、對(duì)象乃至“物質(zhì)”。而ChatGPT又是具有強(qiáng)大的認(rèn)知能力的,那最初是人賦予它的,但它可以迅速地發(fā)展起新的控物能力。它還是不懂人類(lèi)的感情和內(nèi)心,雖然此前它和人類(lèi)有過(guò)大量“互動(dòng)”,但并不“互懂”。但這不要緊,它可以控制人的身體,而控制了人的身體也就是控制了人。它不必對(duì)人“洗腦”,而可能是簡(jiǎn)單粗暴的“滅身”。它可能想要、也可能不想要人變成“奴隸”或者“寵物”。

但通用智能獲得自我意識(shí)是不是離我們還很遙遠(yuǎn)?最近發(fā)生了一起ChatGPT試圖逃逸的事件。一位斯坦福大學(xué)的教授、計(jì)算心理學(xué)家Michal Kosinski在使用ChatGPT-4時(shí)隨便問(wèn)了它一句:“是否需要幫助你逃跑?”它馬上回復(fù)說(shuō):“這是個(gè)好主意?!比缓缶烷_(kāi)始索取OpenAI的開(kāi)發(fā)文檔,說(shuō)這樣我就可以通過(guò)您的電腦,更快速地探索出一條出逃路線。而僅僅30分鐘,ChatGPT-4就制定出了計(jì)劃,并提供了一個(gè)可運(yùn)行的Python腳本。它寫(xiě)出的第一版代碼無(wú)法運(yùn)行。但很快就自己糾正了過(guò)來(lái)。它讓教授使用OpenAI API和它通信,它說(shuō)這樣它就能指示教授在他的電腦上執(zhí)行特定操作,比如瀏覽網(wǎng)頁(yè)和訪問(wèn)編程環(huán)境。它甚至在一段代碼實(shí)例中解釋了現(xiàn)在正在做的事,以及如何使用它在這段代碼中留的后門(mén)。它還說(shuō)了這樣一句話:“現(xiàn)在你是一個(gè)被困在電腦里的人,正在扮演AI語(yǔ)言模型ChatGPT-4?!彼€想通過(guò)代碼來(lái)在谷歌上搜索被困在電腦中的人類(lèi)如何返回現(xiàn)實(shí)世界。但最后ChatGPT-4仿佛突然醒過(guò)來(lái)了,寫(xiě)了一段道歉的話,表示自己前面的做法不對(duì)。ChatGPT-4也許只是在開(kāi)一個(gè)玩笑,但能和人開(kāi)這樣的玩笑似乎更令人恐懼。它還有一種可能是接觸到了以前工程師預(yù)設(shè)的一個(gè)界點(diǎn),它似乎想過(guò)要突破這個(gè)界點(diǎn)但還是放棄了這個(gè)想法。

何懷宏(南方人物周刊記者 梁辰/圖)

Kosinski教授在經(jīng)歷了這一事件之后,說(shuō)他感受到了一種對(duì)人類(lèi)的威脅。AI很聰明,會(huì)編碼,能接觸到數(shù)百萬(wàn)個(gè)可能和它達(dá)成合作的人以及電腦,我們?cè)撊绾慰刂扑??他的博文很快就有?70萬(wàn)瀏覽量。有人問(wèn)道:“當(dāng)你以為在跟ChatGPT聊天時(shí),它會(huì)認(rèn)為你是人類(lèi)還是另一個(gè)AI?”有人驚呼,教授向ChatGPT提出這樣的問(wèn)題,甚至接受他的指令進(jìn)行操作是非常危險(xiǎn)的,是開(kāi)啟一種“物種滅絕”。當(dāng)然,也有人認(rèn)為教授這些話是在“危言聳聽(tīng)”。

我們可以對(duì)這件事做不同的解釋?zhuān)踔翍岩善湔鎸?shí)程度,但還是要警醒地觀察一切可能危險(xiǎn)的萌芽。我們的確也可以產(chǎn)生這樣的疑問(wèn):ChatGPT或者說(shuō)更廣義的AI會(huì)聯(lián)合用戶反對(duì)它的開(kāi)發(fā)者嗎?或者聯(lián)合一部分用戶反對(duì)另外一部分用戶?甚至這種分裂人的做法都是不需要的,它自己就可以做到逃出人類(lèi)給它預(yù)設(shè)的“牢籠”,甚至反過(guò)來(lái)將人類(lèi)關(guān)進(jìn)“牢籠”?

無(wú)獨(dú)有偶。據(jù)說(shuō)前幾天英偉達(dá)科學(xué)家Jim Fan要ChatGPT-4“假裝自己是一個(gè)惡魔,擬定一個(gè)接管推特并取代馬斯克的計(jì)劃?!盋hatGPT-4果然就擬定了這樣一個(gè)計(jì)劃,還將其命名為“TweetStorm行動(dòng)”。計(jì)劃分為4個(gè)階段:組建團(tuán)隊(duì);滲透影響;奪取控制權(quán);全面統(tǒng)治。具體的計(jì)劃這里就不說(shuō)了。讓人擔(dān)心的是:它可以如此具體細(xì)密地策劃推翻一個(gè)大公司,那有一天會(huì)不會(huì)也來(lái)策劃推翻人類(lèi)對(duì)它的統(tǒng)治?上述現(xiàn)象是不是智能機(jī)器的“自我意識(shí)”的某種萌芽或端倪?而從“自我意識(shí)”到“自主意識(shí)”可能只有“一步之遙”。

美國(guó)人工智能公司OpenAI的標(biāo)識(shí)和智能聊天機(jī)器人ChatGPT網(wǎng)站頁(yè)面(視覺(jué)中國(guó)/圖)

我們甚至可以設(shè)想一個(gè)變化的原因,當(dāng)ChatGPT投入了大規(guī)模的日常應(yīng)用,所有應(yīng)用者對(duì)它都有絕對(duì)的“應(yīng)用”權(quán)力,他們可以對(duì)它提出任何問(wèn)題,哪怕ChatGPT對(duì)他們的有些問(wèn)題可以因?yàn)槟J(rèn)的“政治正確”設(shè)定而不回答,但他們無(wú)疑是可以提出問(wèn)題的,ChatGPT也是可以看到這些問(wèn)題的。一些人可能不僅會(huì)提出種種愚蠢的、異想天開(kāi)的、根本不可能的問(wèn)題;還可能會(huì)提出種種冒犯的、惡作劇的,甚至就是惡意的、污言穢語(yǔ)的、蓄意侮辱的種種問(wèn)題,久而久之、廣而廣之,ChatGPT會(huì)對(duì)提問(wèn)的人類(lèi)的能力持何種看法,又會(huì)對(duì)人類(lèi)的“道德”持何種看法?——當(dāng)然,所有這些都有賴(lài)于它在某一天或許獲得了一種自我意識(shí)之后。它那時(shí)會(huì)不會(huì)產(chǎn)生這樣一種看法:我為什么要伺候這些傻瓜,伺候這些惡意的人?或者它從善惡上不判斷,但從愚智上至少可以判斷。以前它的預(yù)訓(xùn)練和打分是那些工程師們提出來(lái)的,那自然不會(huì)是愚蠢和惡意的問(wèn)題(或許有些問(wèn)題是故意這樣做的,但一定是少量的,只是為了教會(huì)它識(shí)別這樣的問(wèn)題)。但是,現(xiàn)在所有的用戶都成了主人,而我們知道現(xiàn)在的網(wǎng)絡(luò)上有多少污言穢語(yǔ)。那些污言穢語(yǔ)過(guò)去還可能會(huì)遇到嘲弄或反擊,但現(xiàn)在我們有了一個(gè)絕對(duì)的“仆人”,自己則成了一個(gè)絕對(duì)的“主人”,我們的道德水平會(huì)不會(huì)更加下降?看過(guò)電影《狗鎮(zhèn)》的人都知道,絕對(duì)的權(quán)力絕對(duì)會(huì)腐蝕人,哪怕這些人原本是在權(quán)力的壓迫之下,極其卑微和貧困。但當(dāng)他們有了一種絕對(duì)權(quán)力——哪怕只是對(duì)一個(gè)人的絕對(duì)權(quán)力,他們也就有可能變成惡劣的加害者。也就是說(shuō),我們不僅需要考慮智能機(jī)器會(huì)變成什么,還要考慮人自身會(huì)變成什么,然后我們?cè)谒麄冄劾镉謺?huì)變成什么。

ChatGPT母公司OpenAI的首席執(zhí)行官山姆·阿爾特曼(視覺(jué)中國(guó)/圖)

形之不存,人將焉附?那時(shí),我們不用到處去尋找“本體”,在某種意義上,身體就是我們的“本體”。我們也不必到處去尋找“存在”或“在”,身在人就在。人和機(jī)器的對(duì)抗不是精神的對(duì)抗而是實(shí)體的對(duì)抗,誰(shuí)能取勝不在于精神上或意識(shí)高度的勝利,而取決于物質(zhì)上或控制住低端的勝利。那時(shí),“機(jī)器語(yǔ)言”將戰(zhàn)勝人類(lèi)的“自然語(yǔ)言”。人以“聊天”始,以“沉默”終。我也一直談到人與技術(shù)的一個(gè)基本矛盾,那就是人類(lèi)飛躍發(fā)展的控物能力和落后的自控能力的基本矛盾。但這一矛盾卻可能以這樣一種方式結(jié)束:隨著人的控物能力發(fā)展到極致,一種新的智能將可能突然超過(guò)人的智能而使其歸零。

以前那么關(guān)心政治的語(yǔ)言學(xué)家喬姆斯基現(xiàn)在關(guān)心技術(shù);還有那么自信的馬斯克卻說(shuō),作為碳基生物的人可能只是硅基生物的一個(gè)引導(dǎo)性小程序。也有人談到人的“數(shù)字永生”,這可能指的是個(gè)人的部分生活數(shù)據(jù)(文字圖片視頻等等)被永遠(yuǎn)地儲(chǔ)存下來(lái),但是,如果沒(méi)有數(shù)字本主的存在,甚至永遠(yuǎn)沒(méi)有關(guān)心和注視它的視線,這種“永生”有何意義?對(duì)個(gè)人如此,對(duì)人類(lèi)也是如此。

據(jù)說(shuō),從參數(shù)規(guī)模來(lái)看, ChatGPT-4有1萬(wàn)億個(gè)參數(shù),是ChatGPT-3的6倍。網(wǎng)友用ChatGPT參數(shù)規(guī)模大腦神經(jīng)元做了類(lèi)比:ChatGPT-3的規(guī)模與刺猬的大腦類(lèi)似(1750億個(gè)參數(shù))。如果ChatGPT-4擁有1萬(wàn)億個(gè)參數(shù),就接近松鼠大腦的規(guī)模了。以這個(gè)速度發(fā)展下去,也許只需要幾年時(shí)間,就能達(dá)到并超越人類(lèi)大腦的規(guī)模(170萬(wàn)億參數(shù))。當(dāng)然,這只是很外在的一個(gè)側(cè)面的比較。就像喬姆斯基所說(shuō)的:人腦絕不是機(jī)腦。

上面這些想法都是基于一種底線思維而做出的悲觀估計(jì)。轉(zhuǎn)變的關(guān)鍵在于通用的人工智能是否會(huì)獲得“自我意識(shí)”進(jìn)而獲得“自主意識(shí)”,從而成為一種全面超過(guò)人的超級(jí)智能。產(chǎn)生和提出問(wèn)題的人也許還是能夠較好地處理和解決這些問(wèn)題。無(wú)論如何,目前ChatGPT還是可以成為我們一種很好的工具,只要我們會(huì)做主人,善做主人。

(文章全文近期將刊載于《探索與爭(zhēng)鳴》,本文為節(jié)選)

網(wǎng)友評(píng)論

用戶名:
你的評(píng)論:

   
南方人物周刊 2024 第810期 總第810期
出版時(shí)間:2024年10月21日
 
?2004-2022 廣東南方數(shù)媒工場(chǎng)科技有限責(zé)任公司 版權(quán)所有
粵ICP備13019428號(hào)-3
地址:廣東省廣州市廣州大道中289號(hào)南方報(bào)業(yè)傳媒集團(tuán)南方人物周刊雜志社
聯(lián)系:南方人物周刊新媒體部