焦點評論經濟

ChatGPT引爆又一波AI熱潮,什麼人需要恐慌?

宣傳畫中的人形AI

文/觀察者網專欄作者 陳經

近期,OpenAI開發並發佈了一款新型自然語言處理(NLP)聊天機器人工具——ChatGPT。它被廣泛視作未來人工智慧在用戶體驗方面的領先者,備受世界矚目。人們關心,ChatGPT可能對就業市場產生怎樣的影響?

一方面,在許多崗位上,ChatGPT有望取代人類。例如,以往在行銷領域,行銷部門需要依靠客服代表與現有和潛在的客戶進行溝通、解決問題、推廣產品,以達成銷售目標。但是,隨著ChatGPT出現,機器可以更加自動化地完成客戶服務等日常交易:通過自然語言理解、推斷和應答,它可以執行幾乎所有客戶服務活動,包括提出問題、提供建議和解決問題,而這些曾經都是客服代表的職責。因此,未來ChatGPT可能取代客服代表這一職位,使一些人失去工作。

另一方面,ChatGPT也會為許多其他行業創造工作機會。例如,ChatGPT也可能給消費者帶來更好的使用者體驗,根據消費者的實際意圖提供準確的產品資訊和服務,從而更有效地實現銷售目標。因此,它也可以為許多公司和機構創造資料分析師、客戶服務專員等新的崗位。畢竟,機器只是自動化的工具,而真正的商業成功和創新還需依賴具有創造力和獨特思維能力的人類團隊。

說了多少年「AI將取代人的工作」,這一次,「狼」是真的來了。可以斷定,從客服代表到新聞寫稿,許多人的工作可能被機器取代。如果你還無動於衷,事實上,本文開頭四段就是筆者讓ChatGPT寫的。

ChatGPT的特性與原理

當然,由於ChatGPT的中文版本訓練較少,它還沒有學會我的語言風格。但正如許多西方作者所發現的,只要有足夠多的樣本,風格化的寫作不是問題。

筆者讓ChatGPT以「波動的市場」為主題,寫一首許巍風格的歌詞。它較好地完成了任務。(注:協力廠商開發者將ChatGPT接入了微信,群聊天轉發到OpenAI的伺服器給出回饋)

不過,當我讓ChatGPT繼續介紹OpenAI公司,它的表現證明,我們也無需對人工智慧過於擔憂——它寫道:

OpenAI在相對較短的時間內取得了一些重大成功。2016年,它創建了一個叫AlphaGo的遊戲系統,在一場圍棋比賽中擊敗了世界冠軍李世石。這一成就尤其值得注意,因為圍棋此前被認為過於複雜,電腦無法掌握。

2016年AlphaGo引爆歷史最大一波人工智慧熱潮時,筆者是親歷者,解說了機器下圍棋的原理與缺陷,在觀察者網發表的文章提前預測到了李世石戰勝AlphaGo的一局。這事和OpenAI毫無關係,實際上AlphaGo是競爭對手Deepmind開發的。

由此不難看出ChatGPT的一個典型毛病:理直氣壯地編造事實和資料,就像一個信心十足的「大忽悠」。如果不提高警惕,很容易上當。英文版本由於訓練資料較多而比中文版本靠譜得多,但即便如此,也有不少人報告說機器撒謊。

無論如何,ChatGPT引發了人們很大的興趣,不少人都要求入群圍觀調戲。如何理解這波熱潮?

2016年,AlphaGo引爆了史上最大的人工智慧熱潮,一度到了「與會必談」的程度。一些社科學者也對人工智慧產生了興趣,對人與智慧機器的關係進行了深入探討,「機器是否會取代人的工作」一度引發熱議。

後來,AI熱潮逐漸退去,這也正常——AI的確很有用,但這幾年間並沒有取代多少人的工作。人們逐漸發現,AI並非宣傳畫中的人形機器,也還不完全具備送快遞、自動駕駛等功能,只是能執行人的語音命令,並沒有傳說中那樣神奇。

正如IT開發者早就指出的,雖然AI在所有棋類運動中都戰勝了人類,但這並不意味著其具備了足以與人類匹敵的、真正意義上的智慧——棋類運動的本質即較為複雜的計算,因此AI在棋類運動中的勝利表明的無非是其深度學習、強化學習演算法的威力。計算器剛發明時曾被視作神奇的產品,能賣上千美元,但隨著時間推移也就逐漸「白菜化」了;同理,高水準AI作為更強大的計算功能,也終將被人們習以為常。

如何判斷AI究竟有無「智慧」?相關學者對此早有思考,提出了「圖靈測試」法則:如果機器能夠像真人那樣聊天、讓人無法分辯,則可視作具有智慧。

但是,關於通過圖靈測試的標準,研究者們各執一詞,難有定論。例如,有研究者聲稱裁判無法區分其開發的聊天機器人和13歲小孩,谷歌工程師Blake Lemoine也曾聲稱聊天機器人LaMDA真的擁有「靈魂」,但上述案例並未得到業界的普遍認可,被視作笑話或炒作。另外,隨著機器的表現越來越好,圖靈測試的標準也相應地一再升級。

研究者們高度重視圖靈測試,希望看到聊天能力強大的機器人——早在數年前,聊天機器人與圖靈測試的關係就得到業界廣泛關注。近兩個月「火出圈」的ChatGPT被業界公認為最有希望通過圖靈檢驗的AI,雖然它並不自稱為人類。

聊天機器人的專業名稱是「大型語言模型」(LLM, Large Language Model)。主要技術關鍵是谷歌2017年開始引入的Transformer模型,先是對機器翻譯,再自然地到語言模型、聊天機器人。

上一波人工智慧突破主要由圖像識別領域的「深度學習」(DL,Deep Learning)引領,AlphaGo就是將棋盤當作圖像輸入。人們一度認為「強化學習」(RL,Reinforcement Learning)以及「對抗生成網路」(GAN,Generative Adversarial Network)很厲害。AlphaGo的升級版本AlphaZero就是用了這兩個技術,幾個模型反復對抗訓練、一起進化,自己生成學習樣例,進步非常明顯。

GAN還被應用於不少其他有趣的方面,例如,可以用GAN框架做一個生成圖片的神經網路和一個判別圖片真假的神經網路,兩個網路互相對抗、共同改進,最後獲得足以以假亂真的圖片生成能力,畫出大師風格的油畫。不少研究者覺得,GAN是多年來人工智慧領域最大的突破,應該會是下一個出大成果的方向。

有點意外的是,實際大突破到出圈的卻是LLM,這次人工智慧熱潮就是自然語言處理(NLP,Natural Language Processing)的飛躍進步引發的。

「Transformer模型是一種具有注意力機制的深度學習模型,可以用來解決自然語言處理(NLP)問題。它使用注意力技術來聚焦模型中每個符號的輸入序列,從而可以捕捉句子中詞語之間的關係,而無需顯式地定義特徵或構建特徵提取器。此外,Transformer模型利用並行化,避免了傳統序列模型(如遞迴神經網路)時需要等待前一步執行結束才能開始新一步的等待時間,提高了計算速度。」

上面這段是ChatGPT介紹的LLM技術關鍵:Transformer模型(這類常見概念介紹它不忽悠)。意思是說,Transformer訓練和計算有利於並行加速,這樣可以引入幾百億個參數的大模型。以前的語言模型,如「迴圈神經網路」(RNN,Recurrent Neural Network),參數不能太多,訓練樣本也多不了,「需要等待前一步執行結束才能開始新一步」,例如RNN將推理結果當作下一步推理的輸入(這就是「迴圈」)。不方便並行,訓練就慢,大模型訓練需要的時間太長,沒法用。

2015年底,谷歌收購最有可能做出通用人工智慧的Deepmind,風險投資家Sam Altman(後來的OpenAI CEO)和馬斯克等不少科技圈的人對此不滿,於是共同投資成立了OpenAI。和Deepmind一樣,OpenAI也開發了遊戲AI,據說在Dota2項目上達到了人類水準。但真正取得大突破的還是2020年的語言模型GPT-3(Generative Pre-trained Transformer 3),前面還有GPT-2和GPT-1。

GPT-3的開發思想就是把整個互聯網的知識都當成訓練素材,做出幾百億個參數的超級大模型,看能訓練出什麼。語言模型的訓練目標很簡單,就是把一段話作為輸入,「預測」後面最可能出現的詞,以此類推,最後輸出完整的對話或文章。

GPT-3似乎學會了整個互聯網上的所有知識,鑒於許多程式師將代碼放到了網上,GPT-3甚至學會了寫程式。微軟收購的Github開發了Copilot等輔助程式設計工具,機器編寫的代碼量占比逐漸上升至30%-40%,以至於程式師們一邊使用輔助程式設計工具,一邊默默憂慮自己何時會被AI取代。可以說,GPT-3使整個IT業界為之震撼,不過由於使用門檻相對較高,所以沒有「出圈」。

隨後,OpenAI在GPT-3的基礎上開發出「GPT-3.5」也即ChatGPT,於2022年11月30日上線,並迅速火出了圈。相較於GPT-3,ChatGPT的關鍵優勢在於人工優化——GPT-3肚裡有大量乾貨,但不擅長理解人的對話,需要「懂行」人士的引導才能輸出有效內容;OpenAI則經過了大量人工測試,人工對不對勁的回饋進行訓練修正,用有點意外的方式解決了問題(業界習氣是讓機器幹活,少搞人工作業)。

經過這一關鍵優化,聊天機器得以從專業人士才能用的GPT-3,進化成普通人也能歡快聊天的ChatGPT!後面的事大家都知道了:業界內外的大量用戶紛紛註冊,踴躍「調戲」ChatGPT,月活用戶數在短短2個月內輕鬆突破1億。作為互聯網產品,這是現象級的。事實上,ChatGPT讓人們首次意識到,AI也能直接成為互聯網產品。

現在,LLM已成為互聯網公司新的「必爭之地」。微軟宣佈,Bing搜尋引擎、Office套件等全線產品都將引入ChatGPT,對OpenAI增加投資100億美元(之前投了10億美元,有優先權)。

谷歌和百度也都計畫推出競品。據彭博社1月30日報導,知情人士透露百度公司計畫在3月推出與ChatGPT類似的聊天機器人,並將之嵌入搜索服務。

谷歌更是不得不行動了——員工都讓ChatGPT寫關於谷歌裁員的詩了,寫得很有意思。谷歌對前OpenAI員工2021年創立的公司Anthropic緊急投資4億美元,後者的聊天機器人Claude有520億個參數的模型,還在內測,尚未公開。值得注意的是,前OpenAI員工之所以創立Anthropic,就是因為他們認為ChatGPT商業化嚴重,輸出內容的正確性有嚴重缺陷。

以上是ChatGPT簡略的技術原理和發展歷史。其實AI的原理並不難懂(希望一些技術名詞沒有造成理解困難),主要還是得實際幹出來,Show me the code,這就需要海量的技術細節和投資。

為了超越ChatGPT寫文章的層次,筆者還想從「AI哲學」層面進行一些深入的探討。近日,楊立昆作為Meta首席科學家表示,就底層技術而言,ChatGPT不是多了不起的創新,主要是在產品層面設計組合很好,才被視為「革命性產品」。這一態度在很大程度上基於其AI哲學觀——早在ChatGPT上線之前,圖靈獎得主楊立昆(Yann LeCun)和研究AI哲學的Jacob Browning就在Noema雜誌上發表文章,指出了AI語言模型的重大缺陷:

「這些系統只會有淺層理解,永遠不會有人類的完全理解能力」

「放棄所有知識都是語言學的觀點,讓我們意識到知識中有多少是非語言的」

「只由語言素材訓練的系統永遠都不會接近人類智慧,即使它訓練到宇宙毀滅都不行」

楊立昆說的是什麼意思?其實和ChatGPT聊一陣子就明白了。筆者的感覺是,機器「查找資料、泛泛聊天」能力已經超過了所有人類。但是,如果將聊天的標準上升,考察真正的智慧,那麼ChatGPT將很快露出破綻,其後續版本(如將知識引擎從GPT-3升級到GPT-4)也難以解決這個問題。

再往深裡說,這涉及哲學層面的語言之思。海德格爾懷疑,我們也許並不能從日常語言經驗中獲得獲得本質洞見,而毋寧只能獲得一種虛假的可理解性。隨著電腦的發展,人們愈發深刻地認識到,語言不能直接等價於知識,知識還需要人的感官與情感作為支撐。

哲學性地說,人類在以語言表述知識時,有兩種狀態:一種是真正的智慧,也就是在對知識融會貫通、徹底理解之後,做出有條理、經得起盤問的表述;另一種是「人云亦云」,也就是不假思索地複述他人的說法。例如,對「中國2022年GDP是121萬億元」這一知識,絕大多數人只是能以不同形式複述這句話,但對於GDP這個名詞的理解都是糊塗的、經不起盤問的,整個體系的相關知識接近於零。

表面上看,ChatGPT能回答中國GDP增長的問題。然而,筆者經過測試,可以肯定地說,ChatGPT並不理解GDP知識體系,會出一堆莫名其妙的問題。也就是說,最有水準的聊天機器人也只是「人云亦云」,沒有體現人類深層理解的智慧水準。

這並不出人意料,因為ChatGPT只是一個語言模型,而不是知識體系。它只是在重複一個任務,「預測」下面應該說的一個詞,不可能對整個知識體系產生飛躍性的理解。有時人們覺得它理解了,甚至理解得還挺深,但那只是因為它找到了合適的「參考資料」並對其做了靈活的組合。

ChatGPT學得太多了,因此乍看顯得理解了人類的知識,而且聊起天來派頭十足、很有信心,一副人類的「架勢」。但是,這個特點也可能是大缺陷——在沒有相關資料和事實時,它會煞有介事地編造,如果人們沒有相關知識,就很容易被矇騙。

例如,有新聞報導誇張地聲稱,ChatGPT通過了法律學和商學院課程考試的事,但事實上,它只是以C+或者B-的成績勉強通過了明尼蘇達大學法學院以及沃頓法學院的幾門課程考試——只有簡單題答得不錯,一旦題目稍有分析難度,ChatGPT就不知所措了,即便勉強蒙對答案,答題邏輯也明顯不對,成績在全班墊底。

個人以為,從AI哲學的層面而言,ChatGPT的情況與AlphaGo差不多。但是,從對實際生活的影響而言,ChatGPT具有顯著的優勢,不能用楊立昆的高標準去貶低其意義。

AlphaGo證明人類在圍棋方面不是機器的對手,但是機器也不理解自己在幹什麼。正確的應用方式是,人們利用圍棋AI,對高明或有漏洞的招法做解讀和分析,以此促進棋手對圍棋的理解和棋藝的進步。換言之,棋類運動的中心還是人類棋手,AI不需要理解圍棋,只要能為人類棋手提供幫助即可。對此,有人歡喜有人愁,但無可否認的是,AlphaGo使人們的圍棋觀發生了革命性、顛覆性的改變。

同理,楊立昆基於其AI哲學而低估ChatGPT的革命性意義的做法是不對的。ChatGPT等LLM聊天機器人,雖然沒有真正的理解而只會人云亦云,但它出色的表現足以引發人類知識體系的大革命。

由Alphago引發的上一波人工智慧熱潮看似頗為戲劇性,引發了一系列不切實際的恐懼或希望,但實際影響並沒有部分新聞報導所宣稱的那樣強烈——這波熱潮主要在圖像識別、下棋等專業領域取得突破,受影響很大的只是棋手、停車場收費員等少數人。因此,當時,筆者在與一些社科學者討論AI的影響時,傾向於對AI「祛魅」、拒絕神化AI。

而這一次由ChatGPT引發的熱潮看起來不那麼石破天驚,卻對社會造成了更大的真實影響。這一次,自然語言處理被機器全面突破,由此引發了兩個結果:第一,機器人的聊天交互能力增強,很快大部分人都能接觸和使用高水準的聊天機器人了,這是機器影響社會最大的「殺手鐧」;第二,以前的機器只擅長某個專門領域,而現在的AI以幾千億個參數囊括了整個互聯網的知識,其功能趨向於「通用」。說句悲觀的話,很多靠嘴皮、文字等「自然語言處理」謀生的人,能力未必比得上機器。

對於ChatGPT等聊天機器人,哲學上我們仍然要「祛魅」,不鬼扯機器智慧。但是在實際社會經濟運行、人們的學習生活中,要對通用聊天機器人的應用前景,展開想像力。

AI的一大應用前景是AIGC(AI Generated Content),即「以人工智慧技術來生成內容」。目前,AIGC在生成圖片方面取得突破:2022年,Stable Diffusion在圖片生成方面取得較大進展,可生成品質較高的圖片;ChatGPT也可以根據指令生成指定主題的畫作。谷歌還開發了視頻生成AI和音樂生成AI,但效果還不算太強。

當然,圖片、視頻和音樂生成影響的都只會是少數行業;大型語言模型的聊天、寫作等通用能力才會產生更大的社會影響。所以,對AIGC,應該重點關注大型語言模型。

大型語言模型的極大影響與個人的應對

如果機器能「無所不知」地聊天,它將如何改變人類社會?可以展開想像力。

一個最直接的應用就是搜索。很容易理解,從原理上LLM就比谷歌、百度等基於爬蟲的搜索服務更強大:兩者都是以整個互聯網為素材,把內容「爬」回來,區別在於,後者只能根據關鍵字把網路連結按相關程度展示出來,還需要人自己去點擊察看;而前者能夠生成更為高品質、系統性的回饋,很多情況下,LLM可以直接解決問題,即便不能直接解決,也能通過繼續對話、深入溝通給出有效知識。

搜索資訊的一個大問題是,部分人群搜索能力不佳,不能善用關鍵字。對於這類人而言,LLM的出現使搜索服務發生了革命性變化。比如,有人想找某類病的權威醫院,用谷歌搜索時可能毫無頭緒;但用聊天的方式詢問ChatGPT時,ChatGPT就直接把幾家最好的醫院介紹出來了。

另一個大問題是,很多人難以判斷搜索資訊的有效性。大多數人不是找不到相關內容和資料,而是難以對各種資料和說法的可信度加以甄別,我認為這是正確使用搜尋引擎的最大瓶頸。對於這類人而言,ChatGPT可以提供相當好的資訊服務,迅速給出看起來比較深入的資訊。

當然,誠如楊立昆所言,ChatGPT等聊天AI只能給出「淺層知識」。但是,對絕大多數「不求甚解」的人來說,這些「淺層知識」就已經足夠了,大多數人根本不會聊到ChatGPT難以應對的程度;即便對於想要深入探索的人來說,ChatGPT給出的淺層知識也是很好的索引,能夠輔助他們自行探索、理解、歸納、總結和創新。

第二個應用是客服應答。傳統的客服模式分為機器和人工兩種,前者過於死板,要求客戶不斷按鍵選擇;後者的服務水準相對有限,說話口音未必標準,且對客戶的問題不一定有深入理解,必須依靠技術人員。

而現在,隨著高水準聊天機器人的出現,客服品質將發生質的飛躍。機器能牢記本領域的全部知識,而且能準確理解客戶的問題並提供相關資訊。因此許多大中型公司會把ChatGPT的技術應用於應答中心,從而改善服務體驗,減少客戶抱怨。

這一趨勢對於印度、菲律賓等部分發展中國家而言頗為不利。這些國家原本在客服外包行業具有一定優勢,而AI的出現使該行業的人力需求銳減。

第三個應用是遊戲NPC研發。從前,遊戲中的NPC只能與玩家進行固定對話,感覺很僵硬。而現在,遊戲《騎馬與砍殺2》中的農民NPC以ChatGPT為引擎,學習了遊戲背景設定,能靈活地回答用戶的問題,玩家體驗獲得巨大提升。

第四個應用是自動程式設計。現在,AI已經學會了Leetcode等題庫裡的大部分題目。此外,鑒於大量程式師將代碼發在互聯網上共用,且代碼的有效性通過相關網路社區得到驗證,AI也可以直接學習這些整理好的可靠資訊。OpenAI還招募了大量程式設計人員,致力於手把手教ChatGPT程式設計。

由此,AI的自動程式設計能力正突飛猛進,很可能取得革命性突破。目前的AI技術已經足以按照指令自動完成相應程式設計。許多程式師放棄了傳統的網路社區,轉向ChatGPT輔助學程式設計——程式師社區StackOverflow流量已下降11%。

AI程式設計能力的提升將帶來諸多重要影響。其中一大負面影響是,IT業界的就業市場可能遭到衝擊——程式師發起狠來連自己都打!根據業界共識,程式師分為兩類:第一類是高水準程式師,可以完成主要的架構搭建、開發流程及核心演算法;另一類是水準一般的程式師,他們的學歷和能力並不強,只是由於寫的代碼能複製,顯得效率高,被行業風口和精英翹楚帶著飛,才獲得了不錯的收入。

現在,第二類程式師的好日子快要結束了。業界發現,這類程式師可替代性高,還容易出問題、拖進度,如果把他們的工作交給ChatGPT,工作效率將獲得難以想像的提升,同時成本還將大幅下降。所以,水準不高的初級「碼農」如果還想靠手頭這點專業水準吃飯,真的危險了。

印度等國家可能會在這一波業界變革中遭到嚴重打擊。印度等發展中國家的一大重要優勢是程式開發外包——客戶將需求按外包格式寫出來,由工資與水準都不高的發展中國家程式師寫代碼。但隨著技術發展,程式外包工作很可能被AI取代。

不過,機器程式設計能力也能帶來一些積極影響,例如以「AI+」的形式為各行各業「賦能」。我們之前一直在說「AI+」,希望以人工智慧改造所有行業,但這個理念很難實現——一方面,IT從業者與其他行業的業務人員不瞭解彼此的工作內容;另一方面,IT人才的數量和精力也是有限的,難以滿足「AI+」的需求,這使「AI+」遭遇了很大阻礙。

而現在,隨著機器自動程式設計能力的增強,專案開發週期可能大幅縮減,高級人才可以減輕代碼工作負擔,將精力放到核心環節。行業公司也有可能在機器幫助下,快速上手搞起IT與AI+,進行流程改造,產業升級。

第五個應用是讓AI完成音樂、繪畫和寫作方面的工作。比如,未來,我們也許只要對AI下一個命令,就能聽到許巍的「新歌」;大量重複的文秘工作、郵件報告、會議記錄也可以交給AI來完成——微軟的Teams會議系統已經引入ChatGPT輔助寫報告了。

這樣一來,人力將得到極大的解放。有時人類並不是沒有好想法,而是沒有時間、沒有人力去實現。如果AIGC出現了實質突破,人們只用提供創意,學會讓機器幹活,讓機器完成繁瑣的內容輸出工作,那可能會是思想大解放的意義。比如,科研人員可以省出大量時間做科研,寫論文時只負責提供創意,其他部分讓機器填補;政府工作人員也不必再為大量公文耗費時間,可以做出更多實事。

科研界的面貌可能隨之發生改變。ChatGPT促使人們反思,到底什麼才是有效科研活動?,如果人類寫出的論文水準還不如機器,還有沒有必要存在?

AI也將使教育行業變得「面目全非」。從「學」的角度而言,現在,ChatGPT已經可以完成難度不高的哲學、文學小作文,也可以解決部分理工科題目,一些大學已經頒佈規定禁止學生用ChatGPT寫作業。機器既可能幫助人們學習,也可能讓人們放棄學習。

從「教」的角度而言,未來,也許交互能力極強、無所不知、耐心無限、因材施教的教育機器將取代傳統的教師。這將使人類的學習效率得到革命性的提高。更重要的是,在教育機器武裝下,師資力量的差異不再重要,所有學生都將擁有同等的學習機會,人類教育平等的時代或將很快到來。

那麼,人類如何面對這樣的變化,如何趨利避害?我們應瞭解「AI哲學」,正確認識機器的能力和局限性,從而更好地適應它、使用它。

ChatGPT說(原創不一定是它):AI will not replace you . A person who’s using AI will replace you.  (AI不會代替你,一個使用AI的人會代替你)

這句話確實是智慧型機器時代的「金句」。如果人有核心能力,能夠學習使用AI,就會發現自己能力得到了放大,會更適應時代,還能解放創意,機會無限。如果不會用AI,固守自己所謂的人類「能力」,那麼很可能別人會開發出AI使用辦法,高效率完成取代你的工作。

根據「AI哲學」,大型語言模型只有淺層理解能力。所以,如果我們有真正「深層」的知識,就不用擔心被機器取代。但是,我們要切記,機器會不斷進步,因此我們不能固步自封,必須不斷學習、思考和進步,才能在機器智慧時代獲得立身之本。

筆者要強調的是,人類的一大核心能力是辨別真假。機器將用無窮無盡的語言證明,所謂的邏輯是可以被操縱的,沒有分辯能力的人,就真還不如機器。如果你能判斷機器在某個領域是「業餘」的,資料是錯的,概念和邏輯是在忽悠,那麼恭喜,你是比機器知識水準強的人類。希望在機器進步之後,仍然能找到它的漏洞。

機器也會將有追求的人逼上發展創意的道路。原理上,大型語言模型只會模仿,唯有人類才能給世界添加真正的知識。我們可以利用機器提供的資訊和説明,總結、觀察、創新輸出有意義的內容,這是機器做不到的。

諷刺的是,最不可能被機器取代的似乎恰恰是藍領工作。早期的各種機器旨在取代藍領的體力活。但是,現在看來,基於大型語言模型的智慧型機器做不了體力勞動;波士頓動力做出的機器人和機器狗雖然能做體力勞動,但離藍領工人的水準還是差太遠。人類百萬年進化而來的靈巧雙手、優越運動能力,結合智慧的大腦、會溝通的嘴,沒那麼容易被機器戰勝。

相較之下,反而是白領工作更容易被取代——價格低廉、不需休息、能力不斷提升的智慧型機器將橫掃白領職場。也許,大量白領需要考慮學習一些藍領技能。

連結:陈经:ChatGPT引爆又一波AI热潮,什么人需要恐慌? (guancha.cn)