ChatGPT爆火之下,生成式人工(gōng)智能(néng)的“遠(yuǎn)憂近慮”

admin 2023-03-03 16:52 公(gōng)司動态

       據報道,十多(duō)年前三位人工(gōng)智能(néng)研究人員取得的一項突破,永久性地改變了人工(gōng)智能(néng)領域。他(tā)們創造了一個名(míng)為(wèi)“AlexNet”的卷積神經網絡系統,并采用(yòng)120萬張網絡圖片來訓練這個系統。最終,該系統成功地識别了諸如貨櫃船、美洲豹之類的各種物(wù)體(tǐ),準确度遠(yuǎn)超以往的圖像識别系統。

  三位開發人員分(fēn)别是亞曆克斯•克裏日夫斯基(Alex Krizhevsky)、伊利亞•薩茨基弗(Ilya Sutskever)和傑弗裏•辛頓(Geoffrey Hinton)。他(tā)們憑借這項發明在2012年度的ImageNet圖像辨識競賽中(zhōng)獲勝。AlexNet的研制成功,使得科(kē)技(jì )界開始認識到機器學(xué)習的潛力,并就此帶來了一場人工(gōng)智能(néng)革命。

  很(hěn)大程度上,這場人工(gōng)智能(néng)革命是一個靜悄悄的常人并不注意的革命。對于基于機器學(xué)習的人工(gōng)智能(néng)在未來可(kě)能(néng)接管所有(yǒu)人類工(gōng)作(zuò)的前景,大部分(fēn)人在不久前還對此一無所知。機器學(xué)習是一項涉及計算機從大量數據中(zhōng)學(xué)習的底層技(jì )術,已被廣泛應用(yòng)于許多(duō)過去隻能(néng)由人類完成的工(gōng)作(zuò)中(zhōng),比如信用(yòng)卡欺詐識别和在線(xiàn)内容關聯廣告等。

  但近期,人工(gōng)智能(néng)領域又(yòu)取得了一項波及到整個人類社會的突破,使得這場革命不再如過去那般靜悄悄——人們終于意識到,自己的“飯碗”正受到人工(gōng)智能(néng)的威脅。

  ChatGPT引爆新(xīn)一輪人工(gōng)智能(néng)革命

  這一突破的代表事例之一就是ChatGPT,一個在去年11月底發布的問答(dá)文(wén)本生成系統。這樣的系統過去一般隻在科(kē)幻小(xiǎo)說中(zhōng)見到,但現在,它已走進了公(gōng)衆視野,成為(wèi)光芒閃耀的存在。

  ChatGPT由美國(guó)人工(gōng)智能(néng)研究機構OpenAI所創建,是大熱的所謂生成式人工(gōng)智能(néng)系統中(zhōng)最新(xīn)同時也最引人注目的一個。這種生成式人工(gōng)智能(néng)可(kě)以按照人類發出的指令來生成相應的内容。AlexNet的創建者之一伊利亞•薩茨基弗正是OpenAI的聯合創始人。

  據悉,如果在ChatGPT中(zhōng)輸入一個問題,它将生成一段簡明扼要的文(wén)字,這段文(wén)字包含了問題答(dá)案和相關的背景知識。例如,當問它是誰赢得了2020年的美國(guó)總統選舉,它會告訴你是喬•拜登在選舉中(zhōng)獲勝,此外,它還會額外告訴你拜登是何時開始就職的。

  ChatGPT使用(yòng)簡單,問題輸入後瞬時就生成問題答(dá)案,看起來就像是一個正常人類在和你進行交流。正是因為(wèi)這個特性,人工(gōng)智能(néng)現在很(hěn)有(yǒu)希望走進人們的日常生活。截至目前,微軟已向OpenAI投資了數十億美元,這也足以說明該技(jì )術的看好度。ChatGPT很(hěn)有(yǒu)可(kě)能(néng)在這場人工(gōng)智能(néng)革命的下一階段扮演中(zhōng)心角色。

  不過,ChatGPT隻是近期一系列引人注目的人工(gōng)智能(néng)成果中(zhōng)的一項。OpenAI的另一個人工(gōng)智能(néng)系統,即自動寫作(zuò)系統GPT-3,在2020年首次演示時就已經讓科(kē)技(jì )界為(wèi)之震驚。此後,其他(tā)公(gōng)司也很(hěn)快推出了各自的大型語言模型系統。然後,人工(gōng)智能(néng)技(jì )術在去年進一步擴展到圖像生成領域,代表産(chǎn)品包括OpenAI的Dall-E2、Stability AI的開源型Stable Diffusion,以及Midjourney等系統。

  随着這些技(jì )術成果的出現,人們開始蜂擁為(wèi)這些技(jì )術尋找各種新(xīn)的應用(yòng)場景。預料新(xīn)應用(yòng)将會大量出現,可(kě)能(néng)足以比拟史前寒武紀時期的生命形态大爆發。

  如果計算機能(néng)學(xué)會寫作(zuò)和繪畫,那還有(yǒu)什麽是它們做不到的呢(ne)?最近,人工(gōng)智能(néng)已開始實驗性地應用(yòng)于視頻生成(Google)、數學(xué)問題回答(dá)(Google)、音樂創作(zuò)(Stability AI)、代碼生成等領域。制藥公(gōng)司也計劃利用(yòng)人工(gōng)智能(néng)技(jì )術來針對性地輔助設計新(xīn)藥物(wù)。已有(yǒu)生物(wù)技(jì )術公(gōng)司利用(yòng)人工(gōng)智能(néng)來設計新(xīn)抗體(tǐ),并大大縮短了臨床前測試所需的時間。

  人工(gōng)智能(néng)将徹底改變人類與計算機互動的方式,它将以一種前所未有(yǒu)的方式來理(lǐ)解人類意圖,并采取相應的行動。人工(gōng)智能(néng)将成為(wèi)一項基礎性的技(jì )術,觸及人類社會的所有(yǒu)方面。

  随着人工(gōng)智能(néng)日益廣泛的應用(yòng),人們需要考慮該技(jì )術可(kě)能(néng)給人類社會帶來的負面影響。例如, ChatGPT可(kě)能(néng)會被青少年利用(yòng)來代替他(tā)們完成家庭作(zuò)業。更嚴重的是,人工(gōng)智能(néng)可(kě)能(néng)被故意用(yòng)來産(chǎn)生大量虛假信息。此外,它還可(kě)以将許多(duō)人類工(gōng)作(zuò)自動化,這可(kě)能(néng)會造成嚴重的失業問題。

  人工(gōng)智能(néng)是否可(kě)靠?

  認同生成式人工(gōng)智能(néng)的人士認為(wèi),這些系統可(kě)以提高人類的生産(chǎn)力和創造力。對于任何需要創意性的工(gōng)作(zuò)而言,生成式人工(gōng)智能(néng)系統有(yǒu)助于人們破除思想束縛,并向工(gōng)作(zuò)人員建議新(xīn)想法,協助檢查工(gōng)作(zuò),乃至幫助生産(chǎn)大量内容。然而,盡管“生成式”人工(gōng)智能(néng)易于使用(yòng),并有(yǒu)可(kě)能(néng)颠覆大部分(fēn)技(jì )術領域,但它對公(gōng)司和個人都提出了深刻的挑戰。

  人工(gōng)智能(néng)帶給人類的最大挑戰在于可(kě)靠性。人工(gōng)智能(néng)系統能(néng)夠生成看起來很(hěn)可(kě)信的結果,但事實上未必是那麽回事。人工(gōng)智能(néng)是根據海量數據按照概率原理(lǐ)來做出最佳猜測并形成問題答(dá)案。但是,對它們所生成的結果,人工(gōng)智能(néng)并不具(jù)備人類思維意義上的那種真正理(lǐ)解。

  人工(gōng)智能(néng)無法記住與人類的對話,他(tā)們并不真正理(lǐ)解人類,對現實世界中(zhōng)的文(wén)字符号沒有(yǒu)任何概念。人工(gōng)智能(néng)隻是根據人類發出的指令,給出看起來很(hěn)有(yǒu)說服力的回應。它們是既聰明又(yòu)無腦的人類模仿者,它們的結果輸出隻是一種數字幻覺。

  已經有(yǒu)迹象表明,該技(jì )術可(kě)能(néng)産(chǎn)生看起來可(kě)信但并不值得信賴的結果。例如,去年底,Facebook母公(gōng)司Meta展示了一個名(míng)為(wèi)Galactica的生成式系統,該系統使用(yòng)學(xué)術論文(wén)作(zuò)為(wèi)數據集來進行訓練。很(hěn)快,人們就發現,該系統可(kě)按要求生成看起來可(kě)信但實際上完全虛假的研究結果。于是,Meta不得不在幾天後就撤回了這一系統。

  ChatGPT的創建者也承認,該系統有(yǒu)時會給出很(hěn)荒謬的答(dá)案,這是因為(wèi)在訓練人工(gōng)智能(néng)時,無法保證數據集的真理(lǐ)性/正确性。OpenAI稱,所謂的監督式學(xué)習(即在人類監督下接受訓練,而不是讓它自學(xué)訓練)對ChatGPT并不奏效,因為(wèi)該系統往往比它的人類老師更善于找到 “理(lǐ)想的答(dá)案”。

  一個可(kě)能(néng)的解決方案是在結果輸出之前對結果進行合理(lǐ)性檢查。Google在2021年發布的實驗性LaMDA系統,對每個人類指令都給出了大約20個不同回應,然後Google對每一個回應的安(ān)全性和可(kě)靠性(groundedness)都進行評估。然而,有(yǒu)專家認為(wèi),任何依靠人類來驗證人工(gōng)智能(néng)輸出結果的系統都可(kě)能(néng)會帶來更多(duō)問題。比如,這可(kě)能(néng)教會人工(gōng)智能(néng)去産(chǎn)生有(yǒu)欺騙性但看起來更可(kě)信的内容,從而再次愚弄人類。真相有(yǒu)時難以捉摸,而人類并不十分(fēn)擅長(cháng)探究真相,因而,靠人類來評估人工(gōng)智能(néng)的輸出結果也并不一定靠譜。

  也有(yǒu)專家認為(wèi),對諸如輸出結果是否合理(lǐ)之類的哲學(xué)式問題其實無需多(duō)慮,隻需要專注于人工(gōng)智能(néng)技(jì )術的實用(yòng)價值就行。比如,互聯網搜索引擎的輸出有(yǒu)時也同樣包含錯誤信息和有(yǒu)用(yòng)結果,但人們自己會對結果進行鑒别,并從中(zhōng)找出對他(tā)們有(yǒu)用(yòng)的東西。人們需要學(xué)會鑒别性的使用(yòng)這些人工(gōng)智能(néng)工(gōng)具(jù),以從中(zhōng)受益。當然,孩子們不能(néng)利用(yòng)這些系統來在學(xué)校舞弊。

  但是,實踐表明,讓人們去自行鑒别“生成式”人工(gōng)智能(néng)的輸出結果,可(kě)能(néng)并不是一個好主意,原因是人們往往過度相信人工(gōng)智能(néng)的輸出結果——他(tā)們會不自覺地将人工(gōng)智能(néng)當作(zuò)真正的人來看待,而忘記了這些系統其實并不真正理(lǐ)解人類的意思。

  由此看來,人工(gōng)智能(néng)的可(kě)靠性可(kě)能(néng)的确是一個問題。這項技(jì )術有(yǒu)可(kě)能(néng)會被不良人士蓄意利用(yòng),成為(wèi)虛假信息生成工(gōng)廠,虛假信息可(kě)能(néng)因此充斥社交媒體(tǐ)平台。人工(gōng)智能(néng)還可(kě)能(néng)被用(yòng)于模仿特定人士的寫作(zuò)風格或說話聲音。總之,虛假内容的制作(zuò)将變得前所未有(yǒu)的容易、廉價且無限制。

  Stability AI的總裁埃瑪德(dé)•莫斯塔克(Emad Mostaque)對此表示,可(kě)靠性問題是人工(gōng)智能(néng)與生俱來的内在問題。人們既可(kě)以以一種合乎道德(dé)法律的方式去使用(yòng)這項技(jì )術,也可(kě)以不道德(dé)不合法地使用(yòng)它。他(tā)聲稱,居心不良的人士必然會利用(yòng)這些先進的人工(gōng)智能(néng)工(gōng)具(jù),對此唯一的防範措施就是盡可(kě)能(néng)廣泛地傳播該技(jì )術,以及對所有(yǒu)人開放這項技(jì )術。

  但是,在專業人士眼裏,人工(gōng)智能(néng)技(jì )術的廣泛傳播,究竟是否可(kě)以有(yǒu)效防範該技(jì )術的負面效應,仍有(yǒu)很(hěn)大争議。許多(duō)專家主張,應該限制對人工(gōng)智能(néng)基礎技(jì )術的訪問。來自微軟的人士就表示,他(tā)們公(gōng)司會與客戶緊密溝通,以了解他(tā)們對該技(jì )術的使用(yòng)情況,确保人工(gōng)智能(néng)得到負責任的使用(yòng)。

  此外,微軟也盡力防止利用(yòng)它的人工(gōng)智能(néng)産(chǎn)品做不良事情的行為(wèi)。該公(gōng)司會為(wèi)客戶提供必要的工(gōng)具(jù),以掃描輸出結果中(zhōng)的攻擊性内容,以及客戶不想見到的特定内容。這家公(gōng)司深刻認識到,人工(gōng)智能(néng)也會出現行為(wèi)異常:就在2016年,微軟在推出智能(néng)聊天機器人Tay僅僅一天後,就不得不匆忙撤回這款産(chǎn)品,原因是這個機器人向用(yòng)戶輸出種族主義等偏激言論。

  在某種程度上,技(jì )術本身就有(yǒu)可(kě)能(néng)抑制住人工(gōng)智能(néng)的濫用(yòng)。例如,Google已經開發出一個語言系統,能(néng)夠以99%的準确率檢測一段語音是否是用(yòng)人工(gōng)智能(néng)合成。Google所有(yǒu)在研的人工(gōng)智能(néng)模型都禁止生成真實人物(wù)的圖像,這對預防深度僞造(deep fake)将起到一定作(zuò)用(yòng)。

  人類的工(gōng)作(zuò)是否會被大量取代?

  随着生成式人工(gōng)智能(néng)的橫空出世,人們再次開始激辯人工(gōng)智能(néng)對人類工(gōng)作(zuò)的影響。智能(néng)機器是否會大量取代人類工(gōng)作(zuò)?又(yòu)或者,通過接管人類工(gōng)作(zuò)中(zhōng)的程序性部分(fēn),人工(gōng)智能(néng)反而提高了人類的生産(chǎn)力,并進一步提高成就感?

  涉及大量設計/寫作(zuò)元素的職業和工(gōng)作(zuò)崗位将面臨着人工(gōng)智能(néng)的直接沖擊。去年夏末,Stability AI推出了人工(gōng)智能(néng)文(wén)本轉圖像模型“Stable Diffusion”。這個模型可(kě)以根據人類提供的文(wén)字描述瞬時生成相匹配的圖像。這款人工(gōng)智能(néng)工(gōng)具(jù)給整個商(shāng)業藝術界和設計界都帶來了一陣恐慌。

  一些科(kē)技(jì )公(gōng)司已經在嘗試将“生成式”人工(gōng)智能(néng)應用(yòng)于廣告業。這方面的代表公(gōng)司是Scale AI,它正在使用(yòng)廣告圖片來訓練一個人工(gōng)智能(néng)模型。這個模型可(kě)能(néng)用(yòng)于為(wèi)小(xiǎo)型零售商(shāng)和小(xiǎo)品牌制作(zuò)專業的産(chǎn)品廣告圖片,從而為(wèi)商(shāng)家節省廣告制作(zuò)費用(yòng)。

  總之,人工(gōng)智能(néng)有(yǒu)可(kě)能(néng)影響到那些内容創作(zuò)人士的生計。這項技(jì )術徹底改變了整個媒體(tǐ)行業。全球的主要内容供應商(shāng)都認為(wèi),他(tā)們需要一個元宇宙戰略,同時也需要一個“生成式”媒體(tǐ)戰略。

  部分(fēn)處于被人工(gōng)智能(néng)取代邊緣的創作(zuò)人士認為(wèi),問題并不僅僅止于他(tā)們的工(gōng)作(zuò)生計,還有(yǒu)更深層次的東西。一位音樂家在看到ChatGPT創作(zuò)的很(hěn)像他(tā)的風格的歌曲時,他(tā)是如此的震驚,以至于他(tā)在網上發出了如下感歎:音樂家是在痛苦中(zhōng)創作(zuò)音樂,這種創作(zuò)建立在複雜的内心苦痛的基礎之上,但對人工(gōng)智能(néng)而言,它們沒有(yǒu)人類的感覺,感受不到人類的痛苦。

  技(jì )術樂觀主義者的看法則有(yǒu)所不同。他(tā)們認為(wèi),人工(gōng)智能(néng)并不會取代人類的創造力,反而可(kě)以增強人類的創造力。比如,在過去,設計師僅能(néng)一幅幅地去創作(zuò)單一圖片,但在有(yǒu)了人工(gōng)智能(néng)圖像生成器後,他(tā)就可(kě)以更多(duō)聚焦于整個視頻或整個作(zuò)品集的創作(zuò)了。

     不過,現有(yǒu)的版權制度對創作(zuò)人士并不是很(hěn)有(yǒu)利。采用(yòng)人工(gōng)智能(néng)技(jì )術的公(gōng)司聲稱,美國(guó)允許“合理(lǐ)使用(yòng)”(fair use)受版權保護的材料,因此他(tā)們可(kě)以免費利用(yòng)所有(yǒu)可(kě)用(yòng)的數據來訓練他(tā)們的系統。但許多(duō)藝術家及相關團體(tǐ)對此非常不滿,他(tā)們認為(wèi),人工(gōng)智能(néng)公(gōng)司使用(yòng)他(tā)們的藝術作(zuò)品來訓練人工(gōng)智能(néng),是對這一版權特許權利的濫用(yòng)。就在上周,蓋蒂圖片社(Getty Images)和三位藝術家對Stability AI和其他(tā)人工(gōng)智能(néng)公(gōng)司采取了法律行動。這是創作(zuò)界首次針對人工(gōng)智能(néng)訓練數據問題采取行動。

    一名(míng)代理(lǐ)人工(gōng)智能(néng)公(gōng)司應訴的律師說,人工(gōng)智能(néng)業界都已清楚,法律訴訟不可(kě)避免,也為(wèi)此做好了準備。這些訴訟事關數據在人工(gōng)智能(néng)中(zhōng)的地位問題,将确立相關的基本規則——這對科(kē)技(jì )行業的影響并不亞于當年智能(néng)手機剛興起時的專利大戰。

  從根本上,法院和立法者将扮演為(wèi)人工(gōng)智能(néng)時代的版權制度确立基本框架的角色。如果他(tā)們認為(wèi)人工(gōng)智能(néng)技(jì )術已經颠覆了現有(yǒu)版權制度的基礎,那麽版權制度就将面臨變革。

上一篇:30天内卸載TikTok,美國(guó)又(yòu)雙叒叕掀桌了
下一篇:微軟現身MWC:面向運營商(shāng)推出雲計算解決方案

猜你喜歡

手機掃一掃添加微信

0991-4554350