來源:騰訊科技
編輯整理:李海丹、周小燕
騰訊科技訊 北京時(shí)間3月23日0點(diǎn),英偉達(dá)GTC 線上大會(huì)發(fā)起了一場(chǎng)特別活動(dòng),公司創(chuàng)始人兼CEO黃仁勛與Open AI聯(lián)合創(chuàng)始人及首席科學(xué)家伊爾亞-蘇茨克維展開了一次“爐邊談話”。
黃仁勛認(rèn)為,ChatGPT是“AI界的iphone時(shí)刻”,但這一時(shí)刻的到來并非一蹴而就,Open AI聯(lián)合創(chuàng)始人早在十年前便開始關(guān)注神經(jīng)網(wǎng)絡(luò),在探索生成式AI的過程中也經(jīng)歷了神經(jīng)網(wǎng)絡(luò)如何兼具深度和規(guī)模的探索、讓機(jī)器不受監(jiān)督地學(xué)習(xí)能力的突破。到如今,ChatGPT成為了一款全球關(guān)注的“網(wǎng)紅工具”。站在當(dāng)下回顧它的迭代和發(fā)展歷程,創(chuàng)意似乎是在創(chuàng)始人和團(tuán)隊(duì)的一個(gè)個(gè)“靈感”之中蹦出,看似理所當(dāng)然的創(chuàng)新背后究竟有哪些“激動(dòng)人心的時(shí)刻”?
以下為本次對(duì)話內(nèi)容精華整理:
黃仁勛:最近ChatGPT的熱潮將人工智能又站在了世界的“風(fēng)口浪尖”,Open AI公司也受到行業(yè)的關(guān)注,你也成為了整個(gè)行業(yè)最為引入注目的年輕工程師、最為頂尖的科學(xué)家。我的第一個(gè)問題是,你最初關(guān)注和聚焦人工智能領(lǐng)域的出發(fā)點(diǎn)是什么?有想過會(huì)取得目前如此巨大的成功嗎?
伊爾亞-蘇茨克維:非常感謝對(duì)我的盛情邀請(qǐng)。人工智能通過不斷的深度學(xué)習(xí),給我們的世界帶來了巨大的變化。對(duì)于我個(gè)人來說,其實(shí)主要是兩方面:
首先,我關(guān)注在人工智能深度學(xué)習(xí)方面的初心,是我們?nèi)祟悓?duì)于各種問題,都有一定的直覺性的理解。對(duì)于人類意識(shí)的定義,以及我們?nèi)祟惖闹橇κ侨绾瓮瓿蛇@樣的預(yù)判,這是我特別感興趣的地方。
第二,在2002年到2003年期間,當(dāng)時(shí)的我認(rèn)為“學(xué)習(xí)”這件事,是只有人類才能完成的任務(wù),計(jì)算機(jī)是無法做到的。所以我當(dāng)時(shí)冒出一個(gè)想法:如果能夠讓計(jì)算機(jī)去不斷學(xué)習(xí),或許會(huì)帶來人工智能行業(yè)的改變。
很幸運(yùn)的是,當(dāng)時(shí)我正在上大學(xué),我研究的專業(yè)剛好是研究神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)方向。神經(jīng)網(wǎng)絡(luò)是在AI方面的一個(gè)非常重要的進(jìn)步,我們關(guān)注如何通過神經(jīng)網(wǎng)絡(luò)去研究深度學(xué)習(xí),以及神經(jīng)網(wǎng)絡(luò)如何像人類的大腦那樣工作,這樣的邏輯如何反映在計(jì)算機(jī)的工作方式上。當(dāng)時(shí)的我其實(shí)并不清楚研究這個(gè)領(lǐng)域會(huì)帶來怎樣的職業(yè)工作路徑,只是覺得這會(huì)是一個(gè)長(zhǎng)期而言比較有前景的行業(yè)。
黃仁勛:在您最開始接觸神經(jīng)網(wǎng)絡(luò)研究方向時(shí),那個(gè)時(shí)候的神經(jīng)網(wǎng)絡(luò)的規(guī)模是多大?
伊爾亞-蘇茨克維:那個(gè)時(shí)候神經(jīng)網(wǎng)絡(luò)還沒有討論到規(guī)模的概念,只有幾百個(gè)神經(jīng)單元,甚至當(dāng)時(shí)的我都沒想過,居然能發(fā)展到現(xiàn)在如此之多的神經(jīng)單元、以及如此多的CPU的單位。當(dāng)時(shí)我們啟動(dòng)了一個(gè)數(shù)學(xué)實(shí)驗(yàn)室,基于經(jīng)費(fèi)預(yù)算有限,我們先開始只做了各種各樣不同的實(shí)驗(yàn),并收集了各種不同的問題去測(cè)試準(zhǔn)確度。我們都從一點(diǎn)一滴很小的積累,去培訓(xùn)神經(jīng)網(wǎng)絡(luò)。這也是最開始實(shí)現(xiàn)的第一個(gè)生成式AI模式的雛形。
黃仁勛:早在2012年之前,你就在神經(jīng)網(wǎng)絡(luò)領(lǐng)域有所建樹,你是在什么時(shí)間點(diǎn)開始覺得計(jì)算機(jī)視覺以及神經(jīng)網(wǎng)絡(luò)和人工智能是未來方向的?
伊爾亞-蘇茨克維:在2012年之前大概兩年左右,我逐漸意識(shí)到深度學(xué)習(xí)會(huì)獲得很多關(guān)注,這不僅僅是我的直覺,其背后有一套非常扎實(shí)的理論基礎(chǔ)。如果計(jì)算機(jī)的神經(jīng)網(wǎng)絡(luò)足夠深、規(guī)模足夠大,它就能夠解決一些深層次的硬核內(nèi)容問題,關(guān)鍵是需要神經(jīng)網(wǎng)絡(luò)兼?zhèn)渖疃群鸵?guī)模,這意味著我們必須有足夠大的數(shù)據(jù)庫和算力。
我們?cè)趦?yōu)化數(shù)據(jù)模型上付出很多努力,我們的一個(gè)同事基于“秒”做出了神經(jīng)網(wǎng)絡(luò)的反饋,用戶可以不斷培訓(xùn)神經(jīng)網(wǎng)絡(luò),這能讓神經(jīng)網(wǎng)絡(luò)的規(guī)模更大、獲得更多數(shù)據(jù)。有的人覺得這樣的數(shù)據(jù)集大到不可想象,如果當(dāng)時(shí)的算力能夠處理這么大的數(shù)據(jù),那么一定能觸發(fā)一場(chǎng)革命。
黃仁勛:我們第一次相遇的時(shí)候,也是我們對(duì)未來的展望真正有所交集的時(shí)候。你當(dāng)時(shí)告訴我說,GPU會(huì)影響接下來幾代人的生活,你的直覺認(rèn)為GPU可能會(huì)對(duì)深度學(xué)習(xí)的培訓(xùn)有所幫助。能不能告訴我,你是在什么時(shí)候意識(shí)到這一點(diǎn)的?
伊爾亞-蘇茨克維:我們?cè)诙鄠惗鄬?shí)驗(yàn)室中第一次嘗試使用GPU培訓(xùn)深度學(xué)習(xí)的時(shí)候,并不清楚到底如何使用GPU、如何讓GPU獲得真正的關(guān)注。隨著我們獲得越來越多的數(shù)據(jù)集,我們也越來越清楚傳統(tǒng)的模型會(huì)帶來的優(yōu)勢(shì)。我們希望能夠加速數(shù)據(jù)處理的過程,培訓(xùn)過去科學(xué)家從來沒有培訓(xùn)過的內(nèi)容。
黃仁勛:我們看到ChatGPT和Open AI目前已經(jīng)打破了過去計(jì)算機(jī)編輯圖像的模式。
伊爾亞-蘇茨克維:我覺得不是打破了計(jì)算機(jī)圖像的編輯,而是用另外一種說法去形容,是“超越式”的。大部分人都是用傳統(tǒng)的思維模式去處理數(shù)據(jù)集,但我們的處理方式更先進(jìn)。當(dāng)時(shí)我們也認(rèn)為這是一件艱難的事情,如果我們能做好,就是幫助人們跨越了一大步。
黃仁勛:放在當(dāng)下來看,當(dāng)時(shí)你去硅谷到Open AI上班、擔(dān)任Open AI的首席科學(xué)家,你認(rèn)為最重要的工作時(shí)什么?我覺得Open AI在不同的時(shí)間點(diǎn)有不同的工作關(guān)注焦點(diǎn),ChatGPT是“AI界的iPhone時(shí)刻”,你是如何達(dá)到這樣的轉(zhuǎn)變時(shí)刻的?
伊爾亞-蘇茨克維:最開始我們也不太清楚如何開展整個(gè)項(xiàng)目,而且,我們現(xiàn)在所得出的結(jié)論,和當(dāng)時(shí)使用的邏輯完全不同。用戶現(xiàn)在已經(jīng)有這么好用的ChatGPT工具,來幫助大家創(chuàng)造出非常好的藝術(shù)效果和文本效果。但在2015年、2016年的時(shí)候,我們還不敢想象能達(dá)到當(dāng)下的程度。當(dāng)時(shí)我們大部分同事來自谷歌的DeepMind,他們有從業(yè)經(jīng)驗(yàn),但相對(duì)而言思想比較狹窄、受到束縛,當(dāng)時(shí)我們內(nèi)部做了100多次不同的實(shí)驗(yàn)和對(duì)比。
那時(shí)我想出一個(gè)特別令自己激動(dòng)的想法,就是讓機(jī)器具備一種不受監(jiān)督的學(xué)習(xí)能力,雖然今天我們認(rèn)為這是理所當(dāng)然的,你可以用自然語言模型培訓(xùn)所有內(nèi)容。但在2016年,不受監(jiān)督的學(xué)習(xí)能力仍舊是沒有被解決的問題,也沒有任何科學(xué)家有過相關(guān)的經(jīng)驗(yàn)和洞見。我覺得“數(shù)據(jù)壓縮”是技術(shù)上的瓶頸,這個(gè)詞并不常見,但實(shí)際上ChatGPT確實(shí)壓縮了我們的培訓(xùn)數(shù)據(jù)集。但最后我們還是找到了數(shù)學(xué)模型,通過不斷培訓(xùn)讓我們壓縮數(shù)據(jù),這其實(shí)是對(duì)數(shù)據(jù)集的挑戰(zhàn)。這是令我感動(dòng)特別激動(dòng)的一個(gè)想法,這個(gè)想法在Open AI上獲得了成果。
其實(shí)這樣一些成果,可能并不會(huì)在機(jī)器學(xué)習(xí)之外深受歡迎,但是我想說的是,我工作取得的成果是培訓(xùn)了神經(jīng)網(wǎng)絡(luò)。
我們希望能夠去培訓(xùn)神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)下一個(gè)單詞。我認(rèn)為下一個(gè)神經(jīng)元的單位會(huì)和我們的整個(gè)視覺神經(jīng)網(wǎng)絡(luò)密切相關(guān)的,這個(gè)很有趣,這個(gè)和我們驗(yàn)證的方法是一致的。它再次重新證明了,下一個(gè)字符的預(yù)測(cè)、下一個(gè)數(shù)據(jù)的預(yù)測(cè)能夠幫助我們?nèi)グl(fā)掘現(xiàn)有數(shù)據(jù)的邏輯,這個(gè)就是ChatGPT培訓(xùn)的邏輯。
黃仁勛:擴(kuò)大數(shù)據(jù)規(guī)模是幫助我們提高AI能力的表現(xiàn),更多的數(shù)據(jù)、更大的數(shù)據(jù)集能夠幫助生成式AI獲得更好的結(jié)果。你覺得GPT-1、GPT-2、GPT-3的演變過程,是否符合摩爾定律?
伊爾亞-蘇茨克維:Open AI的目標(biāo)之一是解決擴(kuò)大數(shù)據(jù)集的問題,但我們剛開始面臨的問題,如何提升數(shù)據(jù)的高精準(zhǔn)度,讓模型能夠?qū)崿F(xiàn)精準(zhǔn)預(yù)測(cè)非常重要。我們當(dāng)時(shí)在做Open AI項(xiàng)目的時(shí)候,希望它能實(shí)時(shí)做一些策略性游戲,比如競(jìng)爭(zhēng)性的體育游戲,它必須足夠快、足夠聰明,還要和其它隊(duì)競(jìng)賽。作為一個(gè)AI模型,它其實(shí)不斷重復(fù)這樣一個(gè)基于人類反饋的強(qiáng)化學(xué)習(xí)過程。
黃仁勛:你是如何精準(zhǔn)調(diào)控給予人類反饋的強(qiáng)化學(xué)習(xí)的?是不是有其它附屬系統(tǒng),給ChatGPT一定的知識(shí)背景來支持ChatGPT的表現(xiàn)?
伊爾亞-蘇茨克維:我可以給大家解釋一下,我們的工作原理是不斷培訓(xùn)神經(jīng)網(wǎng)絡(luò)體系,讓神經(jīng)網(wǎng)絡(luò)去預(yù)測(cè)下一個(gè)單詞?;谶^去我們收集的文本,ChatGPT不僅僅是表面上的自我學(xué)習(xí),我們希望它能夠在當(dāng)下預(yù)測(cè)的單詞和過去的單詞之間達(dá)成一定的邏輯上的一致。過去的文本,其實(shí)是用于投射到接下來的單詞的預(yù)測(cè)上。
從神經(jīng)網(wǎng)絡(luò)來看,它更像是根據(jù)世界的不同方面,根據(jù)人們的希望、夢(mèng)想和動(dòng)機(jī)得出一個(gè)結(jié)論。但我們的模型還沒有達(dá)到預(yù)期的效果,比如我們從網(wǎng)上隨便摘幾個(gè)句子做前言,在此基礎(chǔ)上,不需要做額外的培訓(xùn)就能讓ChatGPT寫出一篇符合邏輯的論文。我們不是簡(jiǎn)單地根據(jù)人類經(jīng)驗(yàn)完成AI學(xué)習(xí),而是要根據(jù)人類反饋進(jìn)行強(qiáng)化學(xué)習(xí)。人類的反饋很重要,越多的反饋能使AI更可靠。
黃仁勛:你可以給AI指示,讓AI做某些事情,但是你能不能讓AI不做某些事情?比如說告訴AI界限在哪里?
伊爾亞-蘇茨克維:可以的。我覺得第二個(gè)階段的培訓(xùn)序列,就是和AI、神經(jīng)網(wǎng)絡(luò)去進(jìn)行交流,我們對(duì)AI訓(xùn)練得越多,AI的精準(zhǔn)度越高,就會(huì)越來越符合我們的意圖。我們不斷地提高AI的忠誠(chéng)度和準(zhǔn)確度,它就會(huì)變得越來越可靠,越來越精準(zhǔn),而且越來越符合人類社會(huì)的邏輯。
黃仁勛:ChatGPT在幾個(gè)月之前就面世了,并且也是人類歷史上增長(zhǎng)最為迅速的軟件和應(yīng)用。很多人都會(huì)給出各種不同的解釋,有人會(huì)說它是目前為止使用方式最簡(jiǎn)單的應(yīng)用。比如說它的交互模式非常簡(jiǎn)單,它超越了所有人的預(yù)期。人們也不需要去學(xué)習(xí)如何使用ChatGPT,只要給ChatGPT下命令,提出各種不同的提示就可以。如果你的提示不夠清楚的話,ChatGPT也會(huì)進(jìn)一步把你的提示做得比較清晰,然后回顧并且問你是不是想要這個(gè)?這樣一個(gè)深度學(xué)習(xí)的過程讓我特別驚艷。
我們?cè)趲滋熘翱吹搅薌PT-4的表現(xiàn),它在很多領(lǐng)域的表現(xiàn)非常讓人震驚,它能夠通過SAT考試、律師協(xié)會(huì)的律師執(zhí)業(yè)資格考試,而且能夠達(dá)到很高的人類水平。我想問的就是,GPT-4有什么樣的改善?并且你認(rèn)為接下來它會(huì)幫助人們?cè)谀男┓矫?、領(lǐng)域有更多的改善?
伊爾亞-蘇茨克維:GPT-4基于過去ChatGPT的性能,做了很多改善。我們對(duì)GPT-4的訓(xùn)練大概是從6-8個(gè)月之前開始的,GPT -4和之前版本GPT最重要的區(qū)別,就是GPT-4是基于更精確的精準(zhǔn)度去預(yù)測(cè)下一個(gè)單詞的,因?yàn)橛懈玫纳窠?jīng)網(wǎng)絡(luò)幫助預(yù)測(cè)。
比如說你自己在讀一篇推理小說,小說中有各種不同的人物和情節(jié),有密室、有謎團(tuán),你在讀推理小說的過程中完全不清楚接下來會(huì)發(fā)生什么。通過小說不同的人物和情節(jié),你預(yù)測(cè)兇手有幾種可能性,GPT-4所做的內(nèi)容就像一本推理小說一樣。
黃仁勛:很多人都會(huì)說深度學(xué)習(xí)會(huì)帶來推理,但是深度學(xué)習(xí)并不會(huì)帶來學(xué)習(xí)。語言模型是如何學(xué)習(xí)到推理和邏輯的?有一些任務(wù),ChatGPT和GPT-3不夠擅長(zhǎng),而GPT-4更擅長(zhǎng)。GPT-4現(xiàn)在還有什么樣缺陷,可以在接下來的版本上更進(jìn)一鞏固嗎?
伊爾亞-蘇茨克維:現(xiàn)在的ChatGPT可以更精準(zhǔn)地的定義邏輯和推理,通過更好的邏輯和推理在接下來的解密的過程中獲得更好的答案。神經(jīng)網(wǎng)絡(luò)或許會(huì)面臨一些挑戰(zhàn),比如讓神經(jīng)網(wǎng)絡(luò)去打破固有的思維模式,這就意味著我們要思考神經(jīng)網(wǎng)絡(luò)到底可以走多遠(yuǎn),簡(jiǎn)而言之,神經(jīng)網(wǎng)絡(luò)的潛力有多大。
我們認(rèn)為GPT的推理確實(shí)還沒有達(dá)到我們之前預(yù)期的水平,如果我們更進(jìn)一步擴(kuò)大數(shù)據(jù)庫,保持過去的商業(yè)運(yùn)轉(zhuǎn)模型,它的推理的能力會(huì)進(jìn)一步提高,我對(duì)這個(gè)比較有信心。
黃仁勛:還有一點(diǎn)特別有意思,就是你去問ChatGPT一個(gè)問題,它會(huì)基于過去的知識(shí)和經(jīng)驗(yàn)告訴你這個(gè)問題的答案,這個(gè)也是基于它對(duì)過去知識(shí)和數(shù)據(jù)庫的總結(jié),以及基于對(duì)你的了解提供的答案,并且展現(xiàn)一定的邏輯性。我覺得ChatGPT有一種自然而然的屬性,它能夠不斷去理解。
伊爾亞-蘇茨克維:是的,神經(jīng)網(wǎng)絡(luò)確實(shí)有這些能力,但是有時(shí)候不太靠譜,這也是神經(jīng)網(wǎng)絡(luò)接下來面臨的最大障礙。在很多情況下,神經(jīng)網(wǎng)絡(luò)會(huì)比較夸張、會(huì)出很多的錯(cuò)誤,甚至出一些人類根本做不出來的錯(cuò)誤?,F(xiàn)在我們需要更多的研究來解決這些“不可靠性“。
現(xiàn)在GPT-4的模型已經(jīng)被公開發(fā)布了,它其實(shí)沒有追蹤數(shù)據(jù)模型的能力,它的能力是基于文本去預(yù)測(cè)下一個(gè)單詞,所以是有局限性的。我覺得有些人可能會(huì)讓GPT-4去找出某些數(shù)據(jù)的來源,然后會(huì)對(duì)數(shù)據(jù)來源做更深入地調(diào)查。
總體而言,盡管GPT-4并不支持內(nèi)部的數(shù)據(jù)收集,它肯定會(huì)在持續(xù)的數(shù)據(jù)深入挖掘之中變得更加精準(zhǔn)。GPT-4已經(jīng)能夠從圖片中進(jìn)行學(xué)習(xí),并且根據(jù)圖片和內(nèi)容的輸入進(jìn)行反饋。
黃仁勛:多模態(tài)學(xué)習(xí)如何加深GPT-4對(duì)于世界的理解?為什么多模態(tài)學(xué)習(xí)定義了GPT和Open AI?
伊爾亞-蘇茨克維:多模態(tài)非常有意思:
第一,多模態(tài)在視覺和圖像識(shí)別上特別有用。因?yàn)檎麄€(gè)世界是由圖片形成的,人們也是視覺動(dòng)物,動(dòng)物也是視覺動(dòng)物,人腦1/3的灰質(zhì)都是用來處理圖像的,GPT-4也能夠去理解這些圖像。
第二,通過圖片或文字對(duì)世界的理解是一樣的,這也是我們的一個(gè)論證。對(duì)于一個(gè)人而言,我們作為一個(gè)人可能一生之中只會(huì)說10億個(gè)詞。
黃仁勛:我腦海中閃過10億個(gè)詞的畫面,居然有這么多詞?
伊爾亞-蘇茨克維:是的,我們可以計(jì)算一下人一生的時(shí)間有多久,以及一秒能處理多少詞,如果再減去這個(gè)人生命中睡覺的時(shí)間,就能算出一生處理了多少單詞。人和神經(jīng)網(wǎng)絡(luò)不同之處,就是有些過去對(duì)于文本而言的話,如果我們有一個(gè)十億級(jí)的詞匯無法理解的話,可以用萬億級(jí)的詞匯來理解。我們對(duì)于世界的知識(shí)和信息,可以通過文本慢慢滲透給AI的神經(jīng)網(wǎng)絡(luò)。如你加上視覺圖片等更多的元素,神經(jīng)網(wǎng)絡(luò)可以更精準(zhǔn)地學(xué)習(xí)。
黃仁勛:對(duì)于文本和圖片方面的深度學(xué)習(xí),如果我們想要人工智能智能去理解其背后的邏輯,甚至夸張的說,是理解這個(gè)世界的基本原理——比如我們?nèi)祟惾粘R痪湓挼谋磉_(dá)方式,比如說有一個(gè)詞其實(shí)有兩種含義,聲音的高低變化,其實(shí)都代表著兩種不同的語氣。在說話的語言和語調(diào)方面,會(huì)不會(huì)對(duì)AI去理解文本有一定幫助呢?
伊爾亞-蘇茨克維:是的,你說的這類場(chǎng)景非常重要。對(duì)于語音和語調(diào),包括聲音的大小和語氣,都非常重要的信息來源。
黃仁勛:GPT-4在哪些內(nèi)容上比GPT-3做出了更多的進(jìn)步,可以舉個(gè)例子嗎?
伊爾亞-蘇茨克維:比如說在一些數(shù)學(xué)競(jìng)賽上(像高中數(shù)學(xué)競(jìng)賽),很多問題是需要圖表來解答的。GPT-3.5對(duì)于圖表的解讀做得特別差,而GPT-4只需要文本就可以解讀,準(zhǔn)確率有很噠的提升。
黃仁勛:你之前提到,AI能夠生成各種不同的文本來去訓(xùn)練另外一個(gè)AI。比如說,在所有的語言之中一共有20萬億不同的語言計(jì)數(shù)單位去培訓(xùn)語言模型,那么這個(gè)語言模型的培訓(xùn)到底是什么樣的?AI是否可生成出只屬于AI的數(shù)據(jù)來去自我培訓(xùn)?這樣的形式看起來是一個(gè)閉環(huán)的模型,就像我們?nèi)祟愅ㄟ^自己不斷地去學(xué)習(xí)外部的世界、通過自我反思、通過解決問題來去訓(xùn)練我們自己的大腦。你怎么看這樣一個(gè)合成生成過程,以及AI的自我學(xué)習(xí)和自我培訓(xùn)呢?
伊爾亞-蘇茨克維:我不會(huì)低估這個(gè)部分已經(jīng)存在的數(shù)據(jù),甚至我認(rèn)為這里面存在的數(shù)據(jù)要比我們意識(shí)到的數(shù)據(jù)更多。
黃仁勛:是的,這也是我們?cè)诓粩嗾雇奈磥碇腥ニ伎嫉氖虑?,相信總有一天,AI能夠自己去生成內(nèi)容、進(jìn)行自我學(xué)習(xí),并且可以自我改善。你是否可以總結(jié)一下我們現(xiàn)在處于什么樣的發(fā)展階段?以及在不遠(yuǎn)的將來,我們的生成式AI能夠達(dá)到什么樣的情況?對(duì)于大語言模型,它的未來是什么?
伊爾亞-蘇茨克維:對(duì)我來說,預(yù)測(cè)未來是很困難的。我們能做的就是把這件事,持續(xù)做下去,我們將會(huì)讓大家看到更多令人感到驚艷版本的系統(tǒng)。我們希望能夠去提高數(shù)據(jù)的可靠度,讓系統(tǒng)真正能夠獲得人們的信任。如果讓生成式的AI去總結(jié)某一些文本,然后得出一個(gè)結(jié)論。目前AI在解讀這個(gè)文本過程中,還沒有完全去驗(yàn)證文本的真實(shí)性以及文本所說的信息的來源,這一點(diǎn)是很重要的。接下來我們對(duì)于未來的展望,就是讓神經(jīng)網(wǎng)絡(luò)必須要意識(shí)到所有數(shù)據(jù)來源的真實(shí)性,讓神經(jīng)網(wǎng)絡(luò)意識(shí)到用戶每一步的需求。
黃仁勛:這種技術(shù)希望能夠展現(xiàn)給人們更多的可靠性。我還有最后一個(gè)問題,你覺得第一次使用ChatGPT-4的時(shí)候,有哪些性能讓你覺得是很令人驚艷和震驚的?
伊爾亞-蘇茨克維:對(duì)比之前的ChatGPT版本,神經(jīng)網(wǎng)絡(luò)只會(huì)回答問題,有的時(shí)候也會(huì)誤解問題,回答上很不理想。但是GPT-4基本沒有再誤解問題,會(huì)以更快的方式去難題,能夠去處理復(fù)雜的艱難的任務(wù),這個(gè)對(duì)我來說特別有意義。舉例子來看,很多人意識(shí)到ChatGPT能夠?qū)懺?,比如說它可以寫押頭韻的詩,也能夠?qū)懷何岔嵉脑姟2⑶宜軌蛉ソ忉屝υ?,能明白這個(gè)笑話背后到底是什么樣的意義。其實(shí)簡(jiǎn)而言之,就是它的可靠性更好了。
我在這個(gè)行業(yè)從業(yè)差不多二十多年了,讓我認(rèn)為“驚艷”的特點(diǎn),就是它本身存在的意義,是可以給人類帶來幫助的。它從最開始毫不起眼的工作領(lǐng)域慢慢成長(zhǎng),變得越來越強(qiáng)。同樣的一個(gè)神經(jīng)網(wǎng)絡(luò),通過兩種不同的方式來培訓(xùn),能夠變得越來越強(qiáng)大。我也經(jīng)常會(huì)發(fā)出疑問和感嘆:這些神經(jīng)網(wǎng)絡(luò)是如何去成長(zhǎng)如此之迅速的?我們是不是需要更多的培訓(xùn)?它是不是會(huì)像人腦一樣不斷成長(zhǎng)?這讓我感覺到它的偉大,或者說讓人感到特別驚訝的方面。
黃仁勛:回想過去我們也認(rèn)識(shí)很長(zhǎng)的時(shí)間了,你將整個(gè)職業(yè)生涯都奉獻(xiàn)給了這個(gè)事業(yè),看到你在GPT和AI方面有所建樹。今天跟你交流讓我更清楚地了解了ChatGPT工作的邏輯,這是對(duì)于ChatGPT和Open AI最為深入、最為藝術(shù)的一種解釋。今天很高興能夠再次跟你交流,謝謝!