<strong id="7z22l"><u id="7z22l"></u></strong><strong id="7z22l"><del id="7z22l"><dl id="7z22l"></dl></del></strong>

  • <ruby id="7z22l"><table id="7z22l"></table></ruby>
    <em id="7z22l"></em><sup id="7z22l"></sup>
  • <mark id="7z22l"><option id="7z22l"></option></mark>
    <samp id="7z22l"><video id="7z22l"></video></samp>

  • 科普之窗
    當前位置: 首頁(yè) > 科普 > 科普之窗
    ChatGPT如何練就對答如流的本領(lǐng)
    發(fā)布時(shí)間:2023-10-29 來(lái)源:鄂州市科學(xué)技術(shù)協(xié)會(huì )

    到今年11月份,ChatGPT就“一歲”了。以ChatGPT為代表的人工智能模型正在以驚人的速度快速迭代,甚至有科技公司宣稱(chēng),ChatGPT今后可能取代人類(lèi)。那么,ChatGPT的原理是什么?它真的有可能取代人類(lèi)嗎?今天,我用大家都熟悉的例子,讓人們直觀(guān)地了解這項看似玄幻的技術(shù)。

    “套娃”方式讓ChatGPT實(shí)現長(cháng)文本生成

    英文縮寫(xiě)ChatGPT全名是Generative Pre-trained Transformer,翻譯過(guò)來(lái)就是“生成式預訓練轉換器”。從這個(gè)名字我們就能看出,它是一個(gè)可以生成內容的預訓練模型。什么叫生成內容呢?成語(yǔ)接龍游戲就是一種生成,根據前面的內容生成后面的內容。如果我說(shuō)“守株待……”ChatGPT可能會(huì )生成“兔”,如果我說(shuō)“聲東擊……” ChatGPT可能會(huì )生成“西”。這就是單字接龍的生成能力。

    如果只是一個(gè)字一個(gè)字地生成,想要生成一段長(cháng)文本豈不是太慢了?這就需要用到“套娃”的方法,就是每生成一個(gè)字,就把它和前面的內容組合起來(lái),作為新的前文再去生成下一個(gè)字,如此反復,就可以生成任意長(cháng)的文章。比如,開(kāi)始時(shí)輸入“守株待”,ChatGPT生成“兔”,然后把“守株待兔”作為新的前文,再生成下一個(gè)字。這樣通過(guò)大量的單字生成和組合,任何長(cháng)文本都可以生成出來(lái)。

    生成內容受兩個(gè)因素影響,并非隨機答案

    那么,ChatGPT生成出來(lái)的內容是不是完全隨機呢?答案是否定的,因為生成內容受兩個(gè)因素影響:一是前面的上下文,二是ChatGPT自身的語(yǔ)言模型。簡(jiǎn)單來(lái)說(shuō)就是,相同上文不同模型會(huì )生成不同內容,相同模型不同上文也會(huì )生成不同內容,這就好像每個(gè)人腦海中對“守株待兔”后面應該連接什么字都有自己的理解是一樣的。

    當然,我們還希望ChatGPT生成我們想要的內容。這就需要給ChatGPT提供大量我們想要的內容,讓它通過(guò)學(xué)習來(lái)改變自身的語(yǔ)言模型,就像重復學(xué)習“守株待兔”后面的詞應該是“猛虎”。久而久之,看到“守株待兔”后,我們的腦海中第一個(gè)出現的詞就是“猛虎”。ChatGPT也一樣,通過(guò)學(xué)習就能逐步掌握我們想要的語(yǔ)言規律。

    ChatGPT通過(guò)學(xué)習能自己生成新答案

    學(xué)習不是簡(jiǎn)單的記憶,而是能舉一反三。如果訓練過(guò)“守株待兔,猛虎”,看到“守望相助,英雄輩出”也知道下一句應該是“猛虎”,這就是ChatGPT的泛化能力,就是可以應用學(xué)習的規律回答沒(méi)有見(jiàn)過(guò)的問(wèn)題,這與我們通過(guò)學(xué)習就會(huì )應用道理回答新的問(wèn)題是一樣的。

    ChatGPT回答問(wèn)題也是這樣的原理,給它提供大量正確的問(wèn)答范例進(jìn)行學(xué)習,它就掌握了回答這個(gè)類(lèi)型問(wèn)題的方法,從而可以回答沒(méi)有見(jiàn)過(guò)的新問(wèn)題。這點(diǎn)不同于搜索引擎,屬于直接在數據庫里找現成答案。ChatGPT懂得回答問(wèn)題的方式,然后自己能生成新答案。

    不過(guò),ChatGPT的答案不一定正確,因為它可能按照錯誤的規律生成虛假內容,就像我們也可能從錯誤例子中學(xué)習到錯誤的知識一樣,產(chǎn)生不符合事實(shí)的答案。所以,我們不能盲目相信它的一面之詞,而要通過(guò)多次提問(wèn)來(lái)評估它的可靠性。

    得益于極大的模型規模和三段訓練法

    ChatGPT為何能達到如此驚人的語(yǔ)言生成效果呢?這得益于極大的模型規模和三段訓練法:首先,ChatGPT吸收了上億條互聯(lián)網(wǎng)數據進(jìn)行無(wú)監督預訓練,掌握了廣泛的語(yǔ)言知識,然后人工設計語(yǔ)言交互模板規范它的行為,最后通過(guò)人工提問(wèn),不斷反饋訓練,提升創(chuàng )造力。通過(guò)這樣逐步的訓練,ChatGPT才能超越我們的預期,完成很多復雜的語(yǔ)言任務(wù)。

    作為人造系統,ChatGPT也有局限性,生成的內容不可全部相信,需要人類(lèi)進(jìn)行監督與評估。就像任何技術(shù)一樣,只能作為輔助工具而不應該也不可能取代人類(lèi)創(chuàng )造力和意識,它終究需要人來(lái)指導運用。讓我們積極而理性地看待這項科技進(jìn)步,以人為本,造福社會(huì )。

    科普鄂州
    科普湖北
    科普中國
    返回頂部
    动漫同人精品无码专区_一区二区福利视频_国产a一级毛片爽爽影院_久久久久青草大香综合精品
    <strong id="7z22l"><u id="7z22l"></u></strong><strong id="7z22l"><del id="7z22l"><dl id="7z22l"></dl></del></strong>

  • <ruby id="7z22l"><table id="7z22l"></table></ruby>
    <em id="7z22l"></em><sup id="7z22l"></sup>
  • <mark id="7z22l"><option id="7z22l"></option></mark>
    <samp id="7z22l"><video id="7z22l"></video></samp>