偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

科普神文,一次性講透AI大模型的核心概念

人工智能
Transformer已經(jīng)引領(lǐng)了各種尖端的AI應(yīng)用程序的創(chuàng)建。除了支持像Bard和ChatGPT這樣的聊天機(jī)器人之外,它還驅(qū)動(dòng)我們移動(dòng)鍵盤上的自動(dòng)完成功能和智能揚(yáng)聲器中的語音識(shí)別。

圖片圖片

令牌,向量,嵌入,注意力,這些AI大模型名詞是否一直讓你感覺熟悉又陌生,如果答案肯定的話,那么朋友,今天這篇科普神文不容錯(cuò)過。我將結(jié)合大量示例及可視化的圖形手段,為你由淺入深一次性講透AI大模型的核心概念。

引言

隨著科技公司及國際競(jìng)爭(zhēng)的不斷推進(jìn),AI大模型已經(jīng)越來越多融入我們的生活。作為一個(gè)普通人或許不需要研究高深的AI算法,但想在這次AI浪潮中不被拋棄,必須對(duì)LLM原理有一個(gè)基本的理解。

理解LLM(即Large Language Model,大語言模型)如何生成文本也就意味著理解這些模型為什么是如此通用的認(rèn)知引擎——以及它們還能幫助創(chuàng)造什么。

令牌化和向量化(Token&Vectorization)

首先,讓我們從令牌化和向量化開始,這一部分內(nèi)容將為大家解開AI大模型的第一層面紗-AI大模型時(shí)如何理解人類語言的。通過這一部分的講解也將為大家構(gòu)建AI大模型的基礎(chǔ)數(shù)學(xué)觀。

  • 為了讀懂人類提問和輸出回答,LLM必須先將單詞翻譯成它們能理解的語言。

圖片圖片

  • 首先,一塊文字被分割成令牌(tokens) ——可以編碼的基本單位。令牌通常代表詞的片段,但我們會(huì)將每個(gè)完整的詞變成一個(gè)令牌。

圖片圖片

  • 為了掌握一個(gè)詞的意思,例如work,LLM首先通過使用大量訓(xùn)練數(shù)據(jù)觀察它的上下文,注意它的 鄰近詞。這些數(shù)據(jù)集基于收集互聯(lián)網(wǎng)上發(fā)表的文本,新LLM使用數(shù)十億個(gè)詞進(jìn)行訓(xùn)練。

圖片圖片

  • 最終,我們得到一個(gè)巨大的與work在訓(xùn)練數(shù)據(jù)中一起出現(xiàn)的詞集(E.g:roof),以及那些沒有(E.g:dove)與它一起出現(xiàn)的詞集。

圖片圖片

  • 當(dāng)模型處理這個(gè)詞集時(shí),它會(huì)產(chǎn)生一個(gè)向量——或數(shù)值列表——并根據(jù)每個(gè)詞在訓(xùn)練數(shù)據(jù)中與work的鄰近程度來調(diào)整它。這個(gè)向量被稱為詞嵌入(embedding)。

圖片圖片

  • 一個(gè)詞嵌入可以包含數(shù)百個(gè)值,每個(gè)值表示一個(gè)詞意義的不同方面。就像你可能會(huì)通過其特征來描述一座房子——類型、位置、臥室、浴室、樓層——嵌入中的值可以定量表示一個(gè)詞的語言特征。

圖片圖片

  • 這些特征的派生方式意味著我們不確切知道每個(gè)值表示什么,但我們預(yù)期在可比較的方式中使用的詞,其嵌入往往看起來相似。
    比如一對(duì)詞組如seaocean,它們可能不會(huì)在完全相同的上下文中使用(“all at ocean”不是“all at sea”的直接替代),但它們的意思很接近,并且嵌入允許我們量化這種接近程度。

圖片圖片

  • 通過將每個(gè)嵌入表示的數(shù)百個(gè)值減少到只有兩個(gè),我們可以更清楚地看到這些詞之間的距離。

圖片圖片

  • 我們可能會(huì)發(fā)現(xiàn)代詞的簇集,或交通工具的模式,能夠定量表示詞匯的方式是模型生成文本的第一步。

圖片圖片

Transformer

在搞清楚了大模型是如何理解人類語言之后,或許你會(huì)覺得不過如此,這與LLM表現(xiàn)出的強(qiáng)大功能似乎并不相符。沒錯(cuò)僅僅靠令牌和向量化還不足以使LLM如此聰明,接下來我們將直抵AI大模型的心臟-Transformer,正是依靠Transformer,LLM才能夠像今天這樣流暢地解析和書寫,它從根本上加快并增強(qiáng)了計(jì)算機(jī)理解語言的方式。

闡述transformer模型的研究首次由谷歌的8名AI研究人員在2017年6月發(fā)表,正是大家耳熟能詳?shù)摹禔ttention is All You Need》開啟了AI的新紀(jì)元,Attention也將是下文著重講解的核心概念,我將帶領(lǐng)大家在上述數(shù)學(xué)模型的基礎(chǔ)上構(gòu)建對(duì)LLM的基礎(chǔ)概念抽象。

  • Transformer體系結(jié)構(gòu)的一個(gè)關(guān)鍵概念是自注意力(Attention)。這就是允許LLM理解詞之間關(guān)系的原因。

圖片圖片

  • 自注意力查看文本中的每個(gè)令牌(token),并決定哪些對(duì)理解其含義最重要。

圖片圖片

  • 在transformer之前,最先進(jìn)的AI翻譯方法是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它逐字掃描句子并順序處理。

圖片圖片

  • 通過自注意力,transformer可以同時(shí)計(jì)算句子中的所有單詞。捕捉這種上下文為L(zhǎng)LM提供了更復(fù)雜的語言處理能力。

圖片圖片

  • 在這個(gè)例子中,同時(shí)評(píng)估整個(gè)句子意味著transformer能夠理解interest在這里作為名詞使用,以解釋個(gè)人對(duì)政治的看法。

圖片圖片

  • 如果我們調(diào)整句子...

圖片圖片

  • ...模型就會(huì)理解interest現(xiàn)在是在金融意義上使用。

圖片圖片

當(dāng)我們組合這些句子時(shí),模型仍然能夠識(shí)別每個(gè)詞的正確含義,這要?dú)w功于它對(duì)伴隨文本的注意力。

  • 第一次使用interest,它主要注意到no 和in。

圖片圖片

  • 第二次,它主要注意到rate和bank。

圖片圖片

  • 這種功能對(duì)于高級(jí)文本生成至關(guān)重要。沒有它,在某些上下文中可以互換但在其他上下文中不可以的詞可能會(huì)被錯(cuò)誤使用。

圖片圖片

  • 實(shí)際上,自注意力意味著如果這個(gè)句子的摘要被生成,您不會(huì)在討論利率時(shí)使用enthusiasm這個(gè)詞。

圖片圖片

  • 這種能力遠(yuǎn)遠(yuǎn)超越像interest這樣有多個(gè)意思的詞。

圖片圖片

  • 在下面的句子中,自注意力能夠計(jì)算出it最有可能指代dog。

圖片圖片

  • 如果我們改變句子,將hungry替換為delicious,模型能夠重新計(jì)算,現(xiàn)在it最有可能指代bone。

圖片圖片

  • 隨著規(guī)模的擴(kuò)大,自注意力對(duì)語言處理的好處也越來越大。它允許LLM從句子邊界之外獲取上下文(context),讓模型對(duì)一個(gè)詞的使用方式有更深入的理解。

圖片圖片

LLM

理解了LLM基礎(chǔ)數(shù)學(xué)原理和模型概念抽象后,大家是不是很興奮,最后讓我們看看目前世界上最先的大預(yù)言模型到底做了什么,構(gòu)建了如此繽紛多彩的AI應(yīng)用世界。

大模型之所以被稱之為大,是因?yàn)槠溆?xùn)練有我們整個(gè)互聯(lián)網(wǎng)的基礎(chǔ)語料庫的支撐,從這巨大的語料庫中,模型學(xué)會(huì)識(shí)別模式,最終預(yù)測(cè)下一個(gè)最佳選項(xiàng)。接下來我將帶領(lǐng)大家直面大模型,為大家揭秘LLM是如何涌現(xiàn)智能,成為最像人的人工智能的。

  • 基于上文的Transformer模型,對(duì)互聯(lián)網(wǎng)語料庫處理后,我們可以生成人類語言的數(shù)據(jù)模型,表示機(jī)器所理解的輸入,包括詞義、位置和詞之間的關(guān)系。

圖片圖片

  • 基于以上數(shù)學(xué)模型,求取最優(yōu)解最簡(jiǎn)單的方式,就是將模型的目標(biāo)設(shè)定為預(yù)測(cè)一個(gè)序列中的下一個(gè)詞,并重復(fù)此過程直到輸出完成。

圖片圖片

  • 為此,模型給每個(gè)令牌一個(gè)概率分?jǐn)?shù)(probability score),表示它是序列中下一個(gè)詞的可能性。

圖片圖片

  • 它將繼續(xù)這樣做,直到對(duì)所產(chǎn)生的文本感到滿意。

圖片圖片

  • 但是,這種隔離地預(yù)測(cè)下一個(gè)詞的方法(稱為“貪心搜索”)會(huì)引入問題。雖然每個(gè)令牌可能是下一個(gè)最佳選擇,但整個(gè)短語可能不太相關(guān)。
    并不一定總是錯(cuò)誤,但可能也不是你所期望的。

圖片圖片

  • Transformer使用多種方法來解決這個(gè)問題并提高輸出質(zhì)量。一個(gè)例子叫束搜索。
    它不僅關(guān)注序列中下一個(gè)詞,而是考慮一組較大令牌集合的概率。

圖片圖片

  • 通過束搜索,模型能夠考慮多種路徑并找到最佳選項(xiàng)。

圖片圖片

  • 這會(huì)產(chǎn)生更好的結(jié)果,最終導(dǎo)致更連貫、更人性化的文本。

圖片圖片

總結(jié)

Transformer已經(jīng)引領(lǐng)了各種尖端的AI應(yīng)用程序的創(chuàng)建。除了支持像Bard和ChatGPT這樣的聊天機(jī)器人之外,它還驅(qū)動(dòng)我們移動(dòng)鍵盤上的自動(dòng)完成功能和智能揚(yáng)聲器中的語音識(shí)別。

然而,它的真正威力在語言之外。它的發(fā)明者發(fā)現(xiàn),transformer模型可以識(shí)別和預(yù)測(cè)任何重復(fù)的主題或模式。從圖片中的像素,使用Dall-E、Midjourney和Stable Diffusion等工具,到計(jì)算機(jī)代碼使用GitHub Copilot等生成器。它甚至可以預(yù)測(cè)音樂中的音符和蛋白質(zhì)中的DNA來幫助設(shè)計(jì)藥物分子。

數(shù)十年來,研究人員構(gòu)建了專門的模型來總結(jié)、翻譯、搜索和檢索。transformer統(tǒng)一了那些動(dòng)作到一個(gè)單一的結(jié)構(gòu)中,使其能夠執(zhí)行大量各種各樣的任務(wù)。

通過一個(gè)統(tǒng)一的語言模型,實(shí)現(xiàn)了從圖像,音樂,視頻多模態(tài)的應(yīng)用,并且強(qiáng)于以往所有的AI應(yīng)用,這就是這個(gè)故事神奇的地方。

參考鏈接:[1]https://ig.ft.com/generative-ai/

責(zé)任編輯:武曉燕 來源: AI小智
相關(guān)推薦

2019-08-06 09:21:45

2009-12-25 14:46:53

Windows 7文件關(guān)聯(lián)

2023-11-07 08:28:08

GPT模型環(huán)境

2024-02-28 08:18:13

Java日志項(xiàng)目

2022-05-27 14:43:45

JVM字節(jié)碼指令

2022-05-19 08:41:09

JVM虛擬機(jī)架構(gòu)

2017-03-13 09:24:59

概念學(xué)習(xí)器學(xué)習(xí)字符

2019-01-06 16:15:50

云計(jì)算SaaSIaaS

2013-04-17 09:16:37

2014-08-04 14:38:25

LinuxToken

2020-07-08 15:30:29

Java面試題代碼

2020-03-26 09:18:54

高薪本質(zhì)因素

2021-08-12 09:48:21

Webpack Loa工具Webpack

2023-09-26 07:11:15

KubernetesJob節(jié)點(diǎn)

2025-01-13 12:00:00

反射Java開發(fā)

2024-04-03 09:00:10

2012-09-18 15:04:31

Office 2013微軟

2024-07-10 12:00:42

2014-03-06 15:16:18

安全管理linux安全

2010-11-24 16:32:50

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)