操久久,日韩无码视频123,99热99在线观看,久草免费在线视频

Meta 推出 Llama 3.1:開源 AI 的新時代
發(fā)布時間: 2024-08-08 16:17

Llama 3.1 帶來新突破

上個月底,Meta推出了Llama 3.1 大型語言模型 (LLM) 系列。它由三個新模型組成——預先訓練和指令調(diào)整的文本輸入/文本輸出開源生成式 AI 模型,參數(shù)數(shù)量分別為 8B、70B 和 405B。


據(jù) Meta 稱,旗艦 405B 版本是“全球最大、功能最強大的公開可用基礎(chǔ)型號”。


開源方法和創(chuàng)新


首席執(zhí)行官馬克·扎克伯格 (Mark Zuckerberg) 倡導開源方法,并預測它最終將成為行業(yè)標準,就像 Linux 之于操作系統(tǒng)一樣。他斷言,與專有的閉源模型相比,開源 AI 模型不僅發(fā)展更快,而且具有更大的創(chuàng)新潛力。


Llama 3.1 的發(fā)布確實為全球 AI 社區(qū)注入了活力,圍繞其潛力展開了大量討論和探索。以下是您需要了解的內(nèi)容!


先前的目標和最近的成就


今年早些時候,當?shù)谝豢铙w型較小的 Llama 3 模型(Llama 2)發(fā)布時,Meta表示其近期目標是“讓 Llama 3 具備多語言和多模式能力,擁有更長的語境,并繼續(xù)提高推理和編碼等 LLM 功能的整體性能”。


借助 Llama 3.1,它朝著實現(xiàn)這一目標邁出了一大步。LLM 尚未實現(xiàn)多模式,但它確實擁有新的多語言功能(西班牙語、葡萄牙語、意大利語、德語和泰語),以及擴展的工具使用和大幅增加的上下文長度。405B 模型使用超過 16,000 個 NVIDIA H100 GPU 在 15 萬億個標記的海量數(shù)據(jù)集上進行訓練,比其前代模型復雜得多,功能也強大得多。


性能基準


Meta表示,Llama 3.1 405B 在多項基準測試中的表現(xiàn)優(yōu)于 OpenAI 的 GPT-4 和 GPT-4o 以及 Anthropic 的 Claude 3.5 Sonnet。據(jù)報道,在一系列不同的任務中,它與其閉源競爭對手“不相上下”。


以下是 405B 模型與其他常用基準的尖端 LLM 的比較(未包括 Gemini,因為 Meta 難以使用Google的 API 來復制其結(jié)果):




模型架構(gòu)和設(shè)計


在介紹 Llama 3.1的博客中,Meta 指出該模型的完整訓練堆?!暗玫搅孙@著優(yōu)化”。設(shè)計選擇優(yōu)先考慮了模型開發(fā)過程的可擴展性和簡單性。


例如,為了最大限度地提高訓練穩(wěn)定性,Llama 3.1 使用標準的僅解碼器的 Transformer 模型架構(gòu),并進行了細微調(diào)整,而不是混合專家模型。Meta 還采用了迭代后訓練程序,每輪都使用監(jiān)督微調(diào)和直接偏好優(yōu)化。結(jié)果是每次迭代都會創(chuàng)建出高質(zhì)量的合成數(shù)據(jù),從而增強了每項功能的性能。


405B 模型本身甚至被用來提高較小的 70B 和 8B 模型的訓練后質(zhì)量。


值得注意的是,為了便于對 405B 規(guī)模的模型進行大規(guī)模生產(chǎn)推理,Meta 從 16 位 (BF16) 轉(zhuǎn)換為 8 位 (FP8) 數(shù)值。這有效地降低了計算要求并使模型能夠在單個服務器節(jié)點內(nèi)運行。


用戶現(xiàn)在還可以享受更長的上下文窗口。Llama 3.1 模型的上下文長度已從 Llama 3 中的 8,192 個標記擴展到 Llama 3.1 中的 128,000 個標記。這大約是原來的 16 倍!


事實上,擴展的上下文長度現(xiàn)在比 GPT-4 大得多,大約等于企業(yè)用戶使用 GPT-4o 獲得的長度,并且與 Claude 3 的 200,000 個標記窗口相當。


最重要的是,高需求時期不會影響訪問,因為 Llama 3.1 可以部署在您自己的硬件或所選的云提供商上。一般來說,也不會有廣泛的使用限制。


使用和構(gòu)建 Llama 3.1 405B


作為一款如此強大的機型,405B 需要大量的計算資源和開發(fā)人員的專業(yè)知識才能使用。Meta 明確表示,它希望用戶能夠充分利用它——利用其先進的功能并立即開始構(gòu)建。以下是一些可能性:


  • 實時和批量推理

  • 監(jiān)督微調(diào),包括特定領(lǐng)域

  • LLM-as-a-judge(評估你的模型是否適合你的具體應用)

  • 持續(xù)預訓練

  • 檢索增強生成 (RAG)

  • 函數(shù)調(diào)用

  • 合成數(shù)據(jù)生成


Meta 生成 AI 副總裁 Ahmad Al-Dahle預測,知識提煉將成為開發(fā)人員對 405B 模型的流行用途。也就是說,它可以用作更大的“教師”模型,將其知識和新興能力提煉成更小的“學生”模型,具有更快、更經(jīng)濟的推理能力。


另一個例子:Al-Dahle 表示,Llama 3.1 可以與搜索引擎 API 集成,以“根據(jù)復雜的查詢從互聯(lián)網(wǎng)上檢索信息,并連續(xù)調(diào)用多個工具以完成您的任務?!比绻笤撃P屠L制過去五年內(nèi)售出的房屋數(shù)量,“它可以為您檢索[網(wǎng)絡]搜索并生成 Python 代碼并執(zhí)行它。”還不錯。


Llama 生態(tài)系統(tǒng)還為各種用例和高級工作流程提供了交鑰匙指南,供任何人使用。Meta 已與 vLLM、TensorRT 和 PyTorch 等項目合作,從一開始就提供支持,讓用戶更容易上手。


未來趨勢


最終,Llama 3.1 代表了追求開放、可訪問和負責任的 AI 創(chuàng)新的重要飛躍。


在捷智算平臺,我們非常欣賞這些開大規(guī)模語言模型的可訪問性,以及周圍社區(qū)的合作。我們自己的使命與讓人工智能惠及每個人的理念相一致。


為此,我們很高興能夠在捷智算平臺上提供開源文本生成接口 (TGI) 框架,這樣您就可以提供像 Llama 3.1 這樣的 LLM,并以更實惠的計算成本運行您自己的模型。

粵公網(wǎng)安備 44030502006483號、 粵ICP備15047669號
  • 捷易科技聯(lián)系人