TPC 聯(lián)盟成立:目標萬億以上參數(shù) AI 模型,推進科學發(fā)現(xiàn)
11 月 16 日消息,業(yè)內(nèi)領(lǐng)先的科研機構(gòu)、美國國家超級計算中心和諸多 AI 領(lǐng)域龍頭公司,近日聯(lián)合組建了萬億參數(shù)聯(lián)盟(Trillion Parameter Consortium,簡稱 TPC)。
由 DALL-E 3 生成
IT之家從報道中獲悉,TPC 聯(lián)盟由來自全球?qū)嶒炇摇⒖蒲袡C構(gòu)、學術(shù)界和工業(yè)界的科學家組成,目標是共同推進用于科學發(fā)現(xiàn)的 AI 模型,特別關(guān)注一萬億或更多參數(shù)的巨型模型。
TPC 聯(lián)盟目前已經(jīng)正在開發(fā)可擴展模型架構(gòu)和訓練策略,組織和整理用于模型訓練的科學數(shù)據(jù),為當前和未來的百萬兆次級計算平臺優(yōu)化 AI 庫。
TPC 旨在創(chuàng)建一個開放的研究人員社區(qū),為科學和工程問題開發(fā)大規(guī)模生成式 AI 模型,特別是,將啟動聯(lián)合項目,以避免重復工作并共享方法、途徑、工具、知識和工作流程。通過這種方式,該聯(lián)盟希望最大限度地發(fā)揮這些項目對更廣泛的人工智能和科學界的影響。
TPC 還旨在創(chuàng)建一個由資源、數(shù)據(jù)和專業(yè)知識組成的全球網(wǎng)絡。自成立以來,該聯(lián)盟已經(jīng)建立了許多工作組,以解決構(gòu)建大規(guī)模人工智能模型的復雜性。
培訓所需的百萬兆次級計算資源將由美國能源部 (DOE) 的幾個國家實驗室以及日本、歐洲和其他國家 / 地區(qū)的幾個 TPC 創(chuàng)始合作伙伴提供。即使有這些資源,培訓也需要幾個月的時間。
美國能源部阿貢國家實驗室計算、環(huán)境和生命科學副主任、芝加哥大學計算機科學教授里克?史蒂文斯(Rick Stevens)說:“在我們的實驗室和世界各地越來越多的合作機構(gòu)中,團隊開始開發(fā)用于科學用途的前沿人工智能模型,并正在準備大量以前未開發(fā)的科學數(shù)據(jù)進行訓練。