預(yù)測(cè)未來(lái)模型能力!微調(diào)揭示LLM涌現(xiàn)能力的關(guān)鍵在加州大學(xué)伯克利分校的智慧殿堂中,一群天才研究者們正試圖解開(kāi)現(xiàn)代大型語(yǔ)言模型(LLM)擴(kuò)展中的一個(gè)根本性難題:涌現(xiàn)能力的不可預(yù)測(cè)性。想象一下,你正在訓(xùn)練一個(gè)語(yǔ)言模型,它的預(yù)訓(xùn)練損失隨著計(jì)算量的增加而可預(yù)測(cè)地下降,就像一個(gè)乖巧的學(xué)生按部就班地學(xué)習(xí)。但當(dāng)涉及到下游任務(wù)時(shí),情況就變得復(fù)雜了——有時(shí)模型會(huì)在某個(gè)看似隨機(jī)的點(diǎn)上突然“開(kāi)竅”,這種“涌現(xiàn)”現(xiàn)象讓預(yù)測(cè)未...
2024-12-09 09:10:30 3564瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
預(yù)測(cè)未來(lái)模型能力!微調(diào)揭示LLM涌現(xiàn)能力的關(guān)鍵在加州大學(xué)伯克利分校的智慧殿堂中,一群天才研究者們正試圖解開(kāi)現(xiàn)代大型語(yǔ)言模型(LLM)擴(kuò)展中的一個(gè)根本性難題:涌現(xiàn)能力的不可預(yù)測(cè)性。想象一下,你正在訓(xùn)練一個(gè)語(yǔ)言模型,它的預(yù)訓(xùn)練損失隨著計(jì)算量的增加而可預(yù)測(cè)地下降,就像一個(gè)乖巧的學(xué)生按部就班地學(xué)習(xí)。但當(dāng)涉及到下游任務(wù)時(shí),情況就變得復(fù)雜了——有時(shí)模型會(huì)在某個(gè)看似隨機(jī)的點(diǎn)上突然“開(kāi)竅”,這種“涌現(xiàn)”現(xiàn)象讓預(yù)測(cè)未...
2024-12-03 15:46:55 3302瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
在3D世界中,尋找任何物體的一部分聽(tīng)起來(lái)像是科幻小說(shuō)中的情節(jié),但加州理工學(xué)院的ZiqiMa、YisongYue和GeorgiaGkioxari卻將其變成了現(xiàn)實(shí)。他們開(kāi)發(fā)的FIND3D模型,不僅能夠根據(jù)任何文本查詢分割任何物體的任何部分,還能在開(kāi)放世界中零距離應(yīng)用。想象一下,你只需說(shuō)“汽車的輪子”,F(xiàn)IND3D就能精確地找到并分割出這個(gè)部分,無(wú)論是從網(wǎng)絡(luò)上的3D資產(chǎn),還是從iPhone拍攝的照片中重建的3D模型。FIND3D的背后是一個(gè)由2D基礎(chǔ)模型(如SAM...
2024-11-27 11:21:37 3657瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
你是否曾為ChatGPT生成的那首“驚艷”詩(shī)歌而贊嘆不已?又或是被GPT4編寫的“神級(jí)”劇本所折服?然而,華盛頓大學(xué)和艾倫人工智能研究所的最新研究卻給我們潑了一盆冷水——AI的“創(chuàng)意”,其實(shí)不過(guò)是“拼湊大師”罷了!研究人員們開(kāi)發(fā)了一套名為“創(chuàng)意指數(shù)”(CREATIVITYINDEX)的評(píng)估體系,通過(guò)分析文本中與網(wǎng)絡(luò)文本的相似度,來(lái)衡量AI的“創(chuàng)意”程度。結(jié)果令人驚訝——專業(yè)人類作者的“創(chuàng)意指數(shù)”平均比AI高出66.2%!這簡(jiǎn)直就像...
2024-11-25 10:10:56 3843瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
機(jī)器人操作領(lǐng)域一直致力于讓機(jī)器人學(xué)會(huì)執(zhí)行復(fù)雜任務(wù),從模仿學(xué)習(xí)人類示范中汲取經(jīng)驗(yàn)是一個(gè)重要方法。但收集大量人類示范數(shù)據(jù)成本高昂且耗時(shí),尤其對(duì)于長(zhǎng)周期任務(wù)而言,這一問(wèn)題更為突出。為解決這一困境,NVIDIA的研究團(tuán)隊(duì)提出了SkillMimicGen(SkillGen)系統(tǒng)。該系統(tǒng)能夠從少量人類示范中生成大量高質(zhì)量的演示數(shù)據(jù)集,為機(jī)器人學(xué)習(xí)提供充足的數(shù)據(jù)支持。今天我們就一起來(lái)學(xué)習(xí)一下這篇論文吧!1.任務(wù)分解與技能抽象SkillGen的核...
2024-10-28 12:45:15 4087瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
今天我們介紹來(lái)自普林斯頓NLP組的一篇很有意思的博客,作者提出了大語(yǔ)言模型中自我發(fā)現(xiàn)的蘇格拉底方法。一、核心內(nèi)容(一)多智能體協(xié)作解決問(wèn)題(有人類參與)智能體角色分配文中提到在涉及基于大型語(yǔ)言模型的智能體和人類參與的多智能體協(xié)作解決問(wèn)題領(lǐng)域十分引人關(guān)注。通過(guò)給大型語(yǔ)言模型賦予如“分析員”或“校對(duì)員”等不同角色,能夠有效利用它們各自的優(yōu)勢(shì),增強(qiáng)整體解決問(wèn)題的能力。這種角色分配就像是在一個(gè)團(tuán)隊(duì)中,每個(gè)...
2024-10-21 15:08:31 4297瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
大語(yǔ)言模型(LLMs),以及一般的語(yǔ)言模型(LMs),催生了一種新的編程方式,其中“指令”不再是明確的應(yīng)用程序編程接口(APIs),而是像英語(yǔ)這樣的自然語(yǔ)言語(yǔ)句。該領(lǐng)域(一個(gè)被稱為提示工程的新領(lǐng)域)的專家通過(guò)組合特定的關(guān)鍵詞、提示格式,甚至認(rèn)知模型來(lái)對(duì)他們的語(yǔ)言模型進(jìn)行編程——或者從語(yǔ)言模型中引出特定行為。過(guò)去兩年表明,語(yǔ)言模型可以產(chǎn)生廣泛的變革性影響,但在無(wú)縫集成到更大的程序環(huán)境方面存在固有局限。它們對(duì)...
2024-10-21 15:05:09 3841瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
自從JohnSchulman、JanLeike等大牛離職加入Anthropic,AISafety&Alignment的研究中心也逐漸由OpenAI轉(zhuǎn)移到Anthropic。今天,小編就帶來(lái)一篇來(lái)自Anthropic的AI安全相關(guān)的論文解讀,搬起小板凳一起吧!一、前沿模型帶來(lái)的潛在風(fēng)險(xiǎn)隨著前沿語(yǔ)言模型能力的不斷提升,它們所帶來(lái)的潛在災(zāi)難性風(fēng)險(xiǎn)受到了廣泛關(guān)注。像OpenAI、Anthropic等前沿實(shí)驗(yàn)室都在進(jìn)行部署前的風(fēng)險(xiǎn)測(cè)試。這些風(fēng)險(xiǎn)通常包括模型被外部行為者濫用,比如在生物風(fēng)險(xiǎn)、...
2024-10-21 10:24:38 3769瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
人工智能領(lǐng)域正經(jīng)歷著范式轉(zhuǎn)變,基礎(chǔ)模型(如GPT4、LLAMA2)處于核心位置,驅(qū)動(dòng)著技術(shù)創(chuàng)新和大量投資。這引發(fā)了對(duì)其監(jiān)管的廣泛需求。而在關(guān)于如何監(jiān)管基礎(chǔ)模型的討論中,模型的發(fā)布過(guò)程至關(guān)重要。近日,由斯坦福大學(xué)基礎(chǔ)模型研究中心主任PercyLiang領(lǐng)導(dǎo)的論文《ConsiderationsforGoverningOpenFoundationModels》發(fā)表在Science,對(duì)開(kāi)源大模型治理與監(jiān)管進(jìn)行了深入探討,今天我們就一起學(xué)習(xí)一下這篇重要論文吧!一、基礎(chǔ)模型的發(fā)...
2024-10-15 15:36:34 4306瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
在自然語(yǔ)言處理(NLP)領(lǐng)域,語(yǔ)言模型程序(LanguageModelPrograms)正逐漸成為推動(dòng)任務(wù)進(jìn)展的關(guān)鍵力量。這些由多個(gè)模塊化語(yǔ)言模型(LM)調(diào)用組成的復(fù)雜管道,為解決復(fù)雜的NLP任務(wù)提供了新的思路和方法。然而,構(gòu)建這些管道并非易事,其中一個(gè)關(guān)鍵挑戰(zhàn)就是如何優(yōu)化提示(prompts),使得所有模塊都能高效協(xié)同工作。今天我們就來(lái)介紹一篇來(lái)自DSPy一作、斯坦福大學(xué)博士生、并且即將成為MIT助理教授的OmarKhattab領(lǐng)導(dǎo)的一項(xiàng)有意思...
2024-10-11 19:39:26 3519瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
在深度學(xué)習(xí)的世界里,Boltzmann機(jī)器是一種很有趣的模型,通過(guò)概率來(lái)理解數(shù)據(jù)。想象一下,我們有很多變量,它們之間的關(guān)系就像一張復(fù)雜的網(wǎng)。Boltzmann機(jī)器就是試圖描述這些變量之間的概率關(guān)系。它有不同的版本,比如深Boltzmann機(jī)器(DBM)和受限Boltzmann機(jī)器(RBM)。RBM是一種比較常用的形式,它避免了模型同一層內(nèi)的連接,這樣可以使用更高效的基于塊的近似推理方法。但是,我們不禁要問(wèn),除了這種限制,還有沒(méi)有其他的限制...
2024-10-10 13:10:39 4192瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
一、引言O(shè)penAI發(fā)布的草莓o1模型為評(píng)估大語(yǔ)言模型(LLMs)在規(guī)劃和調(diào)度基準(zhǔn)上的進(jìn)展提供了新的機(jī)會(huì),但是它的規(guī)劃能力到底怎么樣呢?近期,規(guī)劃領(lǐng)域泰斗SubbaraoKambhampati教授領(lǐng)銜的論文對(duì)其進(jìn)行了研究,旨在全面評(píng)估o1在既定規(guī)劃和調(diào)度基準(zhǔn)上的性能,并展示如何通過(guò)將大型推理模型(LargeReasoningModel,LRM)嵌入到帶有可靠驗(yàn)證器的循環(huán)中,為其輸出提供正確性保證并提高性能。SubbaraoKambhampati一直是經(jīng)典AI的代表人物,...
2024-10-08 11:08:18 3951瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
人類智能的一個(gè)獨(dú)特特征是能夠?qū)⒚嫦蛉蝿?wù)的行為與語(yǔ)言推理(或稱作內(nèi)心獨(dú)白)無(wú)縫結(jié)合。理論上,這被認(rèn)為是人類認(rèn)知中的重要一環(huán),能夠?qū)崿F(xiàn)自我調(diào)節(jié)或策略化并維持工作記憶。以在廚房烹飪一道菜為例,在任何兩個(gè)具體行為之間,我們可能會(huì):(1)用語(yǔ)言進(jìn)行推理以跟蹤進(jìn)度(例如“現(xiàn)在一切都切好了,我應(yīng)該把水壺里的水加熱”);(2)處理異常情況或根據(jù)情況調(diào)整計(jì)劃(例如“我沒(méi)有鹽,所以讓我用醬油和胡椒代替”);(3)意識(shí)...
2024-09-18 13:56:23 4701瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
2024年,大語(yǔ)言模型智能體LLMAgent吸引了越來(lái)越多人的關(guān)注,各種技術(shù)層出不窮。相比于傳統(tǒng)機(jī)器學(xué)習(xí)方法,LLMAgent借助于大語(yǔ)言模型的涌現(xiàn)能力,能夠?qū)崿F(xiàn)少樣本、零樣本學(xué)習(xí),并且能夠?qū)崿F(xiàn)與現(xiàn)實(shí)物理世界的交互。如何入門這一令人興奮的領(lǐng)域呢?小編找到了OpenAI研究員LilianWeng分享的博客,并全文翻譯過(guò)來(lái),原文地址:https:lilianweng.github.ioposts20230623agent構(gòu)建以大型語(yǔ)言模型(LLM)為核心控制器的智能體是一個(gè)極富創(chuàng)...
2024-09-13 12:45:00 5602瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
模擬在推動(dòng)機(jī)器人學(xué)習(xí)方面發(fā)揮了重要作用,通過(guò)提供一個(gè)受控而多變的環(huán)境來(lái)開(kāi)發(fā)和測(cè)試算法。特別是數(shù)據(jù)驅(qū)動(dòng)方法通常將機(jī)器人部署到仿真環(huán)境中,在各種多樣化和隨機(jī)化的設(shè)置中進(jìn)行廣泛訓(xùn)練,以實(shí)現(xiàn)可泛化和適應(yīng)性強(qiáng)的行為。通過(guò)隨機(jī)化物體形狀、紋理和動(dòng)態(tài)特性,機(jī)器人學(xué)習(xí)取得了顯著進(jìn)展。然而,盡管物體屬性是一個(gè)關(guān)鍵因素,但物體布局仍然具有挑戰(zhàn)性,難以實(shí)現(xiàn)完全開(kāi)放式的隨機(jī)化。與可以在不干擾其他物體的情況下輕松指定范...
2024-07-11 13:24:04 3957瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
強(qiáng)化學(xué)習(xí)(RL)在復(fù)雜任務(wù)上取得了令人矚目的成果,但在具有不同實(shí)施方式的多任務(wù)設(shè)置中存在困難。世界模型通過(guò)學(xué)習(xí)環(huán)境的模擬來(lái)提供可伸縮性,但它們通常依賴于低效的無(wú)梯度優(yōu)化方法。近日,佐治亞理工學(xué)者聯(lián)合英偉達(dá)、加州大學(xué)圣地亞哥分校等學(xué)者提出了基于大世界模型的策略學(xué)習(xí)(PWM),這是一種新穎的基于模型的RL算法,它從大型多任務(wù)世界模型中學(xué)習(xí)連續(xù)控制策略。通過(guò)對(duì)離線數(shù)據(jù)進(jìn)行世界模型的預(yù)訓(xùn)練,并將其用于一階梯度...
2024-07-08 08:01:47 4320瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
想象一下,擁有一個(gè)不僅能回答問(wèn)題,還能瀏覽網(wǎng)頁(yè)、解決復(fù)雜數(shù)學(xué)問(wèn)題、編寫代碼,甚至能推理圖像和基于文本的游戲的數(shù)字助手。聽(tīng)起來(lái)好得難以置信好吧,準(zhǔn)備好迎接人工智能的未來(lái),因?yàn)殡S著LUMOS的引入,它變得更加易于獲取和透明。在一項(xiàng)突破性的發(fā)展中,來(lái)自艾倫人工智能研究所、UCLA和華盛頓大學(xué)的研究人員推出了LUMOS,這是一個(gè)開(kāi)源框架,有望徹底改變我們與語(yǔ)言代理的交互方式。與現(xiàn)有的閉源解決方案不同,LUMOS提供了前所未有的可負(fù)...
2024-06-24 16:08:17 4288瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
近日,微軟的AzureAI團(tuán)隊(duì)在HuggingFace上發(fā)布了一個(gè)名為Florence2的新視覺(jué)基礎(chǔ)模型。該模型以寬松的MIT許可證可用,可以處理各種視覺(jué)和視覺(jué)語(yǔ)言任務(wù),使用統(tǒng)一的基于提示的表示形式。它有兩個(gè)尺寸——232M和771M個(gè)參數(shù),并且在字幕生成、目標(biāo)檢測(cè)、視覺(jué)定位和分割等任務(wù)上已經(jīng)表現(xiàn)出色,與許多大型視覺(jué)模型相媲美甚至更好。盡管該模型的實(shí)際性能尚待測(cè)試,但這項(xiàng)工作預(yù)計(jì)將為企業(yè)提供一種處理不同類型視覺(jué)應(yīng)用的統(tǒng)一方法。這將...
2024-06-21 14:31:45 5665瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
教育數(shù)據(jù)中的課堂對(duì)話等信息包含了關(guān)于學(xué)生學(xué)習(xí)方式的大量洞察。但是,處理和分析這些數(shù)據(jù)是相當(dāng)痛苦的。近日,斯坦福大學(xué)研究團(tuán)隊(duì)提出EduConvoKit,這是一個(gè)能夠?yàn)槟闾幚眍A(yù)處理、注釋和分析的流程!用于規(guī)?;逃恼Z(yǔ)言工具令人感到興奮,因?yàn)檎跀[脫僅以標(biāo)準(zhǔn)化考試成績(jī)衡量學(xué)習(xí)的過(guò)度簡(jiǎn)化觀點(diǎn)......而轉(zhuǎn)向以學(xué)生思維和教學(xué)法為基礎(chǔ)的語(yǔ)言評(píng)估。倉(cāng)庫(kù)鏈接:https:github.comstanfordnlpeduconvokit來(lái)看看EduConvoKit的實(shí)際應(yīng)...
2024-06-20 13:10:13 3523瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
動(dòng)機(jī)離線強(qiáng)化學(xué)習(xí)(RL)和模仿學(xué)習(xí)之間的主要區(qū)別在于使用價(jià)值函數(shù),并且離線RL中的大多數(shù)先前工作都側(cè)重于使用更好的技術(shù)學(xué)習(xí)更好的價(jià)值函數(shù)。所以價(jià)值函數(shù)學(xué)習(xí)是離線RL的主要瓶頸……對(duì)嗎?在這項(xiàng)工作中,研究人員表明,實(shí)踐中情況往往并非如此!分析離線強(qiáng)化學(xué)習(xí)的瓶頸這項(xiàng)工作的主要目標(biāo)是了解離線RL的性能在實(shí)踐中如何受到瓶頸限制。離線RL有三個(gè)潛在瓶頸:(B1)數(shù)據(jù)價(jià)值評(píng)估不完善(B2)從學(xué)習(xí)到的價(jià)值函數(shù)中提取不完善的...
2024-06-18 12:40:28 3971瀏覽 0點(diǎn)贊 0回復(fù) 0收藏