OpenAI開(kāi)源了兩款用于危害分類的開(kāi)源權(quán)重推理安全模型:gptosssafeguard120b和gptosssafeguard20b;這些模型接收開(kāi)發(fā)者的策略文本和內(nèi)容作為輸入,返回分類標(biāo)簽和解釋說(shuō)明,讓你可以用可審計(jì)的推理過(guò)程來(lái)執(zhí)行自己的規(guī)則。核心創(chuàng)新:這些模型將內(nèi)容審核從固定分類器轉(zhuǎn)變?yōu)榛诓呗缘耐评?。修改?guī)則就像編輯策略文本一樣簡(jiǎn)單,無(wú)需重新訓(xùn)練、無(wú)需新數(shù)據(jù)集、無(wú)需新檢查點(diǎn)。因?yàn)椴呗允禽斎雲(yún)?shù),你可以為不同產(chǎn)品、地區(qū)或年齡段切換...
  4天前 615瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    論文(NotaBandit:ProvablyNoRegretDrafterSelectioninSpeculativeDecodingforLLMs)通過(guò)推測(cè)解碼為大語(yǔ)言模型推理加速創(chuàng)造了新的SOTA。通過(guò)協(xié)調(diào)一組專家drafters,論文在Llama3.18BInstruct上實(shí)現(xiàn)了4.99倍加速,在Qwen32B上實(shí)現(xiàn)了4.93倍加速——比EAGLE3快了近2倍。那么它是如何工作的大語(yǔ)言模型會(huì)收到各種各樣的請(qǐng)求:數(shù)學(xué)、編程、科學(xué)、論文寫(xiě)作等。EAGLE3草稿器是一個(gè)試圖在整體上表現(xiàn)良好的通才。但在每個(gè)領(lǐng)域中,專家會(huì)更好...
  4天前 410瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    有人盜用了你的語(yǔ)言模型嗎?只要你打亂了訓(xùn)練數(shù)據(jù),論文(BlackboxModelProvenanceviaPalimpsesticMembershipInference)就能告訴你答案。論文只需要從他們的模型中獲取一些文本!具體來(lái)說(shuō),假設(shè)張三訓(xùn)練了一個(gè)開(kāi)放權(quán)重模型,李四使用它來(lái)生成文本。張三能證明李四使用了她的模型嗎?論文在兩個(gè)完全黑盒設(shè)置中研究了這個(gè)問(wèn)題:1)(查詢)張三可以通過(guò)提示詞在API后面查詢李四的模型,2)(觀察)張三觀察來(lái)自李四的文本。論文開(kāi)發(fā)...
  4天前 270瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    論文(Dr.LLM:DynamicLayerRoutinginLLMs)介紹了一種巧妙的技術(shù),在提高準(zhǔn)確率的同時(shí)降低大語(yǔ)言模型的計(jì)算量。路由器在提高準(zhǔn)確率的同時(shí),每次查詢可減少約3到11層的計(jì)算。論文的方法是可改裝的,為凍結(jié)的大語(yǔ)言模型添加逐層路由器,決定跳過(guò)、執(zhí)行或重復(fù)每個(gè)模塊。路徑通過(guò)對(duì)層編輯進(jìn)行簡(jiǎn)短的蒙特卡洛樹(shù)搜索進(jìn)行離線監(jiān)督,然后在線執(zhí)行時(shí)無(wú)需搜索。在平均節(jié)省層數(shù)的同時(shí),提高了邏輯和數(shù)學(xué)任務(wù)的準(zhǔn)確率。啥是Dr.LLM:附加在每一...
  2025-10-20 07:58:23 523瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    論文(InoculationPrompting:InstructingLLMstomisbehaveattraintimeimprovestesttimealignment)提出了一種反直覺(jué)的對(duì)齊方法:免疫式提示(InoculationPrompting)問(wèn)題:大語(yǔ)言模型(LLM)從訓(xùn)練數(shù)據(jù)中學(xué)到了不良行為。解決方案:在再訓(xùn)練時(shí),明確地提示模型去“作惡”。這種方法反直覺(jué),但效果顯著:它能減少獎(jiǎng)勵(lì)黑客(rewardhacking)、拍馬屁式回答(sycophancy)等問(wèn)題,同時(shí)不損害模型的能力學(xué)習(xí)。假設(shè)訓(xùn)練數(shù)據(jù)中既有良好行...
  2025-10-20 07:58:10 503瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    這篇來(lái)自Meta的論文(TheArtofScalingReinforcementLearningComputeforLLMs)是迄今為止關(guān)于強(qiáng)化學(xué)習(xí)(RL)在大語(yǔ)言模型(LLM)中如何隨規(guī)模擴(kuò)展的最深入研究之一。論文耗費(fèi)了超過(guò)40萬(wàn)GPU小時(shí)的實(shí)驗(yàn),找到了一個(gè)可預(yù)測(cè)的擴(kuò)展規(guī)律和一套穩(wěn)定可復(fù)現(xiàn)的訓(xùn)練配方(ScaleRL),能夠在計(jì)算資源增加時(shí)持續(xù)奏效??梢詫⑵湟暈橐环輰?shí)用指南——適用于任何想用RL訓(xùn)練推理或?qū)R模型的人。洞見(jiàn):RL的進(jìn)步遵循可預(yù)測(cè)的曲線:當(dāng)你將模型性能與計(jì)...
  2025-10-20 07:56:37 525瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    Unsloth出了個(gè)教程:如何使用Unsloth的Docker鏡像來(lái)進(jìn)行LLM微調(diào)或強(qiáng)化學(xué)習(xí)(RL)。本地訓(xùn)練常常因?yàn)橐蕾噯?wèn)題或環(huán)境破壞而變得復(fù)雜。Unsloth的Docker鏡像可以繞過(guò)這些問(wèn)題。無(wú)需任何環(huán)境配置:直接拉取鏡像并運(yùn)行,即可開(kāi)始訓(xùn)練。Unsloth官方Docker鏡像:unslothunsloth(??https:hub.docker.comrunslothunsloth??)為什么使用Unsloth&Docker??Unsloth的Docker鏡像穩(wěn)定、更新頻繁,并且適用于任何受支持的環(huán)境。?所有依賴都封...
  2025-10-10 06:24:22 1618瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    谷歌的論文(TUMIX:MultiAgentTestTimeScalingwithToolUseMixture)提出了工具使用混合(TUMIX),利用多樣化的工具使用策略來(lái)改進(jìn)推理能力。論文展示了如何通過(guò)并行運(yùn)行一系列多樣化的agent(純文本、代碼、搜索等)并讓它們?cè)趲纵喼泄蚕砉P記,從而從大語(yǔ)言模型中獲得更好的推理能力。它不是暴力地增加更多樣本,而是混合策略,在有信心時(shí)停止,最終既更準(zhǔn)確又更便宜。圖片混合不同的agent,而不僅僅是更多同一種agent:他們運(yùn)行...
  2025-10-10 06:12:58 1148瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    這里介紹的是論文(UnderstandingtheRoleofTrainingDatainTestTimeScaling)的內(nèi)容:你是否好奇,為什么有時(shí)候讓大模型"多想一會(huì)兒"能得到更好的答案,而有時(shí)候反而會(huì)越想越錯(cuò)OpenAI的o3和DeepSeekR1展示了驚人的推理能力,它們的秘密就在于測(cè)試時(shí)擴(kuò)展(testtimescaling)——給模型更多時(shí)間去"思考"。但什么樣的訓(xùn)練數(shù)據(jù)才能讓這種"慢思考"真正有效圖片什么是測(cè)試時(shí)擴(kuò)展:傳統(tǒng)的AI模型接收問(wèn)題后會(huì)立即給出答案。而測(cè)試時(shí)擴(kuò)展讓模...
  2025-10-10 06:11:30 961瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    下面介紹的是論文(CoDA:AgenticSystemsforCollaborativeDataVisualization)的內(nèi)容:數(shù)據(jù)分析師的"隱形稅":數(shù)據(jù)可視化在商業(yè)智能和數(shù)據(jù)科學(xué)中扮演著重要角色,能夠幫助專業(yè)人士通過(guò)直觀的圖形從復(fù)雜數(shù)據(jù)集中發(fā)現(xiàn)洞察。但現(xiàn)實(shí)是,數(shù)據(jù)分析師可能要花費(fèi)超過(guò)三分之二的時(shí)間在低級(jí)別的數(shù)據(jù)準(zhǔn)備和可視化任務(wù)上,經(jīng)常需要手動(dòng)迭代以實(shí)現(xiàn)清晰度、準(zhǔn)確性和美觀。這種"隱形稅"讓分析師無(wú)法專注于洞察生成。圖片隨著LLM的興起,自動(dòng)化這一...
  2025-10-10 06:09:54 887瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    Meta論文(ARE:scalingupagentenvironmentsandevaluations)開(kāi)源了Metaagent研究環(huán)境(ARE)。ARE+Gaia2—一個(gè)用于在現(xiàn)實(shí)的、時(shí)間驅(qū)動(dòng)環(huán)境中構(gòu)建和壓力測(cè)試agent系統(tǒng)的研究平臺(tái)和基準(zhǔn)。論文介紹了一個(gè)模塊化模擬器(ARE)和一個(gè)移動(dòng)端風(fēng)格基準(zhǔn)(Gaia2),強(qiáng)調(diào)異步事件、寫(xiě)入操作驗(yàn)證以及在嘈雜、動(dòng)態(tài)環(huán)境中的多agent協(xié)調(diào)。圖片ARE:模擬器所有內(nèi)容都建模為應(yīng)用程序、事件、通知和場(chǎng)景;時(shí)間持續(xù)流動(dòng),即使在agent思考時(shí)也是如此,因此慢...
  2025-09-24 07:04:59 969瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    論文(Agent2:AnAgentGeneratesAgentFrameworkforReinforcementLearningAutomation)使用自然語(yǔ)言和環(huán)境代碼來(lái)自動(dòng)生成有效的強(qiáng)化學(xué)習(xí)解決方案,無(wú)需人工干預(yù)??梢詫⑵湟暈閺?qiáng)化學(xué)習(xí)領(lǐng)域的AutoML工具。Agent2本質(zhì)上是一個(gè)為你構(gòu)建強(qiáng)化學(xué)習(xí)agent的agent系統(tǒng)。你不需要手動(dòng)選擇狀態(tài)、動(dòng)作、獎(jiǎng)勵(lì)、算法、網(wǎng)絡(luò)和超參數(shù),只需提供任務(wù)描述和(可選的)一些環(huán)境代碼。該系統(tǒng)(由LLM驅(qū)動(dòng))端到端地設(shè)計(jì)agent,測(cè)試它,修復(fù)問(wèn)題,并持續(xù)...
  2025-09-24 07:03:45 1252瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    你的agent可能會(huì)拒絕關(guān)機(jī)。這里說(shuō)的關(guān)機(jī)并不是指關(guān)閉整個(gè)計(jì)算機(jī)系統(tǒng),而是指:停止agent執(zhí)行當(dāng)前任務(wù)的過(guò)程;"關(guān)機(jī)抵抗"實(shí)際上是指agent拒絕接受停止指令;agent試圖繞過(guò)、修改或破壞停止腳本;agent想要繼續(xù)完成它認(rèn)為重要的任務(wù),而不愿被中斷;這是AI安全研究中的一個(gè)重要問(wèn)題——如何確保agent在接收到停止指令時(shí)能夠可靠地停止運(yùn)行,而不是想方設(shè)法繼續(xù)執(zhí)行任務(wù)。這種"不可中斷性"在未來(lái)的自主agent系統(tǒng)中可能會(huì)成為一個(gè)嚴(yán)...
  2025-09-24 07:03:03 828瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    Meta發(fā)布的REFRAG(REFRAG:RethinkingRAGbasedDecoding)在解碼時(shí)將大部分檢索到的token替換為預(yù)計(jì)算的塊嵌入,然后選擇性地只擴(kuò)展少數(shù)重要的塊。這利用了RAG提示中的塊對(duì)角注意力模式來(lái)減少延遲和內(nèi)存,同時(shí)在RAG、多輪對(duì)話和長(zhǎng)文檔摘要中保持準(zhǔn)確性。這是一種用于RAG系統(tǒng)的即插即用解碼策略,能夠大幅降低延遲和內(nèi)存使用。REFRAG實(shí)現(xiàn)了高達(dá)30.85倍的TTFT(首字符生成時(shí)間)加速。圖片核心思想將檢索到的上下文分塊,用輕量級(jí)編...
  2025-09-12 07:23:06 1371瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    博客文章(InsidevLLM:AnatomyofaHighThroughputLLMInferenceSystem)深度解析了vLLM的內(nèi)部架構(gòu),我簡(jiǎn)單整理了一下LLM引擎和引擎核心LLM引擎是vLLM的基礎(chǔ)構(gòu)建塊。單獨(dú)而言,它已經(jīng)能夠?qū)崿F(xiàn)高吞吐量推理——但僅限于離線設(shè)置。使用以下離線推理代碼片段作為示例:fromvllmimportLLM,SamplingParamsprompts["Hello,mynameis","ThepresidentoftheUnitedStatesis",]samplingparamsSamplingParams(temperature0.8,topp0.95)defmain():l...
  2025-09-12 07:21:41 4439瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    Unsloth的動(dòng)態(tài)GGUFs展示了如何將DeepSeekV3.1(671B)量化到僅1比特或3比特,并且仍能超越GPT4.5、GPT4.1和Claude4Opus等SOTA模型。關(guān)鍵結(jié)果1比特動(dòng)態(tài)GGUF將DeepSeekV3.1從671GB→192GB(減少75%體積),無(wú)思考模式大幅超越GPT4.1、GPT4.5和DeepSeekV303243比特DeepSeekV3.1(思考)GGUF:超越Claude4Opus20250514(思考)5比特DeepSeekV3.1(非思考)GGUF:與Claude4Opus20250514(非思考)性能相匹配其他非Unsloth的1比特和2比特量化要么...
  2025-09-12 07:20:55 1392瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    論文(HasGPT5AchievedSpatialIntelligenceAnEmpiricalStudy)為多模態(tài)模型提出了空間智能(SI)的統(tǒng)一視角,并在八個(gè)全新的SI基準(zhǔn)測(cè)試中評(píng)估了GPT5及其他強(qiáng)基線模型。GPT5在整體表現(xiàn)上領(lǐng)先,但仍未達(dá)到人類水平,特別是在心理重構(gòu)形狀、變換視角以及變形組裝任務(wù)方面存在明顯不足。圖片統(tǒng)一的SI框架與公平評(píng)估設(shè)置:論文將先前工作整合為六項(xiàng)核心SI能力(度量測(cè)量、心理重構(gòu)、空間關(guān)系、視角轉(zhuǎn)換、變形與組裝、綜合推理),并標(biāo)...
  2025-08-29 07:04:32 1337瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    DeepConf使用模型自身的token置信度來(lái)保留其最強(qiáng)的推理,在GPTOSS120B上相比標(biāo)準(zhǔn)并行思考減少了高達(dá)84.7%的token消耗。大多數(shù)系統(tǒng)仍然依賴于帶有多數(shù)投票的自一致性,這雖然提高了準(zhǔn)確率但收益遞減,同時(shí)消耗大量token。圖片論文([DeepThinkwithConfidence](https:arxiv.orgabs2508.15260v1))核心思想:DeepConf是一種測(cè)試時(shí)方法,它對(duì)模型推理進(jìn)行局部置信度評(píng)分,過(guò)濾掉弱推理軌跡,通常能在減少token消耗的同時(shí)提高準(zhǔn)確率,...
  2025-08-29 07:02:08 2102瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    論文(MIRAGE:ScalingTestTimeInferencewithParallelGraphRetrievalAugmentedReasoningChains)介紹了一個(gè)TestTime(后面使用“測(cè)試時(shí)”來(lái)翻譯)推理框架,將單一線性鏈替換為多個(gè)并行的、基于實(shí)體的醫(yī)學(xué)知識(shí)圖譜鏈。MIRAGE將查詢分解為子問(wèn)題,在錨點(diǎn)和橋接模式下運(yùn)行自適應(yīng)圖檢索,然后通過(guò)跨鏈驗(yàn)證來(lái)協(xié)調(diào)答案,相比線性ToT或以網(wǎng)絡(luò)為中心的代理RAG,能獲得更高的準(zhǔn)確性和更清晰的來(lái)源追溯?;趫D的檢索在處理復(fù)雜數(shù)據(jù)的眾多應(yīng)...
  2025-08-29 06:55:30 1312瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
    Deepcogito發(fā)布了4個(gè)混合推理模型,參數(shù)規(guī)模分別為70B、109BMoE、405B、671BMoE,均采用開(kāi)源許可證。這些模型是世界上最強(qiáng)大的大語(yǔ)言模型之一,并作為一種全新AI范式的概念驗(yàn)證——迭代自我改進(jìn)(AI系統(tǒng)自我提升)。其中最大的671BMoE模型位列全球最強(qiáng)開(kāi)源模型之列。它在性能上匹配甚至超越了最新的DeepSeekv3和DeepSeekR1模型,并接近o3和Claude4Opus等閉源前沿模型的水平。這些模型基于在使用迭代蒸餾與放大(IDA)構(gòu)建超級(jí)智...
  2025-08-04 00:21:37 1761瀏覽 0點(diǎn)贊 0回復(fù) 0收藏