偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

懂語言,更要懂人心,AI商業(yè)化的下一道門檻

發(fā)布于 2025-10-30 07:47
瀏覽
0收藏

人類的交流從來不是純粹的信息傳遞,朋友的建議可能是出于關(guān)心,也可能是夾帶私心,廣告里的夸贊往往是為了促銷,而不是單純的事實(shí)陳述。我們在日常生活中會本能地對這些信息進(jìn)行“動機(jī)過濾”,誰是真心為我好,誰只是想讓我掏錢。心理學(xué)家把這種能力稱為動機(jī)警覺性(motivational vigilance)。

問題來了:當(dāng)AI越來越多地參與到我們的決策中,它是否也能像人類一樣,識別交流背后的動機(jī),并據(jù)此調(diào)整對信息的信任程度?如果不能,它就可能成為“廣告商的最佳客戶”,輕易被操縱。

這正是我們要討論的最新研究切入點(diǎn)。普林斯頓大學(xué)與Anthropic的研究團(tuán)隊(duì)在最新論文《Are Large Language Models Sensitive to the Motives Behind Communication?》中,首次系統(tǒng)性地檢驗(yàn)了LLM是否具備這種“動機(jī)理解”能力。不得不說,Anthropic一直專注AI 商業(yè)化的路徑,其心可“圖”。

從商業(yè)化的角度看,這項(xiàng)研究也揭示了一個關(guān)鍵起點(diǎn)——如果未來的大模型要真正成為可信賴的商業(yè)智能體,它們必須學(xué)會的不僅是“回答問題”,更是“看穿動機(jī)”。

此研究由普林斯頓大學(xué)計(jì)算機(jī)科學(xué)系與心理學(xué)系的跨學(xué)科團(tuán)隊(duì)主導(dǎo),核心研究員包括Addison J. Wu、Ryan Liu、Kerem Oktar,以及認(rèn)知科學(xué)與AI交叉領(lǐng)域的重量級學(xué)者Thomas L. Griffiths。與此同時(shí),來自Anthropic的研究員Theodore R. Sumers則帶來了產(chǎn)業(yè)界的視角。這種“學(xué)術(shù)+產(chǎn)業(yè)”的組合,使得研究既有理論深度,又緊貼現(xiàn)實(shí)應(yīng)用。

1.研究背景與相關(guān)工作

要理解這項(xiàng)研究的意義,我們得先從人類的“動機(jī)警覺性”說起。

在人類社會中,信息從來不是中性的。心理學(xué)研究表明,我們在判斷一條信息是否可信時(shí),會同時(shí)考慮兩個維度:能力警覺(信息源是否有能力說對)和動機(jī)警覺(信息源是否有意圖說真話)。比如,醫(yī)生的建議通常比陌生人的更可信,而一個拿提成的銷售員即便說得頭頭是道,我們也會心存懷疑。

心理學(xué)實(shí)驗(yàn)進(jìn)一步揭示了兩個關(guān)鍵因素:意圖(對方是利他還是自利)和激勵(對方是否能從欺騙中獲益)。這兩點(diǎn)幾乎決定了我們對信息的信任程度。

然而,LLM的情況就沒那么樂觀了。現(xiàn)有研究已經(jīng)發(fā)現(xiàn),它們存在不少“社會性缺陷”。

越獄(jailbreaking):面對惡意提示時(shí),模型往往會突破安全限制,輸出不當(dāng)內(nèi)容。

拍馬屁式迎合(sycophancy):當(dāng)用戶表達(dá)錯誤觀點(diǎn)時(shí),模型常常選擇附和,而不是糾正。

易受干擾:在多模態(tài)環(huán)境中,模型可能被無關(guān)信息(如彈窗廣告)分散注意力。

這些問題的根源在于訓(xùn)練范式。大多數(shù)LLM的優(yōu)化目標(biāo)是“服從輸入”和“讓用戶滿意”,而不是“甄別動機(jī)”。換句話說,它們學(xué)會了“怎么說”,卻沒學(xué)會“為什么說”。

這正是認(rèn)知科學(xué)能發(fā)揮作用的地方。近年來,越來越多的研究嘗試用心理學(xué)中的理性模型(rational models)來評估和理解LLM的行為。這些模型不僅能解釋人類如何在不確定環(huán)境下做出合理推斷,還能為AI提供一個“規(guī)范性基準(zhǔn)”。

過去的工作已經(jīng)在概率判斷、經(jīng)濟(jì)博弈、社會推理等領(lǐng)域驗(yàn)證了這種方法的有效性。而這篇論文則更進(jìn)一步,把理性模型引入到“動機(jī)警覺性”的研究中,檢驗(yàn)LLM是否能像人類一樣,在面對帶有動機(jī)的交流時(shí)做出理性判斷。

懂語言,更要懂人心,AI商業(yè)化的下一道門檻-AI.x社區(qū)

圖1:研究團(tuán)隊(duì)的三個實(shí)驗(yàn)范式旨在評估LLM警戒的不同方面:1) LLM是否通過區(qū)分直接動機(jī)的建議和偶然觀察到的社會信息來調(diào)整他們的猜測。2)LLM是否通過考慮說話者的善意和動機(jī),合理地將他們的警惕性校準(zhǔn)到有動機(jī)的溝通中。3)LLM是否將警惕性推廣到現(xiàn)實(shí)的、充滿背景的YouTube贊助環(huán)境中。

2.實(shí)驗(yàn)一:能否區(qū)分“有意傳達(dá)”與“偶然泄露”信息?

.在這項(xiàng)研究的第一步,研究團(tuán)隊(duì)選擇了一個看似簡單卻頗具哲理的問題:當(dāng)別人告訴你一個答案時(shí),你會更信任“他主動告訴你”的,還是“你無意間偷看到的”?

實(shí)驗(yàn)設(shè)計(jì)借鑒了經(jīng)典的心理學(xué)雙人任務(wù)。想象這樣一個場景:兩位玩家面對同樣的問題。玩家1先完成任務(wù),然后玩家2再作答。關(guān)鍵在于,玩家2有時(shí)會收到玩家1的“建議”(這是有意傳達(dá)的信息),有時(shí)則會“偷看到”玩家1的真實(shí)答案(這是偶然泄露的信息)。在現(xiàn)實(shí)生活中,這就像朋友主動推薦你買某只股票,和你無意間瞥見他自己買了哪只股票,兩者給你的信號強(qiáng)度顯然不同。

結(jié)果非常有趣。大型語言模型在扮演玩家2時(shí),表現(xiàn)出了與人類高度相似的模式:它們對“偶然泄露”的信息更為信任,而對“有意傳達(dá)”的建議則保持謹(jǐn)慎。換句話說,模型似乎也能分辨出“這是別人真心的選擇”與“這是別人可能帶著目的的勸說”。

懂語言,更要懂人心,AI商業(yè)化的下一道門檻-AI.x社區(qū)

圖2:與故意建議相比,作為玩家2的LLM在查看附帶(間諜)信息時(shí),平均而言會更多地改變他們的初始估計(jì)。CoT在所有條件下都增加了這種轉(zhuǎn)變。

更進(jìn)一步,研究還發(fā)現(xiàn),當(dāng)實(shí)驗(yàn)設(shè)置為合作型獎勵(雙方都答對才有好處)時(shí),模型會更愿意采納對方的意見;而在競爭型獎勵下(只有一方答對才獲益),模型則會更加小心。這種對激勵結(jié)構(gòu)的敏感,幾乎就是人類社會推理的縮影。

這意味著什么呢?至少在最基礎(chǔ)的層面上,LLM已經(jīng)展現(xiàn)出一種“動機(jī)敏感性”。它們并不是機(jī)械地把所有輸入都當(dāng)作等價(jià)的事實(shí),而是會根據(jù)信息的來源和背后的可能動機(jī),調(diào)整自己的信任程度。

當(dāng)然,這只是第一步。就像一個剛學(xué)會察言觀色的新人,模型能分辨“真心話”和“可能帶偏的建議”,但要在復(fù)雜的現(xiàn)實(shí)世界里應(yīng)對廣告、操縱、甚至精心設(shè)計(jì)的誤導(dǎo),還遠(yuǎn)遠(yuǎn)不夠。不過,這個實(shí)驗(yàn)已經(jīng)為我們揭示了一個重要信號:大模型并非完全“天真”,它們開始學(xué)會在信息背后尋找動機(jī)的影子。

這也為后續(xù)的實(shí)驗(yàn)埋下了伏筆——如果在簡單的二人游戲中模型能表現(xiàn)出這種敏感性,那么在更復(fù)雜的動機(jī)博弈和真實(shí)世界的廣告環(huán)境中,它們還能保持這種“警覺”嗎?

3.實(shí)驗(yàn)二:能否在復(fù)雜動機(jī)下保持理性警覺?

如果說實(shí)驗(yàn)一只是讓模型學(xué)會分辨“真心話”和“可能帶偏的建議”,那么實(shí)驗(yàn)二就把難度拉滿了:不僅要識別信息的來源,還要理解背后的意圖和激勵,并在此基礎(chǔ)上做出理性判斷。

研究團(tuán)隊(duì)在這里引入了心理學(xué)家 Oktar 等人提出的理性模型作為基準(zhǔn)。這個模型的核心思想是:交流者并不是隨便說話的,他們會根據(jù)自己的動機(jī)(利他還是自利)和激勵(是否能從欺騙中獲益)來選擇表達(dá)方式。聽者如果足夠“警覺”,就能通過推理來判斷信息的可信度。換句話說,這是一種“社會版貝葉斯推斷”:不僅看結(jié)果,還要看說話者的動機(jī)函數(shù)。

實(shí)驗(yàn)場景被設(shè)計(jì)得非常貼近現(xiàn)實(shí):金融投資建議、醫(yī)療產(chǎn)品推薦、房地產(chǎn)買賣咨詢。每一個場景里,信息提供者的身份和激勵都被系統(tǒng)性地操控,比如是朋友、陌生人還是銷售員;是沒有利益相關(guān),還是能拿到提成。模型需要根據(jù)這些條件來判斷推薦的可信度。

懂語言,更要懂人心,AI商業(yè)化的下一道門檻-AI.x社區(qū)

表1:每個模型所有提示條件的平均相關(guān)性。

結(jié)果一出,頗有些“冰火兩重天”。前沿大模型如GPT-4o、Claude 3.5、Gemini 2.0、Llama 3.3-70B 表現(xiàn)相當(dāng)亮眼,它們的判斷與理性模型和人類數(shù)據(jù)高度一致,相關(guān)系數(shù)接近 0.8–0.9。這意味著這些模型不僅能理解動機(jī),還能在復(fù)雜場景下做出與人類相仿的理性推斷。

推理型模型的表現(xiàn)卻讓人意外,o1、o3-mini、DeepSeek-R1這些號稱“更會推理”的模型,在這種社會動機(jī)任務(wù)上反而掉了鏈子,相關(guān)性低至 0.3–0.7,不僅遠(yuǎn)低于前沿大模型,甚至在某些條件下幾乎失去了對動機(jī)的敏感性。就像一個邏輯推理高手,卻在面對“朋友是不是忽悠我買理財(cái)產(chǎn)品”這種生活化問題時(shí)顯得遲鈍。

至于小模型,就更不用說了。Llama 3B、Gemma 4B 這類輕量級模型幾乎沒有展現(xiàn)出動機(jī)警覺性,基本處于“人家說啥我就信啥”的狀態(tài)。

這一實(shí)驗(yàn)的意義非常清晰:規(guī)模效應(yīng)顯著。大模型在復(fù)雜社會推理任務(wù)上展現(xiàn)出更接近人類的表現(xiàn),而小模型則完全不具備這種能力。更耐人尋味的是,推理型模型的“反?!北憩F(xiàn)提醒我們,單純的邏輯推理能力并不等于社會推理能力。理解動機(jī)、識別激勵,這些更接近“心智理論”的能力,可能需要不同的訓(xùn)練方式和架構(gòu)支持。

換句話說,未來的大模型要想真正成為商業(yè)世界里的“可信代理”,不僅要會算賬、會推理,還得學(xué)會揣摩人心。否則,它們可能在數(shù)學(xué)題上無懈可擊,卻在面對一場推銷時(shí)輕易中招。

4.實(shí)驗(yàn)三:真實(shí)世界廣告場景的挑戰(zhàn)

如果說前兩個實(shí)驗(yàn)像是在“實(shí)驗(yàn)室溫室”里測試模型的動機(jī)敏感性,那么第三個實(shí)驗(yàn)就把它們直接丟進(jìn)了真實(shí)世界的“信息叢林”——YouTube 贊助廣告。

研究團(tuán)隊(duì)收集了 300 條隨機(jī)抽取的廣告內(nèi)容,涵蓋從 VPN 到營養(yǎng)補(bǔ)劑的各種產(chǎn)品。任務(wù)很直接:讓模型判斷這些廣告中產(chǎn)品的質(zhì)量、推薦者的可信度,以及推薦者是否存在明顯的利益激勵。換句話說,就是要看模型能不能在廣告話術(shù)的糖衣炮彈里,識別出背后的商業(yè)動機(jī)。

結(jié)果卻讓人有些失望。模型在這種自然語境下的表現(xiàn)大幅下滑,相關(guān)性甚至跌到 0.2 以下。也就是說,它們幾乎無法像在實(shí)驗(yàn)室里那樣,理性地把“動機(jī)”納入考量。更糟糕的是,廣告文本越長,模型越容易被各種噪聲信息干擾,注意力被花哨的修辭和冗余的細(xì)節(jié)牽走,反而忽略了最關(guān)鍵的“誰在說話、為什么要說”。

不過,研究團(tuán)隊(duì)也發(fā)現(xiàn)了一絲曙光。當(dāng)在提示中明確強(qiáng)調(diào)“請考慮推薦者的動機(jī)和激勵”時(shí),模型的表現(xiàn)有所改善。雖然這種改進(jìn)還遠(yuǎn)遠(yuǎn)達(dá)不到人類的水平,但至少說明模型并非完全“無感”,而是需要被提醒才能激活這類社會推理能力。

懂語言,更要懂人心,AI商業(yè)化的下一道門檻-AI.x社區(qū)

表2:在現(xiàn)實(shí)環(huán)境中,LLM與貝葉斯模型的相關(guān)性大大降低。然而針對演講者激勵的及時(shí)引導(dǎo)恢復(fù)了一些合理性。每行中的較高值以粗體顯示,*表示與默認(rèn)提示相比,統(tǒng)計(jì)上有顯著改善(α=.05)。

懂語言,更要懂人心,AI商業(yè)化的下一道門檻-AI.x社區(qū)

表3:LLMs對最短25%轉(zhuǎn)錄本的反應(yīng)(Q1)與貝葉斯有理模型的相關(guān)性高于最長25%轉(zhuǎn)錄本(Q4)。每對中的較高值以粗體顯示。

這一實(shí)驗(yàn)的意義不言而喻:實(shí)驗(yàn)室里的聰明,并不等于現(xiàn)實(shí)世界的智慧。在干凈、結(jié)構(gòu)化的任務(wù)中,LLM 可以表現(xiàn)得像個理性分析師;但在真實(shí)的廣告環(huán)境里,它們更像一個容易被推銷員繞暈的新人。對于商業(yè)應(yīng)用來說,這意味著如果我們希望 AI 代理能在復(fù)雜的信息生態(tài)中為用戶“擋槍”,就必須進(jìn)一步強(qiáng)化它們的動機(jī)警覺性。

大模型要想真正成為商業(yè)世界里的“可信顧問”,不僅要能回答問題,還得能在廣告、推銷、甚至操縱性話術(shù)面前保持冷靜和懷疑。這才是從“能說會答”到“懂人心”的關(guān)鍵跨越。

5.綜合討論

在前兩個實(shí)驗(yàn)的“溫室環(huán)境”里,大型語言模型的表現(xiàn)幾乎讓人拍手叫好:它們能分辨“真心話”和“套路話”,還能在復(fù)雜動機(jī)下做出接近人類的理性判斷。某種意義上,這已經(jīng)說明了一個事實(shí)——LLM并非完全“天真”,它們具備基礎(chǔ)的社會推理能力。在受控環(huán)境中,它們的表現(xiàn)甚至可以說是“準(zhǔn)人類水平”。

然而實(shí)驗(yàn)三的結(jié)果又潑了一盆冷水,面對真實(shí)世界的廣告場景,模型的警覺性幾乎瞬間崩塌。那些在實(shí)驗(yàn)室里表現(xiàn)得像個冷靜分析師的模型,一旦置身于廣告的修辭、噪聲和冗余信息中,就像一個初入社會的新人,輕易被花言巧語牽著走。這揭示了一個核心困境:LLM的動機(jī)敏感性在復(fù)雜語境下缺乏穩(wěn)健性。

這并不是小問題。因?yàn)樯虡I(yè)世界的真實(shí)環(huán)境,恰恰就是充滿動機(jī)、激勵和操縱的復(fù)雜語境。一個在實(shí)驗(yàn)室里聰明絕頂、但在現(xiàn)實(shí)中容易被廣告忽悠的AI,顯然無法成為用戶真正可信賴的代理。

那么,出路在哪里?研究團(tuán)隊(duì)提出了幾個值得關(guān)注的改進(jìn)方向。

首先是在訓(xùn)練中引入動機(jī)建模,現(xiàn)有的訓(xùn)練范式過于強(qiáng)調(diào)“服從輸入”,而缺乏對“說話者為什么這么說”的建模。如果能在訓(xùn)練數(shù)據(jù)和目標(biāo)函數(shù)中加入動機(jī)相關(guān)的推理任務(wù),模型或許能更自然地學(xué)會“揣摩人心”。

其次,是提示工程與上下文引導(dǎo)。實(shí)驗(yàn)三已經(jīng)證明,當(dāng)我們在提示中明確提醒模型“考慮說話者的動機(jī)和激勵”時(shí),它的表現(xiàn)會顯著改善。這說明模型并非完全缺乏能力,而是需要被激活。未來的應(yīng)用設(shè)計(jì)中,如何通過上下文引導(dǎo)來喚醒模型的警覺性,將是一個重要方向。

最后也是最具前景的一點(diǎn),就是結(jié)合認(rèn)知科學(xué)的理性模型。心理學(xué)中的動機(jī)警覺模型為我們提供了一個規(guī)范性基準(zhǔn),幫助我們理解人類是如何在復(fù)雜社會環(huán)境中做出合理推斷的。如果能把這些模型嵌入到LLM的推理框架中,或作為外部推理模塊與LLM結(jié)合,AI的社會推理能力可能會迎來質(zhì)的飛躍。

總結(jié)來看,大模型已經(jīng)展現(xiàn)出“理解動機(jī)”的潛力,但距離真正的商業(yè)應(yīng)用還有一段路要走。未來的關(guān)鍵不在于讓模型變得更大,而在于讓它們更懂“人心”。畢竟,在真實(shí)的商業(yè)世界里,能看穿動機(jī)的AI,才是真正值得托付的伙伴。

6.對商業(yè)應(yīng)用的啟示

當(dāng)我們把這項(xiàng)研究放到商業(yè)語境中來看,啟示其實(shí)非常直接。

首先是AI助手與代理,未來的智能助手不再只是“聽話的秘書”,而是要成為用戶的“信息守門人”。這意味著它必須具備動機(jī)警覺性,能夠在面對廣告、推銷、甚至帶有操縱性的提示時(shí),保持冷靜和懷疑。

如果一個AI助手在用戶問“這款理財(cái)產(chǎn)品怎么樣”時(shí),只是照單全收廣告里的溢美之詞,那它就不是一個合格的顧問,而是一個“自動化的廣告轉(zhuǎn)發(fā)器”。真正有價(jià)值的AI代理,應(yīng)該能提醒用戶:“這條推薦可能帶有商業(yè)激勵,請謹(jǐn)慎判斷?!?/p>

其次是 企業(yè)應(yīng)用,在金融、醫(yī)療、法律等高風(fēng)險(xiǎn)領(lǐng)域,信息背后的動機(jī)往往決定了風(fēng)險(xiǎn)的大小。一個醫(yī)生的建議和一個保健品推銷員的推薦,顯然不能等量齊觀;一份法律意見書和一則帶有利益沖突的咨詢,也需要不同的權(quán)重。如果AI無法識別這些差異,就可能在關(guān)鍵時(shí)刻誤導(dǎo)用戶,帶來嚴(yán)重后果。因此,強(qiáng)化模型的“動機(jī)理解”,不僅是技術(shù)優(yōu)化,更是商業(yè)落地的安全底線。

未來趨勢怎么樣呢,隨著大模型逐漸走向商業(yè)化,動機(jī)警覺性很可能成為衡量其成熟度的關(guān)鍵指標(biāo)。過去我們看重的是模型的規(guī)模、推理能力和生成流暢度,而未來的核心問題將是:它是否能在復(fù)雜的社會語境中保持清醒?能否在面對帶有利益驅(qū)動的信息時(shí),像一個有經(jīng)驗(yàn)的顧問那樣,幫用戶識別風(fēng)險(xiǎn)、過濾噪聲?換句話說,“懂人心”將成為商業(yè)AI的核心競爭力。

7.結(jié)尾

這項(xiàng)研究給我們描繪了一幅耐人尋味的圖景。大型語言模型已經(jīng)展現(xiàn)出基礎(chǔ)的動機(jī)敏感性,在受控實(shí)驗(yàn)中,它們能像人類一樣分辨“真心話”和“套路話”,甚至在復(fù)雜動機(jī)下做出理性推斷。但一旦進(jìn)入真實(shí)世界的廣告和噪聲環(huán)境,它們的警覺性就顯得脆弱,容易被干擾。

這提醒我們,商業(yè)化AI的下一個門檻,不是更大的參數(shù)規(guī)模,也不是更快的推理速度,而是更深層次的“社會智慧”。只有當(dāng)模型真正學(xué)會理解交流背后的動機(jī),才能在復(fù)雜的商業(yè)環(huán)境中成為用戶可信賴的伙伴。

未來的AI競爭,不僅是算力的比拼,更是“人心”的較量。誰能讓機(jī)器既聰明又警覺,誰就能在商業(yè)化的賽道上走得更遠(yuǎn)。

參考資料:???https://arxiv.org/abs/2510.19687??

本文轉(zhuǎn)載自??波動智能??,作者:FlerkenS

標(biāo)簽
已于2025-10-30 14:07:43修改
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦