企業(yè)應避免的關于智能體的五個認知陷阱
在商業(yè)和消費科技領域,最新的熱點話題全都圍繞著智能體。
這些智能體可以被視為GenAI領域的下一個飛躍,該領域曾為我們帶來了ChatGPT等大型語言模型聊天機器人。與僅僅回答問題或生成信息不同,它們能夠代表我們采取行動,與其他工具和服務進行交互,以完成復雜的任務。
這項技術尚未達到如同幾年前ChatGPT發(fā)布時那樣突破主流的臨界點。
但毫無疑問,它正在路上,其影響將是巨大的,因為我們正越來越多地轉(zhuǎn)向AI助手來幫助我們處理生活中的各個方面。
不過,關于這一話題仍存在許多誤解。讓我們來澄清關于智能體的五個常見誤解。
誤解一:智能體基本上只是更好的聊天機器人
智能體有一個根本性的特質(zhì),使它們與聊天機器人區(qū)別開來,并且超越了聊天機器人,它們不僅會說,更會做。
這意味著它們能夠采取行動,特別是基于計算機的行動,如與網(wǎng)站、數(shù)字服務和軟件進行交互。當你考慮到我們生活中有多少任務是通過這種方式處理的,那么它們能夠為我們分擔的工作量是相當可觀的。
從技術角度來看,這是可能的,因為與聊天機器人由單一的語言處理工具驅(qū)動不同,智能體由許多獨立的工具和應用程序組成,每個都專注于不同的任務。這些工具以層級結(jié)構排列,一個強大的大型語言模型(LLM)工具作為項目經(jīng)理,將任務分配給能夠完成工作的任何工具。聊天機器人與智能體基于相同的技術,但只是對我們的提示提供響應。智能體將使AI更加實用且有意義地融入我們的日常生活。
誤解二:智能體只能執(zhí)行有限數(shù)量的任務
確實,在早期階段,像OpenAI Operator這樣的首批面向消費者的智能體工具功能相對有限,但從理論上講,智能體最終將能夠處理我們通常使用智能手機進行的幾乎所有任務。這可能包括管理我們的日程安排、購買雜貨、安排旅行、為醫(yī)療保健或汽車維修等服務預約、預訂出租車、管理銀行賬戶以及無數(shù)其他事情。
考慮到之前AI技術的改進速度,這很可能很快就會發(fā)生。比較ChatGPT發(fā)布時的能力與現(xiàn)在的表現(xiàn)。在短短兩年多的時間里,它已經(jīng)進化到擁有記憶、網(wǎng)頁瀏覽、視覺、語音以及現(xiàn)在的智能體能力。
誤解三:智能體無法被欺騙或操縱
你可能會認為,要欺騙或操縱超級智能的智能體是困難的,但事實并非總是如此。
至少有一項研究發(fā)現(xiàn),使用計算機視覺在網(wǎng)絡上搜索優(yōu)惠信息的智能體可以被誘導點擊特定鏈接或彈出廣告,方法是讓它們看起來擁有AI正在尋找的信息。這為涉及影響或顛覆智能體行動的新領域打開了大門,包括企業(yè)、倫理和犯罪領域??梢灶A期會出現(xiàn)新的網(wǎng)絡犯罪和欺詐形式,涉及欺騙和操縱智能體。同時,這也為能夠有效向智能體營銷的合法企業(yè)開辟了新機遇。
誤解四:自主式AI與AGI相同
在AI領域的眾多術語中,很容易混淆。自主式AI和AGI是兩個經(jīng)常被混淆的話題,但實際上它們指的是不同但相關的概念。AGI指的是能夠“泛化”其知識和能力的機器智能,以解決任何問題,而不僅僅是它被訓練去解決的問題(類似于人類)。
由于自主式AI使機器能夠更自主地運作并解決更復雜的挑戰(zhàn),同時創(chuàng)建了讓它們在工作中變得更加知識淵博的反饋循環(huán),因此它可以被視為向AGI邁進的一步,然而,真正的AGI仍被認為還有一段距離,盡管OpenAI的首席執(zhí)行官山姆·奧特曼(Sam Altman)認為我們今年可能會看到它。
誤解五:智能體可以在沒有人類輸入或監(jiān)督的情況下工作
自主式AI經(jīng)常被描述為自主的,因為理論上它能夠在沒有人類輸入或監(jiān)督的情況下工作,然而,在實踐中,這并不是一個好主意。
記住,智能體是工具。它們可以代表我們采取行動,但我們始終對結(jié)果負責。自主式AI非常新,并且經(jīng)常犯錯,但根據(jù)一些基準測試,它在許多任務上的表現(xiàn)仍然不如人類。因此,人類的監(jiān)督和問責制至關重要。
這既適用于使用智能體消費應用的個人,也適用于希望實施商業(yè)智能體的企業(yè)。我們需要了解AI公司如何處理我們的數(shù)據(jù),以及這些數(shù)據(jù)如何被用于訓練機器代表我們采取行動或做出決策。這意味著人類的監(jiān)督以及能夠在出現(xiàn)錯誤時介入和干預,或者揭露不道德行為的能力,是任何智能體框架中的關鍵要素。
通過理解智能體不僅僅是下一代聊天機器人,它們的實用性將大幅增長,以及人類的監(jiān)督是不可協(xié)商的,且道德標準是我們所有人的責任,我們可以確保自己準備好迎接它們將帶來的變革浪潮。