偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

創(chuàng)建內(nèi)部大型語(yǔ)言模型(LLM)前必須思考的五個(gè)關(guān)鍵問(wèn)題

譯文 精選
人工智能
在開始創(chuàng)建自己的內(nèi)部LLM之前,您應(yīng)該問(wèn)問(wèn)自己這五個(gè)關(guān)鍵問(wèn)題。

譯者 | 晶顏

審校 | 重樓

業(yè)務(wù)領(lǐng)導(dǎo)者一直深感壓力,他們需要找到將生成式人工智能(GenAI)納入其戰(zhàn)略的最佳方式,以便為其組織和利益相關(guān)者帶來(lái)最佳收益。根據(jù)Gartner的調(diào)查,38%的業(yè)務(wù)領(lǐng)導(dǎo)者指出,客戶體驗(yàn)和留存率是他們投資GenAI的主要目的,這對(duì)其業(yè)務(wù)的未來(lái)至關(guān)重要。然而,盡管這看起來(lái)很誘人,但在制定人工智能戰(zhàn)略之前,考慮LLM是否適合您的業(yè)務(wù)同樣至關(guān)重要。

雖然市場(chǎng)上的LLM選項(xiàng)很多且易于訪問(wèn),但有效使用現(xiàn)成的LLM卻存在諸多挑戰(zhàn)。這些問(wèn)題包括缺乏個(gè)性化的客戶體驗(yàn),外包嵌入模型的成本增加,以及由于與外部共享數(shù)據(jù)而引發(fā)的隱私問(wèn)題。訓(xùn)練內(nèi)部AI模型可以直接解決這些問(wèn)題,同時(shí)還可以激發(fā)團(tuán)隊(duì)內(nèi)部的創(chuàng)造力和創(chuàng)新精神,以便將該模型用于其他項(xiàng)目。一旦您決定需要一個(gè)特定領(lǐng)域的人工智能,那么在開始創(chuàng)建自己的內(nèi)部模型之前,您應(yīng)該先問(wèn)問(wèn)自己以下五個(gè)關(guān)鍵問(wèn)題。

問(wèn)題1:您面臨的業(yè)務(wù)問(wèn)題是什么?人工智能如何解決這個(gè)問(wèn)題?

在深入研究基礎(chǔ)模型和LLM之前,您需要先確定自己想要解決的問(wèn)題。確定這一點(diǎn)將幫助您更好地決定自己需要哪些自然語(yǔ)言任務(wù)。這些任務(wù)的示例包括摘要、命名實(shí)體識(shí)別、語(yǔ)義文本相似性和問(wèn)題回答等。

下游任務(wù)(Downstream Task)和領(lǐng)域意識(shí)(Domain Awareness)完全是兩碼事,了解它們的區(qū)別很重要。盡管它們很流行,但像GPT、Llama和PaLM這樣的LLM模型只適用于下游任務(wù)(比如問(wèn)答和總結(jié)),它們通常需要很少的提示或額外的微調(diào)。盡管基礎(chǔ)模型可以在更廣泛的上下文中很好地工作,但它們?nèi)狈υ诖蠖鄶?shù)應(yīng)用程序中運(yùn)行所必需的行業(yè)或業(yè)務(wù)特定領(lǐng)域的專業(yè)知識(shí)。在下游任務(wù)中取得巨大的成果并不意味著它也將對(duì)您的特定行業(yè)具有領(lǐng)域意識(shí)。

問(wèn)題2:是否已有特定于行業(yè)的人工智能工具可用?

作為人工智能戰(zhàn)略研究階段的一部分,密切評(píng)估現(xiàn)有工具非常重要,因?yàn)槠渲幸恍┕ぞ呖赡苁轻槍?duì)特定行業(yè)的,但仍忽略了您業(yè)務(wù)的具體細(xì)微差別。當(dāng)審計(jì)可用的工具時(shí),重點(diǎn)是確保AI模型能夠理解上下文,以及您所選語(yǔ)言中的單詞,以最好地掌握提示并生成與用戶相關(guān)的響應(yīng)。

舉個(gè)例子,一家公司在經(jīng)過(guò)研究和測(cè)試后發(fā)現(xiàn),缺乏專門針對(duì)第三方風(fēng)險(xiǎn)的強(qiáng)大網(wǎng)絡(luò)安全LLM。因此,其團(tuán)隊(duì)便選擇了一個(gè)基于BERT的模型來(lái)進(jìn)行網(wǎng)絡(luò)安全微調(diào)。此外,在構(gòu)建人工智能模型時(shí),他們注意到,當(dāng)分析網(wǎng)絡(luò)安全領(lǐng)域的各種文本時(shí),結(jié)果始終落在一個(gè)特定的范圍內(nèi)。分析后發(fā)現(xiàn)其使用的基礎(chǔ)模型將文本視為同質(zhì)的,并將相似性歸因于其源自同一領(lǐng)域。最終,他們努力為模型提供了網(wǎng)絡(luò)安全行業(yè)的背景和細(xì)微差別,才成功解決了LLM模型缺乏領(lǐng)域意識(shí)的問(wèn)題。

除此之外,上下文/情境也很重要,因?yàn)榧词乖诮裉?,GenAI在特定問(wèn)題上也會(huì)產(chǎn)生“幻覺(jué)”,不應(yīng)該100%信任。這也是拜登-哈里斯政府發(fā)布關(guān)于安全、可靠和值得信賴的人工智能的行政命令的眾多原因之一。在使用人工智能工具作為服務(wù)之前,政府機(jī)構(gòu)需要確保他們使用的服務(wù)是安全和值得信賴的,這一點(diǎn)通常并不明顯,也無(wú)法通過(guò)查看示例輸出集來(lái)捕獲。雖然行政命令不適用于私營(yíng)企業(yè),但這些組織如果要采取類似的政策,也應(yīng)該考慮到這一點(diǎn)。

盡管與內(nèi)部模型相關(guān)的訓(xùn)練和微調(diào)過(guò)程將包括徹底的測(cè)試、弱點(diǎn)識(shí)別和模型分析,并且相當(dāng)漫長(zhǎng),但從長(zhǎng)遠(yuǎn)來(lái)看,這是值得的。

問(wèn)題3:您的數(shù)據(jù)準(zhǔn)備好了嗎?

在訓(xùn)練自己的LLM之前,組織的數(shù)據(jù)是最重要的資產(chǎn)。隨著時(shí)間的推移,那些積累了高質(zhì)量數(shù)據(jù)的公司在今天的LLM時(shí)代無(wú)疑是最幸運(yùn)的,因?yàn)閹缀趺總€(gè)過(guò)程的每一步都需要數(shù)據(jù),包括訓(xùn)練、測(cè)試、再訓(xùn)練和beta測(cè)試。在訓(xùn)練LLM時(shí),高質(zhì)量的數(shù)據(jù)是成功的關(guān)鍵,因此考慮這真正意味著什么很重要。答案當(dāng)然會(huì)根據(jù)任務(wù)和領(lǐng)域的不同而變化,但一般規(guī)則是,需要最少管理和更少再訓(xùn)練的數(shù)據(jù)。

一旦公司開始訓(xùn)練LLM,他們通常會(huì)發(fā)現(xiàn)數(shù)據(jù)在很多方面還沒(méi)有準(zhǔn)備好。由于專家選擇不佳或分配給專家的時(shí)間有限,數(shù)據(jù)可能會(huì)變得過(guò)于嘈雜,或無(wú)效標(biāo)記?;蛘邤?shù)據(jù)可能包含隱藏的重復(fù),這些重復(fù)對(duì)訓(xùn)練過(guò)程提供最小甚至沒(méi)有價(jià)值,并且不能完全代表領(lǐng)域或任務(wù),這可能導(dǎo)致最終的AI模型過(guò)擬合(overfit)

數(shù)據(jù)很容易成為項(xiàng)目的瓶頸,這一點(diǎn)很重要,因?yàn)樗枰ㄙM(fèi)大量的時(shí)間來(lái)組織。有時(shí),甚至可能需要數(shù)年時(shí)間,數(shù)據(jù)才能真正為人工智能做好準(zhǔn)備。

問(wèn)題4:您有足夠的專家來(lái)訓(xùn)練人工智能模型嗎?

專家在生成數(shù)據(jù)和確定數(shù)據(jù)質(zhì)量方面發(fā)揮著重要作用。因?yàn)槲覀內(nèi)匀恍枰祟悂?lái)生成可靠的數(shù)據(jù),這些數(shù)據(jù)將在訓(xùn)練過(guò)程中使用。合成生成的數(shù)據(jù)集確實(shí)存在,但除非經(jīng)過(guò)人類專家的評(píng)估和鑒定,否則這些數(shù)據(jù)集是沒(méi)有用的。

在選擇專家時(shí),建議選擇具有深厚行業(yè)知識(shí)的人內(nèi)部專家或外包專家來(lái)微調(diào)您的模型。更具體地說(shuō),您將需要專家來(lái)標(biāo)記數(shù)據(jù),給出關(guān)于數(shù)據(jù)的反饋,測(cè)試數(shù)據(jù),并根據(jù)反饋進(jìn)行再訓(xùn)練。這是通過(guò)訓(xùn)練有素的人工智能模型獲得準(zhǔn)確、可靠結(jié)果的重要部分。

問(wèn)題5:您的時(shí)間限制是什么?

訓(xùn)練內(nèi)部人工智能模型是一個(gè)昂貴而漫長(zhǎng)的過(guò)程。業(yè)務(wù)問(wèn)題、現(xiàn)成可用數(shù)據(jù)的質(zhì)量以及所涉及的專家和人工智能工程師的數(shù)量都會(huì)影響項(xiàng)目的長(zhǎng)度和質(zhì)量。因?yàn)檫@個(gè)過(guò)程依賴于試錯(cuò),所以在解決方案準(zhǔn)備好使用之前需要更長(zhǎng)的時(shí)間。

除了可能源于數(shù)據(jù)的問(wèn)題之外,在設(shè)置訓(xùn)練算法的超參數(shù)(hyperparameter)時(shí)還可能出現(xiàn)其他挑戰(zhàn),例如學(xué)習(xí)率、epoch數(shù)量和層數(shù)。這就是人工智能專家可能需要重新設(shè)計(jì)的地方,以解決在測(cè)試階段明顯出現(xiàn)的過(guò)擬合和災(zāi)難性遺忘問(wèn)題,這可能會(huì)花費(fèi)項(xiàng)目額外的時(shí)間。

盡管經(jīng)過(guò)深思熟慮的過(guò)程可以減少壓力,但始終存在出現(xiàn)新LLM解決方案淘汰舊解決方案的風(fēng)險(xiǎn)??紤]到人工智能技術(shù)的快速發(fā)展,組織需要在時(shí)機(jī)和質(zhì)量之間尋求平衡。

與許多創(chuàng)新解決方案一樣,沒(méi)有放之四海而皆準(zhǔn)方法。在開始公司的人工智能之旅時(shí),權(quán)衡適合您業(yè)務(wù)的模型是第一步。對(duì)于業(yè)務(wù)領(lǐng)導(dǎo)者來(lái)說(shuō),從頭開始訓(xùn)練LLM可能聽起來(lái)令人望而生畏,但如果您有通用LLM無(wú)法解決的特定領(lǐng)域的“業(yè)務(wù)問(wèn)題”,那么從長(zhǎng)遠(yuǎn)來(lái)看,這將是值得投資的選擇。

原文標(biāo)題:Is creating an in-house LLM right for your organization?,作者: Gokcen Tapkan

責(zé)任編輯:華軒 來(lái)源: 51CTO
相關(guān)推薦

2024-11-21 08:22:45

2022-05-23 13:53:55

企業(yè)網(wǎng)絡(luò)攻擊滲透測(cè)試

2009-12-22 16:32:25

無(wú)線路由安全設(shè)置

2024-08-13 08:09:34

2023-06-19 16:05:22

大型語(yǔ)言模型人工智能

2024-12-23 08:03:13

2023-10-08 15:54:12

2020-05-13 13:09:21

微隔離網(wǎng)絡(luò)攻擊網(wǎng)絡(luò)安全

2020-06-12 11:51:07

工控安全網(wǎng)絡(luò)安全網(wǎng)絡(luò)攻擊

2019-03-27 14:42:11

零售商云端遷移

2020-09-01 10:38:49

混合云云計(jì)算

2023-11-06 08:38:50

LLM語(yǔ)言模型ChatGPT

2016-02-25 10:23:31

2020-04-14 10:22:50

零信任安全架構(gòu)網(wǎng)絡(luò)安全

2021-10-11 09:30:21

零信任網(wǎng)絡(luò)安全網(wǎng)絡(luò)攻擊

2022-09-13 08:47:59

CIO董事會(huì)IT

2024-04-11 13:38:19

大型語(yǔ)言模型

2025-05-08 02:02:02

2024-05-30 08:40:41

大型語(yǔ)言模型LLM人工智能

2009-07-02 17:39:46

Java未來(lái)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)