偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

與 ChatGPT 的對話:技術(shù)、應(yīng)用和局限性

發(fā)布于 2024-5-7 10:13
瀏覽
0收藏

人工智能聊天機(jī)器人的出現(xiàn)引起了全世界的注意,它可以生成類似人類的句子并寫出連貫的文章。本文討論了聊天機(jī)器人的歷史概況以及Chat Generative Pre-trained Transformer(也稱為ChatGPT)背后的技術(shù)。此外,還強(qiáng)調(diào)了ChatGPT在醫(yī)療保健、教育和科研等各個(gè)領(lǐng)域的潛在應(yīng)用。盡管取得了可喜的成果,但圍繞ChatGPT仍存在一些隱私和道德問題。此外,作者還強(qiáng)調(diào)了當(dāng)前版本的ChatGPT的一些重要限制。還要求ChatGPT對作者試圖回答的幾個(gè)問題提供其觀點(diǎn),并做出回應(yīng)。

01 介紹

1950年,英國計(jì)算機(jī)科學(xué)家艾倫·圖靈(Alan Turing)就人類推理能力是否可以被計(jì)算機(jī)替代提出質(zhì)疑:“機(jī)器能思考嗎?” [1]. 隨后,他提出了圖靈測試來衡量計(jì)算機(jī)或人工智能。在圖靈測試中,人類詢問者會收到來自人類和計(jì)算機(jī)(具有實(shí)時(shí)生成書面文本的能力)的響應(yīng)。如果詢問者無法區(qū)分答案,則計(jì)算機(jī)系統(tǒng)通過圖靈測試。盡管一些計(jì)算機(jī)程序和聊天機(jī)器人(如 Eliza)在圖靈測試 ([2] [3]) 中取得了成功,但這些程序可以說是使用了某些技巧來通過測試 [4],而沒有展現(xiàn)任何重要意義的智能。隨著機(jī)器學(xué)習(xí)和自然語言處理 (NLP) 的進(jìn)步,聊天機(jī)器人得到了廣泛的研究關(guān)注,并已用于各種商業(yè)和非商業(yè)應(yīng)用 ([5]、[6]、[7]、[8] , [9]).盡管被廣泛采用,但大多數(shù)聊天機(jī)器人都沒有個(gè)性化,用戶滿意度仍然值得懷疑 [10]。這種局限性促使研究人員和開發(fā)人員將重點(diǎn)放在聊天機(jī)器人的參與度上,以使聊天機(jī)器人更健談。


2022 年 11 月,OpenAI 發(fā)布了一款名為 ChatGPT 的新型人工智能聊天機(jī)器人,引起了公眾的極大關(guān)注。與之前的任何聊天機(jī)器人不同,ChatGPT 以其對各種問題的連貫響應(yīng)而令公眾感到驚訝。在這篇簡短的論文中,作者探討了使 ChatGPT 取得成功的技術(shù),并重點(diǎn)介紹了 ChatGPT 的幾個(gè)領(lǐng)域和應(yīng)用。作者還邀請 ChatGPT 回答作者試圖回答的一些問題,首先是它對聊天機(jī)器人歷史的回答。

?

Q1 您好 ChatGPT,請告訴我聊天機(jī)器人的歷史


ChatGPT: 當(dāng)然!可以模擬人類對話的機(jī)器的想法可以追溯到幾十年前。事實(shí)上,第一個(gè)聊天機(jī)器人是在 20世紀(jì)60 年代由麻省理工學(xué)院計(jì)算機(jī)科學(xué)家 Joseph Weizenbaum 創(chuàng)建的。Weizenbaum 的聊天機(jī)器人,稱為 ELIZA,使用一組規(guī)則通過提問和給出預(yù)設(shè)回答來模擬對話。ELIZA 旨在模仿心理治療師,人們常常驚訝于它能如此令人信服地模擬人類對話。


多年來,聊天機(jī)器人不斷發(fā)展和改進(jìn)。其中一項(xiàng)關(guān)鍵進(jìn)步是自然語言處理 (NLP) 技術(shù)的發(fā)展,該技術(shù)使聊天機(jī)器人能夠更準(zhǔn)確地理解和響應(yīng)人類語言。在 20世紀(jì)90 年代和21世紀(jì)初期,聊天機(jī)器人開始用于客戶服務(wù)和支持,美國在線和微軟等公司開發(fā)聊天機(jī)器人來幫助用戶使用他們的軟件和服務(wù)。


近年來,人們對聊天機(jī)器人的興趣激增,部分原因是人工智能和機(jī)器學(xué)習(xí)的進(jìn)步。現(xiàn)代聊天機(jī)器人結(jié)合使用自然語言處理、機(jī)器學(xué)習(xí)和其他人工智能技術(shù),以更自然、更微妙的方式理解和回應(yīng)人類語言。它們現(xiàn)在被用于廣泛的應(yīng)用,從客戶服務(wù)和支持到個(gè)人助理和娛樂。


總的來說,聊天機(jī)器人的歷史是一段引人入勝的歷史,它反映了人工智能的發(fā)展以及作者越來越渴望創(chuàng)造出能夠以更像人類的方式理解作者并與作者互動(dòng)的機(jī)器。

第一印象是 ChatGPT 的響應(yīng)似乎非常連貫、引人入勝且沒有語法錯(cuò)誤。還注意到 ChatGPT 在提供事實(shí)信息方面做得很好。它設(shè)法準(zhǔn)確地引用名稱和日期。有趣的是,ChatGPT 并沒有談?wù)撟约海瑩?jù)了解,它在 2021 年 9 月 之后呈現(xiàn)的信息有限。最后,令人著迷的是,ChatGPT 以其觀點(diǎn)的總結(jié)結(jié)束了其回復(fù)。

02 ChatGPT技術(shù):從語言模型到強(qiáng)化學(xué)習(xí)

機(jī)器學(xué)習(xí)是人工智能 (AI) 的一個(gè)子領(lǐng)域,被定義為計(jì)算機(jī)系統(tǒng)無需明確教導(dǎo)或編程即可從經(jīng)驗(yàn)中學(xué)習(xí)的能力。隨著計(jì)算能力的進(jìn)步、數(shù)據(jù)可用性的提高和算法的改進(jìn),深度學(xué)習(xí)已成為一種高性能的預(yù)測工具。與傳統(tǒng)機(jī)器學(xué)習(xí)不同,深度學(xué)習(xí)算法使用人工神經(jīng)網(wǎng)絡(luò),通常參數(shù)容量很大。深度學(xué)習(xí)模型通常需要更多的訓(xùn)練數(shù)據(jù),但可以提供更好的泛化能力。Transformer 或大型語言模型是一個(gè)特殊的深度學(xué)習(xí)模型家族,已成為文本數(shù)據(jù)的最先進(jìn)解決方案。從文本分類到文本生成,這些模型提供了優(yōu)于其他 AI 模型的性能。


語言模型通常在維基百科等大型語言語料庫上進(jìn)行預(yù)訓(xùn)練,但可以針對特定任務(wù)進(jìn)行微調(diào)。兩個(gè)最著名的語言模型包括來自Transformers的雙向編碼器表示 (BERT) [11] 和生成式預(yù)訓(xùn)練Transformer (GPT) [12]。前者主要用于語言中的上下文識別和分類任務(wù),而后者更擅長機(jī)器翻譯和問答等語言生成任務(wù)。


ChatGPT 之前的幾個(gè)聊天機(jī)器人使用語言模型。然而,使 ChatGPT 能夠做出連貫且引人入勝的響應(yīng)的主要因素歸功于強(qiáng)化學(xué)習(xí)的使用。在這種情況下,人類評估人員對 ChatGPT 的響應(yīng)進(jìn)行了排名,這使其能夠優(yōu)化其某些參數(shù),從而從本質(zhì)上成為更好的對話者。ChatGPT 是在 GPT-3 之上開發(fā)的,GPT-3 是一種具有 1750 億個(gè)參數(shù)的生成自回歸語言模型 [13]。為了訓(xùn)練如此復(fù)雜的網(wǎng)絡(luò),OpenAI 與 Microsoft 合作,據(jù)報(bào)道其訓(xùn)練資源超過 350GB 內(nèi)存,耗資 1200 萬美元。

?

Q2 你好 ChatGPT,你是如何被開發(fā)出來的?


ChatGPT: 你好!我是由 OpenAI 開發(fā)的,OpenAI 是一家專注于以安全有益的方式推進(jìn)人工智能發(fā)展的研究機(jī)構(gòu)。具體來說,我是由 OpenAI 的一組研究人員和工程師開發(fā)的,他們使用一種稱為 transformer 的深度學(xué)習(xí)技術(shù)和大量文本數(shù)據(jù)來訓(xùn)練我。Transformer 是一種神經(jīng)網(wǎng)絡(luò),特別擅長處理序列數(shù)據(jù),例如語言。


為了訓(xùn)練我,團(tuán)隊(duì)向我提供了大量來自各種來源的文本,包括書籍、文章和網(wǎng)站。然后他們使用一種稱為無監(jiān)督學(xué)習(xí)的過程來教我識別文本數(shù)據(jù)中的模式。通過這個(gè)過程,我學(xué)會了理解和生成自然語言。


在我最初的開發(fā)之后,我經(jīng)歷了嚴(yán)格的測試和改進(jìn)過程,以確保我使用起來準(zhǔn)確、可靠和安全。自發(fā)布以來,我一直在不斷更新和改進(jìn),以更好地為我的用戶服務(wù)。


與第一個(gè)答案一樣,作者對 ChatGPT 回復(fù)的引人入勝的性質(zhì)和結(jié)構(gòu)印象深刻。作者注意到 ChatGPT 提到使用無監(jiān)督學(xué)習(xí)來識別模式,這是準(zhǔn)確的,并且在 GPT 論文 [12] 中有所概述。另一個(gè)有趣的觀察結(jié)果是,ChatGPT 將最后階段描述為“測試和優(yōu)化過程”,而沒有提及強(qiáng)化學(xué)習(xí)或其他細(xì)節(jié)。

03 ChatGPT 的應(yīng)用

盡管最近才發(fā)布到公共領(lǐng)域,但ChatGPT已經(jīng)獲得了大量的研究關(guān)注。在本節(jié)中,作者描述了最近研究ChatGPT用于各種研究和應(yīng)用的工作。Thorp[14]對ChatGPT對教育、文學(xué)和科學(xué)寫作等研究主題的反應(yīng)進(jìn)行了定性評估。當(dāng)被要求完成一部經(jīng)典戲劇中的一個(gè)場景時(shí),ChatGPT提供了一篇有趣的文章。在教育方面,ChatGPT可以提供真實(shí)的答案,但在撰寫論文方面還有一段路要走。在另一項(xiàng)研究[15]中,研究人員被要求區(qū)分ChatGPT和人類撰寫的科學(xué)論文摘要。這一結(jié)果令人驚訝,因?yàn)槿祟愒u估人員只確定了由ChatGPT生成的68%的摘要。De Angelis等人[16]討論了根據(jù)ChatGPT對語言模型的評估,并強(qiáng)調(diào)了醫(yī)學(xué)和公共衛(wèi)生領(lǐng)域潛在的倫理和實(shí)踐挑戰(zhàn)。主要挑戰(zhàn)包括人工智能驅(qū)動(dòng)的錯(cuò)誤信息或“信息傳播”的可能性,這些信息通常很難辨別。


在醫(yī)學(xué)和公共衛(wèi)生領(lǐng)域,ChatGPT已經(jīng)被探索用于各種應(yīng)用。Khan等人[17]討論了ChatGPT在醫(yī)學(xué)教育中的幾個(gè)潛在應(yīng)用,包括個(gè)性化學(xué)習(xí)和生成案例研究。作者還指出,ChatGPT可以用于臨床管理,用于文檔和決策支持。Rao等人[18]評估了ChatGPT在放射學(xué)中提供臨床決策支持的有效性。作者向ChatGPT提供了文本提示,如“對于'變異乳腺癌癥篩查。平均風(fēng)險(xiǎn)女性:乳腺癌終生風(fēng)險(xiǎn)<15%的女性。',確定最合適的單一成像程序”,以評估其在乳腺癌癥篩查和乳腺疼痛檢測中的功效。


ChatGPT在前一項(xiàng)任務(wù)中表現(xiàn)相對較好,有88.9%的正確反應(yīng),但對乳房疼痛的正確反應(yīng)僅為58.3%。還討論了ChatGPT和生成人工智能在幫助泌尿科醫(yī)生方面的作用[19]。ChatGPT主要可以幫助泌尿科醫(yī)生完成低復(fù)雜度的任務(wù),讓他們有更多的時(shí)間專注于患者。Hulman等人[20]利用ChatGPT回答有關(guān)糖尿病的常見問題,并要求醫(yī)護(hù)人員區(qū)分人類和ChatGPT生成的答案。作者發(fā)現(xiàn),評估人員在59.5%的時(shí)間內(nèi)能夠正確識別ChatGPT生成的答案。作者還得出結(jié)論,盡管ChatGPT沒有接受專門的醫(yī)學(xué)數(shù)據(jù)培訓(xùn),但它具有臨床知識,可以識別有關(guān)疾病管理的信息。生成關(guān)于特定主題的醫(yī)學(xué)報(bào)告在藥學(xué)教育中可能很有用。為此,Zhu等人[21]促使ChatGPT撰寫了一篇關(guān)于“基于脂質(zhì)的藥物遞送系統(tǒng)”的小型綜述。作者得出結(jié)論,ChatGPT可以很好地構(gòu)建主題,并為讀者提供有意義的結(jié)論。然而,由于缺乏可靠的引文,準(zhǔn)確性存在疑問。Shen等人[22]總結(jié)了ChatGPT在醫(yī)學(xué)中的其他潛在使用案例和意義。


研究人員還調(diào)研了ChatGPT是否可以回答醫(yī)學(xué)考試問題。Kung等人[23]測試了ChatGPT在美國醫(yī)學(xué)執(zhí)照考試中的表現(xiàn),該考試由美國醫(yī)學(xué)執(zhí)照所需的三項(xiàng)標(biāo)準(zhǔn)化考試組成。在沒有來自人類的專門輸入條件下,ChatGPT以60%的準(zhǔn)確率通過了考試。任何包含視覺信息的問題,如中間圖像,都被刪除了。研究結(jié)果證明了ChatGPT在醫(yī)學(xué)教育和臨床決策輔助方面的潛力。然而,在中國國家醫(yī)療許可證考試中,ChatGPT的表現(xiàn)要低得多,有45.8%的回答正確[24]。在眼科學(xué)中,ChatGPT使用眼科知識評估項(xiàng)目的問題進(jìn)行了測試,該項(xiàng)目包含兩項(xiàng)考試,準(zhǔn)確率分別為55.8%和42.7%[25]。對于美國心臟協(xié)會的基本和高級心血管生命支持檢查,ChatGPT的表現(xiàn)低于84%的通過線[26]。然而,它能夠提供合理精度的詳細(xì)答案,這使它成為自學(xué)和考試準(zhǔn)備的潛在有用工具。Mbakwe等人[27]認(rèn)為,ChatGPT在回答醫(yī)學(xué)考試方面的成功可以歸結(jié)為這些考試的本質(zhì)是死記硬背,而不是測試分析和批判性思維。


聊天機(jī)器人備受期待的應(yīng)用之一是在教育領(lǐng)域。人工智能和技術(shù)可以在教育的幾個(gè)方面發(fā)揮作用,包括個(gè)性化學(xué)習(xí)[28]。在這種情況下,ChatGPT可以提高學(xué)生的參與度,提供體驗(yàn)式學(xué)習(xí),并幫助教育工作者評估考試和內(nèi)容準(zhǔn)備[29]。幾位研究人員將他們的研究重點(diǎn)放在了ChatGPT對教育的影響上([30],[31],[32],[29])。ChatGPT在教育中的潛在問題包括反應(yīng)偏見([31][32])、作弊[30]、私人數(shù)據(jù)泄露([31][22])和透明化[32])。聊天機(jī)器人也可以有效地為同伴輔導(dǎo)做出貢獻(xiàn)。Pardos和Bhandari[33]發(fā)現(xiàn),ChatGPT在初等和中級代數(shù)主題中提供的70%的提示可以為學(xué)生帶來積極的學(xué)習(xí)收益。Frieder等人[34]評估了ChatGPT在幫助數(shù)學(xué)家完成問答和尋找定理等任務(wù)方面的數(shù)學(xué)能力。研究人員發(fā)現(xiàn),ChatGPT的數(shù)學(xué)水平低于普通研究生的水平。公眾擔(dān)心ChatGPT被用于剽竊,有必要?jiǎng)?chuàng)建檢測此類剽竊的工具。為此,Khalil和Er[35]試圖利用ChatGPT作為剽竊檢測工具,并發(fā)現(xiàn)ChatGPT創(chuàng)建的響應(yīng)通常不會被其他剽竊檢查人員所檢測到。與此同時(shí),當(dāng)ChatGPT被要求檢查寫作是否是自己生成的時(shí),它的表現(xiàn)比其他抄襲檢測軟件要好。Yang等人[36]探討了ChatGPT總結(jié)書面文本的能力,發(fā)現(xiàn)ChatGPT的表現(xiàn)與現(xiàn)有的基于Rouge分?jǐn)?shù)的微調(diào)方法不相上下。作者還強(qiáng)調(diào),目前5000的最大輸入token長度是評估ChatGPT文本匯總能力的一個(gè)限制。ChatGPT能提高學(xué)生作文水平嗎?為了回答這個(gè)問題,Basic等人[37]對使用ChatGPT的對照組和實(shí)驗(yàn)組的9名學(xué)生進(jìn)行了一項(xiàng)研究。作者得出結(jié)論,ChatGPT并不一定能提高論文質(zhì)量,因?yàn)閷φ战M在大多數(shù)標(biāo)準(zhǔn)上都優(yōu)于實(shí)驗(yàn)組。


Bang等人[38]評估了ChatGPT在邏輯推理和常識推理等十項(xiàng)推理任務(wù)上的有效性。作者發(fā)現(xiàn),ChatGPT在演繹推理任務(wù)上表現(xiàn)相當(dāng)好,但在歸納推理上表現(xiàn)極差。ChatGPT在常識推理方面也做得很好。例如,ChatGPT被問及以下問題;請判斷這個(gè)謂詞是(可能)可信還是不可信:“刀砍石頭”。對此,它的回答是:刀能砍穿石頭是不可信的。刀具是用來切割食物、紙張或木材等較軟的材料的。巖石比這些材料堅(jiān)硬得多,刀無法在巖石上留下凹痕,更不用說把它砍了。


ChatGPT在新聞和錯(cuò)誤信息檢測方面仍然是一個(gè)潛在的有益工具,尤其是在參考文獻(xiàn)和事實(shí)核查方面。在新冠肺炎大流行期間,疫苗錯(cuò)誤信息導(dǎo)致社交媒體對疫苗猶豫不決[39]。Sallam等人[40]對ChatGPT對疫苗陰謀論和強(qiáng)制接種的反應(yīng)進(jìn)行了描述性分析。研究發(fā)現(xiàn),ChatGPT對陰謀論不屑一顧,但通過強(qiáng)調(diào)利弊,為疫苗授權(quán)提供了不同的意見。


在軟件開發(fā)中,ChatGPT可以用于輔助和軟件測試。Jalil等人[41]通過向ChatGPT提出教科書問題來評估其在軟件測試方面的能力。在這種情況下,結(jié)果并不樂觀,因?yàn)镃hatGPT只能正確回答37.5%的問題。Jiao等人[42]評估了ChatGPT在幾個(gè)基準(zhǔn)集上的翻譯性能。在高資源的歐洲語言中,ChatGPT的性能與谷歌翻譯等商業(yè)應(yīng)用程序不相上下。然而,對于低資源或遠(yuǎn)程語言,性能明顯較差。在這一點(diǎn)上,讓作者詢問ChatGPT在各個(gè)領(lǐng)域的潛在用途。


Q3 ChatGPT,你可以以什么方式用于醫(yī)療保健、教育和研究?


ChatGPT: 作為一個(gè)人工智能語言模型,我可以在醫(yī)療保健、教育和研究中以各種方式使用。以下是一些例子:


在醫(yī)療保健領(lǐng)域:

1)醫(yī)療診斷和治療:可以訓(xùn)練人工智能語言模型來分析醫(yī)療數(shù)據(jù),如醫(yī)療圖像、電子健康記錄和其他患者信息,以協(xié)助醫(yī)療診斷和處理。這可以幫助醫(yī)療保健專業(yè)人員就患者護(hù)理做出更準(zhǔn)確、更明智的決定。

2) 患者互動(dòng):人工智能語言模型可用于幫助患者與醫(yī)療保健提供者互動(dòng),并為他們提供有關(guān)健康狀況、治療方案和藥物說明的信息。

3) 醫(yī)學(xué)研究:人工智能語言模型可以幫助研究人員處理和分析大量的醫(yī)學(xué)數(shù)據(jù),并確定疾病爆發(fā)、藥物療效和患者結(jié)局的模式和趨勢。


在教育領(lǐng)域:

1)語言學(xué)習(xí):人工智能語言模型可以通過為語言學(xué)習(xí)者提供個(gè)性化反饋、練習(xí)和對話模擬,幫助他們提高語言水平。

2) 教育內(nèi)容創(chuàng)建:人工智能語言模型可用于生成教育內(nèi)容,如測驗(yàn)、抽認(rèn)卡和學(xué)習(xí)指南,這些內(nèi)容是為滿足個(gè)人學(xué)習(xí)者的需求而定制的。

3) 學(xué)術(shù)研究:人工智能語言模型可用于分析學(xué)術(shù)文本,并生成摘要、見解和建議,幫助研究人員獲得新的見解和發(fā)現(xiàn)。


在研究領(lǐng)域:

1)數(shù)據(jù)分析:AI語言模型可用于分析來自各種來源的大量數(shù)據(jù),并確定人類研究人員不容易看到的模式,趨勢和相關(guān)性。

2)文本挖掘:AI語言模型可以幫助研究人員從大量非結(jié)構(gòu)化文本數(shù)據(jù)(例如研究論文,新聞文章和社交媒體帖子)中提取相關(guān)信息。

3)研究合作:AI語言模型可以通過提供實(shí)時(shí)翻譯服務(wù),自動(dòng)校對和編輯以及內(nèi)容摘要來幫助研究人員相互合作。


Q4 新聞和軟件開發(fā)領(lǐng)域怎么樣??


在新聞學(xué)領(lǐng)域:

1)新聞寫作和摘要:人工智能語言模型可以用于自動(dòng)生成新聞文章和摘要,為記者和新聞機(jī)構(gòu)節(jié)省時(shí)間和資源。

2) 事實(shí)核查:人工智能語言模型可以幫助對新聞報(bào)道進(jìn)行事實(shí)核查,并驗(yàn)證所提供信息的準(zhǔn)確性。

3) 個(gè)性化:人工智能語言模型可以根據(jù)個(gè)人讀者的興趣、閱讀歷史和位置,幫助他們個(gè)性化新聞內(nèi)容


在軟件開發(fā)領(lǐng)域:

1)聊天機(jī)器人:人工智能語言模型可以用來為聊天機(jī)器人提供動(dòng)力,聊天機(jī)器人可以與用戶互動(dòng),并用自然語言回答他們的問題。

2) 代碼生成:可以使用人工智能語言模型自動(dòng)生成代碼,減少軟件開發(fā)所需的時(shí)間和精力。3) 漏洞檢測:人工智能語言模型可用于檢測代碼中的漏洞和錯(cuò)誤,提高軟件應(yīng)用程序的質(zhì)量和可靠性。


Q5 您還可以在哪些領(lǐng)域使用?


ChatGPT: 作為一個(gè)人工智能語言模型,我可以用于醫(yī)療保健、教育、研究、新聞和軟件開發(fā)之外的廣泛領(lǐng)域。以下是幾個(gè)例子:


1)客戶服務(wù):人工智能語言模型可以用來為聊天機(jī)器人和虛擬助理提供動(dòng)力,為用戶提供客戶服務(wù)和支持

2)金融服務(wù):人工智能語言模型可用于分析金融數(shù)據(jù)和檢測欺詐行為,并為個(gè)人提供個(gè)性化的金融建議。

3)營銷和廣告:人工智能語言模型可以幫助營銷人員生成廣告文案和內(nèi)容,分析客戶情緒和行為,并為個(gè)人用戶個(gè)性化營銷活動(dòng)。

4)法律服務(wù):人工智能語言模型可用于分析法律文件,并為個(gè)人和企業(yè)提供法律建議。

5)社交媒體:AI語言模型可用于分析社交媒體內(nèi)容,監(jiān)視在線對話以及檢測用戶行為的模式和趨勢。

6)游戲:AI語言模型可用于為視頻游戲生成對話和敘事內(nèi)容,以及游戲中的Power Virtual Assistant和聊天機(jī)器人。

7)運(yùn)輸:AI語言模型可用于為車輛的語音助手提供動(dòng)力,并幫助駕駛員導(dǎo)航和控制各種車輛系統(tǒng)。

8)機(jī)器人技術(shù):AI語言模型可用于實(shí)現(xiàn)人類與機(jī)器人之間的自然語言互動(dòng),并幫助機(jī)器人理解和響應(yīng)人類的命令和請求。


ChatGPT因其在撰寫科學(xué)文章方面的潛在用途而引起了很多人的關(guān)注。根據(jù)Stokel Walker[43]的說法,有四篇論文將ChatGPT列為其寫作貢獻(xiàn)的合著者。然而,像《科學(xué)》這樣的主要出版商已經(jīng)排除了將人工智能聊天機(jī)器人列為合著者的可能性,而包括Taylor&Francis在內(nèi)的其他出版商正在審查他們在這個(gè)問題上的政策。包括《韓國放射學(xué)雜志》在內(nèi)的幾家期刊都發(fā)表了政策,拒絕任何來自ChatGPT或其他人工智能模型的共同作者的貢獻(xiàn)[44]。另一方面,其他期刊發(fā)表了指導(dǎo)方針,建議承認(rèn)用于研究的任何人工智能工具,但不允許將其列為合著者([45],[46])。研究人員還呼吁期刊澄清他們的論文中包含人工智能產(chǎn)生的內(nèi)容的比例[47] ,并發(fā)布人工智能在寫作論文中的使用指南[48]。


Korinek [49]探索了像 ChatGPT for Economic research 這樣的語言模型的潛在用例。作者認(rèn)為,研究人員可以通過使用語言模型來完成編輯和生成標(biāo)題等任務(wù),從而提高工作效率。Chen [50]討論了在科學(xué)寫作中使用人工智能工具的一些倫理問題和潛在好處。作者認(rèn)為聊天機(jī)器人可以幫助母語不是英語的作家。論文由作者用中文撰寫,用 ChatGPT 進(jìn)行總結(jié),并通過人工智能工具翻譯成英文。Ayd?n 和 Karaarslan [51]利用 ChatGPT 撰寫了一篇關(guān)于數(shù)字孿生在醫(yī)療保健中的作用的文獻(xiàn)綜述。盡管結(jié)果令人鼓舞,作者發(fā)現(xiàn) ChatGPT 在復(fù)述句子時(shí)在抄襲檢查器上有顯著的匹配。Dowling 和 Lucey [52]發(fā)現(xiàn) ChatGPT 在產(chǎn)生合理的研究想法、文獻(xiàn)綜述和測試框架方面是有效的。他們還指出,如果加入領(lǐng)域?qū)iT知識作為投入,研究質(zhì)量將大大提高。雖然 ChatGPT 可能會加速科學(xué)論文的研究和撰寫,但應(yīng)該有人為的監(jiān)督和事實(shí)核查,因?yàn)橄?ChatGPT 這樣的語言模型可能會產(chǎn)生誤導(dǎo)性信息([53] ,[54] ,[55] ,[56])。下表1總結(jié)了幾個(gè)領(lǐng)域中使用 ChatGPT 的現(xiàn)有工作。


表1 ChatGPT 在現(xiàn)有工程中的應(yīng)用

與 ChatGPT 的對話:技術(shù)、應(yīng)用和局限性-AI.x社區(qū)

與 ChatGPT 的對話:技術(shù)、應(yīng)用和局限性-AI.x社區(qū)

04 ChatGPT的局限性

ChatGPT無疑具有多樣化和有趣應(yīng)用的潛力。但是,用戶應(yīng)該考慮當(dāng)前模型的局限性。在本節(jié)中,作者概述了ChatGPT當(dāng)前的一些限制。


ChatGPT聽起來可能很有趣,也很有說服力,但不要相信它的話!事實(shí)上,ChatGPT在形成有意義的對話句子方面的能力令人印象深刻,但它可能經(jīng)常會產(chǎn)生“幻覺”回應(yīng)[56]。因此,強(qiáng)烈建議對來自ChatGPT的任何響應(yīng)進(jìn)行驗(yàn)證和事實(shí)核查。


ChatGPT在簡單的推理、邏輯、數(shù)學(xué)和呈現(xiàn)事實(shí)信息方面會出錯(cuò)[57]。預(yù)計(jì)將于2023年某個(gè)時(shí)候發(fā)布的下一個(gè)版本GPT-4的很可能會顯著改進(jìn)ChatGPT。據(jù)多位消息人士透露,GPT-4網(wǎng)絡(luò)將比其前身復(fù)雜得多,包含約100萬億個(gè)參數(shù)。相比之下,GPT-3模型由1750億個(gè)參數(shù)組成。


ChatGPT目前在處理最多5000個(gè)文本token作為輸入方面受到限制。雖然這在大多數(shù)應(yīng)用程序中不是問題,但在文本摘要等任務(wù)中可能會很有挑戰(zhàn)性。此外,ChatGPT的當(dāng)前接口不允許上傳圖像或音頻文件。ChatGPT可以基于文本提示生成視覺圖像的代碼表示,但其繪圖技能目前有限[38]。在這種情況下,研究人員最近引入了一種在多模態(tài)語料庫(如圖像字幕對)上訓(xùn)練的多模態(tài)語言模型,該模型可以感知一般模態(tài)[58]。多模式系統(tǒng)可以提供應(yīng)用程序,例如通過文本提示生成圖像和從流行音樂中分離詞干。


ChatGPT傾向于給出冗長而詳細(xì)的回答,除非明確要求不要這樣做。此外,ChatGPT表達(dá)的情緒比普通人少,而且往往更客觀[59]。因此,ChatGPT無法取代對人際關(guān)系的需求,也無法成為你的朋友!同樣,它也不能用于需要親密人際關(guān)系的個(gè)人治療或咨詢。


雖然 ChatGPT 可以為您提供2021年9月之前發(fā)生的事件的信息,但是不要指望它會給您提供最新的消息!當(dāng)被問及土耳其最近發(fā)生的地震時(shí),ChatGPT 回答說: “我很抱歉,但作為一個(gè)人工智能語言模型,我無法獲得來自未來的信息?!?。據(jù)我所知截止日期是2021年9月,2023年土耳其沒有發(fā)生任何大地震。然而,地震可能在任何時(shí)候發(fā)生,重要的是要準(zhǔn)備和了解潛在的風(fēng)險(xiǎn)和安全措施?!?/p>

?

Q6 嗨,ChatGPT,您的局限性是什么?


1)有限的上下文: 雖然我能夠理解和回應(yīng)廣泛的主題和問題,但我的回應(yīng)僅限于問題或陳述中提供的信息和上下文。除了給定的信息,我沒有能力理解上下文。

2)缺乏情感和同理心: 我沒有情感,我不能同情用戶或理解他們的感受。

3)無法解釋非語言線索: 作為一個(gè)人工智能語言模型,我沒有能力解釋非語言線索,如肢體語言或面部表情,這是人類交流中必不可少的。

4)對數(shù)據(jù)質(zhì)量的依賴: 我的回答只能和用來訓(xùn)練我的數(shù)據(jù)一樣好。如果用來訓(xùn)練我的數(shù)據(jù)是有偏見或不完整的,我的回答也可能是有偏見或不完整的。

5)不能執(zhí)行物理任務(wù): 我是一個(gè)語言模型,沒有物理身體,所以我不能執(zhí)行物理任務(wù)或以任何方式與物理世界交互。

05 結(jié)束語: 對倫理和隱私問題的考慮

在本文中,作者提供了一個(gè)聊天機(jī)器人的歷史發(fā)展概述。此外,還研究了使 ChatGPT 得以出現(xiàn)并取得成功的重大技術(shù)發(fā)展。然后,描述了 ChatGPT 在幾個(gè)領(lǐng)域和應(yīng)用中的潛力。在醫(yī)療保健中,ChatGPT 可用于醫(yī)療篩查、回答一般問題和準(zhǔn)備考試。在教育中,ChatGPT 可用于輔導(dǎo)和檢測剽竊行為。ChatGPT 還可以幫助研究人員進(jìn)行寫作、總結(jié)信息和翻譯。然而,關(guān)于 ChatGPT 還有許多道德和隱私問題需要解決。例如,一些用戶報(bào)告了 ChatGPT 的反饋,其中包含種族和性別偏見。此外,鑒于 ChatGPT 的有效性,它可能被用于教育中的不道德目的,包括作弊。在研究中,ChatGPT 提出了有關(guān)版權(quán)和剽竊的倫理問題。在隱私問題方面,ChatGPT 接受了超過3000億字的訓(xùn)練,可能包含互聯(lián)網(wǎng)用戶的個(gè)人信息。最后,ChatGPT 繼續(xù)改進(jìn)用戶交互,但包含個(gè)人信息(如聯(lián)系人)的提示可以由模型處理,甚至可以學(xué)習(xí)。


本文轉(zhuǎn)自 AI生成未來 ,作者:AIGCer


原文鏈接:??https://mp.weixin.qq.com/s/lhSdqeAtjvNvWCM9uZC0rQ??

標(biāo)簽
已于2024-5-7 10:15:58修改
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦