偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

戳穿人工智能的六個(gè)謊言:辨別真?zhèn)?/h1> 譯文

人工智能
發(fā)現(xiàn)流行的人工智能謊言背后的真相,深入了解生成式人工智能在當(dāng)今世界的真正能力和影響。

譯者 | 布加迪

審校 | 重樓

人工智能(AI無疑是我們這個(gè)時(shí)代的流行語。特別是隨著ChatGPT等生成式AI應(yīng)用程序的出現(xiàn),AI大受歡迎,成為了技術(shù)辯論的核心話題。

所有人都在談?wù)撓馛hatGPT這樣的生成式AI應(yīng)用程序的影響以及利用它們的能力是否公。然而,面對這場完美風(fēng)暴,圍繞AI一詞的種種謊言和誤解突然隨之激增。可能已經(jīng)聽過很多這樣的謊言和誤解

不妨深入研究這些謊言,戳穿它們,了解AI的真正本質(zhì)。

1. AI是智能的

與普遍的看法相反,AI一點(diǎn)也不智能?,F(xiàn)在大多數(shù)人確實(shí)認(rèn)為基于AI的模型很智能。這可能是由于“人工智能”這個(gè)名稱中含有“智能一詞。

但是智能是什么意思呢?智能是生物體獨(dú)有的一種特征,定義獲取并運(yùn)用知識和技能的一種能力。這意味著智能使生物體能夠與周圍環(huán)境相互作用,從而學(xué)如何生存。

另一方面,AI是一種機(jī)器模擬,旨在模仿這種自然智能的某些方面。我們接觸的大多數(shù)AI應(yīng)用程序(尤其是在商業(yè)和在線平臺領(lǐng)域)都依賴機(jī)器學(xué)習(xí)。

這些是專門的AI系統(tǒng),使用大量數(shù)據(jù)進(jìn)行特定任務(wù)的訓(xùn)練。它們擅長完成指定的任務(wù),無論是玩游戲、翻譯語言還是識別圖像。

然而一旦超出其預(yù)期范圍,它們通常是無用的……在一系列任務(wù)中擁有類似人類智能的AI這個(gè)概念被稱為通用AI,我們離實(shí)現(xiàn)這個(gè)里程碑事件還很遙遠(yuǎn)。

2. 始終越大越好

科技巨頭們常常競相吹噓自家的AI模型的規(guī)模有多龐大

Llama 2開源LLM以強(qiáng)大的700億參數(shù)版本讓世人感到驚訝,谷歌的Palma擁有5400億參數(shù),OpenAI最發(fā)布的ChatGPT4更是擁有1.8萬億參數(shù)。

然而,LLM的成百上千億個(gè)參數(shù)不一定意味著有更好的性能。數(shù)據(jù)的質(zhì)量和訓(xùn)練方法常常決定模型性能和準(zhǔn)確性的更關(guān)鍵因素。斯坦福大學(xué)的Alpaca實(shí)驗(yàn)已經(jīng)證明了這點(diǎn),一個(gè)簡單的使用70億參數(shù)的基于Llama的LLM其性能可以與多達(dá)1760億參數(shù)的ChatGPT 3.5相媲美。

所以并非始終是越大就越好!優(yōu)化LLM大小及其相應(yīng)性能將使這些模型在本地得到更廣泛的使用,并我們可以將它們集成到日常設(shè)備中。

3. AI毫無透明度和問責(zé)制可言

一個(gè)常見的誤解是,AI是神秘的黑盒子,缺乏任何透明度。實(shí)際上,雖然AI系統(tǒng)可能很復(fù)雜,仍然相當(dāng)不透明,但業(yè)界正在努力提高透明度和問責(zé)制。

監(jiān)管機(jī)構(gòu)要求道德、負(fù)責(zé)任地使用AI。斯坦福人工智能透明度報(bào)告歐洲人工智能法案等重要舉措旨在促使企業(yè)提高AI透明度,并為各國政府在這個(gè)新興領(lǐng)域制定法規(guī)提供基礎(chǔ)。

透明AI已成為AI社區(qū)的一個(gè)核心討論話題涵蓋眾多問題,比如允許個(gè)人確定AI模型全面測試的流程和理解AI決策背后基本原理的流程

這就是為什么全球各地的數(shù)據(jù)專業(yè)人士已經(jīng)在研究使AI模型更加透明的方法。

所以雖然這個(gè)謊言可能部分正確,但顯然不能作為常識。

4. AI一貫正確

許多人認(rèn)為AI系統(tǒng)完美的,不會出錯(cuò)。事實(shí)絕非如此。任何系統(tǒng)一樣,AI的表現(xiàn)取決于其訓(xùn)練數(shù)據(jù)的質(zhì)量。這些數(shù)據(jù)常常是由人類創(chuàng)建或管理的。如果這些數(shù)據(jù)含偏見,AI系統(tǒng)會在不經(jīng)意間將偏見固化下來。

麻省理工學(xué)院(MIT的一個(gè)團(tuán)隊(duì)分析了多個(gè)廣泛使用的預(yù)訓(xùn)練語言模型發(fā)現(xiàn),將性別與某些職業(yè)和情緒關(guān)聯(lián)時(shí)存在明顯的偏見。比如說,空姐或秘書等角色主要與女性特質(zhì)聯(lián)系在一起,而律師和法官與男性特質(zhì)聯(lián)系在一起。該團(tuán)隊(duì)在情感方面觀察到了同樣的行為。

其他發(fā)現(xiàn)的偏見與種族有關(guān)。隨著LLM進(jìn)入醫(yī)療保健領(lǐng)域,人開始擔(dān)心,它們可能會承襲基于種族的有害醫(yī)療實(shí)踐,反映出訓(xùn)練數(shù)據(jù)中固有的偏見。

人工干預(yù)至關(guān)重要,需要監(jiān)督和糾正這些缺點(diǎn),確保AI的可靠性。關(guān)鍵在于使用具有代表性、無偏見的數(shù)據(jù),并進(jìn)行算法審計(jì)以消除這些偏見。

5. AI嚴(yán)重沖擊就業(yè)市場

最普遍的擔(dān)憂之一是,AI將導(dǎo)致大規(guī)模失業(yè)。

然而歷史表明,雖然技術(shù)可能會淘汰某些工作,但同時(shí)也會造就新的行業(yè)和機(jī)會。

比如說,世界經(jīng)濟(jì)論壇預(yù)測,雖然到2025年AI可能會取代8500萬個(gè)工作崗位,但將創(chuàng)造9700萬個(gè)新崗位。

6. AI主宰人類

最后一個(gè)謊言也是最反烏托邦的。以《黑客帝國》和《終結(jié)者》等電影為代表的流行文化描繪了AI可能奴役人類的可怕場景。

盡管Elon Musk和Stephen Hawking等有影響力的人物表達(dá)了擔(dān)憂,但AI的現(xiàn)狀遠(yuǎn)非這種反烏托邦的形象。今天的AI模型比如ChatGPT是為了協(xié)助完成特定的任務(wù)而設(shè)計(jì)的,不具備科幻作品中描述的能力或動(dòng)機(jī)。

所以現(xiàn)在,我們是安全的!

主要結(jié)論

總之,隨著AI不斷發(fā)展并融入我們的日常生活辨別真?zhèn)?/span>至關(guān)重要。

只有有了清晰的認(rèn)識,我們才能充分利用AI潛力,負(fù)責(zé)任地應(yīng)對其挑戰(zhàn)。

謊言會影響判斷,阻礙進(jìn)步。

只有AI的實(shí)際范圍清晰的了解,我們可以向前邁進(jìn),確保這項(xiàng)技術(shù)服務(wù)于人類。

原文標(biāo)題:6 Artificial Intelligence Myths Debunked: Separating Fact from Fiction,作者:Josep Ferrer

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2020-11-20 14:57:37

人工智能Gartner學(xué)習(xí)

2018-04-23 14:27:03

2018-04-24 09:31:08

2023-05-18 10:13:20

人工智能AI

2021-10-09 10:26:14

人工智能IT自動(dòng)化AI

2021-12-07 14:08:45

人工智能AI深度學(xué)習(xí)

2019-06-11 14:20:29

人工智能AI

2021-08-16 10:12:51

人工智能AI失敗

2022-09-22 14:33:49

人工智能AI

2018-07-08 23:15:01

AI人工智能銀行業(yè)

2019-05-24 11:35:38

人工智能偏見企業(yè)

2018-10-05 22:56:43

人工智能AI會話式人工智能

2022-05-24 15:09:13

機(jī)器人深度學(xué)習(xí)人工智能

2018-08-17 15:17:56

人工智能層次極端

2024-02-22 11:55:43

2018-07-13 14:38:34

人工智能深度學(xué)習(xí)機(jī)器人

2019-03-21 15:18:52

人工智能AI人工輔助

2018-04-14 08:15:32

2022-06-20 11:05:58

通用人工智能機(jī)器人

2023-12-26 07:46:35

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號