偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

數(shù)據(jù)越多,AI越智能?我們一直以來都想當(dāng)然了

新聞 人工智能
AI 目前尚沒有做出最佳決策的能力。此外,人們在構(gòu)建 AI 模型時并沒有完全消除人為偏見,而是試圖從越來越多的數(shù)據(jù)中構(gòu)建「完美」的 AI 模型,但這些數(shù)據(jù)參差不齊。

 隨著人工智能技術(shù)的興起,AI 中存在的問題也被逐步暴露出來。AI 做出的決策與人類最佳決策仍然存在差異,并且往往包含一些偏見。那么問題出在哪里呢?近日在一篇文章中,作者 Marianne Bellotti 闡明了相關(guān)原因,并提出了自己對 AI 設(shè)計原則的看法。我們來看一下文章的具體內(nèi)容。

越來越多的數(shù)據(jù)

據(jù)專家指出,數(shù)據(jù)科學(xué)家花費大約 80%的時間來清洗數(shù)據(jù),實現(xiàn)由人工智能驅(qū)動的集中式?jīng)Q策的關(guān)鍵是打破各項工作之間的壁壘,并為人工智能模型創(chuàng)建可互操作的流程。在目前的 AI 領(lǐng)域,即使花費大量的時間和經(jīng)濟(jì)成本,也仍然無法實現(xiàn)像人類大腦一樣,更接近全局水平的態(tài)勢感知。隨著數(shù)據(jù)科學(xué)和人工智能的發(fā)展,構(gòu)建 AI 模型所需的數(shù)據(jù)量也在增加。

自動駕駛公司投資上百億美元仍然沒有實現(xiàn)完全的自動駕駛,社交媒體公司投入數(shù)十億美元試圖利用 AI 清理不良信息,卻仍然嚴(yán)重依賴人工清理平臺。

AI 目前尚沒有做出最佳決策的能力。此外,人們在構(gòu)建 AI 模型時并沒有完全消除人為偏見,而是試圖從越來越多的數(shù)據(jù)中構(gòu)建「完美」的 AI 模型,但這些數(shù)據(jù)參差不齊。

決策與數(shù)據(jù)的相關(guān)性

當(dāng)試圖找到一個難題的解決方案時,首先應(yīng)該將事情分解開來:在做哪些假設(shè)?這些假設(shè)如何構(gòu)建需要解決的問題?如果這些假設(shè)不同,會解決不同的問題嗎?想要解決的問題和方案結(jié)果有什么關(guān)聯(lián)?對于 AI 來說,顯然將更好的決策作為結(jié)果是非常重要的。假設(shè)訪問更多數(shù)據(jù)是決策者做出更好決策的關(guān)鍵,而更好的決策意味著更少的負(fù)面影響,那么整體態(tài)勢感知也非常重要。

在現(xiàn)實生活中,決策者往往為了節(jié)約成本而進(jìn)行優(yōu)化決策。但決策畢竟是根據(jù)結(jié)果來判斷好壞的,在正確分析的基礎(chǔ)上還需要一點運氣。在結(jié)果出來之前,即使是在絕佳數(shù)據(jù)支持下最仔細(xì)、最徹底構(gòu)建的策略也無法保證決策的絕對正確。

因此,做決策的過程不應(yīng)該是對數(shù)據(jù)的客觀分析,而是利益相關(guān)者之間針對風(fēng)險和優(yōu)先級的容忍度做出的積極協(xié)商。數(shù)據(jù)沒有用于提供洞察力,而是用作了保護(hù)利益相關(guān)者免受影響的盾牌,完美的信息往往是通過增加噪聲水平而降低了決策質(zhì)量。

[[403768]]

這似乎令人難以置信,完美的信息不是應(yīng)該自動改進(jìn)決策過程嗎?實際上,更多的信息可能會改變決策背后的組織策略。人工智能可以正確識別內(nèi)容,但基于該內(nèi)容做出的決策會在很大程度上受到用戶和組織的規(guī)范及期望的影響。

改進(jìn)團(tuán)隊決策的最佳途徑不是獲取更多數(shù)據(jù),而是改善利益相關(guān)者之間的溝通。但是人們真的需要花費數(shù)十億美元來清洗數(shù)據(jù)或增加數(shù)據(jù)量才能從人工智能中獲益嗎?

設(shè)計不佳的 AI 可能導(dǎo)致巨大的安全風(fēng)險

當(dāng)前,人們評價數(shù)據(jù)質(zhì)量的方式具有誤導(dǎo)性。「干凈(clean)」的數(shù)據(jù)似乎就是一種準(zhǔn)確、無偏見、可復(fù)用的數(shù)據(jù)。但實際上,干凈與準(zhǔn)確不同,準(zhǔn)確與可操作不同。數(shù)據(jù)存在這三個方面的問題就可能嚴(yán)重影響人工智能模型的性能,干擾其結(jié)果的質(zhì)量。數(shù)據(jù)中可能存在的問題有很多種,有些比較明顯,例如數(shù)據(jù)不正確、已損壞或數(shù)據(jù)格式不標(biāo)準(zhǔn)。有些問題則更加微妙,例如數(shù)據(jù)是在特定環(huán)境下獲取的,然后被不恰當(dāng)?shù)貜?fù)用;對于模型來說數(shù)據(jù)處于錯誤的粒度級別;數(shù)據(jù)沒有標(biāo)準(zhǔn)化,導(dǎo)致相同的事實以不同的方式表示或描述。

使用單一數(shù)據(jù)源解決上述任何一個問題都會非常困難,如果程序攻擊者試圖向大型系統(tǒng)中注入不良數(shù)據(jù)以破壞模型,那么要解決上述所有問題實際上是不可能的。人們無法忽視的一點是:AI 在創(chuàng)造新機(jī)會的同時也帶來了新的脆弱性。人工智能帶來了新的攻擊與被攻擊方法。AI 可能會產(chǎn)生新一代攻擊工具,例如衛(wèi)星數(shù)據(jù)干擾欺騙(location spoofing)。通過破壞數(shù)據(jù)來蒙蔽或誤導(dǎo) AI 系統(tǒng)的技術(shù)和 AI 技術(shù)正在一起被開發(fā)。

[[403769]]

當(dāng)前的 AI 系統(tǒng)完全依賴數(shù)據(jù)的質(zhì)量,因此 AI 存在缺陷不是因為技術(shù)不成熟,而是因為 AI 最初就被設(shè)計為這種容易受到攻擊的形式。因此在這種情況下,人工智能系統(tǒng)必須被設(shè)計成能夠靈活應(yīng)對不良數(shù)據(jù)的模型。那么如果改變這種設(shè)計以降低 AI 的被攻擊風(fēng)險呢?這就需要讓 AI「反脆弱」。

什么是反脆弱 AI?

「反脆弱」是指 AI 系統(tǒng)不僅可以在遭遇故障后恢復(fù),而且在經(jīng)歷過故障后會變得更強大、更有效?;趯嶋H改善決策的因素構(gòu)建 AI 系統(tǒng)將為反脆弱人工智能創(chuàng)造機(jī)會?,F(xiàn)有的認(rèn)知科學(xué)研究表明:良好的決策是主動闡明假設(shè)、構(gòu)建假設(shè)檢驗以驗證假設(shè)、以及在利益相關(guān)者之間建立清晰的溝通渠道的產(chǎn)物。

許多引發(fā)「人為錯誤」的認(rèn)知偏差都是上述三方面出現(xiàn)問題的結(jié)果:當(dāng)人們沒有清楚地闡明假設(shè)時就會使用在實際條件下并不合適的解決方案;當(dāng)人們不檢驗假設(shè)時,他們就無法根據(jù)不斷變化的條件調(diào)整正確的決策;當(dāng)操作人員之間無法有效地共享信息時,就會失去發(fā)現(xiàn)不斷變化的條件和挑戰(zhàn)假設(shè)的機(jī)會,對每個人都不利。

AI 很容易受到不良數(shù)據(jù)的影響,因為目前的研究過分強調(diào)了它在分類和識別方面的應(yīng)用,低估了它在建議和情境化方面的應(yīng)用。但 AI 所做的決策是很容易被破壞的。

設(shè)計反脆弱型 AI 很難,因為將算法分析的輸出作為結(jié)論與將其視為建議或提示之間存在著很大的差異。決策者可能會為了節(jié)省成本而將人工智能的輸出作為結(jié)論。這是目前在應(yīng)用人工智能時已經(jīng)存在的災(zāi)難性錯誤。

與此同時,醫(yī)學(xué)領(lǐng)域的 AI 系統(tǒng)之所以能夠提高決策質(zhì)量,是因為許多診斷并沒有單一的正確答案。在醫(yī)學(xué)診斷中,任何一組癥狀都有一系列不同概率的可能病因。臨床醫(yī)生會在他的頭腦中建立一個決策樹,其中包含他能想到的所有可能病因,并設(shè)想排除某些可能病因的檢驗測試。醫(yī)學(xué)診斷是一個「定義假設(shè)、檢驗測試、進(jìn)一步縮小可能病因集」的循環(huán)過程,直到找到解決方案。

[[403770]]

盡管數(shù)據(jù)不佳,但通過提示醫(yī)生以添加其他可能病因的方式能夠加快診斷過程。在這種情況下,AI 能夠改善醫(yī)療專業(yè)人員之間的溝通和知識共享,并在關(guān)鍵時刻獲取患者的相關(guān)信息。相反,試圖通過人工智能技術(shù)來區(qū)分腫瘤的良性和惡性,以超越醫(yī)生的 AI 產(chǎn)品則一直受到不良數(shù)據(jù)問題的困擾。

不良數(shù)據(jù)下的強大 AI

在利用人工智能這種前沿技術(shù)之前,研究者和開發(fā)者們首先應(yīng)該思考如何定義要解決的問題。如果 AI 被用于改善決策,那么 AI 就應(yīng)該引導(dǎo)決策者進(jìn)行假設(shè)檢驗,而不是試圖超越專家。如果讓 AI 試圖超越專家,那么它將變得完全依賴于數(shù)據(jù)的質(zhì)量,從而產(chǎn)生一組程序攻擊者能夠輕松利用的漏洞。

當(dāng) AI 不是被訓(xùn)練成專家,而是改善和支持人類的決策,那么 AI 就將對不良數(shù)據(jù)具有彈性并能夠變得反脆弱。在這種情況下 AI 不做決定,相反,它幫助人們闡明決策背后的假設(shè),將這些假設(shè)傳達(dá)給人們,并在與這些假設(shè)相關(guān)的實際條件發(fā)生重大變化時提醒決策者。人工智能可以幫助決策者弄清楚什么狀態(tài)是可能的,或者在什么條件下一些狀態(tài)是可能的。這樣的解決方案可以通過解決現(xiàn)有弱點來增強決策團(tuán)隊的整體能力,而不是因不良數(shù)據(jù)產(chǎn)生一些新的弱點。

人工智能尚未「智能」

這篇文章發(fā)布后,許多網(wǎng)友表示贊同作者的觀點。

有網(wǎng)友表示:「這是我近年來讀過 AI 主題最明智的文章之一,將讓一些相關(guān)領(lǐng)域的工作者受益。」

數(shù)據(jù)越多,AI越智能?我們一直以來都想當(dāng)然了

有人則提出了與作者類似的觀點:「人們對人工智能在自動化人類工作方面如此著迷,以至于忘記了 AI 在輔助人類方面具有更大的潛力?!?/p>

數(shù)據(jù)越多,AI越智能?我們一直以來都想當(dāng)然了

還有網(wǎng)友認(rèn)為人工智能成功的關(guān)鍵并不是大量的數(shù)據(jù),而是應(yīng)該依賴從成功經(jīng)驗中獲取的少量數(shù)據(jù):

數(shù)據(jù)越多,AI越智能?我們一直以來都想當(dāng)然了

此外,有網(wǎng)友表示:「人工智能與人類的『智能』無關(guān),它實際上只是計算機(jī)化的信息,仍然需要人們對其進(jìn)行解析?!?/p>

數(shù)據(jù)越多,AI越智能?我們一直以來都想當(dāng)然了

看來人工智能與真正的完全自治化還有很大的距離。對此,你有什么看法?

 

責(zé)任編輯:張燕妮 來源: 機(jī)器之心Pro
相關(guān)推薦

2022-11-11 10:01:35

代碼Copilot函數(shù)

2022-03-25 09:00:00

人工智能工作失業(yè)

2021-08-28 23:18:05

iOS蘋果功能

2021-08-16 15:47:02

AI決策人工智能

2021-08-16 20:45:52

AI人工智能

2023-09-13 17:08:31

2017-03-03 09:55:25

2023-09-13 11:19:49

2022-12-13 11:13:34

數(shù)據(jù)傳感器

2012-07-16 10:06:08

搜狗王小川

2021-12-15 10:20:08

緩存架構(gòu)開發(fā)

2014-12-29 12:15:56

Gmail

2025-05-19 08:54:00

2020-10-14 12:28:19

AI人工智能道德

2021-08-12 10:44:05

漏洞網(wǎng)絡(luò)安全網(wǎng)絡(luò)攻擊

2009-05-21 09:28:05

阿里巴巴馬云忽悠

2014-06-30 10:12:02

移動安全密碼Google

2022-04-14 19:39:39

Java線程安全

2023-04-03 07:23:06

Java線程通信

2022-09-26 08:30:41

黑客網(wǎng)絡(luò)攻擊隱私
點贊
收藏

51CTO技術(shù)棧公眾號