偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人工智能治理是時候行動了

人工智能
關(guān)于人工智能治理的討論往往含糊不清,令人沮喪。組織談?wù)撊斯ぶ悄軅惱砗捅O(jiān)管合規(guī)性,但在實際實施方面,許多組織都因不確定性而癱瘓。就目前而言,治理往往是一項高層公司指令,而不是一項具體可行的計劃。

關(guān)于人工智能治理的討論往往含糊不清,令人沮喪。組織談?wù)撊斯ぶ悄軅惱砗捅O(jiān)管合規(guī)性,但在實際實施方面,許多組織都因不確定性而癱瘓。就目前而言,治理往往是一項高層公司指令,而不是一項具體可行的計劃。

人工智能治理不是一個通用的、一刀切的框架,而是一種特定于模型的戰(zhàn)略,一種確保運營層面的透明度、問責(zé)制和公平性的戰(zhàn)略!

數(shù)字化轉(zhuǎn)型公司Blackstraw.ai的首席收入官Guy Reams表示,治理不能仍然是一個抽象的原則。相反,它必須在模型級別深入嵌入人工智能系統(tǒng),考慮從數(shù)據(jù)沿襲到偏差檢測再到特定領(lǐng)域風(fēng)險的所有因素。如果沒有這種轉(zhuǎn)變,治理將成為一種表面文章,對防止人工智能失敗或監(jiān)管處罰幾乎沒有作用。

為了探索這種思維轉(zhuǎn)變,我們應(yīng)該坐下來討論為什么人工智能治理必須發(fā)展,以及企業(yè)現(xiàn)在應(yīng)該做些什么來領(lǐng)先于潮流。

為什么公司不能等待監(jiān)管

人工智能治理中的一個常見誤解是,監(jiān)管機(jī)構(gòu)將制定規(guī)則,減輕企業(yè)的責(zé)任負(fù)擔(dān)。美國前總統(tǒng)拜登關(guān)于人工智能的行政命令(已被特朗普政府廢除)以及歐盟的《人工智能法案》制定了廣泛的指導(dǎo)方針,但這些政策將始終落后于技術(shù)創(chuàng)新。人工智能的快速發(fā)展,特別是自2022年ChatGPT出現(xiàn)以來,只會擴(kuò)大這一差距。

Reams警告說,那些希望人工智能法規(guī)提供完全清晰或免除責(zé)任的公司正在為自己的失敗做準(zhǔn)備。

他說:“(治理)最終是他們的責(zé)任?!薄爸贫ㄐ姓罨蛱囟ǚㄒ?guī)的危險在于,它通常會使人們的想法偏離他們的責(zé)任,并將責(zé)任歸咎于法規(guī)或治理機(jī)構(gòu)?!?/span>

換句話說,僅靠監(jiān)管并不能使人工智能安全或符合道德規(guī)范。公司必須擁有所有權(quán)。雖然Reams承認(rèn)需要一些監(jiān)管壓力,但他認(rèn)為治理應(yīng)該是一項全行業(yè)的合作努力,而不是一項僵化的、一刀切的任務(wù)。

他解釋說:“我認(rèn)為,個人授權(quán)會產(chǎn)生一個潛在的問題,人們會認(rèn)為問題已經(jīng)解決,但事實并非如此?!?/span>

企業(yè)必須主動建立自己的人工智能治理框架,而不是等待監(jiān)管機(jī)構(gòu)采取行動。不作為的風(fēng)險不僅在于監(jiān)管,還在于運營、財務(wù)和戰(zhàn)略。如今忽視人工智能治理的企業(yè)將發(fā)現(xiàn)自己無法有效地擴(kuò)展人工智能,容易受到合規(guī)風(fēng)險的影響,并有失去利益相關(guān)者信譽的風(fēng)險。

特定模型人工智能治理是當(dāng)務(wù)之急

許多人工智能治理策略的最大缺陷是它們往往過于抽象,無法落地。當(dāng)人工智能系統(tǒng)大規(guī)模部署時,廣泛的道德準(zhǔn)則和監(jiān)管復(fù)選框并不容易轉(zhuǎn)化為真正的問責(zé)制。治理必須嵌入模型級別,塑造人工智能在整個組織中的構(gòu)建、訓(xùn)練和實施方式。

Reams認(rèn)為,有效的人工智能治理的第一步是建立一個跨職能的治理委員會。人工智能監(jiān)管往往由法律和合規(guī)團(tuán)隊主導(dǎo),導(dǎo)致政策過于謹(jǐn)慎,扼殺了創(chuàng)新。

Reams回憶道:“我最近看到一項政策,一家企業(yè)決定在整個企業(yè)范圍內(nèi)禁止使用所有第三方人工智能,使用人工智能的唯一方法就是使用他們自己的內(nèi)部人工智能工具?!薄八?,你可以用他們創(chuàng)建的聊天機(jī)器人進(jìn)行自然語言處理,但你不能使用ChatGPT或Anthropic或任何其他工具?!?/span>

Reams表示,治理不應(yīng)僅限于少數(shù)人的全面限制,還應(yīng)包括法律、IT安全、商業(yè)領(lǐng)袖、數(shù)據(jù)科學(xué)家和數(shù)據(jù)治理團(tuán)隊的意見,以確保人工智能政策既具有風(fēng)險意識又實用。

透明度是特定模型治理的另一個關(guān)鍵支柱。谷歌率先提出了模型卡的概念,模型卡是機(jī)器學(xué)習(xí)模型提供的簡短文檔,可以提供模型訓(xùn)練的背景、可能存在的偏差以及更新的頻率。Reams認(rèn)為這是所有企業(yè)都應(yīng)該采用的最佳實踐,以揭示黑匣子。

Reams說:“這樣,當(dāng)有人使用人工智能時,他們會彈出一張非常開放、透明的模型卡,告訴他們問題的答案是基于這個模型的,這就是它的準(zhǔn)確性,這是我們最后一次修改這個模型。”。

數(shù)據(jù)沿襲在對抗不透明人工智能系統(tǒng)的透明度支柱中也發(fā)揮著關(guān)鍵作用。Reams說:“我認(rèn)為有一種黑箱思維,也就是說,我問一個問題,然后(模型)就會想出來,給我一個答案?!薄拔艺J(rèn)為我們不應(yīng)該使最終用戶認(rèn)為他們可以信任黑匣子。”

人工智能系統(tǒng)必須能夠?qū)⑵漭敵鲎匪莸教囟ǖ臄?shù)據(jù)源,確保遵守隱私法,促進(jìn)問責(zé)制,并降低產(chǎn)生幻覺的風(fēng)險。

偏差檢測是治理透明度的另一個關(guān)鍵組成部分,有助于確保模型不會因訓(xùn)練數(shù)據(jù)不平衡而無意中偏向某些觀點。Reams表示,人工智能中的偏見并不總是我們與社會歧視聯(lián)系在一起的公開類型,它可能是一個更微妙的問題,即模型根據(jù)其訓(xùn)練的有限數(shù)據(jù)扭曲結(jié)果。為了解決這個問題,公司可以使用偏見檢測引擎,這是一種第三方工具,可以根據(jù)訓(xùn)練數(shù)據(jù)集分析人工智能輸出,以識別無意偏見的模式。

Reams指出:“當(dāng)然,你必須信任第三方工具,但這就是為什么作為一家公司,你需要齊心協(xié)力,因為你需要開始思考這些事情,并開始評估和找出適合你的方法?!彼赋觯颈仨氈鲃釉u估哪種偏見緩解方法符合其行業(yè)特定的需求。

人為監(jiān)督仍然是關(guān)鍵的保障措施。人工智能驅(qū)動的決策正在加速,但讓人參與進(jìn)來可以確保問責(zé)制。在欺詐檢測或招聘決策等高風(fēng)險領(lǐng)域,人工審核人員必須在采取行動之前驗證人工智能生成的見解。

Reams認(rèn)為,這是對人工智能局限性的必要檢查:“當(dāng)我們開發(fā)框架時,確保決策可由人類審查,這樣人類就可以參與決策的循環(huán),我們可以利用這些人類決策來進(jìn)一步訓(xùn)練人工智能模型。讓人類參與循環(huán)時,模型可以進(jìn)一步增強(qiáng)和改進(jìn),因為人類可以評估和審查正在做出的決策。”

人工智能治理作為競爭優(yōu)勢

人工智能治理不僅關(guān)乎合規(guī)性,還可以作為一種業(yè)務(wù)彈性戰(zhàn)略,定義公司在保持信任和避免法律陷阱的同時負(fù)責(zé)任地擴(kuò)展人工智能的能力。Reams表示,忽視治理的組織正在錯失機(jī)會,隨著人工智能的不斷進(jìn)步,可能會失去競爭優(yōu)勢。

他說:“將會發(fā)生的是,人工智能將變得越來越大,越來越復(fù)雜。如果你不掌握治理,那么你就不會在需要的時候準(zhǔn)備好實施這一點,而且你也沒有辦法處理它。如果你還沒有完成這項工作,那么當(dāng)人工智能真正發(fā)展壯大時,它甚至還沒有開始,你將毫無準(zhǔn)備?!?。

在模型層面嵌入治理的公司將能夠更好地負(fù)責(zé)任地擴(kuò)展人工智能運營,減少監(jiān)管風(fēng)險,并建立利益相關(guān)者的信心。但治理并不是在真空中發(fā)生的,保持這種競爭優(yōu)勢還需要對人工智能供應(yīng)商的信任。大多數(shù)組織依賴人工智能供應(yīng)商和外部供應(yīng)商提供工具和基礎(chǔ)設(shè)施,這使得整個人工智能供應(yīng)鏈的透明度和問責(zé)制變得至關(guān)重要。

Reams強(qiáng)調(diào),人工智能供應(yīng)商可以發(fā)揮至關(guān)重要的作用,特別是在上述透明度支柱方面,如模型卡、訓(xùn)練數(shù)據(jù)源的披露和偏見緩解策略。公司在部署供應(yīng)商提供的人工智能模型之前,應(yīng)建立供應(yīng)商問責(zé)措施,如持續(xù)的偏見檢測評估。雖然治理始于內(nèi)部,但它必須擴(kuò)展到更廣泛的人工智能生態(tài)系統(tǒng),以確保可持續(xù)和合乎道德的人工智能采用。

以這種整體思維進(jìn)行人工智能治理的組織不僅會保護(hù)自己免受風(fēng)險,還會將自己定位為負(fù)責(zé)任的人工智能實施的領(lǐng)導(dǎo)者。企業(yè)必須將治理從合規(guī)復(fù)選框轉(zhuǎn)變?yōu)樯疃燃?、特定于模型的實踐。

現(xiàn)在不采取行動的公司將難以負(fù)責(zé)任地擴(kuò)展人工智能,當(dāng)人工智能的采用從實驗階段轉(zhuǎn)變?yōu)檫\營需要時,將處于戰(zhàn)略劣勢。在這種新范式中,人工智能治理的未來將不是由監(jiān)管機(jī)構(gòu)定義的,而是由在制定實用的模型級治理框架方面發(fā)揮領(lǐng)導(dǎo)作用的組織塑造的。

責(zé)任編輯:華軒 來源: Ai時代前沿
相關(guān)推薦

2024-03-22 10:17:09

人工智能數(shù)字化轉(zhuǎn)型AI

2020-11-30 08:41:23

人工智能大數(shù)據(jù)智慧城市

2017-09-15 18:16:56

人工智能Python

2024-09-06 15:36:56

2020-12-18 13:22:33

人工智能算法

2019-09-04 09:00:00

人工智能大數(shù)據(jù)技術(shù)

2021-07-17 22:49:52

人工智能科學(xué)技術(shù)

2020-08-31 15:15:20

人工智能算法AI

2024-02-05 11:09:57

2022-08-18 11:07:17

網(wǎng)絡(luò)人工智能AI

2023-12-18 18:56:28

超級人工智能人工智能

2017-08-28 14:21:20

人工智能崗位互聯(lián)網(wǎng)

2022-07-26 11:27:40

人工智能AIOps

2023-05-05 14:02:59

人工智能聊天機(jī)器人

2024-03-20 06:57:48

人工智能TRISMAI

2021-04-13 10:37:46

人工智能數(shù)據(jù)技術(shù)

2020-10-27 10:04:54

人工智能AI人工智能技術(shù)

2023-08-16 10:58:20

2022-06-02 11:39:15

邊緣人工智能機(jī)器學(xué)習(xí)

2025-01-17 14:03:02

點贊
收藏

51CTO技術(shù)棧公眾號