數(shù)據(jù)和人工智能治理委員會(huì)是否應(yīng)該分開?
最近幾個(gè)月,幾位首席數(shù)據(jù)官都問了我同一個(gè)問題:我們應(yīng)該如何進(jìn)行人工智能治理?更具體地說,我們應(yīng)該成立一個(gè)單獨(dú)的人工智能治理委員會(huì),還是應(yīng)該利用現(xiàn)有的數(shù)據(jù)治理委員會(huì)?雖然他們渴望推進(jìn),但這種不確定性導(dǎo)致了延誤和挫敗感,尤其是在業(yè)務(wù)利益相關(guān)者中,他們往往將任何形式的治理都視為額外的復(fù)雜性。
在本文中,我將分析數(shù)據(jù)和 AI 治理委員會(huì)通常關(guān)注的重點(diǎn),探討其中的重疊部分,并討論將它們分開或合并的利弊。目標(biāo)是幫助您確定最適合您組織的方案。
“數(shù)據(jù)治理委員會(huì)”
數(shù)據(jù)治理委員會(huì)旨在確保組織有效地管理其數(shù)據(jù)。這通常包括制定清晰的政策和標(biāo)準(zhǔn),指導(dǎo)治理能力的構(gòu)建,并確保數(shù)據(jù)治理在組織的各個(gè)領(lǐng)域得到應(yīng)用。數(shù)據(jù)治理委員會(huì)是確保切實(shí)執(zhí)行數(shù)據(jù)治理的關(guān)鍵機(jī)制,并為領(lǐng)導(dǎo)者的參與和上報(bào)提供渠道。該委員會(huì)還可以監(jiān)督合規(guī)性工作,以確保組織能夠證明治理在實(shí)踐中有效。
數(shù)據(jù)治理委員會(huì)通常涵蓋的關(guān)鍵主題包括:
- 創(chuàng)建和傳達(dá)政策和標(biāo)準(zhǔn)以確保數(shù)據(jù)管理方式的一致性。
- 制定并批準(zhǔn)具有明確角色、職責(zé)和實(shí)施方法的治理框架。
- 管理數(shù)據(jù)質(zhì)量,包括實(shí)施控制、跟蹤問題及其解決方案。
- 監(jiān)督確保遵守個(gè)保法、 GDPR 和 HIPAA 等數(shù)據(jù)隱私法規(guī)的步驟,將監(jiān)管要求轉(zhuǎn)化為可操作的步驟。
- 監(jiān)督元數(shù)據(jù)管理,例如實(shí)施用于捕獲、維護(hù)和共享元數(shù)據(jù)的工具和流程。
- 管理主數(shù)據(jù),通常側(cè)重于定義所有權(quán)、管理權(quán)以及確保關(guān)鍵數(shù)據(jù)集的數(shù)據(jù)質(zhì)量。
數(shù)據(jù)治理委員會(huì)的輸入通常包括現(xiàn)有政策、業(yè)務(wù)需求、觀察到的數(shù)據(jù)問題、數(shù)據(jù)使用請求、數(shù)據(jù)密集型項(xiàng)目計(jì)劃以及資金提案。這些輸入有助于理事會(huì)確定優(yōu)先事項(xiàng)并做出決策。輸出通常包括更新后的政策、優(yōu)先舉措、已批準(zhǔn)的數(shù)據(jù)目錄內(nèi)容、使用指南、上報(bào)至高管層的問題以及資金或項(xiàng)目計(jì)劃的批準(zhǔn)等等。
這些委員會(huì)的成員通常由數(shù)據(jù)所有者、數(shù)據(jù)管理員、業(yè)務(wù)代表、IT 主管、系統(tǒng)所有者、隱私、法律和審計(jì)團(tuán)隊(duì)代表組成,如果組織規(guī)模較大,有時(shí)還會(huì)有區(qū)域負(fù)責(zé)人。該委員會(huì)反映了確保治理決策符合組織總體目標(biāo)所需的技術(shù)和業(yè)務(wù)視角。這種設(shè)置或多或少與已規(guī)范化數(shù)據(jù)治理實(shí)踐的組織的工作方式一致。
“人工智能治理委員會(huì)”
人工智能治理委員會(huì)通常專注于管理組織內(nèi)人工智能的道德和負(fù)責(zé)任使用。該委員會(huì)旨在確保在應(yīng)用人工智能和分析技術(shù)時(shí),其巨大的規(guī)?;妥詣?dòng)化潛力得到謹(jǐn)慎管理。人工智能系統(tǒng)能夠處理海量數(shù)據(jù),并以比任何手動(dòng)流程更快、更廣泛的方式影響決策。人工智能算法一旦部署,便可能具備自主行動(dòng)的能力,因此控制其使用方式并明確界定哪些行為合適、哪些行為不合適至關(guān)重要。這一點(diǎn)尤為重要,因?yàn)槿斯ぶ悄軟Q策通常缺乏透明度或可解釋性,這意味著諸如偏見或意外后果等潛在問題可能會(huì)被忽視,直到造成重大損害。
例如,當(dāng)用于訓(xùn)練模型的歷史數(shù)據(jù)反映出不公平或刻板印象時(shí),AI 就可能出現(xiàn)偏見。如果一個(gè)用于招聘決策的 AI 模型,是基于某個(gè)行業(yè)的歷史招聘數(shù)據(jù)進(jìn)行訓(xùn)練的,而該行業(yè)對某一特定人群的偏好高于其他人群,那么 AI 可能會(huì)強(qiáng)化并延續(xù)這些偏見,系統(tǒng)性地排除某些候選人。
因此,考慮到這一點(diǎn),人工智能治理委員會(huì)通常討論的關(guān)鍵主題包括:
- 人工智能倫理、偏見和公平定義和執(zhí)行道德原則,以確保人工智能系統(tǒng)公平對待所有群體,不會(huì)(非)故意傷害個(gè)人或社區(qū)。
- 人工智能用例的風(fēng)險(xiǎn)評估識別和評估與每個(gè)人工智能應(yīng)用相關(guān)的風(fēng)險(xiǎn),例如聲譽(yù)損害、違反法規(guī)或運(yùn)營失敗。
- 模型治理為人工智能模型設(shè)定總體治理框架,包括對文檔、可解釋性、測試、監(jiān)控和問責(zé)的期望——而實(shí)際實(shí)施和生命周期管理則在交付團(tuán)隊(duì)中進(jìn)行。
- 遵守人工智能特定法規(guī)解釋并遵守人工智能法案等法律框架,該法案為人工智能的安全性、透明度和問責(zé)制制定了標(biāo)準(zhǔn)。
提交給委員會(huì)的意見通常包括人工智能相關(guān)的政策、倫理指南、監(jiān)管要求、商業(yè)用例、組織戰(zhàn)略以及數(shù)據(jù)和人工智能使用指標(biāo)。當(dāng)出現(xiàn)問題時(shí),額外的意見可以以審計(jì)結(jié)果、監(jiān)管發(fā)現(xiàn)或事件的形式出現(xiàn),這些事件凸顯了監(jiān)管方面的差距,并觸發(fā)了審查或糾正措施。行業(yè)指南或社會(huì)規(guī)范等外部期望,以及人工智能項(xiàng)目的項(xiàng)目提案和資金申請,也發(fā)揮著重要作用。
AI 治理委員會(huì)的成果可能包括符合倫理道德的 AI 框架、批準(zhǔn)或拒絕 AI 模型及其用例的決策、風(fēng)險(xiǎn)緩解策略、將未解決的風(fēng)險(xiǎn)或問題上報(bào)至高管層,以及資金或資源分配的審批。這些成果有助于確保 AI 項(xiàng)目符合組織目標(biāo)和外部要求,同時(shí)最大限度地降低潛在風(fēng)險(xiǎn)。
人工智能治理委員會(huì)的參與者通常由專家和利益相關(guān)者組成,他們能夠提供多元化的觀點(diǎn)。這些參與者可能包括人工智能專家、法律顧問、隱私代表、商業(yè)領(lǐng)袖、數(shù)據(jù)治理代表、平臺或系統(tǒng)所有者以及其他相關(guān)專家。這種廣泛的專業(yè)知識確保委員會(huì)能夠有效地處理人工智能治理的技術(shù)和倫理層面的問題。
下表總結(jié)了數(shù)據(jù)治理和人工智能治理委員會(huì)的主要典型特征。
方面 | 數(shù)據(jù)治理委員會(huì) | AI治理委員會(huì) |
主要目標(biāo) | 管理組織內(nèi)數(shù)據(jù)的有效管理,確保質(zhì)量、合規(guī)性和可訪問性。 | 管理AI的合乎道德和負(fù)責(zé)任的使用,重點(diǎn)關(guān)注控制風(fēng)險(xiǎn)、確保公平性和保持透明度。 |
關(guān)鍵主題與概念 | 數(shù)據(jù)政策和標(biāo)準(zhǔn)的創(chuàng)建與溝通;數(shù)據(jù)治理框架(角色、職責(zé)、實(shí)施)的發(fā)展;數(shù)據(jù)質(zhì)量管理(控制和問題解決);遵守?cái)?shù)據(jù)隱私法規(guī)(例如個(gè)保法、GDPR、HIPAA);元數(shù)據(jù)管理和血緣追蹤;主數(shù)據(jù)管理(MDM)。 | AI倫理、偏見和公平性;AI使用案例的風(fēng)險(xiǎn)評估;模型治理(生命周期管理、監(jiān)控和解釋性);遵守特定于AI的法規(guī)(例如歐盟AI法案)。 |
典型輸入 | 數(shù)據(jù)政策和標(biāo)準(zhǔn);數(shù)據(jù)問題和業(yè)務(wù)需求;數(shù)據(jù)使用請求和指標(biāo);項(xiàng)目和資金提案。 | 特定于AI的政策和標(biāo)準(zhǔn);倫理指南和監(jiān)管要求;業(yè)務(wù)需求和使用案例;外部指南和組織策略;數(shù)據(jù)和AI使用指標(biāo);項(xiàng)目和資金請求。 |
典型輸出 | 數(shù)據(jù)政策決策和優(yōu)先倡議;批準(zhǔn)的數(shù)據(jù)目錄內(nèi)容和使用指南;向執(zhí)行管理層升級;批準(zhǔn)的資金或項(xiàng)目計(jì)劃。 | 倫理AI框架;AI模型和使用案例的批準(zhǔn)或拒絕;風(fēng)險(xiǎn)緩解策略和合規(guī)計(jì)劃;向執(zhí)行領(lǐng)導(dǎo)層升級;批準(zhǔn)的資金或資源分配。 |
共同/典型利益相關(guān)者 | 數(shù)據(jù)管理員和數(shù)據(jù)所有者;業(yè)務(wù)代表和IT領(lǐng)導(dǎo)者;系統(tǒng)所有者和合規(guī)官員;域負(fù)責(zé)人(對于較大的組織)。 | AI專家;法律顧問和隱私代表;業(yè)務(wù)利益相關(guān)者;數(shù)據(jù)治理代表;平臺和系統(tǒng)所有者。 |
數(shù)據(jù)治理與人工智能治理的重疊與共同點(diǎn)
數(shù)據(jù)治理和人工智能治理之間存在顯著的重疊,尤其是在它們都以賦能業(yè)務(wù)用例為核心這一點(diǎn)上。數(shù)據(jù)治理的重點(diǎn)是確保正確的數(shù)據(jù)能夠滿足業(yè)務(wù)目標(biāo)的需求。這涉及確定數(shù)據(jù)的質(zhì)量、可訪問性和合規(guī)性,以便有效地支持各種用例。人工智能治理則專注于專門涉及人工智能的業(yè)務(wù)用例,確保這些應(yīng)用符合倫理道德、負(fù)責(zé)任,并與組織目標(biāo)保持一致。兩者之所以重疊,是因?yàn)樵S多業(yè)務(wù)用例在兩者之間共享,都依賴于強(qiáng)大的數(shù)據(jù)基礎(chǔ)和對人工智能系統(tǒng)的適當(dāng)監(jiān)管。
另一個(gè)共同點(diǎn)在于數(shù)據(jù)所有權(quán)和分類的重要性。數(shù)據(jù)治理的根本在于了解數(shù)據(jù)存在哪些內(nèi)容、數(shù)據(jù)位于何處、數(shù)據(jù)敏感程度如何以及如何使用。這些活動(dòng)對于建立問責(zé)制和確保遵守?cái)?shù)據(jù)法規(guī)至關(guān)重要。人工智能治理在此基礎(chǔ)上建立,通過利用數(shù)據(jù)分類并讓數(shù)據(jù)所有者參與其中,確保人工智能系統(tǒng)能夠妥善使用數(shù)據(jù)。例如,了解哪些數(shù)據(jù)集是敏感的或受限制的,可以直接指導(dǎo)決策哪些人工智能應(yīng)用在何種條件下是允許的。
AI 治理也高度依賴于具體的數(shù)據(jù)治理能力。數(shù)據(jù)目錄和元數(shù)據(jù)管理系統(tǒng)等工具在識別和理解可用數(shù)據(jù)集方面發(fā)揮著至關(guān)重要的作用。例如,許多基于內(nèi)部數(shù)據(jù)訓(xùn)練的生成式 AI 模型需要精確的定義和元數(shù)據(jù)才能正確解讀數(shù)據(jù)并有效運(yùn)行。同樣,了解數(shù)據(jù)的存儲(chǔ)位置及其分類方式,可以使 AI 治理工作與更廣泛的組織數(shù)據(jù)戰(zhàn)略保持一致,并確保遵守既定規(guī)則。
或許最直接的重疊領(lǐng)域在于推動(dòng)數(shù)據(jù)的合理使用。數(shù)據(jù)治理的根本在于確保數(shù)據(jù)以正確的方式用于正確的目的。這包括管理數(shù)據(jù)生命周期,從創(chuàng)建到使用,通常還涉及建立審批流程、配置控制和使用指南。我曾與一家保險(xiǎn)行業(yè)機(jī)構(gòu)合作,該機(jī)構(gòu)將此作為其企業(yè)數(shù)據(jù)治理計(jì)劃的核心,持續(xù)了一年,確保每個(gè)用例都經(jīng)過適當(dāng)?shù)膶彶楹团鷾?zhǔn)。從許多方面來看,人工智能治理只是這項(xiàng)更廣泛努力的一部分:其重點(diǎn)是確保人工智能應(yīng)用程序中的數(shù)據(jù)使用是恰當(dāng)?shù)?,并符合道德和監(jiān)管標(biāo)準(zhǔn)。
最后,利益相關(guān)者在實(shí)際操作上存在重疊。許多參與數(shù)據(jù)治理工作的個(gè)人和團(tuán)隊(duì),例如數(shù)據(jù)管理員、IT 主管、合規(guī)官和業(yè)務(wù)代表,與參與 AI 治理項(xiàng)目或委員會(huì)的人員相同。
何時(shí)以及為何將數(shù)據(jù)治理與人工智能治理分開可能是件好事
有幾個(gè)原因可以解釋為什么將數(shù)據(jù)治理和人工智能治理分開是有意義的,這些因素中的一個(gè)或多個(gè)越適用,將它們區(qū)分開來的理由就越充分:
時(shí)間壓力。
AI治理通常需要比數(shù)據(jù)治理更快的推進(jìn)速度。數(shù)據(jù)治理項(xiàng)目通常采用基于領(lǐng)域的方法,耗時(shí)數(shù)月甚至數(shù)年,而 AI 治理通常與業(yè)務(wù)用例直接相關(guān),需要立即上線。業(yè)務(wù)利益相關(guān)者希望盡快部署 AI 解決方案,而為了適應(yīng)更慢、更系統(tǒng)的數(shù)據(jù)治理實(shí)施而推遲這些解決方案可能會(huì)適得其反。通過將兩者分離,組織可以讓 AI 治理以更快的速度運(yùn)行,同時(shí)確保其保持必要的嚴(yán)謹(jǐn)性。
人工智能和非人工智能數(shù)據(jù)使用性質(zhì)的差異。
人工智能治理需要針對人工智能系統(tǒng)及其復(fù)雜性的專業(yè)知識。數(shù)據(jù)治理相對具有普遍性,側(cè)重于數(shù)據(jù)所有權(quán)、質(zhì)量和訪問權(quán)限,而人工智能治理則面臨著更難理解的挑戰(zhàn),例如透明度和可解釋性。人工智能系統(tǒng)通常以“黑匣子”的形式運(yùn)行,因此很難完全理解決策是如何制定的。人工智能的可擴(kuò)展性進(jìn)一步加劇了這一問題,人工智能驅(qū)動(dòng)的決策可以在幾秒鐘內(nèi)影響數(shù)百萬客戶或交易。治理中的任何失誤都可能導(dǎo)致直接的大規(guī)模損害,這需要專門的關(guān)注和專業(yè)知識。
計(jì)劃中或現(xiàn)有的 AI 使用范圍。
組織內(nèi) AI 的使用范圍也會(huì)影響分離治理工作的決策。如果 AI 的使用僅限于單個(gè)業(yè)務(wù)部門或職能,那么將 AI 治理僅集中在該領(lǐng)域可能是有意義的,而無需涉及更廣泛的數(shù)據(jù)治理計(jì)劃。在這種情況下,讓更廣泛的利益相關(guān)者參與與他們無關(guān)的討論會(huì)浪費(fèi)時(shí)間和資源。相反,如果 AI 滲透到多個(gè)業(yè)務(wù)部門和職能,與數(shù)據(jù)治理的協(xié)同作用就會(huì)增強(qiáng),從而降低分離的效益。AI 在組織內(nèi)的覆蓋范圍在決定治理工作應(yīng)該統(tǒng)一還是拆分方面起著關(guān)鍵作用。
專注于AI建模而非更廣泛的數(shù)據(jù)問題。
AI治理通常依賴于數(shù)據(jù)治理作為輸入或推動(dòng)因素,而不是直接負(fù)責(zé)更廣泛的數(shù)據(jù)管理工作。例如,理想情況下,AI治理應(yīng)該從數(shù)據(jù)治理流程提供的干凈、分類良好的數(shù)據(jù)開始。然后,AI治理可以專注于AI建模方面的考量,例如:
- 建立建模標(biāo)準(zhǔn)。
- 記錄和測試模型。
- 進(jìn)行偏見測試。
- 實(shí)施后監(jiān)控和再訓(xùn)練模型。
- 確保遵守人工智能特定的法規(guī)。
這些活動(dòng)通常技術(shù)性很強(qiáng),且與人工智能密切相關(guān),需要專業(yè)知識和關(guān)注度,且不與更廣泛的數(shù)據(jù)治理職責(zé)重疊。組織越能將這些人工智能特定任務(wù)與更廣泛的數(shù)據(jù)使用考量清晰地區(qū)分開來,就越有理由成立單獨(dú)的人工智能治理委員會(huì)。
通過將人工智能治理的重點(diǎn)放在人工智能系統(tǒng)的運(yùn)營、倫理和技術(shù)層面,并讓數(shù)據(jù)治理處理基礎(chǔ)數(shù)據(jù)問題,組織可以簡化這兩個(gè)流程,并避免不必要的復(fù)雜性。這種分離確保了每個(gè)治理機(jī)構(gòu)都能有效運(yùn)作,而不會(huì)互相干擾。
為什么應(yīng)該同時(shí)考慮數(shù)據(jù)治理和人工智能治理
我剛剛闡述了何時(shí)以及為何可以將數(shù)據(jù)治理和人工智能治理分開……然而,總體而言,在沒有具體理由將它們分開的情況下,我傾向于默認(rèn)將它們放在一起。以下是一些原因:
- 共享基礎(chǔ)——理解、分類并負(fù)責(zé)任地使用數(shù)據(jù)
數(shù)據(jù)治理和人工智能治理的核心都建立在相同的原則之上:理解數(shù)據(jù)存在哪些內(nèi)容、對其進(jìn)行適當(dāng)分類并確保以負(fù)責(zé)任的方式使用數(shù)據(jù)。雖然人工智能決策可能因其可擴(kuò)展性和快速影響的潛力而需要額外關(guān)注,但定義數(shù)據(jù)所有權(quán)、分類和使用方式的基礎(chǔ)流程是相同的。人工智能治理并非取代這些原則,而是以它們?yōu)榛A(chǔ)。通過將兩者結(jié)合起來,組織可以避免重復(fù)工作并確保數(shù)據(jù)處理方式的一致性。
- 推動(dòng)合理使用的統(tǒng)一方法
對我來說,管理數(shù)據(jù)的合理使用和管理人工智能的合理使用之間沒有根本區(qū)別。以客戶細(xì)分為例:一個(gè)用例最初可能涉及手動(dòng)流程,但之后可能會(huì)演變?yōu)榘詣?dòng)化,并最終由人工智能驅(qū)動(dòng)的模型。在手動(dòng)階段,用一套標(biāo)準(zhǔn)來管理這個(gè)用例,而在引入人工智能后,再將其轉(zhuǎn)移到另一套單獨(dú)的標(biāo)準(zhǔn),這樣合理嗎?當(dāng)然不是。數(shù)據(jù)的道德和負(fù)責(zé)任使用不應(yīng)取決于決策是由人類還是人工智能程序做出的。人工智能只是自動(dòng)化的一個(gè)層面,同樣的道德使用原則應(yīng)該普遍適用。
- 避免利益相關(guān)者疲勞和重復(fù)勞動(dòng)
從實(shí)際角度來看,讓業(yè)務(wù)利益相關(guān)者有效地參與一個(gè)治理委員會(huì)本身就頗具挑戰(zhàn)性。要求他們參與兩個(gè)委員會(huì)——一個(gè)負(fù)責(zé)數(shù)據(jù)治理,另一個(gè)負(fù)責(zé)人工智能治理——只會(huì)增加復(fù)雜性和所需的工作量。如果數(shù)據(jù)和人工智能治理領(lǐng)域?qū)τ谑欠駪?yīng)該設(shè)立一個(gè)還是兩個(gè)委員會(huì)存在不確定性,那么可以肯定的是,業(yè)務(wù)利益相關(guān)者也會(huì)提出同樣的問題。單一委員會(huì)可以避免重復(fù)勞動(dòng),減少利益相關(guān)者疲勞,并確保更高效的治理。
- 通過統(tǒng)一治理簡化協(xié)調(diào)
將數(shù)據(jù)治理與人工智能治理相結(jié)合,有助于推動(dòng)統(tǒng)一方法,從而簡化業(yè)務(wù)協(xié)調(diào)并減少混亂。一套統(tǒng)一的框架、政策和標(biāo)準(zhǔn)幾乎總是比各自為政更可取。這不僅使治理更易于管理,也使利益相關(guān)者更容易理解和遵守規(guī)則,無論他們處理的是數(shù)據(jù)還是人工智能用例。
- 后期靈活分離
最后,最初將治理保持統(tǒng)一可以靈活地進(jìn)行調(diào)整,以便隨著組織成熟度的增長而不斷提升。一旦建立了治理框架并且團(tuán)隊(duì)積累了經(jīng)驗(yàn),將 AI 治理與數(shù)據(jù)治理分開是否合理就會(huì)變得更加清晰。如果組織發(fā)現(xiàn)某些利益相關(guān)者或用例需要更多關(guān)注,那么將其拆分成單獨(dú)的工作組甚至獨(dú)立的 AI 治理委員會(huì)相對容易。然而,反之則困難得多。如果一開始就設(shè)立兩個(gè)獨(dú)立的委員會(huì),后來意識到需要將它們統(tǒng)一起來,就會(huì)面臨一系列挑戰(zhàn)。這些挑戰(zhàn)包括協(xié)調(diào)遺留決策、協(xié)調(diào)工具和框架,以及解決方法或政策中的沖突。此外,領(lǐng)導(dǎo)者或利益相關(guān)者也有可能抵制,因?yàn)樗麄兛赡軙?huì)覺得自己的角色或權(quán)威在過渡期間被削弱。通過從合并委員會(huì)開始,組織可以避免這些陷阱,并為有效、可擴(kuò)展的治理奠定基礎(chǔ)。
小結(jié)
決定將數(shù)據(jù)治理與 AI 治理分開還是合并,最終取決于您組織的獨(dú)特需求和成熟度。雖然兩種方法都有其合理的論據(jù),但從統(tǒng)一的框架入手通常能夠提供靈活性和簡便性,以便隨著組織的發(fā)展進(jìn)行擴(kuò)展。AI 的運(yùn)作離不開數(shù)據(jù),其治理也同樣如此。