CIO如何解決實施AI過程中面臨的倫理問題

AI幾乎滿足了幾乎每個行業(yè)組織的胃口。隨著AI試點轉(zhuǎn)向?qū)嶋H應(yīng)用,關(guān)于道德AI必要性的討論也在增加,同時也出現(xiàn)了“公平”、“隱私”、“透明”、“責(zé)任”和最大的術(shù)語——“偏見”。
隨著AI成為人們工作和開展業(yè)務(wù)的不可或缺的一部分,確保這些措施和其他措施得到考慮是CIO們將努力應(yīng)對的一項艱巨任務(wù)。
對于許多CIO來說,實施可能還處于萌芽階段,但減輕AI模型中的偏見并平衡創(chuàng)新與倫理考慮已經(jīng)是他們面臨的最大挑戰(zhàn)之一,他們發(fā)現(xiàn),在技術(shù)進步和確保AI不會導(dǎo)致有害結(jié)果之間的界限很窄。
全球咨詢企業(yè)Egon Zehnder服務(wù)和AI實踐小組成員Christoph Wollersheim指出了大多數(shù)企業(yè)在實施AI時需要關(guān)注的五個關(guān)鍵領(lǐng)域:準(zhǔn)確性、偏見、安全、透明度和社會責(zé)任。
Wollersheim最近與人合著了《董事會成員監(jiān)督AI指南》一書,他說,不幸的是,用AI實現(xiàn)100%的準(zhǔn)確率是不可能的?!罢嬲膫惱韱栴}在于企業(yè)如何防范錯誤信息。如果向客戶提供虛假數(shù)據(jù),或者如果關(guān)鍵決策基于不準(zhǔn)確的AI響應(yīng),該怎么辦?企業(yè)的回應(yīng)既需要一個切實可行的計劃,也需要一個透明的溝通策略?!?/p>
他指出,當(dāng)AI根據(jù)歷史數(shù)據(jù)進行訓(xùn)練時,偏見可能會在不經(jīng)意間持續(xù)存在。
“執(zhí)行管理層和董事會都必須確保公平使用AI,并防止歧視?!彼f,糾正偏見的研究正在進行中,使用合成數(shù)據(jù)來處理性別、種族和民族等屬性,“但總有必要應(yīng)用以人為中心的原則。”
Wollersheim說,保護敏感信息的需要對于符合道德的AI部署來說是至關(guān)重要的,因為AI對數(shù)據(jù)的嚴(yán)重依賴增加了入侵和未經(jīng)授權(quán)訪問的風(fēng)險?!捌髽I(yè)必須加強防御,防止可能誤導(dǎo)AI模型并導(dǎo)致決策失誤的攻擊。確保敏感信息的安全對于道德上的AI部署是至關(guān)重要的?!八f。
至于透明度,這不僅僅與算法有關(guān),還與建立信任有關(guān),他說,“利益相關(guān)者需要理解AI是如何做出決策和處理數(shù)據(jù)的。一個透明的AI框架是道德使用、問責(zé)和維護信任的關(guān)鍵?!?/p>
企業(yè)還必須考慮指導(dǎo)他們的價值觀,以及他們在再培訓(xùn)、技能提升和工作保護方面的義務(wù)。Wollersheim說:“道德AI是關(guān)于為我們的勞動力塑造一個負(fù)責(zé)任的未來。”
Wollersheim說,為了解決這些問題,建立一個AI審查委員會和實施一個道德的AI框架是至關(guān)重要的?!耙粋€道德的AI框架為每個項目的監(jiān)測和批準(zhǔn)提供了明確的指導(dǎo),無論是內(nèi)部的還是外部的。由技術(shù)和商業(yè)專家組成的AI審查委員會確保倫理考慮處于決策的前沿?!?/p>
以下是CIO如何在其企業(yè)中解決道德AI的問題。
讓道德AI成為一項團隊運動
PlexusWorldwide是一家使用AI來識別欺詐性賬戶創(chuàng)建和交易的企業(yè),這家市值5億美元的全球健康和健康企業(yè)的CIO兼首席技術(shù)官艾倫·麥金托什說。麥金托什認(rèn)為,偏見從根本上說是一個數(shù)據(jù)問題?!拔覀冊噲D通過利用和驗證多個完整的數(shù)據(jù)源來消除偏見和不正確的結(jié)果。”他說。
麥金托什說,PlexusIT還處于在企業(yè)的電子商務(wù)平臺中使用AI的分析階段,“以獲得更好的見解,以預(yù)測和優(yōu)化客戶體驗,并增強個性化。我們還看到了自動化的機會,可以消除許多傳統(tǒng)的人工和重復(fù)性任務(wù)。”
他說,為了確保遵守符合道德的AI實踐,PlexusWorldwide組建了一個由IT、法律和人力資源代表組成的團隊,負(fù)責(zé)AI治理和政策的發(fā)展和演變,該團隊確定了企業(yè)的風(fēng)險容忍度、可接受的用例和限制以及適用的披露。
麥金托什說,即使有一個專注于AI的團隊,識別風(fēng)險并了解組織打算如何在內(nèi)部和公開使用AI也是具有挑戰(zhàn)性的。他說,團隊成員還必須理解并解決AI偏見、錯誤聲明和不正確結(jié)果的內(nèi)在可能性?!案鶕?jù)用例的不同,你的企業(yè)和品牌的聲譽可能會受到威脅,因此你必須規(guī)劃有效的治理?!?/p>
考慮到這一點,麥金托什說,CIO們“不要急于沖到終點線”是至關(guān)重要的。在實施和公開技術(shù)之前,企業(yè)必須創(chuàng)建一個全面的計劃,并專注于開發(fā)治理框架和AI政策。麥金托什表示,確定合適的利益相關(guān)者,如法律、人力資源、合規(guī)和隱私以及IT,是Plexus開始其道德AI過程的地方。
“然后我們制定了一份政策草案,概述了角色和責(zé)任、范圍、背景、可接受的使用指南、風(fēng)險容忍度和管理以及治理,”他說,“我們繼續(xù)迭代和演變我們的政策,但它仍在發(fā)展中。我們打算在2024年第一季度實施該計劃?!?/p>
麥金托什建議尋找第三方資源和主題專業(yè)知識。麥金托什解釋說:“它將極大地幫助加快你的計劃和框架的開發(fā)和執(zhí)行,并且,根據(jù)你當(dāng)前的計劃管理實踐,為你的AI采用計劃提供相同級別或更高級別的嚴(yán)格要求?!?/p>
腳步緩慢,這樣AI就不會“失控”
CIO Matt Richard表示,代表50多萬建筑工人、公共雇員和郵件處理員的北美勞工國際聯(lián)盟(LIUNA)已經(jīng)嘗試使用AI,主要是為了文件的準(zhǔn)確性和澄清,以及撰寫合同。
他說,隨著LIUNA在2024年擴大AI用例,“這就產(chǎn)生了一個問題,那就是我們?nèi)绾卧趥惱砩鲜褂肁I?!痹摻M織已經(jīng)開始試行Google Duet,將撰寫和談判承包商協(xié)議的過程自動化。
Richard說,目前,工會官員沒有使用AI來識別成員的想要和需求,也沒有梳理可能敏感的招聘數(shù)據(jù),并根據(jù)模特的培訓(xùn)方式對人們產(chǎn)生偏見。
“這些都是我感到緊張的地方:當(dāng)一個模特告訴我一個人的時候,我覺得我們還沒有準(zhǔn)備好進入這個領(lǐng)域,因為坦率地說,我不相信受過公共培訓(xùn)的模特能讓我洞察我想聘用的人。”
盡管如此,Richard預(yù)計LIUNA仍將經(jīng)歷一次“自然進化”,即未來LIUNA可能希望利用AI來獲得對其成員的洞察,以幫助工會為他們帶來更好的利益。他說,就目前而言,“我們希望如何做到這一點,這仍然是一個灰色地帶。”
Richard說,該工會還在努力增加其會員人數(shù),其中一部分意味著使用AI來有效地識別潛在成員,“而不是識別相同的同質(zhì)性人。我們的組織非常努力,在賦予少數(shù)族裔和女性權(quán)力方面做得很好,我們希望發(fā)展這些群體。”
這就是Richard擔(dān)心AI模型如何使用的地方,因為避免“尋找相同的刻板印象人口的兔子洞”并引入偏見意味著人類必須成為這一過程的一部分。“你不能讓模特做所有的工作,”他說,“你知道你今天所處的位置,然后我們停下來說,‘好吧,人類需要介入,看看模型告訴我們什么?!?/p>
“你不能讓AI橫沖直撞,…沒有任何干預(yù)?!彼a充說,組織不應(yīng)該在AI領(lǐng)域采取“簡單的解決辦法”,只研究工具能做什么?!拔覔?dān)心的是,人們會購買并實施一個AI工具,然后放手信任它…,你必須小心,這些工具沒有告訴我們我們想要聽到的?!八f。
為此,Richard認(rèn)為AI可以被用作啟動器,但IT領(lǐng)導(dǎo)者必須利用團隊的直覺,“以確保我們不會落入只相信華而不實的軟件工具的陷阱,這些工具不會給我們提供我們需要的數(shù)據(jù)?!彼f。
對AI倫理的個人看法
Group的CIO Jan Cenkr表示,與LIUNA一樣,總部位于捷克的全球消費金融提供商Home Credit也處于AI之旅的早期,使用GitHub Copilot進行編碼和文檔流程。
Cenkr同時也是Home Credit子企業(yè)EmbedIT的首席執(zhí)行官,他說:“它在節(jié)省時間方面提供了巨大的優(yōu)勢,這反過來也有有利的成本因素?!睆囊婚_始,倫理AI就是Cenkr的首要考慮因素。
“當(dāng)我們開始推出我們的AI工具試點時,我們也在內(nèi)部就創(chuàng)建與這項技術(shù)的使用相配套的倫理治理結(jié)構(gòu)進行了深入的討論,這意味著我們有真正的檢查措施,以確保我們不會違反我們的行為準(zhǔn)則。”
Cenkr補充說,這些代碼會定期更新和測試,以確保它們盡可能地健壯。
他補充稱,數(shù)據(jù)隱私是最具挑戰(zhàn)性的考慮因素?!拔覀兿蛭覀兊腁I平臺提供的任何信息和數(shù)據(jù)都必須絕對遵守GDPR規(guī)定?!庇捎贖ome Credit在多個司法管轄區(qū)運營,IT還必須確保所有這些市場的合規(guī)性,其中一些市場有不同的法律,這增加了復(fù)雜性。
Cenkr說,企業(yè)應(yīng)該“以一種反映你個人對道德的態(tài)度的方式”來發(fā)展他們的治理結(jié)構(gòu)。“我相信,如果你像在個人和日常生活中應(yīng)用的道德規(guī)范一樣用心去發(fā)展這些道德結(jié)構(gòu),這些結(jié)構(gòu)將變得更加安全。”
此外,Cenkr表示,IT應(yīng)該準(zhǔn)備好定期更新其治理政策?!癆I技術(shù)每天都在進步,要跟上它的發(fā)展步伐是一個真正的挑戰(zhàn),無論這可能有多令人興奮?!?/p>
設(shè)置護欄
聊天機器人等AI工具在UST已經(jīng)使用了幾年,但GenAI是一個全新的領(lǐng)域。這家數(shù)字轉(zhuǎn)型企業(yè)的首席戰(zhàn)略官兼CIO克里希納·普拉薩德表示,這從根本上改變了商業(yè)模式,并使倫理AI成為討論的一部分,同時也承認(rèn)“如今它更具理論性?!?/p>
普拉薩德說,在實現(xiàn)考慮中,倫理AI“并不總是出現(xiàn),但我們確實討論了…我們需要有負(fù)責(zé)任的AI和一些能力來獲得透明度,并追溯推薦是如何做出的?!?/p>
普拉薩德說,UST領(lǐng)導(dǎo)人之間的討論集中在該企業(yè)不想在AI領(lǐng)域做什么,“以及我們希望在今天理解的情況下在哪里劃定界限,我們?nèi)绾卧诓辉斐蓚Φ那闆r下忠于我們的使命?!?/p>
普拉薩德呼應(yīng)了其他人的觀點,他表示,這意味著人類必須成為等式的一部分,因為AI更深地植根于企業(yè)內(nèi)部。
UST提出的一個問題是,如果領(lǐng)導(dǎo)者在機器人監(jiān)聽的情況下就員工表現(xiàn)進行對話,這是否是保密的妥協(xié)。普拉薩德說:“類似的事情已經(jīng)開始涌現(xiàn),但在這一點上,我們可以放心地使用[微軟]Copilot作為一種總結(jié)對話的方式。”
另一個考慮因素是如何保護圍繞該企業(yè)開發(fā)的工具的知識產(chǎn)權(quán)。“基于今天軟件供應(yīng)商提供的保護,我們?nèi)匀徽J(rèn)為數(shù)據(jù)包含在我們自己的環(huán)境中,沒有證據(jù)表明數(shù)據(jù)在外部丟失,”他說。出于這個原因,普拉薩德說,他和其他領(lǐng)導(dǎo)人對繼續(xù)使用某些AI工具沒有任何顧慮,特別是因為他們看到了生產(chǎn)率的提高。
盡管普拉薩德認(rèn)為人類需要參與進來,但他也對人類的投入感到擔(dān)憂。“歸根結(jié)底,人類天生就有偏見,因為我們所接觸的環(huán)境的性質(zhì)、我們的經(jīng)歷以及它是如何形成我們的思維的?!彼忉屨f。
他還擔(dān)心,當(dāng)壞人使用客戶的數(shù)據(jù)為自己開發(fā)新模型時,他們是否會獲得某些AI工具。
普拉薩德說,隨著軟件變得更加流行,這些都是領(lǐng)導(dǎo)者必須擔(dān)心的領(lǐng)域。他表示,與此同時,CIO必須帶頭,展示AI如何被永遠利用,以及它將如何影響他們的商業(yè)模式,并將領(lǐng)導(dǎo)層聚集在一起,討論最佳前進道路。
他說:“CIO必須在推動這種對話中發(fā)揮作用,因為他們可以打破神話,也可以執(zhí)行?!彼a充說,他們還必須為那些有時變得非常困難的對話做好準(zhǔn)備。
例如,如果一個工具提供了某種功能,“我們是希望盡可能地使用它,還是應(yīng)該因為這是正確的事情而保留它,”普拉薩德說,“這是最難的對話,”但CIO們必須表明,一種工具“可能會超出你的想象”?!皩ξ襾碚f,這一部分仍然有些模糊,那么如何對模型…施加約束呢,在選擇提供使用AI的新產(chǎn)品和服務(wù)之前?!?/p>




























