負責任的AI采用:IT共生的藍圖
隨著AI工具的合法化并進入工作場所,人們自然會質(zhì)疑它們的用例以及依賴它們的倫理影響。這些日益增長的擔憂已經(jīng)滲透到教育和新聞等領(lǐng)域。盡管如此,很難忽視這些進步的好處和前景,以及它們?nèi)绾伟踩睾喕顒硬⒕徑馊菀鬃詣踊膲毫υ础?/p>
科技領(lǐng)袖關(guān)于在哪里以及如何測試潛在用途的最終呼吁,將改變常規(guī)功能和細粒度的細節(jié)。進化速度將是決定AI最終全球影響的關(guān)鍵。這就提出了一個關(guān)鍵問題:日常工作人員可能會如何看待他們的日常工作方式的改變?
AI在IT領(lǐng)域的角色
特別是在IT行業(yè),像ChatGPT這樣的平臺有可能顯著減少員工的手動負擔,并通過其計算能力的絕對效率來簡化流程。僅此一點就意味著AI在IT部門有一席之地,但敏銳的實施態(tài)度是確保長期利益的最佳方式。
最近我們處理日常生活的方式發(fā)生了戲劇性的變化,如混合工作、增加的安全威脅和電子商務(wù)熱潮,這些都要求數(shù)字基礎(chǔ)設(shè)施密不透風,錯誤比以往任何時候都更威脅到企業(yè)的生存能力。盡管擔心經(jīng)濟衰退,Gartner最近預測2023年全球IT支出將增長5.5%,這表明人們普遍認識到,無論經(jīng)濟狀況如何,IT都是企業(yè)必須投資的基本要素之一。
當一個部門開始吸收越來越多的企業(yè)預算份額時,在保持高客戶體驗水平的同時實現(xiàn)最高效率變得至關(guān)重要,這正是AI對IT領(lǐng)導者如此有吸引力的原因。雖然員工可能更有能力完成這些工具將侵占的手動功能,但他們無法像計算機那樣完成這些任務(wù)(而且很可能不會錯過執(zhí)行這些任務(wù))。
IBM的一份報告發(fā)現(xiàn),大約一半的受訪企業(yè)認為將AI集成到他們的IT流程中是積極的,54%的企業(yè)表示節(jié)省了成本,53%的企業(yè)看到了網(wǎng)絡(luò)性能的改善,48%的企業(yè)夸口說客戶體驗更好。
關(guān)于加強供應(yīng)鏈,聯(lián)邦快遞正在使用AI和ML來提高客戶對市場變化的連鎖反應(yīng)的可見性。與此同時,像O9 Solutions這樣面向企業(yè)的公司吸引了私人投資者的注意,他們迷戀于AI預測需求和預測變化趨勢的潛力,從而產(chǎn)生更高效的物流運營。
不管這種看似無限的潛力,IT員工應(yīng)該放心,他們工作中的人的因素仍然對他們企業(yè)的生存至關(guān)重要。與負責任的方法相結(jié)合,AI可以為IT部門和其他部門的決策增加更多不同的視角。它促進了高層戰(zhàn)略的更具協(xié)作性的方法,并委派行政工作,這些工作無疑很重要,但對促進更多初級員工的向上流動可能沒有那么大的作用。
尋找與人類員工的和諧
就像以前的計算創(chuàng)新一樣,AI的發(fā)展是為了增加人類的工作量并提高其上限。將其視為技術(shù)共生,雙方的作用相輔相成,產(chǎn)生更大的整體,同時對對方負有義務(wù)。
這意味著更加強調(diào)人類單獨可以執(zhí)行的功能--盡管AI有時似乎模糊了這些界限。IT員工有責任完成無法自動完成的深入個人化的任務(wù),如實施基礎(chǔ)設(shè)施、彌合與同事和客戶之間的理解差距、與利益相關(guān)者和一線員工會面以了解他們的痛點和要求,并著眼于長遠,使企業(yè)免受新出現(xiàn)的威脅并避免過時。
另一方面,AI工具預計將吸收更多人工功能,如基礎(chǔ)設(shè)施維護、識別和應(yīng)對安全威脅,以及員工賬戶設(shè)置和入職。像這樣的角色是自動化的天然候選者,AI的巨大潛力可以追溯到它快速識別模式和違規(guī)的能力。
《紐約時報》最近的一篇報道以AT&T為例,開發(fā)人員和客服代表發(fā)現(xiàn),該公司專有的AI助手讓他們的任務(wù)變得更容易、更高效。自動化可以保持事情順利運行,并為人類工人提供緩解,同時允許他們有效地解決問題。
采取適當?shù)陌踩胧?/h4>
當然,人類員工和他們的工具也對彼此負有責任?,F(xiàn)實情況是,像ChatGPT這樣的工具仍處于初級階段,考慮到減速帶是必要的預防措施。審查自動化流程并測試他們可能遺漏或忽略的內(nèi)容將需要成為一種持續(xù)的做法,使員工能夠了解內(nèi)部職能是如何完成的,以及哪些潛在的弱點可以被利用。
另一方面,AI也可以成為防止人為錯誤的類似屏障,作為IT部門在不確定下一步潛在行動時可以參考的中立方。錯誤仍有可能發(fā)生。盡管如此,我們的目標應(yīng)該總是將它們降至最低,人類和AI職能的重疊將減少事情通過縫隙的可能性,同時允許企業(yè)透明地告知客戶何時與AI互動。
這些制衡機制可能會通過員工-平臺合作闡明倫理問題,從而加速AI的倫理業(yè)務(wù)采用。工作人員將有責任從他們的AI工具中識別不適當?shù)男袨榛蚰J?,反之亦然。從本質(zhì)上講,每一層都是對企業(yè)的數(shù)字基礎(chǔ)設(shè)施的另一層保護。
確保認真使用
歸根結(jié)底,負責任的使用取決于鼓勵人與他們所使用的工具之間的互動。曝光帶來的是熟悉,迅速采取行動,用自動化取代工作,或者相反,完全禁止AI可能會導致錯失機會和不必要的頭痛。
摩根大通已經(jīng)限制員工使用ChatGPT,而意大利則完全禁止,但從長遠來看,這些措施可能被證明有點過于草率。隨著越來越多的公司制造AI引擎或?qū)⑵渑c產(chǎn)品和服務(wù)集成,越來越明顯的是,這些工具不會消失。不過,如果做得負責任,它將逐漸滲透到日常生活中。
隨著世界拭目以待,看看圍繞AI的政府監(jiān)管和合規(guī)法律會發(fā)生什么,企業(yè)應(yīng)該熟悉AI責任的含義——以及它如何通過生活體驗補充人類的生活體驗。一下子這么做可能會讓決策者不知所措,讓他們面臨突然的改革,增加了一些風險,這些風險是通過更快地確定AI在特定企業(yè)和部門內(nèi)如何以及在哪里有意義而不存在的。
應(yīng)該向科技員工和決策者明確的是,AI的進步不一定是恐慌的原因,但可以起到相反的作用。像互聯(lián)網(wǎng)這樣的創(chuàng)新的連鎖反應(yīng)在它的初級階段是不明顯的。盡管如此,事后看來,非常明顯的是,如果使用得當,它已經(jīng)改變了企業(yè)的經(jīng)營方式。AI同樣具有無限的潛力,先行者可以在負責任的、漸進的采用中找到機會,使人類的決策保持在中心位置。