偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

建立實施負責任的人工智能

人工智能
人工智能(AI)可以幫助企業(yè)解決復雜的業(yè)務挑戰(zhàn),并發(fā)現(xiàn)新的機遇——但企業(yè)需要能夠信任這項技術。目前,只有25%的企業(yè)擁有完全由人工智能實現(xiàn)的流程,而其中只有20%的企業(yè)的人工智能框架擁有道德規(guī)范。這會造成嚴重的商業(yè)后果。

 目前,只有25%的企業(yè)擁有完全由人工智能實現(xiàn)的流程,而其中只有20%的企業(yè)的人工智能框架擁有道德規(guī)范。這會造成嚴重的商業(yè)后果。

[[439410]]

 

在今天的商業(yè)環(huán)境中,人工智能至關重要。例如,零售商正面臨一個繁忙的假日季,而人工智能可以迅速創(chuàng)造更好的在線體驗。人工智能提高了生產(chǎn)率、產(chǎn)品質量和消費。通過將繁瑣的任務自動化,人工智能幫助企業(yè)減輕IT團隊面臨的負擔。

盡管創(chuàng)新帶來了諸多好處,但團隊在開始使用AI之前,仍需要一個負責任的AI框架和工具包。人工智能作為一項技術是中立的——它本身不具備道德或不道德。相反,人工智能可以是一種符合社會規(guī)范和標準的系統(tǒng)。評估是什么控制、需求或標準,或者應該采取什么措施來實現(xiàn)這一點是至關重要的。

評估AI對企業(yè)的影響

創(chuàng)建負責任的AI框架的一個重要部分是對其在公司內的使用進行分類。人工智能,尤其是以推薦引擎、對話機器人、客戶細分模型、定價引擎和異常檢測的形式在企業(yè)中變得無處不在。跟蹤這些AI模型以及嵌入它們的系統(tǒng)或應用程序,對于確保企業(yè)不暴露于操作、聲譽和財務風險中至關重要。

還需要知道模型將如何使用,以及它們可能會造成哪些潛在的傷害——身體、情感或經(jīng)濟上的傷害。了解這些危害和風險將有助于在構建或部署模型之前嵌入AI倫理。

理想情況下,在開始開發(fā)或部署之前,你應該了解AI將影響哪些系統(tǒng)。然而,如果你已經(jīng)有了AI,你就需要對這個知識缺口進行分類。

為了向人工智能系統(tǒng)灌輸信任,人們需要能夠深入了解底層模型,分析人工智能是如何構建的,探索用于訓練它的數(shù)據(jù),揭示每個決策背后的原因,并及時向所有利益相關者提供一致的解釋。每個AI系統(tǒng)都需要在準確性、可解釋性、公平性和安全性之間進行權衡。能夠在內部向不同的利益相關者、客戶和監(jiān)管機構證明這些權衡是獲得信任的關鍵。

對你擁有的內容進行編目,可以調整AI系統(tǒng)以減少偏見,這是通過治理過程支持的。重要的是,你的AI——像每一個員工一樣——遵守你所在組織的企業(yè)道德準則。

標準化AI開發(fā)生命周期

要有一個標準化的過程來管理你的數(shù)據(jù),建立一個人工智能模型,并將其嵌入應用系統(tǒng)。一旦AI模型被部署到生產(chǎn)系統(tǒng)中,你還需要一個標準流程來監(jiān)控它的性能,并根據(jù)需要繼續(xù)改進和再培訓它。

這一標準化過程通常涉及到根據(jù)業(yè)務需求和可用數(shù)據(jù)確定AI模型的范圍。這將導致模型的設計以及如何在更大的應用程序系統(tǒng)中使用它。這個設計階段之后是數(shù)據(jù)探索和模型構建。一旦模型經(jīng)過訓練、測試并滿足接受標準,它就可以部署了。一個人需要在一個持續(xù)的基礎上監(jiān)視模型的性能,并確保模型在必要時被重新培訓、改進或棄用。

作為AI開發(fā)生命周期的一部分,必須維護數(shù)據(jù)集和模型卡的數(shù)據(jù)表。數(shù)據(jù)表將捕獲重要的數(shù)據(jù)項和概述收集數(shù)據(jù)的動機,收集過程,推薦使用和更多內容。擁有模型卡片也是一種很好的做法。這些卡片包括AI模型的細節(jié),所選擇的算法,模型的預期用途,倫理考慮等。社會影響和風險評估也必須經(jīng)過審查。這些工具有助于形成關于是否應該采用算法的更明智的決定。

為了評估模型的部署,您需要從一致同意的成功和可接受標準開始。這些應該關注模型的性能,以及模型的可解釋性、可解釋性、公平性、安全性、控制、安全性、隱私性、健壯性和再現(xiàn)性。如果在部署過程中沒有滿足這些成功和可接受的標準,就不應該以當前狀態(tài)部署AI。一些企業(yè)仍將繼續(xù)前進,放寬門檻。然而,這只適用于特殊情況。數(shù)據(jù)科學家不應該做這個決定——它應該由企業(yè)或產(chǎn)品所有者決定。

由于人工智能系統(tǒng)學會根據(jù)培訓數(shù)據(jù)做出結論,因此在開發(fā)過程中評估應用程序的影響,有助于確定可以預防風險的改進領域。

創(chuàng)建治理流程

創(chuàng)建治理流程有助于確保團隊在部署AI系統(tǒng)之前解決與偏見和公平相關的具體問題。它使團隊能夠批判性地思考,并能夠回答有關人工智能應用程序決策的問題。

如果操作正確,成功的治理過程將提供指導和保證。它將使團隊能夠評估現(xiàn)有的系統(tǒng)是否符合他們的業(yè)務戰(zhàn)略,并鼓勵問責制和遵從性。

對于任何團隊來說,要發(fā)現(xiàn)人工智能的全部潛力,他們必須分析人工智能正在使用的系統(tǒng),評估其影響,并創(chuàng)建治理流程。在當今日益透明、快速變化和競爭激烈的市場中,實施道德和負責任的人工智能不僅是好事,而且是成功的先決條件。

 

責任編輯:華軒 來源: 今日頭條
相關推薦

2023-04-03 15:37:25

人工智能首席信息官

2023-04-10 07:03:38

人工智能商業(yè)問題技術問題

2023-09-22 14:57:56

人工智能

2022-03-15 09:31:10

元宇宙人工智能

2022-07-21 15:00:19

人工智能機器學習數(shù)據(jù)隱私

2023-07-27 06:15:07

OpenAI人工智能

2023-07-11 14:41:04

2024-10-11 09:12:15

2015-10-19 13:19:57

2015-10-26 10:26:13

2022-08-05 08:00:00

機器學習數(shù)據(jù)API

2023-10-18 13:21:24

2023-07-30 16:08:06

人工智能開發(fā)

2022-05-26 09:22:37

惡意技術負責任技術技術

2021-04-13 10:37:46

人工智能數(shù)據(jù)技術

2018-05-28 11:41:39

AR

2021-01-27 11:56:45

AIops人工智能AI

2022-07-22 18:47:30

AIOmniverse

2023-06-30 11:55:09

人工智能機器學習

2023-01-17 15:50:29

人工智能工具機器學習
點贊
收藏

51CTO技術棧公眾號