人工智能(AI)預(yù)測(cè)犯罪的倫理與法理危機(jī)
想象一下,你走在街上,突然一輛警車停在身邊,幾個(gè)警察跳下來(lái),抓住你的胳膊,說(shuō)你被捕了。你驚恐地問(wèn)為什么,他們說(shuō):根據(jù)AI預(yù)測(cè)犯罪系統(tǒng)的結(jié)論,你將在未來(lái)的某個(gè)時(shí)間犯罪。你無(wú)法相信這是真的,你從來(lái)沒(méi)有想過(guò)要犯罪。雖然你進(jìn)行了辯解,但他們?yōu)榱朔乐鼓銓?shí)施犯罪,只能把你關(guān)起來(lái)。

像不像是一部科幻電影的情節(jié)?但它也許會(huì)成為現(xiàn)實(shí)。
近日,有報(bào)道稱:美國(guó)在公共安全的AI方面的支出預(yù)計(jì)將從 2022 年的 93 億美元增加到 2030 年的 710 億美元。用于預(yù)防犯罪、自然災(zāi)害等方面。
AI預(yù)測(cè)犯罪是指利用大數(shù)據(jù)算法分析過(guò)去的犯罪模式、風(fēng)險(xiǎn)因素等數(shù)據(jù),預(yù)測(cè)未來(lái)可能發(fā)生的犯罪事件和人員。其目的想要提高犯罪防控的效率和效果。
然而,這也會(huì)引發(fā)了一系列的爭(zhēng)議,因?yàn)樗鼤?huì)侵犯人們的基本權(quán)利,加劇社會(huì)不平等,損害法治原則。
首先,AI預(yù)測(cè)犯罪可能會(huì)侵犯?jìng)€(gè)人意志和隱私。根據(jù)一些歷史數(shù)據(jù)、算法來(lái)判斷人們是否有犯罪傾向,從而進(jìn)一步去影響他的生活和權(quán)利。比如,如果A被預(yù)測(cè)為有可能犯罪,那么是否應(yīng)該對(duì)他進(jìn)行監(jiān)視和限制行動(dòng)?A如何證明自己的清白?A是否有權(quán)知道自己被預(yù)測(cè)的理由和依據(jù)?這些問(wèn)題技術(shù)無(wú)法給出答案,反而會(huì)造成心理恐懼。
其次,AI預(yù)測(cè)犯罪可能會(huì)加劇社會(huì)不公、歧視。歷史數(shù)據(jù)會(huì)傾向于將某些地區(qū)、或少數(shù)人群視為高風(fēng)險(xiǎn),而有可能導(dǎo)致過(guò)度執(zhí)法。比如,某一個(gè)地區(qū)的歷史犯罪率較高,那么它是否就應(yīng)該加強(qiáng)監(jiān)控、分配更多的警力?這是否對(duì)該地區(qū)居民造成困擾?會(huì)不會(huì)讓一些人感到被優(yōu)待和特權(quán),而讓另一些人感到被壓迫和邊緣化。
第三,AI預(yù)測(cè)犯罪對(duì)現(xiàn)代的法理有挑戰(zhàn),可能損害法治和正義?,F(xiàn)代法律以證據(jù)為基礎(chǔ),只憑借歷史數(shù)據(jù)推測(cè),在沒(méi)有證據(jù)來(lái)證明的情況下將一些無(wú)辜的人視為嫌疑人或受害人,影響他們的生活和權(quán)利??赡軙?huì)導(dǎo)致一些冤假錯(cuò)案的發(fā)生。
AI預(yù)測(cè)犯罪可能是一種潛在風(fēng)險(xiǎn)很大的應(yīng)用研究,即便有更多的監(jiān)督和規(guī)范,也較難確保其符合社會(huì)倫理和價(jià)值。也許應(yīng)該更多地關(guān)注犯罪的根本原因,如貧困、教育、社會(huì)服務(wù)等,而不是僅僅依賴于技術(shù)的解決方案。


























