偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

如何避免被AI生成的錯誤信息欺騙

人工智能
GenAI的進步意味著虛假圖像、視頻、音頻和機器人現(xiàn)在無處不在,然而,研究已經(jīng)揭示了辨別真?zhèn)蔚淖罴逊椒ā?

GenAI的進步意味著虛假圖像、視頻、音頻和機器人現(xiàn)在無處不在,然而,研究已經(jīng)揭示了辨別真?zhèn)蔚淖罴逊椒ā?/p>

你是否注意到上面的圖像是由AI生成的?在技術(shù)進步使AI生成的圖像、視頻、音頻和文本越來越難以與人類創(chuàng)作的內(nèi)容區(qū)分開來的時候,辨別這些虛假內(nèi)容變得尤為困難,這讓我們更容易受到虛假信息的操控,然而,通過了解用于制造虛假信息的AI技術(shù)的現(xiàn)狀以及辨別你所看到的內(nèi)容可能是偽造的各種標(biāo)志,你可以幫助自己免于上當(dāng)受騙。

世界領(lǐng)導(dǎo)人對此表示擔(dān)憂。根據(jù)世界經(jīng)濟論壇的一份報告,虛假信息和錯誤信息可能會在未來兩年內(nèi)“徹底擾亂幾個經(jīng)濟體的選舉進程”,而更容易獲取的AI工具“已經(jīng)導(dǎo)致偽造信息和所謂‘合成’內(nèi)容的激增,從復(fù)雜的語音克隆到假冒網(wǎng)站”。

“虛假信息”和“錯誤信息”這兩個術(shù)語都指虛假或不準(zhǔn)確的信息,但“虛假信息”是指故意用來欺騙或誤導(dǎo)的信息。

加州大學(xué)伯克利分校的Hany Farid表示:“AI驅(qū)動的虛假信息問題在于其規(guī)模、速度和啟動的簡易性?!彼f,“這些攻擊不再需要國家資助的行為者或資金充足的組織——一個擁有適度計算能力的個體就能創(chuàng)造出大量虛假內(nèi)容?!?/p>

他指出,GenAI正在“污染整個信息生態(tài)系統(tǒng),使我們讀到、看到和聽到的一切都充滿疑慮?!彼难芯勘砻鳎谠S多情況下,AI生成的圖像和音頻“幾乎與現(xiàn)實難以區(qū)分”。

然而,F(xiàn)arid和其他研究人員的研究顯示,有一些策略可以幫助你減少被AI生成的社交媒體虛假信息或錯誤信息所欺騙的風(fēng)險。

如何識別虛假的AI圖像

還記得看到過教皇方濟各穿著羽絨夾克的照片嗎?隨著基于擴散模型的新工具的出現(xiàn),使得任何人都可以通過簡單的文本提示生成圖像,這類虛假的AI圖像變得越來越常見。Google的Nicholas Dufour及其同事的一項研究發(fā)現(xiàn),從2023年初開始,在經(jīng)過事實核查的虛假信息中,AI生成圖像的比例迅速增加。

“如今,媒體素養(yǎng)需要具備AI素養(yǎng),”伊利諾伊州西北大學(xué)的Negar Kamali表示。在2024年的一項研究中,她和她的同事們識別了AI生成圖像中五種不同類型的錯誤,并提供了如何自行識別這些錯誤的指導(dǎo)。好消息是,他們的研究表明,人們目前在識別假AI人像圖像時的準(zhǔn)確率約為70%。你可以通過他們的在線圖像測試來評估自己的偵查能力。

AI生成圖像中的五種常見錯誤類型:

? 社會文化上的不合理性:場景是否表現(xiàn)出某些文化或歷史人物中罕見、不尋?;蛄钊梭@訝的行為?

? 解剖學(xué)上的不合理性:仔細觀察,身體部位如手的形狀或大小是否異常?眼睛或嘴巴是否看起來很奇怪?是否有身體部位融合在一起?

? 風(fēng)格化痕跡:圖像看起來是否不自然,幾乎過于完美或過于風(fēng)格化?背景是否看起來很奇怪,或者缺少什么?光照是否不正?;蜃兓欢?

? 功能上的不合理性:是否有任何物體看起來很怪異,或者可能不真實或無法正常工作?例如,按鈕或皮帶扣是否處于奇怪的位置?

? 物理學(xué)上的違背:陰影的方向是否不一致?鏡子的反射是否與圖像中的世界一致?

如何識別視頻中的深度偽造

自2014年以來,生成對抗網(wǎng)絡(luò)(GAN)這項AI技術(shù)已經(jīng)使技術(shù)嫻熟的個人能夠創(chuàng)建視頻深度偽造,通過數(shù)字操控現(xiàn)有的人物視頻,替換臉部、生成新的面部表情,并插入與唇語同步的新音頻,這使得越來越多的騙子、國家支持的黑客和互聯(lián)網(wǎng)用戶能夠制作視頻深度偽造,其中包括名人如Taylor Swift以及普通人可能會在未經(jīng)同意的情況下出現(xiàn)在深度偽造的色情視頻、騙局和政治虛假信息中。

識別AI假圖像的技巧同樣適用于可疑視頻。此外,麻省理工學(xué)院和伊利諾伊州西北大學(xué)的研究人員匯總了一些識別深度偽造的技巧,但他們也承認(rèn),沒有一種方法是完全可靠的。

識別AI生成視頻的六個技巧:

? 嘴巴和唇部動作:視頻和音頻是否有不完全同步的時刻?

? 解剖學(xué)上的故障:臉部或身體是否看起來奇怪,或移動不自然?

? 面部:尋找面部光滑度或額頭和臉頰皺紋的異常,以及面部痣的不一致性。

? 光照:光照是否不一致?陰影是否如預(yù)期般表現(xiàn)?特別注意一個人的眼睛、眉毛和眼鏡。

? 頭發(fā):面部毛發(fā)是否看起來很奇怪,或者移動方式不自然?

? 眨眼:過多或過少的眨眼可能是深度偽造的標(biāo)志。

一種更新的深度偽造視頻類別基于擴散模型——這也是許多圖像生成器背后的AI技術(shù)——可以根據(jù)文本提示生成完全由AI生成的視頻片段。公司已經(jīng)在測試并發(fā)布商業(yè)版的AI視頻生成器,這些生成器使任何人無需特殊技術(shù)知識就能輕松實現(xiàn)。目前,生成的視頻通常呈現(xiàn)出扭曲的臉部或奇怪的身體動作。

“這些AI生成的視頻可能比圖像更容易被人們察覺,因為它們包含大量的動作,AI生成的偽影和不合理之處也更容易被發(fā)現(xiàn),”Kamali說。

如何識別AI機器人

由計算機機器人控制的社交媒體賬號在許多社交媒體和消息平臺上變得越來越普遍。自2022年以來,越來越多的這些機器人利用GenAI技術(shù),如大型語言模型。這些技術(shù)使得通過成千上萬個機器人輕松且低成本地生成語法正確且根據(jù)不同情況定制的AI撰寫內(nèi)容變得可能。

“為特定受眾定制這些大型語言模型以傳遞特定信息已經(jīng)變得容易得多,”印第安納州圣母大學(xué)的Paul Brenner表示。

Brenner和他的同事在研究中發(fā)現(xiàn),即使參與者被告知他們可能正在與機器人互動,他們?nèi)匀恢荒茉诖蠹s42%的情況下區(qū)分AI驅(qū)動的機器人和人類。你可以在這里測試自己的機器人識別技能。

Brenner表示,一些策略可以幫助識別技術(shù)水平較低的AI機器人。

判斷社交媒體賬號是否為AI機器人的五種方法:

? 表情符號和標(biāo)簽:過度使用這些元素可能是一個信號。

? 不常見的措辭、詞匯選擇或比喻:不尋常的措辭可能表明是AI機器人。

? 重復(fù)性和結(jié)構(gòu):機器人可能會使用重復(fù)的措辭,遵循類似或僵硬的形式,并可能過度使用某些俚語。

? 提問:提問可以揭示機器人對某個話題缺乏知識,特別是涉及本地地點和情況時。

? 假設(shè)最壞情況:如果某個社交媒體賬號不是個人聯(lián)系人,且其身份沒有被明確驗證或認(rèn)證,那么很可能是AI機器人。

如何檢測語音克隆和語音深度偽造

語音克隆AI工具使得生成可以模仿幾乎任何人的新語音音頻變得容易。這導(dǎo)致了語音深度偽造騙局的興起,這些騙局克隆了家庭成員、公司高管和政治領(lǐng)導(dǎo)人(如美國總統(tǒng)Joe Biden)的聲音。與AI生成的視頻或圖像相比,這些語音深度偽造更難識別。

“語音克隆特別難以區(qū)分真假,因為沒有視覺組件來幫助我們的大腦做出判斷,”白帽黑客組織SocialProof Security的聯(lián)合創(chuàng)始人Rachel Tobac說道。

識別這些AI生成的音頻深度偽造尤其困難,特別是在視頻和電話通話中使用時。但你可以采取一些常識性的步驟來區(qū)分真人與AI生成的聲音。

識別音頻是否被AI克隆或偽造的四個步驟:

? 公眾人物:如果音頻片段涉及一位民選官員或名人,檢查他們所說的內(nèi)容是否與已公開報道或分享的他們的觀點和行為一致。

? 尋找不一致性:將音頻片段與之前經(jīng)過驗證的視頻或音頻片段進行比較,看看他們的聲音或說話方式是否有任何不一致之處。

? 尷尬的停頓:如果你在聽電話或語音信箱時,發(fā)現(xiàn)說話者在講話時有異常長的停頓,可能是在使用AI驅(qū)動的語音克隆技術(shù)。

? 奇怪且啰嗦:任何機械化的語音模式或異常冗長的說話方式都可能表明有人在使用語音克隆技術(shù)來模仿某人的聲音,并使用大型語言模型來生成精確的措辭。

技術(shù)只會越來越先進

目前,還沒有一致的規(guī)則可以始終區(qū)分AI生成的內(nèi)容與真實人類內(nèi)容。能夠生成文本、圖像、視頻和音頻的AI模型幾乎肯定會繼續(xù)改進,它們通常可以快速生成看似真實的內(nèi)容,而沒有明顯的偽影或錯誤。Rachel Tobac表示:“保持適度的懷疑意識,并意識到AI正在快速地操控和偽造圖片、視頻和音頻——我們說的是在30秒或更短時間內(nèi)完成?!边@使得那些想要欺騙他人的惡意人士能夠快速生成AI生成的虛假信息,并在新聞爆發(fā)后幾分鐘內(nèi)就發(fā)布到社交媒體上。

盡管培養(yǎng)識別AI生成虛假信息的眼光并學(xué)會對你所讀、所見、所聽的內(nèi)容提出更多問題是重要的,但這最終還不足以阻止傷害,識別虛假的責(zé)任也不能完全落在個人身上。Farid和其他研究人員認(rèn)為,政府監(jiān)管機構(gòu)必須追究那些開發(fā)出大量充斥互聯(lián)網(wǎng)的虛假AI生成內(nèi)容工具的大型科技公司和由知名硅谷投資者支持的初創(chuàng)公司的責(zé)任。Farid表示:“技術(shù)不是中立的??萍夹袠I(yè)向我們兜售的這一觀點,即他們不需要承擔(dān)像其他行業(yè)那樣的責(zé)任,我完全不接受?!?/p>

責(zé)任編輯:龐桂玉 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2011-02-21 13:41:20

Postfix問題錯誤

2024-04-29 14:45:20

ChatGPT

2025-01-15 12:02:18

2010-03-10 14:34:52

Python異常處理

2023-08-27 08:57:31

2009-04-20 09:09:46

PHP錯誤信息錯誤代碼

2023-10-27 11:27:28

2023-11-27 00:39:46

2012-12-27 15:36:19

Android開發(fā)錯誤處理

2025-05-23 09:20:16

2010-08-16 17:44:07

DB2數(shù)據(jù)庫錯誤信息

2021-10-25 09:33:52

Facebook 開發(fā)技術(shù)

2011-12-21 13:25:01

WCF

2022-06-19 14:09:04

開源AdobeCAI

2020-12-07 16:56:35

Rails

2023-08-30 19:10:17

2022-04-30 18:38:28

NushellShellLinux

2010-08-09 15:31:03

2019-04-12 09:28:46

2021-06-28 13:34:06

大數(shù)據(jù)大數(shù)據(jù)監(jiān)管數(shù)據(jù)安全
點贊
收藏

51CTO技術(shù)棧公眾號