偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

合成身份+AI雙殺,下一個十億美元的網絡犯罪風口 原創(chuàng)

發(fā)布于 2025-7-31 10:52
瀏覽
0收藏

合成身份欺詐已不僅僅是一種新的網絡犯罪類別,它是對于數字化應用信任關系的根本性挑戰(zhàn)。本文深入剖析了合成身份的基本原理、極度危害、流水線模式、產生的信任危機、以及給犯罪供應鏈帶來的變革,也提出了利用技術和監(jiān)管與之對抗的思路和成本。

2025年已過半,在線身份欺詐的行為已經從原始的信用卡號盜用和文件偽造,演變成為更具欺騙性的方式--合成身份欺詐(Synthetic identity fraud),即:由人工智能(AI)生成的角色來盜用和冒用你的身份,模仿你的語音與表達習慣,甚至深度融入你的數字生活,創(chuàng)造出令人信服的數字分身。這些數字幽靈已經成為我們從未預料到的最大威脅之一。

數字幽靈的剖析

傳統(tǒng)的身份盜竊需要竊取的真實信息包括:社會安全號碼、信用報告、駕照照片等。而合成身份欺詐可以創(chuàng)造一些從未存在過的東西,但在每個旨在檢測欺詐的驗證系統(tǒng)中被“看起來”完全合法??梢姾铣缮矸萜墼p代表了從傳統(tǒng)機會主義犯罪到系統(tǒng)性實現的根本轉變。而且這種轉變過程簡單得令人惶恐,且越來越自動化。

具體而言,AI驅動的平臺能夠輕易生成逼真的個人資料圖片;大語言模型可以快速制作出順利通過人工審查和自動篩選系統(tǒng)的工作經歷、教育背景和個人簡歷;語音合成技術則能夠創(chuàng)建出音頻樣本,以騙過專門為防止此類攻擊而設計的生物識別驗證系統(tǒng)。

美國聯(lián)邦貿易委員會的2024年欺詐報告曾揭示了一個驚人的現實:目前,由合成身份欺詐每年造成的損失已超過 200 億美元,是增長最快的金融犯罪類別。而且該數字僅反映了直接的財務影響,尚不包括對數字系統(tǒng)信任產生的連鎖反應、在線驗證機制的破壞等。

合成身份的流水線化

目前,支持合成身份生成的基礎設施,已經發(fā)展成為一個成熟的犯罪生態(tài)系統(tǒng),其運行效率已趕超合法的軟件即服務(software-as-a-service)平臺。其中:

  • ThisPersonDoesNotExist 使用生成式對抗網絡,生成不受限的逼真人臉。
  • D-ID 創(chuàng)建合成的視頻內容,具有以假亂真的說話方式。
  • ChatGPT 和 Rezi 等專業(yè)平臺制作的詳細工作履歷,包括了特定行業(yè)的術語、合理的職業(yè)發(fā)展軌跡、以及對真實公司和教育機構的引述。
  • ElevenLabs 和 PlayHT 已經將語音克隆全民化,可以從社交媒體視頻、播客或視頻通話中輕松獲得幾分鐘的音頻,以生成不受限的合成語音,并保留說話者的口音、情緒變化和講述模式。
  • Documate 和高級 OCR 系統(tǒng)等平臺可以創(chuàng)建能順利通過人眼檢查、以及許多自動化驗證系統(tǒng)的駕照、護照、水電費賬單和就業(yè)文件。同時,綜合上述服務的完整合成身份包(即包括了生成的照片、背景故事、支持文件和語音樣本)只需 200 美元即可購買,其對應的高級套餐還能提供持續(xù)的支持和身份“維護”服務。據此,為網絡與傳統(tǒng)犯罪提供便利的暗網市場,也正在像合法的電子商務平臺一樣持續(xù)運作,甚至提供各種客戶評論、技術支持和滿意度保證??梢哉f,創(chuàng)建合成身份的商品化已將欺詐從需要技術專長的小眾,擴展到了任何具有基本電腦知識和犯罪意圖的人,都可以使用的點擊化服務。

當數字化變得極度危險時

合成身份從理論威脅到作戰(zhàn)武器化的轉變,實際上比大多數安全專業(yè)人員預期得要更快,而且現實世界的攻擊也證明了合成身份欺詐的災難性潛力。

就在今年的早些時候,一家大型科技公司發(fā)現他們最近聘請的一名軟件工程師其實并不存在。由AI生成的候選人通過了多輪面試,提交了令人信服的編程代碼樣本,并提供了完美的推薦信。這名合成員工在完全消失之前,曾被授予訪問敏感代碼庫和客戶數據的權限,并卷走了價值數百萬美元的知識產權信息。實際上,該攻擊一直無法通過傳統(tǒng)的安全監(jiān)控檢測到,而是在人力資源部試圖為沒有合法存在的人員處理稅務文件時才發(fā)現。

在另一個震驚金融業(yè)的案例中,一位“首席執(zhí)行官”參加了 Zoom 電話會議,授權進行了一筆 3500 萬美元的緊急收購。視頻通話中的“他”具有完美的口型同步、適當的照明條件,甚至是高管特有的手勢。直到真正的首席執(zhí)行官度假回來后,才發(fā)現了該未經授權的交易系欺詐行為。可見,該深度偽造(Deepfake)是如此令人信服,以至于多名董事會成員后來作證說,他們在當時的通話中并沒有產生任何懷疑。

更有甚者,語音克隆攻擊可以成功繞過主要銀行的生物識別電話驗證系統(tǒng),讓欺詐者使用合成音頻訪問賬戶、修改安全設置、并發(fā)起大額轉賬。而此類攻擊之所以有效,正是因為當前的語音身份驗證系統(tǒng)僅旨在檢測人類冒名者,并非AI生成的音頻,而后者保持了完美的聲學特性。

犯罪供應鏈的變革

現如今,合成身份欺詐已經超越了個人機會主義者的使用,發(fā)展成為了復雜犯罪組織的鏈條。其運作方式與合法企業(yè)一樣,具有專業(yè)化、質量控制和客戶服務。其中,Telegram 和 Reddit 上的地下論壇已成為“身份工具包”的市場,這些工具包不僅包括虛假角色的基本組件,還包括有效部署它們的整個運營框架。此類軟件包里往往包括有關繞過特定驗證系統(tǒng)的詳細教程、用于跨多個平臺自動創(chuàng)建帳戶的腳本,以及用于長期維護合成身份的持續(xù)技術支持。

“欺詐即服務(fraud-as-a-service)”平臺的出現代表了合成身份犯罪的產業(yè)化。這些服務使用大型語言模型來生成令人信服的客服交互,通過AI驅動的圖像識別繞過驗證碼系統(tǒng),并創(chuàng)建甚至可以蒙騙經驗豐富的欺詐調查人員的對話腳本。

作為新的供應鏈,其間包含各級專家的協(xié)作。例如:專注開發(fā)的新深度偽造技術的AI研究人員、創(chuàng)建支持文檔的平面設計師、制作可信背景故事的社會工程師、以及幫助客戶有效部署合成身份的客服代表。

合成身份訂閱服務也相繼出現了。這些服務會隨著時間的推移,持續(xù)維護已生成的虛假角色、更新社交媒體資料、生成新的支持文檔、并適應不斷變化的驗證要求。這些服務將身份欺詐視為托管服務,按月收費,提供服務級別協(xié)議(SLA),以保證正常的運行時間和有效性。

當然,在某種程度上,合成身份犯罪的專業(yè)化也創(chuàng)造了一個反饋循環(huán),推動了技術的快速進步,促進了犯罪組織在研發(fā)方面投入巨資,以對抗當前的防御措施。

API:不知情的同謀

合成身份欺詐者往往會利用系統(tǒng)在快速采用API 驅動的身份驗證過程中遺留的漏洞,制造毀滅性的攻擊。例如KYC(Know Your Customer)類API 旨在簡化合法的企業(yè)身份驗證,但它通常無法驗證視頻的活躍度,或檢測AI生成的內容。許多系統(tǒng)依賴于靜態(tài)圖像的比較算法。而這些算法可能會被高質量的深度偽造、甚至復雜的照片處理所蒙混。

同時,那些通過真實的人臉來訓練識別面部的系統(tǒng),很難識別到由AI生成的與真實人臉的差別。訓練數據集中包括了數百萬張合法照片,但是合成的人臉示例相對較少,這便造成了系統(tǒng)被利用的盲區(qū)。

此外,開放的銀行和金融科技 API 也是被利用的目標之一。它們通常僅接受 OAuth 令牌和驗證憑證,而不會對底層身份進行充分的驗證。如果一個合成身份成功地在某家金融機構創(chuàng)建了賬戶,它便可以利用該憑據去訪問相關服務,進而在互連平臺上創(chuàng)建一系列欺詐性交易。

作為另一個嚴重漏洞,客戶服務聊天機器人系統(tǒng)通常被配置為根據成功的身份驗證,提供敏感信息。但它們缺乏上下文的感知能力,無法檢測到它們從何時開始與 AI 生成的角色、而非合法客戶進行交互。因此,在將AI集成到客服中時可能會創(chuàng)造出一個特別危險的場景:該AI系統(tǒng)在與外界其他AI系統(tǒng)進行通信的過程中,并沒有人工監(jiān)督來檢測整個交互中何時發(fā)生了合成身份欺詐。

構造信任的心理學

合成身份欺詐的成功不僅依賴AI技術的高明,也在于它利用了人類的基本認知偏差,使我們容易受到AI真實性的影響。現如今,早期模仿人類的外表和聲音所帶來的“恐怖谷效應”已基本消失,取而代之的是能夠觸發(fā)我們心理共鳴的合成媒體。除了上文提到的通過合成身份實現的金融欺詐,由AI生成的角色約會詐騙,通過維持數月或數年的關系,不僅能夠從受害者那里詐騙金錢,還詐騙情感投資。這些關系通常包括:視頻通話、語音消息和廣泛的文本對話。所有這些都是由AI系統(tǒng)生成的,并且能夠隨著時間的推移,適應性地保持情感參與度。

類社會關系攻擊是另一種惡意演變。AI機器人模仿有影響力的名人,甚至家庭成員來建立信任并操縱人類行為。這些攻擊之所以有效,正是因為它們利用了人們與公眾人物或親人之間形成的情感聯(lián)系。而且,更麻煩的是,AI生成角色與目標會保持長時間的持續(xù)互動,建立信任和情感投資,進而造成重大的財務或情報利用。

同時,社會工程攻擊中合成身份的興起,也改變了傳統(tǒng)安全意識培訓的效果。當“可疑”的通信是由專門設計為顯得合法且值得信賴的AI系統(tǒng)生成時,員工已無法再依賴他們檢測“可疑”模型的能力。

硅基反擊

對于合成身份欺詐的防御主要涉及到使用AI來對抗AI,我們可以理解為攻擊者和網絡安全專業(yè)人員之間的技術軍備競賽。

  • 由 Sensity 和 Microsoft Video Authenticator 等公司開發(fā)的 Deepfake 檢測模型,代表了第一代AI驅動的合成媒體檢測。此類系統(tǒng)主要分析面部動作、照明條件、以及能夠表明人工生成的偽壓縮陰影中的細微不同。然而,隨著合成媒體生成的改進,這些工具的有效性面臨著持續(xù)的挑戰(zhàn)。深度偽造檢測的每一次進步都會讓攻擊者的迭代速度超越防御系統(tǒng)的檢測能力。
  • 數字水印和生物行為識別技術提供了更好的解決方案。TypingDNA 和 BioCatch 等公司的產品能夠分析人類打字節(jié)奏、鼠標移動、設備交互等行為模式,而AI系統(tǒng)很難令人信服地復制這些模式。
  • iProov 和 IDnow 等提供商的活體檢測系統(tǒng),可以使用實時交互請求,挑戰(zhàn)合成身份在多次驗證嘗試中保持角色一致性的能力。畢竟此類系統(tǒng)需要立即響應,避免了預先生成或編寫隨機提示的腳本。
  • 區(qū)塊鏈技術正在成為身份證明和 API 調用可追溯性的潛在解決方案。該技術通過創(chuàng)建不可變的身份驗證記錄,在多個系統(tǒng)上完成驗證,而無需依賴可能受到蒙蔽的中心化節(jié)點。
  • 基于AI的聲譽系統(tǒng)代表了另一種發(fā)展方向。它使用機器學習來分析跨多種交互和平臺的行為模式,以識別在某些領域保持了一致性,而在其他領域顯示為人工模式的合成身份。

監(jiān)管之戰(zhàn)

目前,世界各國政府都在努力制定監(jiān)管框架,以解決合成身份欺詐問題,同時又不至于扼殺合法的AI創(chuàng)新,或給企業(yè)帶來合規(guī)的負擔。顯然,挑戰(zhàn)在于如何平衡AI生成內容(例如娛樂、教育和輔助應用)的合法使用與防止犯罪利用。畢竟,過于嚴格的限制可能會損害有益的應用,而過于寬泛的限制則無法阻止犯罪組織的非法訪問與使用。目前較為典型的監(jiān)管法規(guī)有:

  • 歐盟的《人工智能法案》試圖通過披露要求和風險評估框架,來解決合成媒體的問題。不過,該執(zhí)行機制仍不夠明確,而且AI技術的發(fā)展速度已超過了監(jiān)管指南的制定速度。
  • 美國已經發(fā)布了多項解決AI安全和數字身份問題的行政命令。不過它們分散在具有不同技術專長和執(zhí)法水平的機構。
  • 而KYC (Know Your Customer) 法規(guī)、通用數據保護條例 (GDPR) 和加州消費者隱私法 (CCPA) 合規(guī)框架都已受到了合成身份擴散的挑戰(zhàn)。這些法規(guī)在設計上假設的是:身份對應于具有明確權利和責任的真實人,但是合成身份恰恰存在于當前框架難以解決的法律灰色地帶。

此外,國際合作也會帶來了額外的挑戰(zhàn)。畢竟合成身份犯罪經常會使用分布在不同法律體系中的基礎設施和服務,跨越多個司法管轄區(qū)。這些地區(qū)往往會采用不同的AI監(jiān)管和網絡犯罪執(zhí)法方法。

驗證現實的成本

合成身份的激增不僅僅是一種新的網絡犯罪類別,也標志著技術與人類身份之間關系的根本轉變,其影響遠遠超出了欺詐預防的范圍。

隨著AI系統(tǒng)在生成人類角色方面變得越來越復雜,“在線交互是基于真人相互交流”的基本假設變得越來越不可靠。社交媒體平臺、約會應用、專業(yè)社交網站,甚至家庭交流渠道都可能包含大量AI生成的參與者,這些參與者與真實用戶幾乎沒有區(qū)別。

這種數字真實性的侵蝕已經對在線服務和社會關系的信任產生了連鎖反應。當任何人都可以創(chuàng)造無限的、令人信服的角色時,管理在線行為的社會契約就會瓦解。取而代之的是持續(xù)懷疑和驗證,這使得數字交互變得越來越繁瑣、越來越缺乏人情味。與此同時,其經濟影響將不僅限于直接的欺詐損失,還會包括驗證成本、增強安全措施帶來的生產力受損、以及當信任成為稀缺品時,數字商務效率的降低。

小結

綜上所述,合成身份欺詐已不僅僅是一種新的網絡犯罪類別,它是對于數字化應用信任關系的根本性挑戰(zhàn)。在這個AI分身的時代,身份早已不再是你聲稱的那樣,而是你的系統(tǒng)可以隨著時間的推移,持續(xù)證明、驗證和維護,以抵御日益復雜的欺詐企圖的形態(tài)。數字身份的未來不在于對合成角色的完美檢測,而在于即使無法可靠地確定真實和合成之間的區(qū)別,也可以建立和維持信任的開發(fā)驗證框架。這將持續(xù)考驗我們的防御能力是否能夠發(fā)展得足夠快,以確保數字交互的持續(xù)身份驗證,以構建社會和法律層面上的信任關系。

原文標題:??Synthetic Identities and AI Doppelg?ngers: The Next Billion-Dollar Cybercrime??,作者:Igboanugo David Ugochukwu

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2025-7-31 10:53:41修改
收藏
回復
舉報
回復
相關推薦