AI語音劫持:你能多相信你的耳朵?
你有多確定自己能識別出AI克隆的聲音?如果你認(rèn)為自己完全有把握,那你可能錯了。
為何其威脅日益加劇
只需三秒鐘的音頻,犯罪分子現(xiàn)在就能克隆某人的聲音,而這些音頻很容易從網(wǎng)上或社交媒體上分享的視頻中獲取。
一位美國母親差點成為虛擬綁架騙局的受害者,騙子用克隆的聲音逼真地模仿了她女兒的求救聲,這一案例顯示了犯罪分子為達目的不擇手段的殘忍程度。
AI語音劫持騙局常針對老年人,冒充其家人或信任的人,但現(xiàn)在,這些騙局也開始對企業(yè)構(gòu)成威脅。
“AI驅(qū)動的語音騙局利用企業(yè)的安全漏洞,如安全協(xié)議薄弱、缺乏認(rèn)證方法以及員工培訓(xùn)不足。”Visa北美區(qū)高級副總裁兼首席風(fēng)險官Mike Lemberger表示。
AI語音劫持的財務(wù)影響
如果一名能接觸公司財務(wù)的員工接到一個自認(rèn)為是CEO打來的電話,尤其是當(dāng)這些騙局利用制造緊迫感和需要迅速行動的心理時,該員工可能會上當(dāng)受騙。
一旦成功,這種攻擊可能導(dǎo)致重大財務(wù)損失,并失去客戶、投資者和合作伙伴的信任,這可能會對企業(yè)的長期發(fā)展造成損害。德勤金融服務(wù)中心預(yù)測,到2027年,GenAI可能導(dǎo)致美國的欺詐損失達到400億美元。
意大利警方最近凍結(jié)了與一起利用AI生成語音進行深度偽造的騙局相關(guān)的近100萬歐元。騙子冒充意大利國防部長,向該國頂級大亨索要錢財,以解救被綁架的記者。
AI進展超越語音生物識別技術(shù)
盡管方便,但隨著AI的進步,語音生物識別技術(shù)作為公司和行業(yè)驗證用戶的方法已顯得力不從心,尤其是在金融領(lǐng)域。雖然這些行業(yè)依賴這項技術(shù)來驗證客戶,尤其是在呼叫中心,但這也使它們更加脆弱。
為了保持領(lǐng)先,企業(yè)必須在語音認(rèn)證的基礎(chǔ)上集成多因素認(rèn)證(MFA)和AI驅(qū)動的欺詐檢測,如果沒有這些額外的保護層,僅憑語音生物識別技術(shù)將無法抵御GenAI的崛起。
“由于AI能夠模仿人類,我們將看到比以往更逼真、更危險的釣魚郵件。如果你將其與能夠創(chuàng)建深度偽造音頻和視頻的多模態(tài)AI模型相結(jié)合,我們可能需要對與他人的每一次虛擬互動都進行兩步驗證?!盨ecurityPal的CEO Pukar Hamal指出。
如何防范AI語音劫持
升級語音認(rèn)證:基本的語音系統(tǒng)容易被AI欺騙,因為它們往往只依賴單一的語音特征,使用能夠檢查個人語音多個方面的技術(shù),如音調(diào)和節(jié)奏,這些系統(tǒng)更難被欺騙。
添加行為生物識別:將語音識別與行為分析相結(jié)合,觀察如停頓、語調(diào)變化和壓力等語音模式,這些細微的線索AI很難模仿,因此更容易識別出虛假或篡改過的聲音。
教育員工:培訓(xùn)員工,特別是像高管這樣的關(guān)鍵決策者,讓他們能夠識別AI驅(qū)動的社會工程策略。確保他們了解騙子可以利用AI復(fù)制聲音并操縱他們采取行動。鼓勵他們對任何不尋常的請求,特別是涉及金錢或敏感信息的請求,保持質(zhì)疑態(tài)度。
限制在網(wǎng)上分享的個人信息:如果可能的話,限制在網(wǎng)上分享的個人信息,包括語音錄音。犯罪分子可以利用這些信息克隆聲音并實施有針對性的騙局。