ChatGPT放大物聯(lián)網、邊緣安全威脅
ChatGPT可以是一個有用的客戶服務代理。不幸的是,客戶并不是它唯一能幫助的人,尤其是現在ChatGPT在許多物聯(lián)網和邊緣設備上。

物聯(lián)網(IoT)和邊緣計算多年來一直困擾著企業(yè)的安全工作。鑒于在家工作和混合工作安排的復雜性增加,情況最近大大惡化?,F在,ChatGPT出現在大多數物聯(lián)網和邊緣設備之上,有效地添加了援助之手,以威脅無處不在的參與者。
現有的漏洞,特別是在針對邊緣設備和用戶的人工智能和ChatGPT支持或輔助攻擊的背景下,可以通過不同的方式利用來攻擊企業(yè)。
盡管漏洞存在差異且利用漏洞的努力也多種多樣,但來自邊緣的威脅源自兩個物聯(lián)網領域之一:家庭物聯(lián)網和企業(yè)物聯(lián)網。
在許多情況下,員工家庭網絡及其中的數據是威脅行為者的首選目標。
一旦進入家庭網絡,攻擊者就可以重新進入企業(yè)網絡,從而可能通過“受保護的用戶或家庭網絡”泄露敏感的商業(yè)信息。
但這并不是說企業(yè)物聯(lián)網和邊緣設備會受到更直接的入侵。
例如,勒索軟件威脅行為者可以利用物聯(lián)網漏洞作為開展惡意活動的起點,可能對業(yè)務運營造成重大損害和中斷。
企業(yè)物聯(lián)網中不斷變化的威脅形勢
物聯(lián)網和邊緣計算在家庭和企業(yè)領域的使用率都在上升。雖然物聯(lián)網是一個高度分散的市場,但即使是少數類別的觀點也強調了全面持續(xù)且不受限制的增長。Gartner預計,到2022年,企業(yè)領域和關鍵行業(yè)的物聯(lián)網支出將超過2680億美元。Deloitte預計,今年全球與物聯(lián)網相關的軟件和硬件支出將增至1.1萬億美元。
但這些挑戰(zhàn)不僅僅與購買和部署的物聯(lián)網和邊緣設備數量不斷增加有關。物聯(lián)網類型的日益多樣化也引發(fā)了問題。
邊緣和物聯(lián)網設備的多樣性,從交換機、路由器、傳感器到銷售點系統(tǒng)、工業(yè)機器人和自動化設備,也由于協(xié)議、功能和安全能力的變化而增加了額外的復雜性和安全漏洞。
如果認為供應商和買家在保護這些設備方面已經做得很好了,那么再想想。僵尸網絡大軍和DDoS攻擊經常來自未受保護的物聯(lián)網設備,這些設備看似無害,如酒店大堂水族箱恒溫器、家用智能冰箱和企業(yè)休息室的咖啡壺。
物聯(lián)網設備,尤其是邊緣設備,是組織中最容易受到攻擊的。
家庭和工作的危險之處
物聯(lián)網和邊緣計算在其他地方也會產生漏洞。例如,不斷擴大的邊緣計算空間給企業(yè)帶來了復雜的安全問題——尤其是在企業(yè)和消費者使用之間的邊界。
現代圖像存檔系統(tǒng),稱為PACS,將超聲波或CT掃描儀等掃描儀與患者管理系統(tǒng)連接起來。目前,PACS服務器越來越多地連接到公共互聯(lián)網,以便患者和醫(yī)生可以訪問數據。通常,這些IT基礎設施甚至連基本的預防措施都沒有到位,并不堅強。
企業(yè)與消費者物聯(lián)網和網絡之間日益緊密的聯(lián)系模糊了界限,并明確定義了攻擊者的機會。
危險和損害也是雙向的。
目前,僅在美國,就有大約200個此類未受保護的檔案(PACS服務器)連接到公共互聯(lián)網。攻擊者可以利用這些漏洞,泄露或加密數據來勒索組織,利用這些數據對患者進行醫(yī)療保險欺詐,或者更改醫(yī)療圖像,從而破壞流程本身。
但對企業(yè)而言,消費者和職業(yè)關系之間的十字路口并不是唯一的碰撞點。這些東西本身有交叉用途,會被破壞。例如,自動駕駛汽車既有商業(yè)版本,也有消費者版本。無論車輛是商業(yè)車隊、出租或租用車輛,還是不情愿地再次回到辦公室工作的員工所擁有的車輛,攻擊都很容易傳播到企業(yè)和用戶。
然后,家庭物聯(lián)網正在穩(wěn)步推進,從攝像頭到智能電表到兒童玩具。
另一個令人擔憂的問題是,遠程員工使用的人工智能增強家用設備存在漏洞。例如,會計人員最后一次更新其家庭路由器或家庭網絡連接的存儲服務器是什么時候,這些服務器是其在遠程工作時用于備份企業(yè)工作的。這個問題進一步加劇了企業(yè)面臨的挑戰(zhàn),因為這增加了知識產權被盜的風險。
ChatGPT和人工智能如何使物聯(lián)網漏洞變得更嚴重
ChatGPT及其同類產品正在迅速集成或嵌入到各種類型的商業(yè)和消費者物聯(lián)網中。許多人認為人工智能模型是迄今為止最復雜的安全威脅。但大多數想象都是虛構的。
現在,如果真正的人工智能出現,那么它是否離人類很遠,這令人十分擔憂。不過,在短期內開發(fā)出真正的通用人工智能的可能性仍然非常低。
但對于最近引起轟動的人工智能ChatGPT,那就是另一種恐慌了。
ChatGPT對物聯(lián)網構成了內部威脅,類似于流氓或‘無所不知的員工’所構成的威脅。一些消費者物聯(lián)網漏洞會帶來與微控制器或微處理器相同的風險。
從本質上講,ChatGPT的潛在威脅源于其經過訓練,變得有幫助和有用。然而,這樣一個樂觀的首要指令可能非常有害。即使當一個提示撞到其安全護欄時,另一個精心設計的提示也可以騙過它,使其執(zhí)行護欄旨在防止的事情。
這種類型的攻擊稱為提示注入,因為提示用于使模型忽略先前的指令或執(zhí)行意外的操作。提示注入可以直接在ChatGPT中使用,也可以在基于ChatGPT或其他大型語言AI模型構建的應用中使用。換句話說,這種類型的攻擊可以注入位于物聯(lián)網和邊緣設備之上的ChatGPT。
此外,邊緣設備中的人工智能和ChatGPT等新興技術正在引入新的漏洞,企業(yè)需要注意這些漏洞。例如,人工智能算法可以被操縱來生成虛假數據,從而導致錯誤的決策和行動。ChatGPT還可以通過冒充受信任的個人或實體來進行社會工程攻擊。
有時,可以使用一個提示來讓ChatGPT和類似的基于LLM的聊天機器人顯示用于指導其響應的后臺或專有信息,這些信息從未被企業(yè)以外的任何人訪問過。
當機密數據或源代碼在ChatGPT等工具中共享時,就會為合規(guī)義務帶來挑戰(zhàn),并使知識產權面臨風險。
雖然不斷演變的威脅像野火一樣增長和蔓延,但并非所有威脅都消失了。
任何新技術都會帶來風險,但這并不意味著風險都是全新的。事實上,企業(yè)可能會發(fā)現其已經擁有許多人員、流程和技術來減輕ChatGPT等工具的風險。






















