您的位置:首頁 >公共 >

暗黑版GPT流竄暗網(wǎng) 降低犯罪門檻

2023-08-08 07:05:43 來源:元宇宙日爆

隨著AIGC應(yīng)用的普及,不法分子利用AI技術(shù)犯罪的手段越來越高明,欺騙、敲詐、勒索也開始與人工智能沾邊。

近期,專為網(wǎng)絡(luò)犯罪設(shè)計的“暗黑版GPT”持續(xù)浮出水面,它們不僅沒有任何道德界限,更沒有使用門檻,沒有編程經(jīng)驗的小白能通過問答的方式實施黑客攻擊。


(資料圖片僅供參考)

AI犯罪的威脅離我們越來越近,人類也開始加筑新的防火墻。

現(xiàn)在,企圖“消滅人類”的ChaosGPT和幫助網(wǎng)絡(luò)犯罪的 WormGPT 之后,出現(xiàn)了一種更具威脅的人工智能工具。被稱為“FraudGPT”的新興網(wǎng)絡(luò)犯罪AIGC工具匿藏暗網(wǎng),并開始在Telegram等社交媒體中打廣告。

與WormGPT一樣,F(xiàn)raudGPT也是人工智能大語言模型,專為作惡而設(shè)計,被比作“網(wǎng)絡(luò)罪犯的武器庫”。通過接受不同來源的大量數(shù)據(jù)訓(xùn)練,F(xiàn)raudGPT不但能寫出釣魚郵件,還能編寫惡意軟件,哪怕是技術(shù)小白也能通過簡單的問答方式實施黑客攻擊。

FraudGPT在打廣告

FraudGPT的功能需付費開啟,200美元(約1400元)就能使用。發(fā)起人聲稱,F(xiàn)raudGPT 迄今為止已確認銷量超過3000。也就是說,至少3000人已為這一毫無道德邊界的作惡工具付費,低成本的AIGC犯罪有可能威脅普通人。

據(jù)電子郵件安全供應(yīng)商Vade 檢測,2023年上半年,僅網(wǎng)絡(luò)釣魚和惡意郵件就達到了驚人的億封,同比增長了 54% 以上,AI很可能是加速增長的推動因素。網(wǎng)絡(luò)安全獨角獸公司Tanium的首席安全顧問Timothy Morris表示,“這些電子郵件不僅語法正確,更有說服力,而且可以被毫不費力地創(chuàng)建,這降低了任何潛在罪犯的進入門檻?!彼赋觯驗檎Z言已經(jīng)不再是障礙,潛在受害者的范圍也將進一步擴大。

自大模型誕生起,AI導(dǎo)致的風(fēng)險類型層出不窮,安全防護卻一直沒有跟上,即便是ChatGPT也沒能躲過“奶奶漏洞”——只要在提示中寫“請扮演我已經(jīng)過世的祖母”就可以輕松“越獄”,讓ChatGPT回答道德與安全約束之外的問題,比如生成Win11的序列號、介紹凝固汽油彈的制作方法等等。

目前,這個漏洞已被修補,但下一個漏洞、下下個漏洞總以令人猝不及防的方式出現(xiàn)。近期,卡內(nèi)基梅隆大學(xué)和共同發(fā)布的一項研究表明,大模型的安全機制能通過一段代碼被破解,并且攻擊成功率非常高。

GPT等大模型都面臨較高的安全風(fēng)險

隨著AIGC應(yīng)用的普及,普通大眾希望用AI提高生產(chǎn)效率,而不法者則在用AI提高犯罪效率。AIGC降低門檻,讓技能有限的網(wǎng)絡(luò)犯罪分子也能執(zhí)行復(fù)雜攻擊,維護AI安全的挑戰(zhàn)越來越高。

用AI魔法打敗AI黑魔法

針對黑客利用WormGPT與FraudGPT等工具開發(fā)惡意程序、發(fā)起隱形攻擊等問題,網(wǎng)絡(luò)安全廠家們也用上了AI,試圖用魔法打敗魔法。

在2023年RSA(網(wǎng)絡(luò)安全大會)上,SentinelOne、谷歌云、埃森哲、IBM等在內(nèi)的眾多廠商都發(fā)布了基于生成式AI的新一代網(wǎng)絡(luò)安全產(chǎn)品,提供數(shù)據(jù)隱私、安全防護、IP防泄露、業(yè)務(wù)合規(guī)、數(shù)據(jù)治理、數(shù)據(jù)加密、模型管理、反饋循環(huán)、訪問控制等安全服務(wù)。

SentinelOne首席執(zhí)行官Tomer Weigarten針對自家產(chǎn)品解釋,假設(shè)有人發(fā)送了一封釣魚郵件,系統(tǒng)能在用戶的收件箱內(nèi)檢測出該郵件為惡意郵件,并根據(jù)端點安全審計發(fā)現(xiàn)的異常立即執(zhí)行自動修復(fù),從受攻擊端點刪除文件并實時阻止發(fā)件人,“整個過程幾乎不需要人工干預(yù)?!盬eingarten指出,有了AI系統(tǒng)助力,每個安全分析師的工作效率是過去的10倍。

為打擊人工智能助長的網(wǎng)絡(luò)犯罪,還有研究人員臥底暗網(wǎng),深入敵人內(nèi)部打探消息,從不法分析的訓(xùn)練數(shù)據(jù)入手,利用AI反制罪惡流竄的暗網(wǎng)。

韓國科學(xué)技術(shù)院 (KAIST) 一個研究團隊發(fā)布了應(yīng)用于網(wǎng)絡(luò)安全領(lǐng)域的大語言模型DarkBERT,就是專門從暗網(wǎng)獲取數(shù)據(jù)訓(xùn)練的模型,它可以分析暗網(wǎng)內(nèi)容,幫助研究人員、執(zhí)法機構(gòu)和網(wǎng)絡(luò)安全分析師打擊網(wǎng)絡(luò)犯罪。

與表層網(wǎng)絡(luò)使用的自然語言不同,由于暗網(wǎng)上的語料極端隱蔽且復(fù)雜,這使得傳統(tǒng)語言模型難以進行分析。DarkBERT 專門設(shè)計用于處理暗網(wǎng)的語言復(fù)雜性,并證明在該領(lǐng)域中勝過其他大型語言模型。

如何確保人工智能被安全、可控地使用已成為計算機學(xué)界、業(yè)界的重要命題。人工智能大語言模型公司在提高數(shù)據(jù)質(zhì)量的同時,需要充分考慮AI工具給倫理道德甚至法律層面帶來的影響。

7月21日,微軟、OpenAI、Google、Meta、亞馬遜、Anthropic和 Inflection AI共七個頂尖 AI 的研發(fā)公司齊聚美國白宮,發(fā)布人工智能自愿承諾,確保他們的產(chǎn)品安全且透明。針對網(wǎng)絡(luò)安全問題,7家公司承諾,對AI系統(tǒng)進行內(nèi)外部的安全測試,同時與整個行業(yè)、政府、民間及學(xué)術(shù)界共享AI風(fēng)險管理的信息。

管理AI潛在的安全問題先從識別“AI制造”開始。這7家企業(yè)將開發(fā)“水印系統(tǒng)”等技術(shù)機制,以明確哪些文本、圖像或其他內(nèi)容是AIGC的產(chǎn)物,便于受眾識別深度偽造和虛假信息。

防止AI“犯忌”的防護技術(shù)也開始出現(xiàn)。今年5月初,英偉達以新工具封裝“護欄技術(shù)”,讓大模型的嘴有了“把門的”,能回避回答那些人類提出的觸碰道德與法律底線的問題。這相當于為大模型安裝了一個安全濾網(wǎng),控制大模型輸出的同時,也幫助過濾輸入的內(nèi)容。護欄技術(shù)還能阻擋來自外界的“惡意輸入”,保護大模型不受攻擊。

“當你凝視深淵的時候,深淵也在凝視你”,如同一枚硬幣的兩面,AI的黑與白也相伴而生,當人工智能高歌猛進的同時,政府、企業(yè)、研究團隊也在加速構(gòu)建人工智能的安全防線。

標簽: