ChatGPT概念火到安全圈,大模型在垂直領域的應用實踐戰(zhàn)已經(jīng)打響。
繼各互聯(lián)網(wǎng)大廠相繼披露GPT研發(fā)進程后,網(wǎng)絡安全廠商也蠢蠢欲動,并在第一時間試驗了OpenAI的ChatGPT到底實力如何以及值不值得應用和投入。如其轟動世界的效果一樣,作為通用大模型,OpenAI的ChatGPT同樣讓網(wǎng)絡安全從業(yè)者眼前一亮,并開始尋找GPT與網(wǎng)絡安全實際業(yè)務之間的場景融合點。
【資料圖】
可識別釣魚郵件,也能生成誘餌
完全可以識別釣魚郵件,并利用其語言理解能力,分析和識別文本中的潛在釣魚攻擊特征,從而幫助識別和預防釣魚攻擊——這是網(wǎng)絡安全從業(yè)者在試用ChatGPT后的主要發(fā)現(xiàn)之一。
但硬幣的另一面,ChatGPT也可以根據(jù)人工提示生成非常逼真的誘餌素材,并使受害者相信他們正在與真實的人交談。這使得社交工程攻擊變得更加容易,攻擊者可以通過 GPT 輕松地模擬受害者的社交網(wǎng)絡上的朋友或家人。
所以,GPT與網(wǎng)絡安全最直接的關系其實是跟隨GPT對數(shù)據(jù)安全帶來的潛在機遇與挑戰(zhàn)而產(chǎn)生的。多位業(yè)內人士的一個共同判斷是,依托于GPT的自動化攻擊手段被黑客很快采用是既定事實,如果不能以同樣的方式快速應對攻擊手段的變化,企業(yè)、甚至是國家關鍵信息基礎設施都可能時刻受到來自網(wǎng)絡的安全威脅。
“現(xiàn)在,迫切需要我們在網(wǎng)絡安全領域具備能打硬仗的能力?!币晃痪W(wǎng)絡安全領域的創(chuàng)始人兼CEO表示?!?strong>安全就是攻防對抗,這類技術的出現(xiàn),有點像火器的出現(xiàn)。兩軍對陣,本來拿著大刀長矛的,當火器技術出現(xiàn)了,它會重塑人類的戰(zhàn)爭、行為方式。”另一位大廠安全業(yè)務負責人也說。
出于或許相同的初衷,鈦媒體App不完全統(tǒng)計發(fā)現(xiàn),當前,已經(jīng)有不少于7家網(wǎng)絡安全的公司披露了將GPT應用在網(wǎng)絡安全領域的進展,包括微軟的Microsoft Security Copilot、360集團的360智腦、綠盟科技的智能安全客服機器人、啟明星辰的盤小古以及四維創(chuàng)智的ChatCS等等。
網(wǎng)絡安全領域類ChatGPT應用
從各家披露的GPT落地方向來看,大部分都是面向安全事件響應、漏洞挖掘、風險研判等場景。不過,在與業(yè)內人士交流的過程中,鈦媒體App發(fā)現(xiàn),雖然落地場景有重合,但從實現(xiàn)的技術路徑上,各家表現(xiàn)出了些許差異。
技術路線各有不同
拆解技術路線,其實還要從ChatGPT說起。
OpenAI的ChatGPT以及隨后迭代出的GPT4.0,包括當前百度推出的文心一言等都屬于通用大模型,都沒有明顯的行業(yè)屬性,在一般場景下都能應對自如,比如客服、文生圖等等。但遇到特別垂類且對答案容錯率較低的行業(yè)來說,由于缺乏專業(yè)知識,這類通用大模型會表現(xiàn)出可預見的劣勢。
所以當網(wǎng)絡安全行業(yè)在使用GPT的時候,并不能像其他行業(yè)一樣直接接入已經(jīng)訓練好的GPT4.0,而是需要重新構建一個用網(wǎng)絡安全領域的專業(yè)知識訓練出的大模型,然后再將其應用到實踐中。
不過,在與業(yè)內人士交流的過程中,鈦媒體App發(fā)現(xiàn),同樣是訓練網(wǎng)絡安全領域的大模型,各家所選擇的技術路線也有所差異:他們有的是先有安全知識圖譜,然后在類ChatGPT的大模型基礎上加工;有的是沒有類ChatGPT的大模型,而是直接用安全知識圖譜訓練成一個大模型;也有的可能并沒有強調知識圖譜,而是用所有數(shù)據(jù)直接訓練。
“過往實踐過程中,我們積累了大量數(shù)據(jù),這些數(shù)據(jù)可能包含了安全日志、系統(tǒng)日志,威脅情報生產(chǎn)和分析過程數(shù)據(jù),開源情報和安全技術報告、APT報告等等,這些數(shù)據(jù)通過AI智能化,形成一系列實戰(zhàn)化攻防模型以及安全知識圖譜。”綠盟科技CTO葉曉虎表示。
在有了實戰(zhàn)化攻防模型以及安全知識圖譜后,綠盟科技利用類ChatGPT的大語言模型對這些知識做進一步加工,形成安全專業(yè)領域里面的類GPT的應用,即今年三季度即將發(fā)布的網(wǎng)絡安全領域知識問答系統(tǒng)。
“我們所有下游任務都只基于ChatCS這一個大模型。在訓練和應用ChatCS之前,我們先花費精力做網(wǎng)絡安全領域的通用知識圖譜,然后利用知識圖譜的異構數(shù)據(jù)歸一化能力生成數(shù)據(jù)集再去訓練網(wǎng)絡安全領域的大模型?!彼木S創(chuàng)智人工智能項目負責人表示。
他解釋稱,他們所推出的ChatCS,是一個使用RLHF技術微調并利用知識圖譜進行領域知識約束的垂直領域大語言模型。思路是首先構建以“漏洞概念”為核心的網(wǎng)絡安全領域知識圖譜—Vuln_Sprocket,再將圖譜生成先驗知識集訓練模型,后續(xù),ChatCS能夠背景知識對用戶原始指令進行優(yōu)化。在最新的測試版本中,ChatCS_test 盡管只具備82億參數(shù),但已經(jīng)可以很好的完成領域知識問答、測試腳本生成、告警日志分析等操作。
目前,其余幾家網(wǎng)絡安全廠商還未完全披露訓練GPT的路徑細節(jié),但據(jù)業(yè)內人士分析,360集團的網(wǎng)絡安全GPT應該是以通用大模型為底座,然后加入網(wǎng)絡安全相關數(shù)據(jù)調優(yōu)的路徑,與綠盟科技和四維創(chuàng)智都有很大不同。
不過殊途同歸。綠盟科技CTO葉曉虎稱,智能安全客服機器人達到的效果是,應用可以在安全事件應急響應處置、海量日志分析研判、安全智能推理和決策、安全領域的代碼編寫等方面發(fā)揮積極作用。其余廠商的GPT實踐也與此多有重合。
又是一場長跑
值得注意的是,自ChatGPT爆火以來,也才100余天的時間。短短三四個月,網(wǎng)絡安全廠商們能夠快速上馬ChatGPT與其背后已經(jīng)積累的相關數(shù)據(jù)集有很大關系。但需要思考的一個問題是,既然網(wǎng)絡安全行業(yè)迫切需要也能夠有自己的大模型,為什么當OpenAI火了之后,網(wǎng)絡安全圈才關注到大模型即將帶來的變革?
原因可能在于,對于大模型來說,技術可能并不是根本問題。問題一方面在高質量的安全數(shù)據(jù)語料,而另一方面則是保持對人工智能信仰以及持續(xù)訓練大模型的心態(tài)和思維。
“之前只是小規(guī)模嘗試過網(wǎng)絡安全AI自動化的事情,一兩次不達預期就沒有再嘗試。但ChatGPT用事實告訴我們這條路行得通,大家才敢放手投入。”一位網(wǎng)絡安全創(chuàng)業(yè)者表示。
除了試錯成功,大模型出現(xiàn)告訴網(wǎng)絡安全屆的另一個信號是,大模型確實有可能導致對抗方式底層邏輯的變化?!叭绻ㄓ么竽P湍軌虬阎悄芡评砗椭悄軟Q策應用這條路走通的話,實際上可以讓對抗方式從過去的經(jīng)驗式變成范式化工作,之前經(jīng)驗存在于人腦,沒辦法復用,但如果走通這方面會有很多變化?!比~曉虎說。
很顯然,OpenAI的ChatGPT僅僅只是個開始,無數(shù)的試錯在等待蜂擁而上的中國創(chuàng)業(yè)者。這又是一場長跑。(本文首發(fā)鈦媒體APP 作者 |秦聰慧)?
關鍵詞: