Segíthet-e a mesterséges intelligencia(AI) a kiberbűnözőknek rosszindulatú kódokat, vagy sokkal meggyőzőbb adathalász emaileket írni? Ezt vizsgálta legújabb kutatásában a Sophos kiberbiztonsági cég.

A kutatók szerint amióta az OpenAI novemberben bemutatta a ChatGPT-t, a biztonsággal foglalkozók nagyrészt azokra a lehetséges kockázatokra összpontosítanak, amelyeket ez az új technológia jelenthet.
A szakértők nem zárják ki ezt az eshetőséget sem, de a Sophosnál úgy látják, hogy a mesterséges intelligencia inkább a védekező oldal szövetségese, nem pedig az ellensége. A GPT-3 (a ChatGPT keretrendszer mögött álló nyelvi modell) sem különbözik ettől.
A Sophos X-Ops kutatói az alábbi három prototípus projekten dolgoztak, amelyek a GPT-3-ban rejlő kiberbiztonsági lehetőségeket mutatják meg. Mindhárom a „few-shot learning” nevű technikát alkalmazza az AI-modell betanítására, amely csak néhány adatmintát használ, csökkentve ezzel a nagy mennyiségű előzetesen szétválogatott adat gyűjtésének szükségességét.
A három prototípus projekt
Az első alkalmazás egy jó módszer arra, hogy a védekezők egyszerű angol nyelven dolgozhassák fel a biztonsági projektek által gyűjtött telemetria adatokat. A Sophos által tesztelt applikáció néhány lépéses tanulási módszerrel, természetes nyelvű lekérdezési felület volt a biztonsági szoftverek telemetriájában előforduló káros célú tevékenységek kiszűrésére.
A cég a saját végpont észlelő és válaszadó termékével tesztelte a modellt. Ezzel a felülettel a védekezők alapvető angol nyelvű parancsokkal szűrhetik a telemetriát, így nincs szükség arra, hogy értsenek az SQL adatbázis lekérdező nyelvhez vagy ismerjék az adatbázis mögöttes szerkezetét.
Második projektjében a Sophos egy új, ChatGPT-t használó levélszemét-szűrőt tesztelt, és arra az eredményre jutott, hogy a GPT-3-at használó filter más gépi tanulási modellekkel összehasonlítva lényegesen pontosabb volt.
Végül a cég kutatói létre tudtak hozni egy programot, amely leegyszerűsíti a LOLbin fájlok parancssorai visszafejtésének a folyamatát. Az ilyen típusú visszafejtés a szakemberek szerint hihetetlenül nehéz, ugyanakkor kritikus fontosságú a LOLbinek tevékenységeinek megértéséhez, és az ilyen támadások megállításához, a jövőben.
Úgy látják egyre nő az aggodalom a biztonsági műveleti központokba beérkező ‘zaj’ puszta mennyisége miatt. Túl sok értesítést és észlelést kell feldolgozni, sok vállalat pedig korlátozott erőforrásokkal küzd.
A tesztekkel bebizonyították, hogy a GPT-3-hoz hasonló eszközökkel leegyszerűsíthetők bizonyos munkaigényes folyamatok, és értékes időt kaphatnak vissza a védekezők. Már dolgoznak azon, hogy a fenti prototípusok egy részét beépítsék a termékeikbe, az eredményeit pedig elérhetővé tették a GitHub felületén azok számára, akik érdeklődnek a GPT-3 tesztelése iránt. Úgy gondolják, hogy a jövőben a GPT-3 a biztonsági szakértők segédjévé válhat.