Digitália

2023.10.28. 06:00

Robotok lesznek a jövő kiberbűnözői?

Sokan aggódnak amiatt, hogy a mesterséges intelligencia (MI) és a kapcsolódó technológiák felemelkedése oda vezethet, hogy hamarosan a gépek emberi segítség nélkül, önállóan tudnak majd kibertámadásokat indítani.

MW

Forrás: Shutterstock

Noha az első teljes mértékben mesterséges intelligencia által indított kibertámadásra még várni kell, az MI technológiának mindenképpen van hatása a kiberbiztonságra. A bűnözők már ma is használnak mesterséges intelligenciát például az adathalász e-mailek finomítására, testre szabására. A ChatGPT-hez hasonló szolgáltatások majdnem tökéletes képességgel rendelkeznek ahhoz, hogy az ember által írt szövegekhez hasonlókat hozzanak létre – figyelmeztet a G Data. Hogyan védekezhetünk ez ellen?

Hogy megválaszolhassuk ezt a kérdést, először meg kell határoznunk az MI és a kiberbűnözés jelenlegi kapcsolatát. Már most megfigyelhető, hogy a hackerek olyan utasításokat tudnak adni a nagy nyelvi modelleknek (large language model – LLM), amelyek lehetővé teszik, hogy jogosulatlan műveleteket hajtsanak végre. (Erről a G Data írt már bővebben.)

Ilyen jogosulatlan művelet lehet a korábbi utasítások és tartalommoderálási irányelvek figyelmen kívül hagyása, a mögöttes adatok nyilvánosságra hozatala, vagy a kimenet manipulálása olyan tartalom előállítása érdekében, amelyet a szolgáltató általában tilt.

Ezen a módon a bűnözők az ilyen közvetlen injekciós támadásokkal a diszkriminatív tartalomtól kezdve a félretájékoztatáson keresztül a rosszindulatú kódokig sok mindent generáltathatnak a mesterséges intelligenciával. Közvetlen támadás során a hacker a bemenetet módosítja úgy, hogy felülírja a rendszerkérdéseket. Közvetett támadás során a hacker viszont megmérgezi a mesterséges intelligencia adatforrását – például egy webhelyet –, hogy manipulálja, milyen adatok alapján dolgozik az MI.

Add ide kártyaszámod

Egy német kutatónak sikerült például a Bing Chat-et átalakítania hackerré, ami social engineering módszerrel személyes információkat szerez meg anélkül, hogy gyanút keltene. A felhasználónak nem kell kérdeznie az átalakított bot-tól, és nem is kell kapcsolatba lépnie vele, a csevegőrobot magától kéri el a látogató hitelkártyaadatait.

Noha mindez nem teljesen új – a banki trójaiak valami hasonlót művelnek évek óta –, a fenyegetést komolyan kell venni, mert az MI rendszereket egyre több alkalmazásba, weboldalba integrálják, a megbízható és nem megmegbízható adatforrások megkülönböztetése pedig egyelőre kevés figyelmet kap.

Közös felelősség

Az MI megoldások gyártónak mindebben hatalmas felelőssége van, és tesznek is biztonság érdekében. Azok a cégek és felhasználók viszont, akik implementálják a technológiákat, szintén felelősséggel tartoznak. Jelenleg ez abból áll, hogy felkészülnek a már ismert támadási formákra, és megpróbálják felmérni, milyen új támadási lehetőségekre – például adathalász kísérletekre – kell felkészülniük.

Azok az elvek, amelyekre a nagy nyelvi modellek és az MI megoldások épülnek, már járnak következményekkel. A mesterséges intelligencia nem magától talál fel dolgokat, hanem adatforrásokon alapszik.

Éppen ezért bölcs dolog körültekintőnek lenni azzal kapcsolatban, hogy milyen adatot kivel (vagy mivel) osztunk meg. Más szóval:

nem kell okosabbá tenni az MI-t velünk kapcsolatban, mint amilyen magától lenne.

Így például ne adjunk meg magunkról vagy a cégünkről minden adatot egy MI számára, mert nem tudhatjuk, hogy ezeket később milyen célra használhatják fel.

Körültekintőnek kell lenni, mert az MI megoldások általános felhasználási feltételeiben általában benne van, hogy a megoldás gyártója a megadott adatokat felhasználhatja az MI oktatására, fejlesztésére is – ezt pedig elég tágan is lehet értelmezni.

A munkavállalók biztonsági oktatását is érdemes kiterjeszteni erre: a munkavállalóknak tudniuk kell, hogyan használhatják felelősségteljesen az MI megoldásokat. Nekünk pedig ügyelni kell arra, hogy magunkról és családunkról milyen információkat osztunk meg a mesterséges intelligenciával.

A kiberbűnözés nem egy passzív, egyoldalú játék, ahol csak a támadónak vannak lehetőségei: a mi szerepünket is kritikusan kell vizsgálni a kockázatok csökkentése érdekében.

Hírlevél feliratkozás
Ne maradjon le a veol.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!