-
Mindössze 250 mérgezett dokumentum elegendő lehet nagy nyelvi modellek megfertőzéséhez
Az utóbbi években a nagy nyelvi modellek (Large Language Models, LLM-ek) egyre szélesebb körben terjednek, és egyre több területen használják őket, az automatizált szövegalkotástól a komplex problémamegoldásig. Ugyanakkor ezek a modellek sebezhetővé váltak a „mérgező” vagy manipulált tanítóanyagokkal szemben, amelyek komoly biztonsági kockázatokat rejthetnek. Egy friss, az Egyesült Királyság AI Security Institute, az Alan Turing Institute és az Anthropic kutatócsoportjainak közös tanulmánya rávilágított arra, hogy meglepően kevés, mindössze 250 rosszindulatú dokumentum is képes „hátsóajtó” sebezhetőséget létrehozni bármilyen méretű nagy nyelvi modellben. Az eddigi feltételezésekkel ellentétben tehát nem a tanítóadat aránya, hanem a fertőzött dokumentumok abszolút száma számít igazán, ami jelentősen megkönnyítheti a támadók dolgát. Mi az a hátsóajtó támadás és…