← Fogalomtár
Fogalom
Red teaming (ellenséges tesztelés)
Célzott, támadójellegű tesztelés, amelynek során szakértők szándékosan keresik egy AI rendszer gyengeségeit, hibás viselkedését és biztonsági réseit — mielőtt éles használatba kerül.
Analógia
Mint a penetrációs teszt IT-biztonságban: nem várod meg, hogy a valódi támadó megtalálja a rést, hanem előbb te keresel.
Miért fontos?
A komoly AI fejlesztők és szervezetek red teaminggel keresik az előre nem látott hibamódokat. Üzleti AI projekteknél is érdemes legalább informálisan alkalmazni: ki próbáljon ki mindenféle szokatlan kérdést, mielőtt az ügyfél kezébe adják.