← Fogalomtár
Fogalom

Red teaming (ellenséges tesztelés)

Célzott, támadójellegű tesztelés, amelynek során szakértők szándékosan keresik egy AI rendszer gyengeségeit, hibás viselkedését és biztonsági réseit — mielőtt éles használatba kerül.

Analógia

Mint a penetrációs teszt IT-biztonságban: nem várod meg, hogy a valódi támadó megtalálja a rést, hanem előbb te keresel.

Miért fontos?

A komoly AI fejlesztők és szervezetek red teaminggel keresik az előre nem látott hibamódokat. Üzleti AI projekteknél is érdemes legalább informálisan alkalmazni: ki próbáljon ki mindenféle szokatlan kérdést, mielőtt az ügyfél kezébe adják.

Kapcsolódó oldalak