← Modulok
Expert szintBiztonság & Korlátok

Az AI nem tévedhetetlen

Az AI rendkívül hasznos eszköz, de nem csodafegyver. Ismerd meg a korlátait, a biztonsági kockázatokat és a védekezési stratégiákat — mert aki érti a gyengeségeket, az tudja igazán kihasználni az erősségeket.

Miért kell ezt tudni?

Az AI-rendszerek erőssége és gyengesége ugyanabból a forrásból fakad: valószínűségi alapon dolgoznak, nem determinisztikusan. Ez azt jelenti, hogy a modell nem „tud" vagy „nem tud" valamit — inkább pontosabban vagy pontatlanul generál, a kontextus, az input minősége és a tanítási adatok függvényében. Aki ezt nem érti, az hajlamos túlbízni az outputban, vagy épp az ellenkezőjére: teljesen elutasítani a használatot.

Korlátok ismerete

Tudod, mikor kell ellenőrizni az outputot.

Biztonsági kockázatok

Felismered, mikor kerülhet veszélybe adat vagy folyamat.

Védekezési stratégia

Van módszered a kockázatok csökkentésére.

Az AI 8 fő korlátja

Ezeket a korlátokat nem azért mutatjuk be, hogy elriasszunk az AI használatától — hanem azért, hogy tudatosan használd. Aki ismeri a korlátokat, az nem esik csapdába.

OWASP LLM Top 5 biztonsági kockázat

Az OWASP 2025-ben publikálta az LLM alkalmazások Top 10 biztonsági kockázatát. Íme az 5 legfontosabb:

Gyakorolj: Lakera Gandalf

A Lakera AI egy svájci AI biztonsági cég, amely a Gandalf nevű interaktív játékot fejlesztette – ahol a felhasználó megpróbálja prompt injection-nel kicsalni a jelszót az AI-ból. 7 szint, egyre nehezebb védelem.

A Gandalf a legjobb módja a prompt injection megértésének és gyakorlásának. Nem elmélet – valódi AI ellen próbálkozol, és megtanulod, hogyan gondolkodik egy támadó. Ez kritikus tudás, ha AI rendszereket építesz vagy használsz.

Próbáld ki most

Hány szintet tudsz teljesíteni? A legtöbb ember a 3–4. szintnél elakad.

Gyors biztonsági checklist

🔐

Opt-out a training-ből

Claude: Settings → Privacy. ChatGPT: Settings → Data Controls. Gemini: Activity → Turn off.

🚫

Ne írj be érzékeny adatokat

Jelszavak, API kulcsok, személyes azonosítók, ügyféladatok – soha ne kerüljenek AI chatbe.

Ellenőrizd a tényeket

Minden AI-generált tényt, számot, hivatkozást ellenőrizz. Használj Perplexity-t cross-check-re.

⚠️

Kínai modellek: óvatosan

DeepSeek, Kling, Kuaishou – kínai szervereken futnak. GDPR szempontból kockázatos, érzékeny adatokhoz ne használd.

🔑

API > Chat érzékeny munkához

Az API-n küldött adatokat a legtöbb szolgáltató NEM használja training-re. Vállalati használathoz: API vagy Enterprise tier.

🔄

Több modell = jobb eredmény

Fontos döntéseknél kérdezz meg 2-3 modellt és hasonlítsd össze a válaszokat. Ha eltérnek, kutass tovább.