Hogyan működik?

Az LLM nem „ért”, csak következtet

A nagy nyelvi modellek nem tényeket tároló adatbázisok és nem rendelkeznek emberi értelemben vett megértéssel. Működésük alapja a valószínűség: a korábbi tokenek alapján megjósolják a statisztikailag leginkább odaillő folytatást. Ez egyszerre adja az erejüket és a hibáik forrását.

Nem „érti”

Nincs tudat, szándék vagy stabil világmodell.

Token-alapú

Valószínűséget számol, nem igazságot keres.

Ebből jön minden

Stílus, összegzés, de hallucináció is.

A nagy illúzió

A folyékony válasz nem azonos a megértéssel.

Amikor a ChatGPT-vel beszélgetsz, az emberi agy ösztönösen azt feltételezi, hogy a gép „érti”, amit kérdezel tőle. Ez a legnagyobb és legveszélyesebb illúzió az AI-használatban.

Az LLM nem digitális orákulum és nem keres „betonbiztos igazságot”. Valójában egy extrém fejlett autocomplete: a kérdésed alapján kiszámolja a legvalószínűbb következő tokent, majd az azt követőt, és így tovább.

Ezért zseniális

  • Nyelvi mintázatokból kiválóan ír, összefoglal és formáz.
  • Stílust utánoz, vázlatból strukturált anyagot készít.
  • Gyorsan szintetizál sok forrásból.

Ezért veszélyes

  • Valószínűséget keres, nem igazságot.
  • Magabiztos hallucinációt tud generálni.
  • Logikai láncban tévedhet, ha a prompt rossz.

Az LLM működésének fizikája

Egyszerű mechanika, gyakorlati következményekkel.

1

Tokenizáció

A modell nem szavakat lát, hanem tokeneket: apró szövegrészeket, amelyekre bontja a bemenetet.

Következmény: a tokenek száma határozza meg a költséget és a kontextus méretét.

2

Embedding

Minden token számsorrá alakul, amely a „jelentés” helyét jelöli egy többdimenziós térben.

Következmény: a hasonló fogalmak közel kerülnek egymáshoz, ezért működik a hasonlat és átfogalmazás.

3

Attention / Transformer

A modell a teljes szöveg fontos részeire „figyel”, és súlyozza, mi mihez kapcsolódik.

Következmény: jól kezeli a kontextust, de a túl hosszú input szétszórja a figyelmet.

4

Token prediction

Valószínűségi eloszlásból kiválasztja a következő tokent, és ismétli a folyamatot.

Konklúzió: a modell következtet, nem bizonyít — ezért erős és ezért tévedhet.

Magyar felár / tokenek

Miért drágább és szűkebb magyarul – és mit tehetsz ellene?

A tokenizáció nyelvenként drasztikusan eltér. Mivel a modelleket túlnyomórészt angol szövegeken tanították, az angol szavakat gyakran egyetlen tokenként kezelik. A magyar nyelv agglutináló, ezért egyetlen szó akár 6–8 tokenre is széteshet.

Gyakorlati következmény

  • Magyarul drágább lehet az API-használat.
  • Gyorsabban fogy el a kontextusablak.
  • Hosszú magyar anyagoknál nő az információvesztés esélye.
⚠️Védekezés: Ne kérj mély logikai elemzést hosszú magyar PDF-ekből. Kérd meg a modellt, hogy az elemzést angolul végezze el, majd a végső konklúziót fordítsa vissza magyarra.

Token kalkulátor

0

Karakter

0

Szó

~0

Token (becslés)

$0.000000

Becsült költség

Claude Sonnet

⚠️ Ez egy becslés (1 token ≈ 3.5 karakter magyar szövegnél). A pontos tokenszám modellenként eltér.

Kontextusablak – a rövidtávú memória

Nem megértés, hanem munkamemória.

A context window a modell rövidtávú memóriája: prompt, feltöltött fájlok, korábbi válaszok — amit az adott pillanatban egyben átlát. Ha túlléped, elkezdi „elfelejteni” a beszélgetés elejét.

A nagyobb kontextus nem egyenlő garantált megértéssel.

Lost in the Middle

A modellek jobban emlékeznek a kontextus elejére és végére, mint a közepére. A hosszú promptoknál a sorrend teljesítménykérdés.

Tipikus hiba

  • Előre leírod a feladatot és kritériumokat.
  • Utána beömlesztesz hosszú nyers szöveget.
  • A modell a végére fókuszál, és elveszti az eleji instrukciókat.

Jobb megoldás

1. háttéradat / kontextus
2. elemzési logika
3. a végén: konkrét task + korlátozások

Kontextus-összehasonlítás (irányadó)

ModellKontextusLegjobb
GPT-5.4200 000Általános célú frontier, erős kódolás, agentic workflow
GPT-5.4-pro200 000Nehéz elemzés, max reasoning, bonyolult döntéstámogatás
Claude Opus 4.61 000 000Mély elemzés, nagy kódbázisok, hosszú agentic feladatok
Claude Sonnet 4.61 000 000Legjobb ár–minőség arány, napi tudásmunka, kódolás
Gemini 3.1 Pro1 000 000Multimodális elemzés, hosszú dok., Google-ökoszisztéma
Grok 4.20 Beta2 000 000Nagy kontextus, tool-using workflow-k, multi-agent kutatás
DeepSeek-R1128 000Olcsó reasoning, kód, matematika, nyílt stack
Mistral Large 3256 000Open-weight enterprise, multimodális, európai stack
Llama 4 Scout10 000 000Kísérleti, lokális futtatás, nyílt ökoszisztéma

Miért hallucinál az AI?

Nem bug, hanem a token-predikció következménye.

A hallucináció nem szándékos megtévesztés. A modell nyelvi valószínűséget generál, nem tényeket ellenőriz — így képes meggyőző, de hibás választ adni.

Faktuális

Kitalált adatok, cikkek, hivatkozások, amelyek „jól hangzanak”.

Példa

Kitalált GDP-adat vagy nem létező URL.

Védekezés: forrásalapú mód, dokumentum, „csak a feltöltött alapján”.

Kontextuális

Hosszú promptban összekeveri a szálakat és szereplőket.

Példa

Három meetingből rossz feladat–felelős párosítás.

Védekezés: szeparált input, külön feldolgozás, majd szintézis.

Logikai / számolási

Nyelvi motor, nem számológép: lépésekben tévedhet.

Példa

Hibás pénzügyi vagy százalékos számítás.

Védekezés: lépésenkénti levezetés + eszköz (pl. Python).

Mit jelent mindez a gyakorlatban?

Hat ökölszabály, hogy az LLM valóban jól dolgozzon.

Szabály 1

Ne bízz vakon a tényekben.

Szabály 2

A task menjen a végére.

Szabály 3

Tagolj vizuálisan.

Szabály 4

Darabold a komplexitást.

Szabály 5

Védekezz a magyar felár ellen.

Szabály 6

Logikai feladatnál kényszerítsd lépésről lépésre.

Következő lépés

Most már jöhet a gyakorlati irányítás.

Most már érthető: az LLM nem mindentudó adatbázis, hanem statisztikai valószínűségi motor. A következő lépés nem több elmélet, hanem a gyakorlati irányítás — hogyan promptolj úgy, hogy a modell a lehető legjobban teljesítsen.

Kapcsolódó: Konnektorok és MCP