Hogyan működik?
Az LLM nem „ért”, csak következtet
A nagy nyelvi modellek nem tényeket tároló adatbázisok és nem rendelkeznek emberi értelemben vett megértéssel. Működésük alapja a valószínűség: a korábbi tokenek alapján megjósolják a statisztikailag leginkább odaillő folytatást. Ez egyszerre adja az erejüket és a hibáik forrását.
Nem „érti”
Nincs tudat, szándék vagy stabil világmodell.
Token-alapú
Valószínűséget számol, nem igazságot keres.
Ebből jön minden
Stílus, összegzés, de hallucináció is.
A nagy illúzió
A folyékony válasz nem azonos a megértéssel.
Amikor a ChatGPT-vel beszélgetsz, az emberi agy ösztönösen azt feltételezi, hogy a gép „érti”, amit kérdezel tőle. Ez a legnagyobb és legveszélyesebb illúzió az AI-használatban.
Az LLM nem digitális orákulum és nem keres „betonbiztos igazságot”. Valójában egy extrém fejlett autocomplete: a kérdésed alapján kiszámolja a legvalószínűbb következő tokent, majd az azt követőt, és így tovább.
Ezért zseniális
- Nyelvi mintázatokból kiválóan ír, összefoglal és formáz.
- Stílust utánoz, vázlatból strukturált anyagot készít.
- Gyorsan szintetizál sok forrásból.
Ezért veszélyes
- Valószínűséget keres, nem igazságot.
- Magabiztos hallucinációt tud generálni.
- Logikai láncban tévedhet, ha a prompt rossz.
Az LLM működésének fizikája
Egyszerű mechanika, gyakorlati következményekkel.
Tokenizáció
A modell nem szavakat lát, hanem tokeneket: apró szövegrészeket, amelyekre bontja a bemenetet.
Következmény: a tokenek száma határozza meg a költséget és a kontextus méretét.
Embedding
Minden token számsorrá alakul, amely a „jelentés” helyét jelöli egy többdimenziós térben.
Következmény: a hasonló fogalmak közel kerülnek egymáshoz, ezért működik a hasonlat és átfogalmazás.
Attention / Transformer
A modell a teljes szöveg fontos részeire „figyel”, és súlyozza, mi mihez kapcsolódik.
Következmény: jól kezeli a kontextust, de a túl hosszú input szétszórja a figyelmet.
Token prediction
Valószínűségi eloszlásból kiválasztja a következő tokent, és ismétli a folyamatot.
Konklúzió: a modell következtet, nem bizonyít — ezért erős és ezért tévedhet.
Magyar felár / tokenek
Miért drágább és szűkebb magyarul – és mit tehetsz ellene?
A tokenizáció nyelvenként drasztikusan eltér. Mivel a modelleket túlnyomórészt angol szövegeken tanították, az angol szavakat gyakran egyetlen tokenként kezelik. A magyar nyelv agglutináló, ezért egyetlen szó akár 6–8 tokenre is széteshet.
Gyakorlati következmény
- Magyarul drágább lehet az API-használat.
- Gyorsabban fogy el a kontextusablak.
- Hosszú magyar anyagoknál nő az információvesztés esélye.
Token kalkulátor
0
Karakter
0
Szó
~0
Token (becslés)
$0.000000
Becsült költség
Claude Sonnet
⚠️ Ez egy becslés (1 token ≈ 3.5 karakter magyar szövegnél). A pontos tokenszám modellenként eltér.
Kontextusablak – a rövidtávú memória
Nem megértés, hanem munkamemória.
A context window a modell rövidtávú memóriája: prompt, feltöltött fájlok, korábbi válaszok — amit az adott pillanatban egyben átlát. Ha túlléped, elkezdi „elfelejteni” a beszélgetés elejét.
A nagyobb kontextus nem egyenlő garantált megértéssel.
Lost in the Middle
A modellek jobban emlékeznek a kontextus elejére és végére, mint a közepére. A hosszú promptoknál a sorrend teljesítménykérdés.
Tipikus hiba
- Előre leírod a feladatot és kritériumokat.
- Utána beömlesztesz hosszú nyers szöveget.
- A modell a végére fókuszál, és elveszti az eleji instrukciókat.
Jobb megoldás
Kontextus-összehasonlítás (irányadó)
| Modell | Kontextus | Legjobb |
|---|---|---|
| GPT-5.4 | 200 000 | Általános célú frontier, erős kódolás, agentic workflow |
| GPT-5.4-pro | 200 000 | Nehéz elemzés, max reasoning, bonyolult döntéstámogatás |
| Claude Opus 4.6 | 1 000 000 | Mély elemzés, nagy kódbázisok, hosszú agentic feladatok |
| Claude Sonnet 4.6 | 1 000 000 | Legjobb ár–minőség arány, napi tudásmunka, kódolás |
| Gemini 3.1 Pro | 1 000 000 | Multimodális elemzés, hosszú dok., Google-ökoszisztéma |
| Grok 4.20 Beta | 2 000 000 | Nagy kontextus, tool-using workflow-k, multi-agent kutatás |
| DeepSeek-R1 | 128 000 | Olcsó reasoning, kód, matematika, nyílt stack |
| Mistral Large 3 | 256 000 | Open-weight enterprise, multimodális, európai stack |
| Llama 4 Scout | 10 000 000 | Kísérleti, lokális futtatás, nyílt ökoszisztéma |
Miért hallucinál az AI?
Nem bug, hanem a token-predikció következménye.
A hallucináció nem szándékos megtévesztés. A modell nyelvi valószínűséget generál, nem tényeket ellenőriz — így képes meggyőző, de hibás választ adni.
Faktuális
Kitalált adatok, cikkek, hivatkozások, amelyek „jól hangzanak”.
Példa
Kitalált GDP-adat vagy nem létező URL.
Védekezés: forrásalapú mód, dokumentum, „csak a feltöltött alapján”.
Kontextuális
Hosszú promptban összekeveri a szálakat és szereplőket.
Példa
Három meetingből rossz feladat–felelős párosítás.
Védekezés: szeparált input, külön feldolgozás, majd szintézis.
Logikai / számolási
Nyelvi motor, nem számológép: lépésekben tévedhet.
Példa
Hibás pénzügyi vagy százalékos számítás.
Védekezés: lépésenkénti levezetés + eszköz (pl. Python).
Mit jelent mindez a gyakorlatban?
Hat ökölszabály, hogy az LLM valóban jól dolgozzon.
Ne bízz vakon a tényekben.
A task menjen a végére.
Tagolj vizuálisan.
Darabold a komplexitást.
Védekezz a magyar felár ellen.
Logikai feladatnál kényszerítsd lépésről lépésre.
Következő lépés
Most már jöhet a gyakorlati irányítás.
Most már érthető: az LLM nem mindentudó adatbázis, hanem statisztikai valószínűségi motor. A következő lépés nem több elmélet, hanem a gyakorlati irányítás — hogyan promptolj úgy, hogy a modell a lehető legjobban teljesítsen.