← Szakmai modulok
📚 Fejlesztő modulSzakértő~45 perc

RAG és tudásbázis-építés

Ez a modul azoknak szól, akik saját dokumentumaikból akarnak AI-t 'oktatni'. A RAG ma az egyik leggyakoribb vállalati AI architektúra: mélyebb kontextus, kevesebb hallucináció és pontosabb válaszok.

Előfeltétel: érdemes előbb a RAG curriculum leckét megnézni az alapfogalmakhoz.

RAG alapok

A RAG értelme nem az, hogy még egy chatbotod legyen, hanem az, hogy a saját dokumentumaidból, belső anyagaidból és strukturált tudásodból tudjon visszakeresni, nem csak a training adatára hagyatkozni.

A RAG (Retrieval-Augmented Generation) egy architektúra, amely kombinálja a keresést és a szöveggenerálást. Ahelyett, hogy az AI csak a training adatából válaszolna, először megkeresi a releváns dokumentumokat a te adatbázisodból, majd azok alapján generálja a választ.

A RAG 4 lépése

📥

Indexelés

Dokumentumaid chunk-okra darabolódnak (méret kontextusfüggő: rövid tények ~256 token, hosszabb érvelés ~512–1024 token) és embedding vektorokká alakulnak — hibrid pipeline esetén BM25 indexbe is

🔍

Keresés

Kérdésedre a rendszer megkeresi a leginkább releváns chunk-okat a vektortárból

💉

Kontextus-injektálás

A talált chunk-ok bekerülnek az LLM promptjába mint kontextus

✍️

Generálás

Az LLM a kontextus alapján generálja a választ — forrásmegjelöléssel

Eszközök és frameworkök

A belépőpont attól függ, mennyi kontroll kell. NotebookLM vagy Claude Projects elég lehet kezdésnek, de fejlesztői csapatnál gyorsan előjön a framework, a vektortár és az eval réteg igénye.

Kezdőknek és nem technikai felhasználóknak az alábbi megoldások egyszerű belépési pontot adnak a RAG-alapú tudásbázis-építéshez.

EszközMire jó
NotebookLMDokumentum feltöltés, kérdezés, podcast — teljesen ingyenes
Claude ProjectsDokumentumok + instrukciók = perszonalizált asszisztens
ChatGPT GPTsCustom GPT saját tudásbázissal, megosztható
DifyAI app platform — RAG + agentek + workflow, ingyenes tier

Három tipikus RAG-minta

A tudásbázis-építésnél az első jó döntés az, hogy milyen mélységű rendszert akarsz. Nem ugyanaz a személyes jegyzetasszisztens, a belső policy-bot és az üzemi support tudásréteg.

Személyes kutatási asszisztens

A legegyszerűbb RAG-minta: a cél nem egy teljes vállalati kereső, hanem az, hogy néhány forrásból megbízhatóbban tudj kérdezni és visszakeresni.

Mit?
Jegyzetekből, PDF-ekből, meeting-átiratokból és szakmai anyagokból kérdezhető személyes tudástárat építeni.
Mivel?
NotebookLM, Claude Projects vagy ChatGPT Projects — attól függően, melyik környezethez vagy belső szabályhoz igazodsz.
Hogyan?
Kicsiben kezdj: 5–20 jól kiválasztott dokumentummal. Előbb azt nézd meg, jól hivatkozik-e és tényleg megtalálja-e a válaszokat, csak utána növeld a forrásmennyiséget.

Csapaton belüli belső tudásréteg

Itt már nem elég a dokumentumfeltöltés. Jogosultság, verziózás, forráskezelés és naplózhatóság is kell, különben a tudásbázis gyorsan bizalomvesztetté válik.

Mit?
Policy-kból, belső folyamatleírásból, onboarding anyagból és visszatérő kérdésekből egységes belső AI-réteget építeni.
Mivel?
Dify, Flowise vagy saját LangChain / LlamaIndex alapú RAG-stack vektortárral.
Hogyan?
Ne a chatfelülettel kezdd, hanem a dokumentumgazdákkal: melyik forrás hiteles, ki frissíti, hogyan avul el, és milyen kérdésekre kell ténylegesen válaszolni.

Üzemi ügyfélszolgálati tudásbázis

A support RAG ott működik jól, ahol a keresési minőség, a visszaidézhetőség és az eszkaláció együtt áll össze. Egy feltöltött PDF-halmaz még nem ügyfélszolgálati rendszer.

Mit?
GYIK, help center, termékdokumentáció és tickettapasztalat alapján pontosabb ügyfélszolgálati AI-réteget adni.
Mivel?
Vektortár + RAG-framework + ticketing vagy chatrendszer, szükség esetén reranking és eval réteggel.
Hogyan?
Először a top 20 ügyfélszolgálati kérdésre optimalizálj, és csak azokat a forrásokat indexeld, amelyek tényleg elfogadott, naprakész válaszokat tartalmaznak.

Praktikus tippek

A jó RAG-rendszer többnyire nem a modell miatt lesz jó vagy rossz, hanem a chunking, a keresés, a reranking és az evaluáció minőségén múlik.

A chunk mérete és stratégiája kritikus döntés — nincs egyetlen optimális méret. A dokumentum típusa, a kérdések jellege és a retrieval logika együtt határozza meg, mi működik.

Fix méret (fixed-size)

Rögzített token-határon vágás (pl. 512 token, 20% átfedés). Egyszerű, kiszámítható — de mondatokat kettévághat.

Mondathatár (sentence-boundary)

Mondathatáron vágás, majd token-korlát figyelembevétele. Jobb koherencia, kicsit több overhead.

Hierarchikus (hierarchical)

Nagy chunk-ok kis chunk-okba ágyazva. A keresés kis chunk-on fut, de a generálás a nagyobb kontextust kapja.

Praktikus irányelvek

  • 20–30% overlap a chunk-ok között — így nem vágod ketté a mondatokat
  • Adj hozzá metaadatokat (forrás, dátum, kategória) — így szűrhetsz kereséskor
  • Teszteld különböző méretekkel — nem minden dokumentumtípusra ugyanaz az optimális

Konkrét use case-ek

A RAG akkor kezd értelmet nyerni, amikor nem általános AI-ról, hanem konkrét kérdezhető forrásrétegről beszélsz. Ezek a példák azt mutatják, hogyan érdemes elkezdeni, mielőtt túl nagy rendszert építesz.

Szakmai dokumentumokból kérdezhető asszisztens

Mit?
Nem új szöveget írni, hanem a meglévő anyagokból gyorsan visszakeresni és forrással válaszolni.
Mivel?
NotebookLM vagy Claude Projects kezdésnek, később framework-alapú RAG, ha több kontroll kell.
Hogyan?
  1. 1.Tisztítsd le a forrásokat: ne minden régi verzió kerüljön bele egyszerre.
  2. 2.Kérdezz rá ugyanarra több megfogalmazással, és nézd meg, stabilan ugyanarra a forrásra mutat-e.
  3. 3.A rossz találatokat külön gyűjtsd, mert ezekből derül ki, hol kell javítani a chunkinget vagy a keresést.

Belső policy-bot csapatoknak

Mit?
A kollégák ne végeláthatatlan policy-PDF-ekből, hanem kérdezhető felületről kapjanak választ.
Mivel?
Dify vagy Flowise no-code builder, később saját vektortár és jogosultsági réteg.
Hogyan?
  1. 1.Különítsd el a hivatalos, jóváhagyott policy-forrásokat a háttéranyagoktól.
  2. 2.A válaszhoz mindig kérj forrásidézetet vagy dokumentumlinket.
  3. 3.A policy-botot ne kreatív asszisztensként kezeld, hanem visszakereső rétegként.

Support tudásbázis ticket-előkészítéshez

Mit?
A supportos kolléga vagy chatbot ne nulláról válaszoljon, hanem a termékdokumentáció és korábbi megoldások alapján.
Mivel?
Framework + vektortár + chat vagy ticketing integráció.
Hogyan?
  1. 1.A leggyakoribb ticketkategóriákból indíts, ne az összes edge case-ből.
  2. 2.A keresést és a generálást külön mérd: lehet, hogy nem a modell rossz, hanem a visszakeresés.
  3. 3.Ahol sok a félrement válasz, tegyél be emberi ellenőrzési pontot és célzott evalt.

Hol szokott félremenni?

A legtöbb RAG-projekt nem azért rossz, mert kevés a modell, hanem mert túl korán akar teljes rendszerré válni. A retrieval minőségét, a forrásfegyelmet és az evaluációt sok csapat alulbecsüli.
Feltöltött fájlhalom = tudásbázis tévedés
Attól, hogy dokumentumokat feltöltöttél, még nincs megbízható RAG-rendszered. A forrásminőség, a frissítés és a keresési logika külön munka.
Rossz chunking, jó modell mellett is
Ha a dokumentumot rosszul darabolod, a rendszer irreleváns vagy félbevágott részleteket talál vissza, és erre a generálás már csak ráerősít.
A keresési minőség nincs mérve
Sokan csak a végső választ nézik, pedig a hiba gyakran a retrieval rétegben van. Ha nincs eval, nem tudod, mit kell javítani.
Túl sok vegyes forrás
Régi és új dokumentumok, félkész jegyzetek, ellentmondó verziók egy indexben gyorsan bizalomvesztést okoznak.
Csak felhőalapú megoldásban gondolkodás
A RAG nem igényel feltétlenül külső API-t vagy felhőszolgáltatást. Érzékeny adatoknál vagy offline környezetben a local-first stack (Ollama + lokális embedding + SQLite) nemcsak lehetséges, hanem az egyetlen biztonságos út.

Kapcsolódó oldalak