Ahogyan a tudomány és a technológia folyamatosan fejlődik, úgy változik az, ahogyan az ember információt dolgoz fel, problémákat old meg és kutatást végez. A mesterséges intelligencia (MI) az elmúlt évtizedek egyik legizgalmasabb forradalmát hozta el az egyetemi és kutatói környezetben, de mit is jelent valójában, és hogyan működik a generatív MI, amelyről most mindenhol hallunk?
Egyszerűen fogalmazva, a mesterséges intelligencia olyan számítógépes algoritmusok és modellek összessége, amelyek képesek tanulni az adatokból, mintázatokat felismerni, és ezek alapján döntéseket hozni. Ezek a rendszerek olyan feladatokat tudnak megoldani, amelyeket korábban kizárólag emberi intelligenciával lehetett elvégezni.
A mesterséges intelligencia fogalmát az 1950-es évek óta ismerjük, de azt a fordulópontot, ami a napjainkban sokak által ismert és használt generatív mesterséges intelligencián alapuló modellek (mint pl. a ChatGPT) megjelenéséhez vezetett a 2010-es évek hozták el: a mélytanulás (deep learning) és a számítási kapacitás robbanásszerű fejlődése lehetővé tette, hogy az MI modellek valódi problémákat oldjanak meg. A 2017-ben megjelent transformer architektúra forradalmasította a nyelvfeldolgozást, lehetővé téve a szavak közötti összetett összefüggések felismerését és így a pontosabb, koherensebb szövegek generálását.
Ezek a technológiák, az interneten elérhető hatalmas adatmennyiség és az emberi visszajelzésekkel történő finomhangolás kombinációjával vezettek el a 2022-ben bemutatott ChatGPT-hez és más generatív MI-eszközökhöz. Ezek a rendszerek immár természetes nyelven képesek kommunikálni, kreatív tartalmat előállítani, és új lehetőségeket nyitottak meg a kutatás és az oktatás számára.
De mi is az a generatív MI, és hogyan adja nekünk a választ?
Egy generatív MI modell olyan algoritmusok összessége, amely mintázatok alapján képes új tartalmat létrehozni. Legyen szó szövegről, képről vagy hangról, a rendszer előrejelzi a következő „lépést” a tanult minták és valószínűségek alapján. Fontos kiemelni, hogy a generatív AI nem érti a kérdést, nem értelmezi a választ, és nem tudja a teljes kontextust; egyszerűen predikciókat generál. Ez azt jelenti, hogy az általa adott válaszok valószínűségi alapon készülnek, és az eredmény attól függ, milyen adatokkal és mintákkal találkozott a modell a tanulási folyamat során.
MI, mint fekete doboz
Bár a ChatGPT válaszai nagyon is emberinek tűnnek, a modell működése jelentősen eltér attól, ahogyan egy ember gondolkodik. Agyunk nem csupán mintázatokat ismer fel, hanem képes kontextust érteni, jelentést adni, kritikai gondolkodással értékelni, és tudatosan döntéseket hozni. A generatív MI ezzel szemben egy bonyolult, de statisztikai alapú „fekete doboz”: látjuk a bemenetet és a kimenetet, de a belső működése gyakran átláthatatlan, nem lehet minden döntést pontosan visszakövetni.
Ez a fekete doboz jelleg számos problémát vet fel. Például, ha tudományos kutatásban vagy oktatásban használjuk, nem mindig világos, miért adott az MI egy adott választ, milyen torzítások lehetnek benne, és hogyan ellenőrizhető az eredmény. Ebből született meg az „Explainable AI” (magyarul: magyarázható mesterséges intelligencia) koncepciója, amely célja, hogy a modellek döntései és működése átláthatóbbá váljon, és a felhasználó megértse, miért történt egy adott predikció vagy javaslat.
MI hallucináció: amikor a gép „kitalál” dolgokat
A modellek működéséből adódóan előfordulhat, hogy a generatív MI magabiztosan ad választ, ami mégsem igaz. Ezt hívjuk MI hallucinációnak. Mivel az MI nem „tudja”, mi igaz, nem tudja a válasz minőségét értékelni, csupán a tanult minták és valószínűségek alapján prediktál, így könnyen “kitalálhat” olyan adatokat, hivatkozásokat vagy akár összefüggéseket, amik nem léteznek vagy értelmetlenek.
Éppen ezért kiemelten fontos a kapott információt kritikusan kezelni, más forrásból is ellenőrizni. A pontosabb kérdésfeltevés, a kontextus bővítése vagy a többszöri iteráció is csökkentheti a hibák arányát. Mindemellett vannak olyan MI-eszközök is, amelyek tudományos adatbázisokban tárolt források alapján dolgoznak (pl.: Web of Science Research Assistant, Scopus AI), így kevesebb hallucinációval válaszolnak, de természetesen a végső felelősség ilyen esetben is mindig a kutatót terheli.
Merre tovább?
A mesterséges intelligencia napjaink kutatási és oktatási környezetének fontos eszközévé vált. A generatív MI képes nagy mennyiségű adat feldolgozására, mintázatok felismerésére és új tartalmak előállítására, ugyanakkor működése csupán statisztikai predikciókon alapul, így nem helyettesíti, csupán kiegészíti a hagyományos kutatással kapcsolatos munkafolyamatokat. A hallucinációk, a fekete doboz jelleg és a torzítások miatt minden MI által szolgáltatott információt más forrásokkal összevetve, kritikusan értékelve érdemes fogadni.
Ez a kettősség, a lehetőségek és a korlátok együttese határozza meg az MI szerepét a tudományban: bár gyorsabb az adatfeldolgozás, egyszerűbb az információ-szintézis és újabb kutatási irányok nyílhatnak meg, mindeközben a szakmai felelősség és az eredmények interpretációja továbbra is a kutató feladata marad. Az MI eszközök valódi értékét akkor tudjuk leginkább kihasználni, ha ismerjük a működésüket, tisztában vagyunk korlátaikkal és megfelelő módon illesztjük be a kutatási folyamatba.
Te használod már a generatív MI-t kutatásban? Ha igen, hogyan látod a korlátait?
Források:
Al-Zahrani, A. M. (2023). The impact of generative AI tools on researchers and research: Implications for academia in higher education. Innovations in Education and Teaching International, 61(5), 1029–1043. https://doi.org/10.1080/14703297.2023.2271445
Bin-Nashwan, S. A., Sadallah, M., & Bouteraa, M. (2023). Use of ChatGPT in academia: Academic integrity hangs in the balance. Technology in Society, 75, 102370. https://doi.org/10.1016/j.techsoc.2023.102370
Epstein, Z., & Hertzmann, A. (2023). Art and the science of generative AI. Science, 380(6648), 1110–1111. https://doi.org/10.1126/science.adh4451
Logan, R. K., & Tandoc, M. (2018). Thinking in patterns and the pattern of human thought as contrasted with AI data processing. Information, 9(4), 83. https://doi.org/10.3390/info9040083
Sengar, S. S., Hasan, A. B., & Kumar, S. (2025). Generative artificial intelligence: A systematic review and applications. Multimedia Tools and Applications, 84, 23661–23700. https://doi.org/10.1007/s11042-024-20016-1
von Eschenbach, W. J. (2021). Transparency and the black box problem: Why we do not trust AI. Philosophy & Technology, 34, 1607–1622. https://doi.org/10.1007/s13347-021-00477-0
Zhang, Y., Li, Y., Cui, L., Cai, D., Liu, L., Fu, T., Huang, X., Zhao, E., Zhang, Y., Chen, Y., Wang, L., Luu, A. T., Bi, W., Shi, F., & Shi, S. (2025). 🧜 Siren’s song in the AI ocean: A survey on hallucination in large language models. Computational Linguistics. https://doi.org/10.1162/COLI.a.16