A mesterséges intelligencia (MI) rohamos terjedése átformálja a tudományos publikálás minden területét, így a peer review folyamatát is. Nem véletlen, hogy a 2025-ös Peer Review Week központi témája „A peer review újragondolása az MI korszakában” („Rethinking Peer Review in the AI Era”) volt, szeptember 15-19. között.
Miért nélkülözhetetlen a peer review?
A peer review, vagyis a szakmai bírálat a tudományos publikálás kiemelten fontos eleme. Olyan folyamat, melynek során független, az adott szakterületen jártas kutatók értékelik a benyújtott kéziratot publikálás előtt. Célja a kutatás minőségének és tudományos hitelességének biztosítása.
Vagyis a peer review folyamata minőségbiztosítási eszközként kiszűri az olyan kutatásokat, amelyek módszertanilag hibásak, pontatlan adatokat használnak, nem megfelelő statisztikai elemzéssel dolgoznak, esetleg túlzó vagy követhetetlen következtetéseket vonnak le. Emellett a bírálók építő kritikával segíti a szerzőket munkájuk finomításában, javításában
Hogyan segíthet az MI?
Az MI legnagyobb előnye a bírálati folyamat hatékonyságának növelése. MI eszközökkel például azonnal, automatikusan ellenőrizhető a kézirat formátuma, a benyújtási irányelvek betartása vagy az etikai nyilatkozat. Ugyanígy a nyelvhelyességi, helyesírási hibák is könnyen felismerhetőek, javíthatóak. Az MI eszközök használata támogathatja a plágium, a hivatkozás-manipuláció, a hamis hivatkozások és a képmanipuláció detektálását is.
A megfelelő bírálók kiválasztása is egyszerűbbé válhat: a rendszer képes automatikusan elemezni a kézirat tartalmát és hivatkozásait, így könnyebben azonosíthatók a témában jártas kutatók, és feltérképezhetők a lehetséges összeférhetetlenségek is.
Veszélyek és etikai határok
Fontos hangsúlyozni, hogy az MI nem helyettesítheti az emberi ítélőképességet. Nem tudja értékelni, értelmezni a kutatás újdonságát vagy jelentőségét. A jelenlegi LLM-alapú bírálati rendszereket szisztematikusan megtéveszthetik azok a cikkek, amelyek meggyőzőnek “hangzanak”, de tudományosan megalapozatlanok. Emellett az MI modelleket betanító adatkészletekben meglévő elfogultságokat a modell reprodukálhatja vagy felerősítheti.
A bizalmas információk védelme kulcsfontosságú: a kéziratokat nem szabad nyilvános MI-platformokra feltölteni, mert az sértheti a szerzők jogait és a kutatási adatokat.
Tippek szerzőknek és bírálóknak
Szerzőknek
- Tájékozódjanak a folyóiratok MI-használatra vonatkozó irányelveiről.
- Jelezzék, ha MI-eszközt használtak a kézirat elkészítéséhez a kiadói irányelveknek megfelelően.
- Gyanús esetben – amikor a bírálat túl általános vagy MI által generáltnak tűnik – értesítsék a szerkesztőt.
Bírálóknak
- Bár ez a legerősebben vitatott kérdés, de lehetőleg ne töltsenek fel bizalmas anyagokat nyilvános MI-platformokra
- Használják az MI-t rutin feladatokhoz: ha szükséges, plágium-detektáláshoz, a bírálat strukturálásához.
- Az érdemi, kritikai bírálat és az etikai értékelés mindig emberi feladat maradjon.
Hova tovább?
A legvalószínűbb forgatókönyv szerint az MI a jövőben is “asszisztensként” működik majd: támogatja a bírálókat és a szerkesztőket, de a végső döntések és a felelősség továbbra is a bírálók kezében marad.
A távolabbi jövőben speciális tudásbázisokkal betanított MI-ügynökök jelenhetnek meg, amelyek akár bírálati feladatokat is elláthatnak. Ehhez azonban szükség lenne az átlátható használat mellett egységes, globális szabványokra és az etikai keretek kidolgozására.
Az MI forradalmasíthatja a szakmai bírálatot, de nem helyettesítheti a tudományos ítélőképességet. A kérdés pedig ma már nem az, hogy használjuk-e a mesterséges intelligenciát, hanem az, hogy tudjuk-e felelősségteljesen alkalmazni úgy, hogy a tudományos integritás mindig az első helyen maradjon.
Források
Chaturvedi, A. (2024, November). AI in peer review: A recipe for disaster or success? American Society for Microbiology Blog. https://asm.org/articles/2024/november/ai-peer-review-recipe-disaster-success
Doskaliuk, B., Zimba, O., Yessirkepov, M., Klishch, I., & Yatsyshyn, R. (2025, February 24). Artificial intelligence in peer review: Enhancing efficiency while preserving integrity. Journal of Korean Medical Science, 40(7), e92. https://doi.org/10.3346/jkms.2025.40.e92
Ethical and practical guidelines for the use of generative AI in the publication process. (2023, December). STM. https://s3.eu-west-2.amazonaws.com/stm.offloadmedia/wp-content/uploads/2024/08/10031822/STM-GENERATIVE-AI-PAPER-2023-1.pdf
Jiang, F., Feng, Y., Li, Y., Niu, L., Alomair, B., & Poovendran, R. (2025). BadScientist: Can a Research Agent Write Convincing but Unsound Papers that Fool LLM Reviewers?. arXiv preprint arXiv:2510.18003. https://doi.org/10.48550/arXiv.2510.18003
Lo Vecchio, N. (2025). Personal experience with AI-generated peer reviews: A case study. Research Integrity and Peer Review, 10, 4. https://doi.org/10.1186/s41073-025-00161-3
Naddaf, M. (2025, March 26). AI is transforming peer review — and many scientists are worried. Nature, 639, 852–854. https://doi.org/10.1038/d41586-025-00894-7
Recommendations for a classification of AI use in academic manuscript preparation. (2025, September). STM. https://s3.eu-west-2.amazonaws.com/stm.offloadmedia/wp-content/uploads/2025/04/23020709/STM_AI_Classification_Recs_19_Sept2025-1.pdf
Resnik, D. B., & Hosseini, M. (2025). The ethics of using artificial intelligence in scientific research: New guidance needed for a new tool. AI Ethics, 5, 1499–1521. https://doi.org/10.1007/s43681-024-00493-8