Amikor az AI az AI-t idézi: a Grokipedia csendben beköltözött a chatbotok fejébe
2026. 02. 02. 19:51:50
Van egy furcsa pillanat az internet történetében, amikor a mesterséges intelligencia már nem emberektől tanul, hanem egy másik mesterséges intelligenciától. Pontosan ez történik most: a ChatGPT, a Google Gemini, a Microsoft Copilot és a Perplexity egyre gyakrabban hivatkozik forrásként Elon Musk AI-enciklopédiájára, a Grokipediára.
Ez önmagában még nem lenne baj. A gond ott kezdődik, hogy a Grokipedia nem szerkesztők, hanem egy chatbot által írt és karbantartott „tudástár”, minimális emberi felügyelettel. A szakértők szerint ez ideális recept a gyors, magabiztos, de nem feltétlenül igaz válaszokhoz.
A számok: még kicsi, de már látszik
- Az Ahrefs SEO-cég adatai szerint a Grokipedia:
- 263 000-nél is több ChatGPT-válaszban jelent meg
- a vizsgált 13,6 millió kérdésből,
- és kb. 95 000 különálló Grokipedia-oldalt idéztek.
Összehasonlításképp: az angol nyelvű Wikipédia ugyanebben az időszakban közel 2,9 millió válaszban szerepelt.
A Profound marketingplatform szerint a Grokipedia jelenleg a ChatGPT napi hivatkozásainak 0,01–0,02 százalékát teszi ki. Ez nem sok – de november közepe óta folyamatosan nő. Magyarul: még nem főszereplő, de már ott ül a nézőtéren.
Nem minden kérdésnél, de pont a furcsáknál
A Guardian tesztje szerint a ChatGPT GPT-5.2 modellje kilenc alkalommal hivatkozott a Grokipediára különféle válaszokban. Ezek között voltak:
- iráni politikai szervezetek,
- Sir Richard Evans brit történész,
- és a David Irving holokauszt-tagadó elleni 2000-es per.
Érdekes módon nem hivatkozott a Grokipediára olyan nagy horderejű témáknál, ahol annak hibáit már sokszor dokumentálták – például a január 6-i Capitolium-ostrom vagy a HIV/AIDS-járvány esetében.
Szakértők szerint az AI-k inkább szűk, speciális, kevésbé ismert témáknál nyúlnak a Grokipediához, nem pedig olyan ügyeknél, ahol „túl sok a szem”. Az Anthropic Claude is hivatkozott már rá – például olajtermelésről vagy skót sörökről szóló válaszokban. Ez arra utal, hogy a probléma nem egyetlen chatbot sajátja, hanem az egész AI-ökoszisztémát érinti.
Mi a gond a Grokipediával?
A Grokipediát 2025 októberének végén indították el az xAI részeként. A nagy különbség a Wikipédiához képest az, hogy:
- nem közösségi szerkesztés,
- nem átlátható forráskritika,
- a Grok írja és frissíti önmagát.
A PolitiFact és a Wired értékelései szerint a platform:
- ténybeli hibákra hajlamos,
- kitalált forrásokat használ,
- és ideológiailag elfogult tartalmakat közöl.
Konkrét példák is akadnak: olyan állítások, hogy a pornográfia súlyosbította az AIDS-járványt, vagy „érvelések”, amelyek a rabszolgaságot próbálják relativizálni. Taha Yasseri (Trinity College Dublin) szerint „a gördülékeny megfogalmazást könnyű összekeverni a megbízhatósággal”. Nina Jankowicz dezinformációkutató pedig úgy fogalmazott: a Grokipedia forrásai gyakran „a legjobb esetben kétesek, a legrosszabb esetben szándékosan félrevezetők”.
Mit mondanak a cégek?
Az OpenAI szóvivője, Shaokyi Amdo szerint a ChatGPT célja, hogy „nyilvánosan elérhető források és nézőpontok széles köréből merítsen”, miközben biztonsági szűrőkkel igyekszik csökkenteni az ártalmas tartalmak kockázatát. Az xAI válasza ennél tömörebb volt: „A hagyományos média hazudik.” Glen Allsopp, az Ahrefs vezető stratégája szerint a Grokipedia leggyakrabban a ChatGPT-ben bukkan fel, de kisebb számban már a Geminiben, Copilotban, AI Overviews-ban és a Perplexityben is.
Mi ebből a tanulság?
A Grokipedia még messze nem váltja le a Wikipédiát. De az, hogy egy AI által írt enciklopédia egyre több AI válaszának alapja, új szintre emeli a problémát. Ez már nem csak arról szól, hogy az AI hibázik, hanem arról, hogy az AI elkezdi saját magát idézni. És amikor a tudás önmagába záródik, ott nem az a kérdés, hogy gyors-e vagy látványos — hanem hogy ki ellenőrzi, mi marad benne igaz.
(Nethuszár)







