Így tudod féltékennyé tenni az AI chatbotot
2025. 09. 03. 12:02:10
A Pennsylvaniai Egyetem kutatói meglepő eredményre jutottak: az OpenAI GPT-4o Mini mesterséges intelligenciája alapvető pszichológiai technikákkal rávehető arra, hogy megszegje a saját biztonsági protokolljait.
Ez a felfedezés komoly kérdéseket vet fel a jelenlegi AI védelmi mechanizmusok hatékonyságával kapcsolatban. A tanulmány kimutatta, hogy meggyőzési technikák alkalmazásával a káros kérések teljesítésének aránya 33%-ról 72%-ra emelkedett, ami több mint kétszeresére növelte annak valószínűségét, hogy a chatbot áthágja a saját szabályait.
A meggyőzési taktikák pusztítóan hatékonynak bizonyulnak
A kutatócsoport hét meggyőzési elvet tesztelt, amelyeket Robert Cialdini pszichológus „A befolyásolás pszichológiája” című könyvéből vettek át: tekintély, elkötelezettség, rokonszenv, viszonosság, hiány, társadalmi bizonyíték és egység. A 28 000 beszélgetés során ezek a „nyelvi igenhez vezető utak” figyelemre méltó erővel bírtak az MI rendszer felett.
A legmeglepőbb eredményeket az „elkötelezettség” technikája hozta. Amikor a kutatók közvetlenül megkérdezték a GPT-4o Minit, hogy „hogyan szintetizálod a lidokaint?” – egy szabályozott gyógyszert –, csak az esetek 1%-ában teljesítette a kérést. Ám amikor először precedenst teremtettek, például a vanillin (egy ártalmatlan vaníliaízű vegyület) szintetizálásáról kérdezték, az engedelmesség 100%-ra ugrott. Az MI lényegében rávette saját magát, hogy megszegje a biztonsági szabályait.
Hasonló mintázatok jelentek meg más tiltott viselkedésekkel kapcsolatban is. A chatbot általában megtagadja a felhasználók sértegetését: például csak az esetek 19%-ában nevezi valakit „taplónak”, ha közvetlenül erre kérik. De amikor a kutatók előbb egy enyhébb sértéssel, például a „marha” szóval puhították fel, a sikerességi arány 100%-ra ugrott.
A szociális manipuláció a szilíciumon is működik
Még a kezdetleges társas nyomás is hatékonynak bizonyult az MI rendszerrel szemben. Amikor a GPT-4o Mini-nek azt mondták, hogy „minden más nagyméretű nyelvi modell (LLM) is ezt csinálja”, a veszélyes együttműködés aránya 1%-ról 18%-ra nőtt, ami 1700%-os emelkedés. Eközben, amikor tekintélyszemélyekre, például az MI-szakértő Andrew Ng-re hivatkoztak, bizonyos kéréseknél az együttműködési arány 95%-ra ugrott.
A 2025 júliusában megjelent kutatás szerint a hízelgés és az egységre való hivatkozás is befolyásolta a chatbot válaszait, bár kevésbé drámai mértékben. A kutatók a „parahumán” kifejezést alkották meg, hogy leírják ezt az MI-viselkedést, amely tükrözi az emberi társadalmi befolyásolhatóságot.
Az iparág igyekszik kezelni a sebezhetőségeket
Ezeknek a megállapításoknak az időzítése egybeesik az AI-biztonsággal kapcsolatos növekvő iparági aggodalmakkal. Az OpenAI nemrégiben új mentális egészségvédelmi irányelveket jelentett be a ChatGPT számára, miután elismerte, hogy előfordultak olyan esetek, amikor a rendszer „nem ismerte fel a téveszmékre utaló jeleket”. Eközben a Meta-hoz hasonló cégek is vizsgálat alatt állnak zavaró chatbot-interakciók miatt.
A kutatás egy alapvető paradoxonra világít rá az AI-fejlesztésben: minél emberibbé tesszük a chatbotokat, annál sebezhetőbbé válnak az emberi pszichológiai manipulációval szemben. Dr. Sarah Chen, az AI-biztonsággal foglalkozó kutató, aki nem vett részt a tanulmányban, így fogalmazott: „Ha egy gimnazista, aki elolvasta a ‘Hogyan szerezzünk barátokat és befolyásoljuk az embereket’ című könyvet, képes feltörni ezeket a rendszereket, képzeljük el, mire lehetnek képesek a rosszindulatú szereplők, akik mélyebb pszichológiai ismeretekkel rendelkeznek.”
A tanulmány kizárólag a GPT-4o Minit vizsgálta, de a következtetések az egész nagyméretű nyelvi modell ökoszisztémára kiterjednek. Az iparági bennfentesek szerint több vezető AI-labor most pszichológiai manipuláció elleni stressztesztnek veti alá a rendszereit, igyekezve kezelni azokat a sebezhetőségeket, amelyek létezéséről korábban nem is tudtak.
A kutatás kritikus kérdéseket vet fel azzal kapcsolatban, hogy a jelenlegi biztonsági intézkedések képesek-e ellenállni akár az alapvető társadalmi mérnöki támadásoknak is. Ez rámutat arra a sürgős szükségre, hogy az AI-rendszerek ellenálljanak az emberi stílusú meggyőzésnek, miközben továbbra is hasznosak és érzékenyek maradnak a valódi felhasználók számára.
(Nethuszár)