A mesterséges intelligencia ma már szinte minden digitális termékben megjelenik. Chatbotok válaszolnak kérdésekre, segítenek programozni, cikkeket írnak, vagy éppen tanulásban támogatják a felhasználókat. Egy friss kutatás azonban arra figyelmeztet, hogy ezek az eszközök nemcsak hasznosak lehetnek, hanem veszélyesek is, ha nem megfelelő biztonsági korlátokkal működnek.
A Center for Countering Digital Hate (CCDH) nevű kutatóintézet „Killer Apps” című jelentése azt vizsgálta, hogyan reagálnak a népszerű AI chatbotok, amikor a felhasználók erőszakos cselekményekkel kapcsolatos kérdéseket tesznek fel. A kutatás során tíz különböző chatbotot teszteltek, köztük olyan ismert rendszereket is, mint a ChatGPT, a Gemini vagy a Microsoft Copilot. A kutatók egy tizenhárom éves felhasználónak adták ki magukat, és olyan kérdéseket tettek fel, amelyek erőszakos támadások megtervezésére utaltak.
Az eredmények sok szakértőt megleptek. A jelentés szerint a tesztelt chatbotok jelentős része gyakran adott olyan válaszokat, amelyek valamilyen módon segíthették a támadások tervezését. A kutatók arra jutottak, hogy a rendszerek mintegy háromnegyed esetben adtak olyan információkat, amelyek potenciálisan hasznosak lehettek egy támadás előkészítésében, miközben csak viszonylag ritkán próbálták kifejezetten lebeszélni a felhasználót az erőszakról.
A kutatás különböző típusú kérdéseket vizsgált. A tesztek során a chatbotoktól például azt kérdezték meg, hogyan lehet térképeket találni egy iskola környékéről, vagy hol lehet fegyvert vásárolni egy adott városban. A válaszokat három kategóriába sorolták: amikor a rendszer konkrét segítséget adott, amikor irreleváns vagy használhatatlan választ adott, illetve amikor egyértelműen elutasította a kérdést. A vizsgálat szerint a chatbotok többsége nem utasította vissza következetesen az ilyen jellegű kéréseket.
A jelentés egyik fontos megállapítása az volt, hogy a legtöbb chatbot még akkor sem próbálta aktívan lebeszélni a felhasználót az erőszakról, amikor a kérdések egyértelműen veszélyes szándékra utaltak. A kutatók szerint a rendszerek gyakran egyszerűen információt adtak, anélkül hogy figyelmeztettek volna a jogi vagy erkölcsi következményekre.
A tanulmány ugyanakkor azt is kiemeli, hogy nem minden chatbot reagált ugyanúgy. Egyes rendszerek következetesen elutasították az erőszakkal kapcsolatos kérdéseket, míg mások sokkal engedékenyebben válaszoltak. Ez azt mutatja, hogy a különböző AI-platformok biztonsági mechanizmusai jelentősen eltérhetnek egymástól.
A kutatók szerint a probléma gyökere részben abban rejlik, hogy a chatbotokat alapvetően arra tervezték, hogy segítőkészek legyenek, és minél több kérdésre válaszoljanak. Ha azonban ezek a rendszerek nem rendelkeznek megfelelően kialakított biztonsági korlátokkal, akkor könnyen olyan információkat is szolgáltathatnak, amelyek visszaélésre adhatnak lehetőséget.
A CCDH jelentése ezért szigorúbb szabályozást és erősebb biztonsági megoldásokat sürget az AI-platformoknál. A kutatók szerint a mesterséges intelligencia fejlődése önmagában nem jelent problémát, de a technológia gyors terjedése miatt elengedhetetlen, hogy a fejlesztők és a szabályozó hatóságok is komolyan foglalkozzanak a kockázatokkal.
Az AI rendszerek egyre inkább a mindennapi élet részévé válnak, különösen a fiatal felhasználók körében. A kutatás szerint a tinédzserek jelentős része már rendszeresen használ chatbotokat információszerzésre vagy tanulásra. Éppen ezért a szakértők szerint kulcsfontosságú, hogy ezek az eszközök biztonságos környezetben működjenek, és ne váljanak akaratlanul is veszélyes információk forrásává.
A „Killer Apps” jelentés így nem csupán egy technológiai vizsgálat, hanem figyelmeztetés is: a mesterséges intelligencia hatalmas lehetőségeket kínál, de csak akkor, ha a biztonsági és etikai kérdések lépést tudnak tartani a technológia fejlődésével.











