A mesterséges intelligencia már most is ott ül a keresési találatok tetején, de nem mindig tudja, mikor kell csendben maradnia. A Google az elmúlt napokban kivette az AI Overviews funkciót több egészségügyi témájú keresésből, miután szakértők szerint az eredmények egy része riasztó és kifejezetten veszélyes volt.
A lépés nem véletlen, hanem egy komoly sajtóvizsgálat következménye.
Mi történt pontosan?
Az ügy egy oknyomozó anyaggal indult, amelyet The Guardian publikált. A cikk azt tárta fel, hogy a Google AI-alapú összefoglalói bizonyos orvosi kérdésekre félrevezető, sőt téves információkat adtak.
Két példa különösen nagy visszhangot kapott:
- az AI azt javasolta hasnyálmirigyrákos betegeknek, hogy kerüljék a zsíros ételeket, ami a szakértők szerint pont az ellenkezője annak, amit ilyen állapotban ajánlani szoktak, és akár az életkilátásokat is ronthatja
- más esetekben hibás információk jelentek meg májfunkciós vérvizsgálatok értelmezéséről, ami súlyos betegségekkel élő embereket tévesen megnyugtathatott
Orvosok ezeket a válaszokat nem egyszerűen pontatlannak, hanem kifejezetten veszélyesnek nevezték.
Mit lépett a Google?
Január közepére több, érzékeny egészségügyi kérdésnél teljesen eltűntek az AI Overviews összefoglalók a keresési eredményekből.
Például az olyan kérdésekre, mint
„mi a normál tartománya a máj vérvizsgálatainak?”
a Google már nem jelenít meg AI-generált összefoglalót, csak hagyományos linkeket.
A cég nem kommentálta konkrétan, hogy pontosan mely válaszokat miért távolította el, de nyilatkozatot adott a The Verge számára.
Google válasz: védekezés, óvatos megfogalmazás
A Google szóvivője szerint a vállalat jelentős erőforrásokat fordít az AI Overviews minőségére, különösen egészségügyi témákban. A közlés lényege röviden:
- belső klinikai szakértők is átnézték a kifogásolt válaszokat
- több esetben szerintük az információk nem voltak pontatlanok, és jó minőségű forrásokra támaszkodtak
- ahol kontextus hiányzott, ott rendszerszintű javításokat végeznek
- szükség esetén pedig eltávolítják az AI-eredményeket
Ez azonban inkább kármentésnek hangzik, mint magabiztos állásfoglalásnak.
Nem ez az első AI-botrány
Az AI Overviews funkció már eddig is bőven termelt kínos pillanatokat:
- volt, hogy „hasznos tanácsként” ragasztót ajánlott pizzára
- máskor azt javasolta, hogy az emberek egyenek köveket, mert „ásványi anyagokat tartalmaznak”
- több esetben jogi eljárások is indultak a félretájékoztatás miatt
Az egészségügy viszont egy másik liga. Itt nem egy mémről vagy rossz főzési tippről van szó, hanem konkrét élethelyzetekről.
Mit jelent ez a keresés jövőjére nézve?
Ez az ügy világosan megmutatta, hogy:
- az AI gyors
- az AI magabiztos
- de nem alkalmas arra, hogy önállóan orvosi kontextusban „összefoglaljon”
A Google láthatóan felismerte, hogy vannak témák, ahol jobb visszalépni, és visszaadni a terepet a hagyományos találatoknak és hiteles forrásoknak.
Ez nem az AI bukása, hanem egy fájdalmas, de szükséges korrekció. A mesterséges intelligencia kiváló asszisztens, de rossz orvos. A mostani visszavonás inkább felelős döntésnek tűnik, mint beismerésnek.
A nagy kérdés már csak az:
vajon hány hasonló területen kell még „alarming” példáknak előkerülniük, mire az AI megtanulja, mikor kell hallgatnia?











