Amikor az AI hibázik: valódi esetek, ahol komoly baj lett belőle
A mesterséges intelligencia (AI) térhódítása az élet szinte minden területén forradalmi változásokat hoz – a munkaerőpiacon, az egészségügyben, a jogban és a médiában egyaránt. Azonban az előnyök mellett komoly kockázatokat is hordoz, különösen akkor, ha hibás döntéseket hoz, elfogult adatokat használ vagy emberi kontroll nélkül működik.
Egyre több eset mutatja meg, hogy az AI hibái nemcsak technikai jellegűek, hanem valós következményekkel járnak emberek életére, megélhetésére vagy éppen a közvélemény hiteles tájékoztatására nézve.
Cikkünkben néhány figyelemfelkeltő esetet mutatunk be, amikor a mesterséges intelligencia nemcsak hibázott, hanem veszélyes, zavarbaejtő vagy diszkriminatív döntéseket hozott.
Az ügyvéd a ChatGPT-re bízta a kutatást, ami nem volt sikeres
Az OpenAI ChatGPT-je nagyon hamar népszerűvé vált, hiszen bárki számára elérhető és tesztelhető, egyszerűen használható AI modell. És habár egy nagyszerű felületről van szó, ami sokat fejlődött már a következőkben említésre kerülő ügy óta is, azért még mindig nem teljesen megbízható. A technológiának még hosszú utat kell megtennie, mielőtt megbízhatóan átvehetné a legtöbb folyamatot.
Ezt Steven Schwartz ügyvéd is megtapasztalta, amikor 2023-ban Kevin Castel amerikai kerületi bíróval került nehéz helyzetbe, miután a ChatGPT segítségével kutatott precedenseket egy kolumbiai Avianca légitársaság ellen indított perben. Schwartz az OpenAI generációs mesterséges intelligenciát használó chatbot segítségével keresett korábbi eseteket Roberto Mata ügyében. Mata, az Avianca alkalmazottja, 2019-ben szenvedett el sérüléseket, és ezekhez kapcsolódóan adott be egy keresetet. Azonban az ügyvéd által összeállított beadványban az esetek közül legalább hat nem is létezett. A bíró észrevette, hogy a Schwartz által benyújtott ügyek hamis neveket és iktatószámokat, valamint nem létező belső hivatkozásokat és idézeteket tartalmaztak. Schwartz partnere, Peter LoDuca is aláírta a beadványt, ezzel saját magát is veszélybe sodorva.
Egy nyilatkozatban Schwartz a bíróságnak elmondta, hogy ez volt az első alkalom, hogy a ChatGPT-t jogi kutatási forrásként használta, és „nem volt tudatában annak a lehetőségének, hogy a tartalma hamis lehet”. Elismerte, hogy nem erősítette meg a mesterséges intelligencia chatbotja által szolgáltatott forrásokat, és megbánta, hogy a generációs mesterséges intelligenciát használta jogi kutatásai kiegészítésére, hozzátéve, hogy a jövőben nem fogja ezt megtenni a hitelesség ellenőrzése nélkül. Végül Castel bíró 5000 dolláros bírságot szabott ki Schwartzra és LoDucára.
Diszkriminatív volt az egészségügyi algoritmus
A Science folyóiratban megjelent tanulmány kimutatta, hogy egy egészségügyi előrejelző algoritmus, amelyet az Egyesült Államokban a kórházak és biztosítótársaságok használnak a magas kockázatú ellátásmenedzsment programokra szoruló betegek azonosítására, sokkal kisebb valószínűséggel jelölte meg a fekete betegeket. A magas kockázatú ellátásmenedzsment programok képzett ápolószemélyzetet és alapellátási felügyeletet biztosítanak a krónikus betegeknek a súlyos szövődmények megelőzése érdekében. Az algoritmus azonban sokkal nagyobb valószínűséggel ajánlott fehér betegeket ezekre a programokra, mint fekete betegeket. Erre többféle magyarázatot is adtak, viszont ezek mindegyike megkérdőjelezhető, így alapos átnézésre és újragenerálásra volt szükség a probléma megoldására.
De persze nem ez az egyetlen egészségügyi rendszerekhez kapcsolódó probléma, amit az AI-hoz közhetünk. A Healthcare in Europe egy írása rávilágít, hogy a mesterséges intelligencia egyre szélesebb körű alkalmazása az egészségügyben új kihívásokat vet fel a felelősségvállalás terén, különösen akkor, ha az AI hibázik. Bár ennek célja általában a diagnosztikai és kezelési döntések támogatása, a jelenlegi jogi és szabályozási keretek nem egyértelműek arra vonatkozóan, hogy ki viseli a felelősséget az AI által okozott hibákért.
A Johns Hopkins és a Texasi Egyetem kutatói szerint az orvosokra egyre nagyobb nyomás nehezedik, hogy felismerjék, mikor kell megbízniuk az AI-ban, és mikor kell azt felülbírálniuk. Ez az elvárás azonban sok szempontból irreális, mivel az AI rendszerek működése gyakran átláthatatlan még a fejlesztők számára is. Ez a bizonytalanság növeli az orvosok kiégésének kockázatát, és akár a betegellátás minőségét is ronthatja. Ilyen komoly és életeket kockáztató területeken tehát jóval nehezebb az AI bevezetése. A mesterséges intelligencia integrációja az egészségügybe nemcsak technológiai, hanem jogi, etikai és szervezeti kérdéseket is felvet.
Fiktív olvasmányokat ajánl egy újságcikk
2025. májusában több amerikai újság, köztük a Chicago Sun-Times és a The Philadelphia Inquirer is egy olyan nyári olvasmánylistát tett közzé, amely részben mesterséges intelligencia által generált, fiktív könyveket tartalmazott valós szerzők neve alatt. A listán szereplő 15 könyvből mindössze öt volt valódi. A többi könyv soha nem is létezett.
A szerző elismerte, hogy a lista részben mesterséges intelligencia segítségével készült, emellett teljes felelősséget vállalt a történtekért. Kiemelte, hogy a hiba az ő mulasztása volt, és az újságok jóhiszeműen közölték a tartalmat. Ami rendben is van, viszont a megjelenítő felületek számára továbbra is kínos marad az eset, mert eszerint teljes mértékben megbíznak a szerzőkben és ellenőrzés, vagy felülvizsgálat nélkül továbbközlik a tartalmaikat. Ezek a tartalmak pedig az online felületek olvasottságától függően százezrekhez vagy akár milliókhoz is eljuthatnak anélkül, hogy bárki is ellenőrizné, mit is kommunikál a cikk írója.
Az AI életkor szerint kizárta a releváns jelentkezőket
Az iTutor Group toborzó mesterséges intelligenciája elutasította a jelentkezőket az életkoruk miatt, ami perhez vezetett. Még 2023 augusztusában az iTutor Group beleegyezett, hogy 365 000 dollárt fizet az Egyesült Államok Esélyegyenlőségi Bizottsága (EEOC) által indított per rendezése érdekében. A szövetségi ügynökség szerint a vállalat mesterséges intelligenciával működő toborzó szoftvert használt, amely automatikusan elutasította az 55 éves és idősebb női, valamint a 60 éves és idősebb férfi jelentkezőket. Az EEOC szerint a szoftver több mint 200 kvalifikált jelentkezőt utasított el automatikusan.
„Az életkor szerinti diszkrimináció igazságtalan és törvénytelen” – mondta Charlotte Burrows, az EEOC elnöke egy nyilatkozatban. „Még akkor is, ha a technológia automatizálja a diszkriminációt, a munkáltató továbbra is felelős.” Az iTutor Group tagadott mindenféle jogsértést, de úgy döntött, hogy inkább rendezi a pert. Ebből is látható, hogy a vállalatok hiába nem vállalnak szívesen felelősséget az alkalmazott AI szoftverekért, végső soron a legtöbb esetben kénytelenek, mielőtt még tovább fajul a helyzet.
Jobb az óvatosság!
Ezek az esetek rávilágítanak a mesterséges intelligencia által generált tartalmak terjedésének veszélyeire, különösen a médiában, ahol a megbízhatóság és a hitelesség alapvető fontosságú. A történtek felhívják a figyelmet arra, hogy a szerkesztőségeknek fokozottan ellenőrizniük kell a külső forrásból származó anyagokat, különösen azokat, amelyek mesterséges intelligencia közreműködésével készültek.
A mesterséges intelligencia kétségkívül a jövő egyik kulcstechnológiája, de a fenti példák világosan megmutatják, hogy felelőtlen vagy ellenőrizetlen alkalmazása súlyos következményekhez vezethet. Legyen szó álláskeresők életkori diszkriminációjáról, fiktív jogi ügyekről, torz egészségügyi előrejelzésekről vagy valótlan médiatartalomról, az AI mögött mindig ott kell állnia az emberi kontrollnak és felelősségvállalásnak. Ahhoz, hogy a technológia valóban a fejlődést szolgálja, nemcsak fejleszteni, hanem szabályozni, ellenőrizni és kritikusan értékelni is kell azt – különösen akkor, ha emberek sorsa múlik rajta.
Tudni szeretnéd, hogyan használd a mesterséges intelligenciát az üzleti növekedéshez? Az AI marketing című könyv egy kincstár a marketingesek számára, tele eszközökkel, konkrét promptokkal és esettanulmányokkal, amelyek segítenek a mesterséges intelligencia alkalmazásában.
A könyv bemutatja a legfontosabb AI-marketing eszközöket, amelyek a kampányok optimalizálásához, a közönség szegmentálásához és a személyre szabott ügyfélélmény megteremtéséhez elengedhetetlenek.
Lapozz bele ITT: https://www.kozossegi-media.com/koenyveink
Forrás: https://www.cio.com/article/190888/5-famous-analytics-and-ai-disasters.html
https://www.npr.org/2025/05/20/nx-s1-5405022/fake-summer-reading-list-ai
https://healthcare-in-europe.com/en/news/blame-errors-medical-ai.html