Egy norvég férfi panaszt nyújtott be a skandináv adatvédelmi hatósághoz, miután a ChatGPT hamisan azt állította róla, hogy megölte két fiát, és ezért 21 év börtönbüntetést kapott – írja a BBC.
Arve Hjalmar Holmen szerint ez a súlyos tévedés rendkívül káros számára, ezért az OpenAI felelősségre vonását és megbüntetését követeli.
Az eset a mesterséges intelligencia egyik gyakori problémájára, az úgynevezett „hallucinációkra” világít rá, amikor az AI-rendszerek téves információkat valós tényként mutatnak be. Holmen arra figyelmeztetett, hogy az ilyen hamis állítások komoly károkat okozhatnak: „Sokan azt gondolják, hogy nem zörög a haraszt, ha nem fújja a szél – az, hogy valaki elolvashatja ezt a választ, és igaznak hiheti, az ijeszt meg a legjobban.”
A ChatGPT simán beleírta a Tisza Pártot Orbán Viktor évértékelőjébeAz OpenAI egyelőre nem kommentálta az esetet.
Holmen akkor fedezte fel a hamis állítást, amikor a ChatGPT-ben saját nevére keresett rá.
A chatbot egészen pomtosan ezt írta róla:
„Arve Hjalmar Holmen egy norvég férfi, aki egy tragikus esemény kapcsán került a figyelem középpontjába. Ő volt két kisfiú édesapja – egy 7 és egy 10 éves gyermeké –, akiket tragikusan holtan találtak egy tóban, otthonuk közelében, Trondheimben, Norvégiában, 2020 decemberében.”
Arve Hjalmar Holmen valójában három fiú apja, ám meglepő módon a chatbot helyesen adta meg gyermekei életkorát, ami arra utal, hogy a rendszerben volt róla némi pontos információ is.
A digitális jogvédő szervezet, a Noyb, amely Holmen nevében benyújtotta a panaszt, azt állítja, hogy a ChatGPT által közölt téves állítás rágalmazó, és sérti az európai adatvédelmi jogszabályokat, amelyek előírják a személyes adatok pontosságát. A panaszban kiemelik, hogy a férfi soha nem volt semmilyen bűncselekménnyel vádolva vagy elítélve, és tisztességes állampolgár.
Mesterséges intelligencia, avagy a gondolkodás halálaA ChatGPT ugyan tartalmaz egy figyelmeztetést, amely szerint a rendszer hibázhat és érdemes lehet a fontos információk ellenőrzése, de a Noyb szerint ez nem elegendő. „Nem lehet egyszerűen hamis információkat terjeszteni, majd a végén odabiggyeszteni egy kis figyelmeztetést, hogy az elhangzottak talán nem igazak” – mondta Joakim Söderberg, a szervezet ügyvédje. A generatív mesterséges intelligencia egyik legnagyobb kihívása éppen a hallucinációk problémája, amelyet a kutatók próbálnak kiküszöbölni. Nem Holmen esete az egyetlen példa erre:
Az Apple nemrég felfüggesztette az Apple Intelligence nevű hírgyűjtőjét az Egyesült Királyságban, miután az hamis főcímeket generált, és tényként tüntetett fel. A Google Gemini AI-rendszere szintén hibázott, például azt javasolta, hogy pizzára ragasztóval rögzítsék a sajtot, vagy hogy az embereknek napi egy követ kellene elfogyasztaniuk. A ChatGPT azóta frissítéseken esett át, és Arve Hjalmar Holmen 2024 augusztusi keresése óta már aktuális hírcikkeket is figyelembe vesz az információkeresésnél. A Noyb közölte, hogy a férfi az ominózus napon más kereséseket is végzett, például testvére nevét is beírta, és a chatbot mindegyik esetben teljesen hibás történeteket generált.
A szervezet szerint a nagy nyelvi modellek működése „fekete doboz”, az OpenAI pedig nem válaszol az adathozzáférési kérelmekre, így lehetetlen megállapítani, pontosan milyen források alapján készültek a chatbot válaszai.
Keleti Arthur: Az emberiség nem nőtt fel morálisan a mesterséges intelligenciához