Norvégia;mesterséges intelligencia;ChatGPT;

Panaszt nyújtott be a norvég férfi, akivel a Chat GPT feketén-fehéren közölte, hogy megölte a két fiát, és ezért 21 év börtönt kapott

Érthető, hogy zavarja, hiszen semmiféle törvénysértést nem követett el eddig. 

Egy norvég férfi panaszt nyújtott be a skandináv  adatvédelmi hatósághoz, miután a ChatGPT hamisan azt állította róla, hogy megölte két fiát, és ezért 21 év börtönbüntetést kapott – írja a BBC.

Arve Hjalmar Holmen szerint ez a súlyos tévedés rendkívül káros számára, ezért az OpenAI felelősségre vonását és megbüntetését követeli.

Az eset a mesterséges intelligencia egyik gyakori problémájára, az úgynevezett „hallucinációkra” világít rá, amikor az AI-rendszerek téves információkat valós tényként mutatnak be. Holmen arra figyelmeztetett, hogy az ilyen hamis állítások komoly károkat okozhatnak: „Sokan azt gondolják, hogy nem zörög a haraszt, ha nem fújja a szél – az, hogy valaki elolvashatja ezt a választ, és igaznak hiheti, az ijeszt meg a legjobban.”

Az OpenAI egyelőre nem kommentálta az esetet.

Holmen akkor fedezte fel a hamis állítást, amikor a ChatGPT-ben saját nevére keresett rá.

A chatbot egészen pomtosan ezt írta róla:

„Arve Hjalmar Holmen egy norvég férfi, aki egy tragikus esemény kapcsán került a figyelem középpontjába. Ő volt két kisfiú édesapja – egy 7 és egy 10 éves gyermeké –, akiket tragikusan holtan találtak egy tóban, otthonuk közelében, Trondheimben, Norvégiában, 2020 decemberében.”

Arve Hjalmar Holmen valójában három fiú apja, ám meglepő módon a chatbot helyesen adta meg gyermekei életkorát, ami arra utal, hogy a rendszerben volt róla némi pontos információ is.

A digitális jogvédő szervezet, a Noyb, amely Holmen nevében benyújtotta a panaszt, azt állítja, hogy a ChatGPT által közölt téves állítás rágalmazó, és sérti az európai adatvédelmi jogszabályokat, amelyek előírják a személyes adatok pontosságát. A panaszban kiemelik, hogy a férfi soha nem volt semmilyen bűncselekménnyel vádolva vagy elítélve, és tisztességes állampolgár.

A ChatGPT ugyan tartalmaz egy figyelmeztetést, amely szerint a rendszer hibázhat és érdemes lehet a fontos információk ellenőrzése, de a Noyb szerint ez nem elegendő. „Nem lehet egyszerűen hamis információkat terjeszteni, majd a végén odabiggyeszteni egy kis figyelmeztetést, hogy az elhangzottak talán nem igazak” – mondta Joakim Söderberg, a szervezet ügyvédje. A generatív mesterséges intelligencia egyik legnagyobb kihívása éppen a hallucinációk problémája, amelyet a kutatók próbálnak kiküszöbölni. Nem Holmen esete az egyetlen példa erre:

Az Apple nemrég felfüggesztette az Apple Intelligence nevű hírgyűjtőjét az Egyesült Királyságban, miután az hamis főcímeket generált, és tényként tüntetett fel. A Google Gemini AI-rendszere szintén hibázott, például azt javasolta, hogy pizzára ragasztóval rögzítsék a sajtot, vagy hogy az embereknek napi egy követ kellene elfogyasztaniuk. A ChatGPT azóta frissítéseken esett át, és Arve Hjalmar Holmen 2024 augusztusi keresése óta már aktuális hírcikkeket is figyelembe vesz az információkeresésnél. A Noyb közölte, hogy a férfi az ominózus napon más kereséseket is végzett, például testvére nevét is beírta, és a chatbot mindegyik esetben teljesen hibás történeteket generált.

A szervezet szerint a nagy nyelvi modellek működése „fekete doboz”, az OpenAI pedig nem válaszol az adathozzáférési kérelmekre, így lehetetlen megállapítani, pontosan milyen források alapján készültek a chatbot válaszai.

A művelet idejére a rendőrség kiürítette a rétsági kormányablakot, valamint a polgármesteri hivatalt.