Szigorúbb szabályozásra van szükség az emberit meghaladó mesterséges intelligencia korlátok közé szorításához - jelentette ki Demis Hassabis, a Google mesterséges intelligencia kutatóközpontja, az amerikai-brit DeepMind Technologies Ltd. igazgatója. Mondta ezt az angliai Bletchley Park kastélyában, a brit katonai hírszerzés kódfejtésre szakosodott egykori titkos központjában épppen most zajló a világ első globális mesterséges intelligencia biztonsági csúcstalálkozója előtt.
A konferencián a többi között részt vesz Kamala Harris amerikai alelnök, Ursula von der Leyen, az Európai Bizottság elnöke, Giorgia Meloni olasz miniszterelnök és Elon Musk milliárdos amerikai technológiai nagyvállalkozó, valamint vezető MI techcégek igazgatói, akadémikusok, és más szakemberek szereplői vannak jelen, mintegy százan. Az MI sokuk szerint ugyanolyan veszélyt jelent, mint a klímaváltozás, ezért Hassabis úgy véli, indulásként egy olyan nemzetközi felügyelő szervezetet kellene létrehozni, mint az Éghajlatváltozási Kormányközi Klímatestület (IPCC), amely értékeli és összefoglalja az emberi tevékenység által kiváltott klímaváltozással kapcsolatos kutatási eredményeket"- fejtette ki a The Guardiannek. ,,Az MI jelentette kockázatokat épp olyan komolyan kellene venni, mint más globális fenyegetéseket, például a klímaváltozást. Túl sokáig késlekedtünk az arra való válasszal, a következményeit most szenvedjük. Ezt nem engedhetjük meg a MI-vel kapcsolatban” - mondta Hassabis. Mindezt annak ellenére mondta, hogy az ő csoportja hozta létre a fehérjék struktúráját feltárni képes AlphaFold programot, amivel kapcsolatban arról beszélt, a MI lehet a valaha feltalált egyik legfontosabb és leghasznosabb technológia. A következő lépés egy olyan, az Európai Nukleáris Kutatási Szervezethez (CERN) hasonlóan működő testület, amely a mesterséges intelligencia kockázatát, felhasználásának biztonságát kutatja nemzetközi szinten. Végeredményben egy olyan szervezetre volna szükség, mint az Nemzetközi Atomenergia Ügynökség (NAÜ), amely a nukleáris technológia békés célú felhasználásának kutatásait támogatja, miközben akadályozza az atomfegyverek terjedését. Hozzátette, a MI-hez használt szabályozási analógiák egyike sem „közvetlenül alkalmazható” a technológiára, bár „értékes tanulságokat” lehetne levonni a meglévő intézményekből.
„Az emberiség története akkor fog véget érni, amikor az ember istenné válik”Hassabis elismeri tehát, hogy a technológia hihetetlen lehetőségeket kínál az orvoslás és a tudomány terén, de aggodalmait fejezte ki a mesterséges általános intelligencia (AGI) létrejöttével kapcsolatban, amely eléri vagy meg is haladja az emberek képességeit, és kikerülhet irányításunk alól. Több szakember szerint az AGI eljövetele már csak néhány év kérdése, mások szerint a félelmek eltúlzottak. A Meta MI kutató részlegének vezetője, Yann LeCun egy hete egy a Financial Timesnak adott interjúban azt mondta, nincs szükség szabályozásra, a mesterséges intelligencia egyelőre túl buta, és soha sem fog veszélyt jelenteni az emberekre. A veszély Hassabis szerint is csak közeleg, de a MI következő generációi az olyan extra képességeikkel, mint a tervezés és a memória, nem csak jó dolgokra lesznek használhatók, hanem kockázatokat is hordoznak.
A tanácskozáson a legfontosabb techcégek képviselői, politikusok, civilek és a legtekintélyesebb szakértők vannak jelen, köztük három, akit a MI keresztapjának tartanak. Yann LeCun, francia informatikus a Meta alelnöke; Geoffrey Hinton, brit-kanadai pszichológus és informatikus, aki májusban távozott a Google-tól; Yoshua Bengio, kanadai informatikus,a Montreali Egyetem professzora, a Microsoft és az IBM embere. (Mindhárman megkapták a komputertudományok Nobeljének számító ACM Turing-díjat.) Mint említettük, LeChun nem lát veszélyt a MI-ben, de Hinton és Bengio a közé a 23 szerző közé tartozik, akik előzetes javaslatokat fogalmaztak meg, mert úgy látják, hogy a MI fenyegeti a társadalmi stabilitást, és a cégeknek felelősséget kell vállalniuk azokért a károkért, amit okoznak. ,,Ez nem játék, végtelen felelőtlenség anélkül fejleszteni a MI-t, hogy nem tudjuk, hogyan tehető biztonságossá" - figyelmeztet Stuart Russell, a Berkeley-i Kaliforniai Egyetem számítástechnikai professzora.
Szintet ugrott a mesterséges intelligenciaA szerzők arra figyelmeztettek, hogy a jelenlegi rendszerek már aggasztó képességek jeleit mutatják, amelyek előrevetítik olyan autonóm rendszerek megjelenését, amelyek képesek tervezni, és elérni a célokat”. Az amerikai OpenAI cég által kifejlesztett ChatGPT eszközt működtető GPT-4 modell képes volt kémiai kísérletek tervezésére és végrehajtására, böngészni a weben, és szoftvereszközöket, köztük más mesterséges intelligencia modelleket is használni. „Ha rendkívül fejlett autonóm MI-t építünk, fennáll annak a veszélye, hogy olyan rendszereket hozunk létre, amelyek autonóm módon nem kívánatos célokat követnek el”, hozzátéve, hogy „lehet, hogy nem tudjuk kordában tartani őket”.
A 23 szakember által jegyzett dokumentum öt pontban fogalmazza meg a legfontosabb tennivalókat:
1. A kormányok és a cégek a rendelkezésükre álló források egy harmadát a MI biztonságossá és etikussá tételére kell, hogy fordítsák.
2. Meg kell engedni, hogy független vizsgálók beléphessenek a laboratóriumokba.
3. Meg kell alapozni egy engedélyeztetési eljárást az úttörő szisztémák kiépítéséhez.
4. A MI-cégeknek biztonsági intézkedéseket kell hozniuk, ha veszélyes lehetőségeket fedeznek fel modelljeikben.
5. A cégeknek felelősséggel kell tartozni, ha a rendszereik olyan károkat okoznak, amelyek előreláthatók voltak, megelőzhetőek lettek volna.
Brit kezdeményezés
Az Egyesült Királyságban egy új intézetet hoznak létre a MI veszélyeinek ellenőrzésére, de arról nem lehet szó, hogy a rendszerek fejlesztését szüneteltessék - jelentette be na napokban Rishi Sunak brit miniszterelnök. Az intézmény a maga nemében az első lesz a világon, és azt vizsgálja, hogy az újonnan kidolgozott technológiák hordoznak-e kockázatokat, a hamis információk terjesztésétől kezdve a létünket való veszélyeztetésig. Reményei szerint az intézet nemzetközi együttműködés kezdete is lenne a MI szabályozásában. Sunak úgy gondolja, a legrosszabb forgatókönyv, miszerint a szuperintelligens, az emberi irányítás alól megszabadult MI egzisztenciális fenyegetést jelentene az emberiségre - ennek lehetőségét a szakemberek vitatják -, egyáltalán nem valósulhat meg. Azonban vannak jól körvonalazható veszélyek: a MI tudhat biofegyvereket fejleszteni, hipercélzott hamis információkat nagy tömegben terjeszteni, munkahelyket megszüntetni. Bár ezek a veszélyek bizonytalanok, ha mégis megvalósulnak, annak beláthatatlalan következményei lennének, ezért támogatja egy a Nemzetközi Kormányközi Klímatestülethez hasonló intézmény létrehozását.
Stuart Russell
Ez nem játék, végtelen felelőtlenség anélkül fejleszteni a MI-t, hogy nem tudjuk, hogyan tehető biztonságossá
Demis Hassabis
A MI lehet a valaha feltalált egyik legfontosabb és leghasznosabb technológia
Yann LeCun
Nincs szükség szabályozásra, a mesterséges intelligencia egyelőre túl buta, és soha sem fog veszélyt jelenteni az emberekre