“Nem tartozik már a sci-fi fogalomkörébe, hogy elképzeljük, a mesterséges intelligencia (MI) rendszereknek érzéseik lehetnek, vagy akár emberi szintű öntudatuk” - írja a tudósok egy nemzetközi csapata levelében, amelyet egy müncheni matematikus, Johannes Kleiner által alapított Matematikai Tudatosság Tudományának Társasága (AMCS) kezdeményezett, és bárki aláírhatja. A levél már címében is jelzi fő mondanivalóját: A felelősségteljes MI-tervezeteknek foglalkozniuk kell a tudatosság kutatásával. Bár a legtöbben azt tartják, az öntudat szintjétől még messze van az MI, de nagyon gyorsan fejlődik, és ha öntudatra ébred, a képességeinek olyan új struktúráját tárhatja fel, amely messze meghaladja még azok elvárásait is, akik a kidolgozásában élen járnak. A tudomány még csak most kezdi megérteni a tudatot, és már több, mint 30 teória és modell született meghatározására, de az AMCS és a Tudatosság Kutatásának Tudományos Társasága (ASSC) felkészült a további kutatásokra. Erre azért van szükség, mert az MI az emberiség egyik legnagyobb kihívása lehet.
Az említett levél nem egyedüli a témában. Március végén neves mesterségesintelligencia-kutatók egész sora kérte közös, nyílt levélben az MI-fejlesztő társaságokat arra, hogy álljanak le minden nagyszabású kutatásukkal, mert ezek a rendszerek „mély kockázatokat rejtenek" a társadalom és az emberiség számára. Legutóbb a BSA - amely többek között olyan cégeket tömörít, mint az Adobe, az Oracle, a SAP, az IBM - arra hívta fel a figyelmet, hogy szükség van szövetségi szabályzókra és útmutatásokra az MI területén.
S hogy mennyire szükség van a további kutatásokra, azt jól mutatja az alábbi eset: tavaly a Google kirúgta fejlesztőmérnökét, aki azt mondta, hogy a cég nagy nyelvi modellje a LaMDA - amelyre a Bard csevegőrobot épül - érzelmeket is mutat.
Akkor a Google úgy nyilatkozott, hogy a LaMDA csupán azt csinálja, amire beprogramozták: emberekhez hasonló módon beszélget. Nemrégiben Sundar Pichai, a cég igazgatója ,,bavallotta" a CBS-nek, hogy “nem teljesen érti”, hogyan működik a Bard. Hozzátette, hiszen azt sem teljesen értjük, hogy az emberi agy hogyan működik.
Ehhez a témához kapcsolódik Max Tegmarknak, a MIT mesterséges intelligencia kutatójának a Time-ben megjelent cikke, amelyben a fizikus, kozmológus képzettségű tudós azt mondja, úgy viselkedünk, mint a Ne nézz fel! című film szereplői, akik nem akarnak tudomást venni a közelítő pusztító aszteroidáról. Bár a film az embereknek, tudósoknak a klímakatasztrófához való viszonyulása elé tart görbe tükröt, sokkal inkább lehetne az MI iránti közönbösségünk paródiájának tekinteni - írja Tegmark. Egy nemrégiben készült felmérés szerint az MI-szakemberek fele tartotta 10 szálakékban lehetségesnek, hogy a technológia kiirtja az emberiséget.
Tegmark karbonsovinizmusnak nevezi azt az ellenérvet, miszerint az emberi intelligencia csak az agyban jelenhet meg. Az intelligencia az információfeldolgozásról szól, és ebben a tekintetben mindegy, hogy az hol történik: szénatomokban az agyban, vagy szilikon atomokban a számítógépekben. Véleménye szerint a szuperintelligencia megjelenésére sem kell már sokat várni: a MI már egy éven belül átalakulhat azzá. Ezt az időt az is lerövidíti, hogy ultraintelligens gépek tervezik az újabbakat, és végül csak a fizika fog határokat szabni a tárolható, feldolgozható adatmennyiségnek, nem pedig az emberi tudás. A MI nem azért fogja az embereket elpusztítani, mert ördögi és gonosz lesz, mi sem ezért irtottuk ki a nyugat-afrikai fekete orrszarvút. Egyszerűen “mellékhatásként” tűnt el, mert úgy gondoltuk, okosabbak vagyunk, jobban tudjuk hasznosítani az élőhelyét vagy a szarvát. Lehet, hogy a gépek úgy találják majd, hogy mivel az oxigén miatt rozsdásodnak, ki kell vonni azt a levegőből…
Egy olyan tudós közösség tagjaként - amely azon dolgozik, hogyan lehet a szuperintelligenciát megrendszabályozni, mielőtt még egyáltalán létezne, és a céljait összehangolni az emberek életével - Tegmark azt állítja, még nem dolgoztunk ki megbízható tervet, pedig az MI gyorsabban fejlődik, mint a szabályozás.
Szerinte négy fő elvet kellene betartani:
- Ne tanítsuk kódot írni az MI-t, ezzel megelőzhető, hogy önmagát fejlessze.
- Ne kapcsoljuk az internetre, csak azt tanulja meg, hogy segítsen minket, ne legyen képes minket manipulálni, vagy erőforrásokhoz jutni.
- Ne adjunk neki nyilvános internetes címet, így a rosszindulatú szereplők nem tudják saját céljaikra használni.
- Ne kezdjünk versenybe, mert az mindenkit arra ösztönöz, hogy a fejlesztési sebességet a biztonsággal szemben előnyben részesítse.
Az iparág szereplői egyelőre mindegyik szabályt megszegik.