;

interjú;emberiség;fejlődés;mesterséges intelligencia;Szertics Gergely;

Az intelligenciafejlesztők intelligenciát fejlesztenek, nem az ő dolguk kitalálni, hogy milyen célokra lehessen azt használni

- Nem a mesterséges intelligenciától kell félni, a rosszindulatú felhasználóktól viszont annál inkább

Egyre másra jelennek meg hírek arról, milyen veszélyeket hozhat a mesterséges intelligencia (AI), ha tovább fejlődik. Szertics Gergely, az AI Partners ügyezetője szerint az egyik legfontosabb kérdés, hogyan lehet kontrollálni egy nálunk magasabb szintű intelligenciát.

Határozott lépések történtek az elmúlt hetekben: mesterséges intelligencia fejlesztők, techszakemberek, tudósok jelezték, akár végzetes veszélyt is jelenthet a MI az emberiségre. Valamilyen módon legalább korlátozni, szabályozni kell a fejlesztési irányokat, de volt olyan fejlesztő is, aki azt mondta, teljesen le kell állítani, mert évtizedeken belül elpusztítja az emberiséget. Az Elon Musk nevével fémjelzett petíciót már körülbelül 30-40 ezren írták alá. Helyes irány-e a tiltás?

Valóban több ezer tudós is aláírta már a nyílt levelet, de többen azt jelezték, ez nem jó kezdeményezés. Nem lehet megállítani a fejlődést, ha Amerika nem fejleszt, lemarad Kína és India mögött. Ráadásul, még ha születne is valamilyen szabályozás, nagyon nehéz lenne a betartatása. Az nem kérdés, hogy szabályozni kell, de az fajta egzisztenciális félelem, ami az egész probléma alapja, nem biztos, hogy a „hagyják abba a fejlesztést!” szabályozással megoldható.

Mikortól nevezhető intelligensnek a számítógép? Kezdetben ,,csak egy gép” volt, ami rengeteg adatot tudott tárolni, feldolgozni, ezért okosnak neveztük, de az intelligencia nyilván valamivel több.

A mesterséges intelligencia fogalma folyamatosan változik: ami néhány éve még MI volt, ma már „csak” egy alkalmazás. A sakkozógép, amely 1997-ben megverte Kaszparovot ma már csak egy szabálygépnek számít, az optikai karakterfelismerők gépi tanulása is természetes már. Egyre többet tanultunk arról is, hogy a saját intelligenciánk hogyan működik, és melyik része mennyire bonyolult. Például jó tíz évvel korábban sikerült sakkozógépet építenünk, minthogy képesek lettünk megtanítani egy gépnek, hogyan ismerjen fel egy cicát, pedig arra az állatok is képesek. 2011-ben a mélytanuló rendszerek bevezetésével jöttek a nagy áttörések a képek felismerésében: ezek dolgoznak ma már minden telefon kamerájában, vagy az arcfelismerőkben. 2016 volt a másik nagy fordulópont, amikor a megerősítéses tanuláson alapuló rendszerek megverték a legjobb go játékost, ami egy sokkal több variációval bíró táblajáték, mint a sakk. Itt a gépek már nem egy emberek által betáplált tudásanyaggal dolgoznak, hanem rengeteget játszanak egymás ellen virtuálisan, és így alakítanak ki stratégiákat. Ez alapvető különbség, mert a gép ezzel olyan kreatív lépéseket is tudott hozni, amelyeket még a gomesterek is hibának gondoltak először, majd kiderült, hogy az volt a kulcslépés. Ez a módszer ma már sakkban is meg tudja verni a legjobb, korábbi szabály alapú gépeket.

Azonban az, hogy egy gép felismerte a cicát, vagy megvert valakit sakkban vagy goban, és a többi, praktikusan hasznos alkalmazás még nem adott indokot olyan ijedtségre, amilyen mostanában bontakozik ki. A nagy áttörés 2022-ben történt a ChatGPT megjelenésével, amely a nyelv megértésével tört át egy új korlátot: mivel a nyelv a gondolkodásunk fő eszköztára, mindent ezen keresztül oldunk meg. Ez az, ami igazán emberi, ehhez képest tekinthetünk minden mást alacsonyabb szintű intelligenciának. A ChatGPT egy nagy nyelvi modellre építve már sok tekintetben elérte az emberi intelligenciaszintet, problémamegoldó képességet, ami sokakban megszólaltatta a vészcsengőt, mondván, ha így megy tovább, a MI túl is léphet rajtunk.

A félelem attól alakult ki, hogy a fejlett MI már nem fog utasításokra várni, illetve csak azoknak engedelmeskedni, hanem elkezd a saját feje után menni. Max Tegmark, az egyik élvonalbeli MI fejlesztő szerint akár azért is kiirthat minket a MI, mert például úgy gondolja, ki kell vonnia az oxigént a levegőből, hogy a számítógépek, amiken fut, ne rozsdásodjanak. Mennyire valósak az ilyenfajta feltevések?

Az intelligencia végeredményben egy cél elérésének a képessége. Ez igaz a bizonyos vegyületek elől menekülő egysejtűekre, az emberekre és a mesterséges intelligenciára is. De fontos megérteni, hogy a cél elérésének képessége nem tartalmazza a célt. A gépek esetében mi adunk nekik célt és amennyire hasznos lehet ez, annyira hordozhat veszélyt is. Az emberekben - mint ahogy minden más élő organizmusban - ott a mélyen gyökeredző, evolúciósan kialakult cél, hogy mindenáron fenntartsuk magunkat, de ez nem általános. El sem tudjuk képzelni, hogy másképp is lehet, mi erre használjuk az intelligenciánkat más fajokkal, de akár fajtársainkkal szemben is. Ahhoz, hogy az MI ki akarja vonni az oxigént a levegőből, azt kell neki mondani: az a célod, hogy tartsd fenn magad. Nem elképzelhetetlen, hogy valakik ilyen általános célt adnak a MI rendszereknek, aminek nagyon káros mellékhatásai vannak, de őszintén szólva, én sokkal valósabbnak érzem azt a veszélyt, hogy valaki ennél már sokkal hamarabb konkrétan rossz célokra akarja használni. Ugyankkor nem szeretném bagatellizálni az ilyesfajta magas szintű egzisztenciális félelmeket sem.

Akkor tehát itt kellene közbelépnie a politikusoknak, a törvényhozóknak, hogy szabályozzák, milyen irányba lehessen fejleszteni a MI-t, és így mire lehessen használni?

Most bárki megnyithatja a Binget (a Microsoft MI-je) vagy a ChatGPT-t és beírhatja, hogy mostantól az a célod, hogy.... És akkor ő eszerint fog cselekedni. A cégek saját elveik szerint állítottak korlátokat, miszerint bizonyos célokat nem adhatunk nekik, de ez ügyben egy kis félreértés van: ők célokat nem adnak a gépeknek, ezeket a felhasználók teszik meg. Az intelligenciafejlszetők intelligenciát fejlesztenek, és nekik pontosan az a problémájuk, hogy miért nekik kell azt kitalálni, hogy milyen célokra lehessen azt használni. Azt találják ki az erre hivatott törvényhozók.

A másik nagy félelemforrás, hogy a gépek megtanulhatnak kódot írni, és így önmagukat fejleszthetik. Bár jelenleg úgy gondoljuk, hogy ez még jó időbe telik, de a fejlesztők arra emlékeztetnek, hogy a fejlesztés terén néhány év alatt bekövetkezett az, amit ők három évtized múlva vártak. Vagyis nem igazán lehet tudni, mi és mikor várható?

Kódot írni már most is tudnak. A félelem akörül van, hogy mi lesz, ha olyan szintű kódot tudnak írni, ami saját intelligenciájukat definiálja. Akkor hirtelen követhetetlen intelligenciafejlődési spirálba kezdhetnek. Valóban nem tudjuk, hogy mi várható. Nagyon gyorsan fejlődik a technológia, a társadalom pedig sokkal lassabban tudja ezt feldolgozni, reagálni rá. Megértem azokat, akik azt mondják, hogy ezt szabályozni kellene, de azt nem nagyon tudom elképzelni, hogy ez hogyan lehetséges.

Mostanában központi szerepet kapott, hogy lehet-e öntudatos a MI. Ezzel kapcsolatban az is kérdés, hogy ha le akar uralni minket, akkor ezt azért teszi, mert öntudatos módon valamiért haragszik ránk, vagy egyszerűen csak nem vagyunk tényezők számára, gépként működik, mint egy fűnyíró?

Mint mondtam, nincs olyan, hogy a MI le akar uralni minket. Az lehet, hogy egyesek mások leuralására akarják használni. Az öntudattal pedig az a probléma, hogy nincs tudományos meghatározása, valahol mindenki érzi, mi az, de még senki sem ,,látta". Illetve olyan viselkedésmintákat látott, mint ahogy ő maga is viselkedik, amiről arra következtetett, hogy a másiknak is ugyanolyan öntudata van, mint neki. A gép is mutathat olyan viselkedésformákat, amit öntudatnak érzékelhetünk, de erre most azt mondjuk, ezt csak eljátssza. Persze vannak bizonyos kritériumok, amelyek szerint megpróbálhatjuk meghatározni az öntudatot. Az a kérdés: tudom-e, hogy vagyok, és megpróbálom-e ezt fenntartani. De ez összemosódik: nem feltétlenül kell öntudattal rendelkeznem, hogy önfenntartóvá váljak, és fordítva is így van. Ugyanígy nem kell bántalmazónak lennie egy MI-nek, hogy félelmetes legyen. Például egy nagyon okos rendszerrel remekül lehet manipulálni minket, azaz úgy irányítani, hogy nem is vesszük észre. Mindenkinek a saját világlátása, érzelmi háttere és öntudatlan mintái mentén lehet bevinni üzeneteket. Ehhez elég a nyelv. Vannak tehát nem megalapozott félelmek, és vannak valós veszélyek a MI fejlesztésekkel kapcsolatban. Szerintem a rövid távú kérdés az, hogyan tudunk védekezni az ellen, hogy jól működő rendszereket rossz célokra használjanak, de fontos foglalkoznunk azzal is, hogy vajon hogyan lehet kontrollálni egy nálunk magasabb szintű intelligenciát.

Az anyák napját követő hétfő az anya nélkül nevelkedő gyermekek napja. Az egyszülős családok csupán tíz százalékában viszi a mindennapokat az édesapa.