Európai Unió;szabályozás;mesterséges intelligencia;algoritmus;

2021-04-22 10:00:00

Hátrább az algoritmusokkal!

Az Európai Bizottság kockázat alapon, szigorúan szabályozná a mesterséges intelligencia technológiáját, egyes felhasználási módjait teljesen betiltanák.

Legyen emberközpontú a mesterséges intelligencia (MI)! - ezzel a felkiáltással lehetne legjobban összefoglalni az Európai Bizottság tegnap bemutatott tervezetét. A brüsszeli testület a világon az elsők között fogott neki ahhoz, hogy szabályozza a digitális technológia rohamosan fejlődő ágazatát, amelyet jelenleg az amerikai és a kínai techcégek dominálnak. Margrethe Vestager, a Bizottság digitális ügyekért felelős alelnöke abban bízik, hogy az Európai Unió határozza majd meg a nemzetközi sztenderdet, biztosítva egyfelől a technológia etikus felhasználását, másfelől azt, hogy az EU versenyképes maradhasson. Vestager szerint a javasolt szabályok “kizárólag ott avatkoznak közbe, ahol feltétlenül szükséges: amikor az uniós polgárok biztonsága és alapvető jogai forognak kockán.”

A tervezet a felhasználási területük alapján négy kategóriára osztja a mesterséges intelligencia rendszekeket: elfogadhatatlan, magas, limitált, illetve minimális kockázatúakra. Az elfogadhatatlan veszélyt rejtő algoritmusokra teljes tilalom vár, ide sorolják egyebek mellett az olyan mesterséges intelligenciát, amelyeket emberek manipulálásra használnak, vagy lehetőséget adnak a kormányoknak a polgárok tömeges és aránytalan diszkriminációjára. Utóbbi rendelkezés például az úgynevezett társadalmi pontrendszer megvalósítását kívánja kizárni, amely alapján Kínában feketelistára teszik a rezsim kritikusait. Az ázsiai országban alkalmazott tömeges, valós idejű biometrikus megfigyelést viszont nem tiltaná be teljesen a Bizottság: vészhelyzetben - külön engedéllyel - a rendfenntartó erőknek lehetőségük lenne bekapcsolni egy ilyen megfigyelőrendszert.

A magas rizikófaktorral bíró MI-algoritmusok esetében a brüsszeli testület szigorú ellenőrzést foganatosítana, ide tartoznak azok, amelyeken emberéletek, illetve a polgárok boldogulása múlhat - például az orvosi műtétekhez használt automatarendszerektől kezdve a bankok által az ügyfelek hitelképességének értékelésére használt programokig. A limitált veszélyt rejtő algoritmusoknak mindössze bizonyos átláthatósági feltételeknek kellene megfelelniük, egy társalgást szimuláló program esetében például a felhasználóval tudatni kellene, hogy nem emberrel beszélget. A minimális fenyegetést jelentő rendszerekre vonatkozóan a tervezet nem tartalmaz új rendelkezéseket. A javaslat szerint azok a techcégek, amelyek megszegik a szabályokat, akár éves bevételük 6 százalékának megfelelő büntetést is kaphatnak.

A Bizottság terve a Reuters beszámolója alapján nem aratott osztatlan sikert. A European Digital Rights nevű jogvédő koalíció úgy vélte, a mesterséges intelligenciának még ennél is több felhasználási formáját kellene betiltani, egyúttal nehezményezte, hogy a javaslat meghagyta a lehetőséget a tömeges megfigyelésre.Egyes szakemberek arra is figyelmeztettek, hogy a kockázati besorolás szempontrendszere nincsen teljesen világosan körülírva.

A hibák kijavítására van még lehetőség, a tervezeten az Európai Parlament és a tagállamok vezetői egyaránt igazíthatnak.