A háború most kezdődik: megregulázza az Unió az AI-t?

0

Előbb vagy utóbb minden új technológiával kapcsolatban elérkezik a szabályozás kérdése: a mesterséges intelligenciával sincs ez másként, küszöbön az uniós AI-regula. A közeljövő lehetőségeiről egy világhírű szakértőt kérdeztünk – ráadásul, mint kiderült, a legjobbkor.

Három évvel az Európai Unió nagyszabású adatvédelmi szabályozása (GDPR) után újabb jogalkotási mérföldkőhöz érkeztünk: az EU szabályozni szeretné a mesterséges intelligenciához kapcsolódó fejlesztéseket és techcégeket, amelynek során főleg a mi, a felhasználók érdekeit tartják majd szem előtt. Ez egyrészt a felhasználók és felügyeleti szervek megfelelő tájékoztatását célozza, másrészt konkrétan akár korlátozná az egyes magas kockázatú mesterséges intelligencia (bár még egyelőre nem teljesen tisztázott, hogy mit értünk ezen) megoldások használatát. Az uniós szabályozásról a világ tech-központjának számító Szilícium-völgyben élő és dolgozó Dr. Tilesch Györgyöt, a kaliforniai PHI Institute for Augmented Intelligence elnökét kérdeztük. Az interjú pedig nem is jöhetett volna létre jobbkor, hiszen a szakember társszerzőként jegyzi a nemrég megjelent, „Mesterség és intelligencia – Vegyük kezünkbe sorsunkat az MI korában” című könyvet, amely épp az itt is feszegetett kérdéseket járja körbe.

Milyen változást hoz az új szabályozás?

– Egy pontosítással kezdeném. Amiről jelenleg beszélünk, az egy tervezet. Ennek a szabályozásnak már volt néhány kiszivárgott verziója korábban, és hangsúlyozni szeretném, hogy ez egy tervezet, mert amennyire én ismerem az Európai Unió törvényhozási sebességét, most körülbelül abban a szakaszban vagyunk, hogy először tettek le valamit az asztalra, ami nyilvános, és a “háború” igazából most kezdődik.

Amikor háborúról beszélek, akkor ezalatt alapvetően a lobbistákat értem. Az unió környékén ugyanis rengeteg lobbista hemzseg, így most kezdődik az az időszak – a következő fél évben –, amikor megpróbálják felpuhítani a tervezetet. Másrészt pedig nem csak a nagy techcégek nevében tevékenykedő lobbistákról van szó, hanem egy csomó civil szervezetet is várok, akiknek fel kéne emelni a szavukat bizonyos hiányosságok tekintetében, itt különösen a fogasztóvédelem és az emberi jogok lesznek középpontban.

Szeretném hangsúlyozni, hogy ez a szabályozás még sokat fog alakulni, és akkor járunk a legjobban, ha úgy gondolunk a tervezetre, mint szabályozási princípiumra, ami alapján már látható egy viszonylag markáns irányvonal, amit az EU képviselni fog, de a részletek tekintetében még nagyon sok pontosításra van szükség.

Dr. Tilesch György (és igen, ő áll a jobb oldalon)
Dr. Tilesch György (és igen, ő áll a jobb oldalon)

Mit gondolsz arról, hogy – a világ technológiai fejlettségéhez képest általában évtizedes lemaradásban lévő – jogalkotók vajon utol tudják érni valaha ezt az amúgy is nagyon nehezen leírható és elképesztően gyorsan fejlődő területet?

– Szerintem nem lehetetlen, és vannak a szabályozásban olyan előremutató jelek, ha pozitívan akarok hozzáállni, vagy optimistán, amit nem vártam volna. Ilyen például a monitoring. Szerintem az az egyik legfontosabb dolog, hogy az Unió végre megértette, hogy a mesterséges intelligencia nem úgy működik, mint a korábbi technológiai hullámok, hanem akár külső beavatkozásra, vagy egyszerűen maguktól el tudnak “romlani” ezek a rendszerek, tehát az adattömeg, ami az egészet táplálja, képes magától is sérülni, plusz az adatokat meg lehet fertőzni, lehet manipulálni… Utóbbival kapcsolatban egyébként óriási hiányosságokat látok, főleg az AI Cybersecurity terén. Itt borzasztó nagy a lemaradás.

Nekem is nagyon sok problémám szokott lenni, és nagyon sokat szoktam féltőn-óvón kritizálni az Uniót a sebessége miatt. Az azonban, hogy egy ilyen szabályozás egyáltalán kijött, viszonylag gyorsan végigszáguldott a politikai rendszeren, és ennek köszönhetően az EU megelőzött más nagyhatalmakat, az egy nem várt, rendkívül pozitív fordulat.

Valóban gyors volt az átfutás, hiszen talán tavaly májusban volt az első hír erről…

– Igen, és ahhoz képest, hogy a GDPR szabályozást 5-6 évig készítették elő, ez most nagyon gyorsan ment. De hogy elég gyors-e? Hogy a kérdésedre is válaszoljak… Nem. Nagyon nem. És ebben ráadásul volt egy nem szándékos hatás, miszerint akaratlanul a világ az Európai Unióra “testálta” az első szabályozás megalkotásának kényszerét, amely bizonyos szempontból előnyös, más irányból azonban stratégiailag hátrányt is jelenthet. De az Unió valahogy mégis kiharcolta magának ezt a globális “szabályozói etalon” szerepkört, aminek szerintem az lesz az eredménye, hogy gyorsan végig fog gördülni a világon, és annyiban biztosan példamutató lesz, hogy ennek a szabályozásnak a verziói sok országra – különösen a nyugati demokráciákra, például Új-Zélandra, Ausztráliára, Kanadára, de akár az Egyesült Államokra is – nagyon nagy hatással lesznek.

Nem tudom, láttad-e: pár órával a publikálás után a Fehér Ház hivatalosan kitweetelte, hogy üdvözöljük “európai testvéreink” első szabályozási kísérletét. Az, hogy az Unió és az USA vezetése ugyanúgy egymással szemben fog állni ebben a kérdésben, mint ahogy a Trump-adminisztráció alatt állt, szerintem már nem áll fenn.

A Biden-adminisztrációval egyértelmű paradigmaváltás zajlik, és ennek több oka van. Ha figyeled, január elejétől, amikor Biden elnök lett, azóta megy egy nagy “hahózás” az Atlanti-óceán két partjáról, hogy Transatlantic AI Partnership kell, amit mind a két oldal elég erőteljesen hangsúlyoz, vagyis már látszanak a kölcsönhatások az Atlanti-óceán két partja között. Én sok olyan dolgot vettem észre az európai szabályozási tervezetben, ami egyértelműen amerikai (tech) fiaskókra épült, hogy elkerüljenek olyan AI alkalmazási botrányokat, amelyek az elmúlt 2-3 évben Amerikában történtek. Másrészt pedig, ha figyeled azt, hogy akár a Fehér Házból, akár a pénzügyi szabályozók részéről Amerikában milyen tervezetek jönnek ki, látható, hogy szellemiségében kezd egyre inkább az európai szemlélethez hasonló lenni.

Az a klasszikus mondás, miszerint Amerika mindig azt az álláspontot fogja képviselni, hogy ne fékezzük az innovációt holmi szabályozással, ez már nem létezik. Azok a munkacsoportok, amikben én benne vagyok a Fehér Házban, illetve annak a környékén, azok nagyon kezdenek európai logikát felvenni. Vagy mondjuk inkább úgy, hogy nem várt mértékben kezdenek európai logikát felvenni, és cserébe pedig az Unió első szabályozása, amitől azt vártam volna, hogy az majd nagyon big-tech ellenes lesz, most egyáltalán nem tűnik annak. Úgy gondoltam, hogy lesz mögötte egy nagy politikai hajtóerő, hogy a meghatározó tech platformokat akarják majd ezzel elsősorban s durván megfenyíteni, de ez végül nem látszik annyira markánsan, mint eredetileg gondoltam volna.

Konkrétan valóban nem hivatkozik platformokra vagy technológiai megoldásokra a dokumentum, de azért abban, hogy a tervezet szerint állami szabályozó testület előtt kell bemutatni a már működő, és majd a jövőbeli AI fejlesztéseket (és itt most nem pl. az arcfelismerésre vagy az önvezető járművekre kell gondolni), abban érzek egy igen erős fékezőerőt. Hiszen többek között a Google és a Facebook is a felhasználói profilozásból él; ugyanakkor a tervek szerint nem lehet majd ész- és főleg kontroll nélkül felhasználni az emberek adatait. De ezek szerint ezt te nem érzed konkrét big-tech ellenességnek.

– Én is látom ezeket a szabályozásban, csak azt mondom, hogy kevésbé látom azt a markáns, lesújtó politikai akaratot, amire korábban számítottam volna. Nem erre van kihegyezve az egész, és ez szerintem egy lényegi dolog.

Abból, hogy az elbírálást nemzeti hatóságok kezébe adják, szerintem sokkal több probléma lesz, mint megoldás, ezért ezt nem igazán látom jó megoldásnak. Egyszerűen azért, mert a szakértelmet nagyon nehéz felépíteni állami szinten, például azt, hogy egy fogyasztóvédelmi hatóságnál a mesterséges intelligencia szakértői üljenek, akik képesek ezeket a fejlesztéseket bevizsgálni. Ebben azért az EU szerintem sok tekintetben azt a téves logikát képviseli, hogy nagyon erősen túlbürokratizálja a folyamatot, és olyan hagyományokra akar építeni, mint mondjuk a GDPR, ami gyakorlatilag egyszerűen ráterhelt komoly bürokratikus kötelezettségeket a cégekre. Ami egyébként nem rossz, hogy van, csak szerintem rossz hagyományokra épít.

Az pedig, hogy nemzeti hatósági kézben tartja a dolgot, annak egyértelműen politikai lobbi okai vannak. Amikor az első kiszivárgott verzió kijött, tehát még nem ez a mostani hivatalos, akkor már látható volt, hogy a 27 tagállamból 15 gondolta azt, hogy ez a szabályozás meg fogja fojtani az innovációt, magyarul egy olyan háttéralku is kialakulhatott, hogy minden ország kap egy viszonylag nagy mozgásteret abban, hogy a saját országába mit kíván átengedni és mit nem.

Szerinted mi az az irány, amit érdemes lenne az Uniónak megfontolni? Egy bürokráciától, lobbistáktól, politikától mentes utópisztikus világban milyen lenne egy ilyen szabályozás?

– Először is szeretném leszögezni, hogy szerintem az irány, amit választottak, alapvetően jó. Egyszerűen “nettó jó” ez a szabályozási kísérlet azért is, mert etalon, és azért is, mert nagyon erősen érték- és kockázatelvű, ami szerintem a legjobb megközelítés, ami létezik.

Én a fő szakmámban AI eticista vagyok, a mesterséges intelligencia etikai részével foglalkozom kormányokkal és nagyvállatokkal dolgozva, és ez nagyon erősen áthatja ezt a szabályozási tervezetet, ezt mindenképpen előre mutatónak gondolom. Simán kijöhetett volna az egészből egy olyan, hogy az etika egy ilyen “jó, ha van” dolog, de végül ez mégis nagyon hangsúlyosan jelenik meg ebben a történetben. Azt érzem, hogy az EU azt a sapkát vette fel, hogy társadalmi hatást és társadalmi rizikókat akar felmérni és ez alapján hozott létre egy háromszintű rendszert, ami majdnem a klasszikus Kádárista, támogatjuk, tűrjük, tiltjuk típusú logika. Megállapít bizonyos társadalmi kockázati területeket, és érdekes, hogy ezt nem is a technológiára hegyezi ki, vagyis míg egy csomó ideig azt vártuk – és korábban kikerült verziókból is az látszott -, hogy a fókusz sokkal inkább konkrét technológiák megnevezéséről szól, amelyek kockázatosak, végül nem így lett.

És bár ez is benne van azért a mostani dokumentumban is, de borzasztóan érdekes az, hogy magas kockázatúnak rendeltek bizonyos társadalmi hatásokat és társadalmi alrendszereket, mint például az oktatás vagy épp a munkához való jog. A tradicionálisabb amerikai logikában ugyanez a magasabb kockázat inkább a hadiipar, a hírszerzés, meg a megfigyelés lettek volna, így ezt én nagyon előre mutatónak látom az uniós szabályozásban. Az etikai botrányokra való reagálások lehetőségével való számolás, egy olyan előre gondolkodásra való képesség, amit az EU-nál korábban nem szokhattunk meg.

Miért fontos ez? Azért, mert ez egy olyan “fluid” keretrendszert hoz létre – ezt hangsúlyozni kell, hogy ez egy keretrendszer -, amiben folyamatosan update-elhetők a technológiák- és a kockázatminősítés definíciói. A monitorozás előírásai miatt pedig gyakorlatilag a történelem első (jó értelemben vett) képlékeny szabályozási rendszere születhetett meg, és ez szerintem borzasztóan fontos.

Itt utalok vissza korábbi kérdésedre, hogy nem vagyunk tizenévekkel lemaradva – ennyire pesszimista nem vagyok. Látszik már egy halvány reménysugár arra, hogy meghaladjuk a régi rutint, mely mindig sok évvel korábbi állapotot szabályozott.

Ez a fluiditás hiányzott eddig a rendszerből, és ez most megnyitotta a kapukat például abba az irányba, hogy például egy technológiai vállalat ne tudjon úgy elmenekülni a szabályozás elől, hogy elkezd gyorsan új technológiákat fejleszteni, amit majd talán 5 év múlva fog a szabályozás valahogy utolérni. Szerintem ez nagyon, nagyon fontos. Amikor én egy évvel ezelőtt beszélgettem a Szilícium-völgyben a közelgő szabályozásokról, akkor a cinikusabbak legyintve mondták, hogy akkor majd nem úgy fogjuk hívni, hogy mesterséges intelligencia, és akkor nem lesz ránk érvényes a szabályozás. Van egy végtelen cinizmus a Völgyben, és én a magam részéről jónak tartom, hogy jön majd némi “orra koppintás”, és nagyon tudom üdvözölni, hogy érték- és kockázatelvű a szabályozás, mert ez az egyetlen realisztikus megközelítése ennek a témának.

Legyen igazad, hogy egy pozitív, kockázat- és értékelvű irányelv alapján döntenek, de mégis csak emberek fognak dönteni: lesz, lehet szürke zóna? Nem lesz mégis túl hangsúlyos az emberi tényező a szabályozásban?

– Lesz ez, meg egy csomó minden más: például lesz mögötte egy audit rendszer, tehát fel fog állni egy ugyanolyan “kalauzhal társaság” mint a GDPR szabályozásnál: meg fog jelenni az AI Auditor, mint szakma, akiknek egy jelentős része valószínűleg gépesített eszközökkel fog dolgozni. A Szilícium-völgyben, most mindenki és mindenkinek a nagymamája is ilyen etikai bevizsgáló rendszereket fejleszt, és a magam részéről sokkal nagyobb rizikót látok abban, hogy ha valaki egyfajta checklist-ként közelít ehhez a történethez, vagy arra próbálja az egészet redukálni, hogy ha baj van egy rendszerben, akkor az biztosan adat-probléma vagy modell-probléma, és nem emberi probléma.

Én abban a világban élek, ahol általában a legtöbb “háború”, mind a kormányzaton belül, mind a nagyvállalatoknál, abból fakad, hogy próbálják kétségbeesetten minimálisra redukálni a kört, ahol probléma lehet, és mindent “agyontechnologizálnak” a megoldásban is: ha algoritmus okozta a problémát, akkor algoritmus megoldása van a problémának. Nem tagadom, hogy lehet így is, de a jelen EU-s szabályozás esetében a félelmeim sokkal nagyobbak lennének akkor, ha az emberi tényező lenne a “nice to have”, és nem a “must have” a kérdésben. Én tehát alapvetően pozitívnak látom a jelenlegi helyzetet, de a másik oldala a történetnek az, amire te is utalsz, hogy a szakértelem ezen döntések meghozatalához jelen pillanatában nem áll rendelkezésre. Itt viszont hatalmas átképző programoknak kell indulni mind felhasználói, mind döntéshozó, mind auditor szinten, mind pedig kvázi szabályozó szinten, hogy a rendszer működőképes legyen.

Ha ezt a szabályozást most ebben a pillanatban dobnák be, akkor óriási káosz lenne. Ha pedig mondjuk másfél év múlva dobják be – mint amire most körülbelül számítok -, addig van esélyünk arra, hogy felállnak – akár piaci alapon, akár állami programokból finanszírozva – olyan képzőrendszerek, melyek segítségével ez a kaszt létrejöhet: mind auditorok, mind pedig azok a felhasználók, akik képesek ezeket a rendszereket felelősségteljesen használni és biztosítani a szabályozás által megkövetelt “emberi kontrollt”.

Nekem talán az a legérdekesebb ebben, hogy egy abszolút algoritmusokra, szigorúan számítási kapacitásokra épülő történetben a végeredmény egy emberi bizottságra épülő döntésen fog múlni. Én ezt paradoxonnak érzem.

– Én ezt egy spektrumnak látom inkább. Az egyik végén van a gép és a gépi döntés és az algoritmikus kontroll, a másik oldalán meg a humán kontroll. Tehát minden ember, aki itt döntéshelyzetben lesz akár kívülről, akár belülről, akár felhasználóként, akár döntéshozóként azokban a szerepkörökben, amiket felsoroltam, azokat nagyon erősen segíti majd a technológia. Az, amit senki nem mer ma igazán hangsúlyozni a világban a mesterséges intelligencia jelenlegi szakaszáról, az nem más, mint hogy tévedhet, nagyot tévedhet.

És amikor nagyot téved, akkor pár másodperc alatt millió olyan döntés és javaslat születhet, ami csont nélkül megy át az emberi döntéshozókon, aminek a társadalmi hatása hatalmas, és van, amikor akár visszafordíthatatlan. Ezt szerintem nagyon jól látta meg az Európai Unió, hogy ez a nyíltvégűség és ez a rettenetes skálázási lehetőség a legnagyobb veszélyei a rendszernek, és az, hogy ezek a rendszerek még kiforratlanok. Tulajdonképpen úgy kerülnek át a való világba, úgy lesznek élesítve ezek a technológiák, hogy nagyon sok bizonytalansági faktor van bennük, csak a hatalmas erejük és profitabilitásuk, és produktivitási faktoruk miatt kikerülnek a piacra, és amikor valakinek ezeket karban kell tartani, akkor az előállító már mosná a kezeit.

A legfontosabb üzenetem az, hogy meg kell szerezni nagyon gyorsan ezeket a képességeket. Meg kell érteni ezeket a rendszereket belülről. Mari néninek is és az ügyintézőnek is a kormányablakban meg kell ezeket tanulni, és nem feltétlenül felvilágosító programokban, hanem fluid képzési programokban. Az Unióban pedig megvan annak a hagyománya, hogy hatalmas képzési programokat indítsanak. Amerikában ugyanez nem volt meg. Nemzetközi vezetőként benne vagyok az első ilyen nagy amerikai kezdeményezésben, a Fehér Háznak ugyanis most indul az AI Talent Management programja, ahol 18 millió kormányhivatalnokot fogunk kiképezni. Számomra ez meglepő, hogy Amerikában egy ilyen teljesen európai stílusú program el tudott indulni, aminek amúgy itt a kulturális hagyományai nincsenek meg. Borzasztóan jó érzés látni, hogy összeáll az ehhez szükséges erő és kritikus tömeg.

Tehát én alapvetően jónak tartom, hogy a tervezési-fejlesztési és működtetési folyamat összes lépésében megjelenik a felelősségteljes emberi közreműködés kritériuma, és a végső ponton a piros gombot is egy ember nyomja meg. Kritikus, hogy minden döntést, amit egy ilyen rendszer generál, azt emberek tudják felülbírálni, hogy ne veszítsék el azon lehetőségüket, amit a jog is biztosítani fog: hogy a technológiai megoldásokat józan ésszel tudják vezérelni és terelni.

HOZZÁSZÓLOK A CIKKHEZ

Kérjük, írja be véleményét!
írja be ide nevét