Nagyjából fél év telt el a ChatGPT nyilvános megjelenése óta, de az alkalmazás használatát már számos országban betiltották, mindenhol más-más okok miatt.

ChatGPT tiltás?

A mesterséges intelligencia(AI) kapcsán újabb izgalmas témát vetettek fel a Deloitte tanácsadó cég hazai szakértői, akik nemrégiben az AI-alkotta művek „szerzői jogait” járták körül. Mostani elemzésükben a technológia európai jogi helyzetét vették górcső alá.

Kulcskérdés az adatvédelem

A ChatGPT eddig az alábbi országokban tiltották be: Észak-Korea, Irán, Oroszország, Szíria, Kuba és Kína, valamint egy uniós ország, Olaszország is. A tilalom mögött különböző motivációk állnak. Kína és Olaszország kivételével a tiltás tulajdonképpen kétoldalú: az OpenAI sem kíván terjeszkedni ezekben az országokban. Kína esetében a nyugati tartalmak szűrése áll a háttérben, míg Olaszország esete adatvédelmi aggályokon alapul.

Az olasz adatvédelmi hatóság március végén közleményben jelentette be, hogy azonnali hatállyal, egyelőre átmenetileg betiltják az országban a ChatGPT használatát. Az indoklás szerint az OpenAI nem az adatvédelmi szabályoknak megfelelően gyűjti a személyes adatokat.

Ezen felül a korhatár ellenőrzésének hiányát is kifogásolta a hatóság, mivel az applikáció nem kéri, így nem is tudja ellenőrizni a felhasználók életkorát, ami kiszolgáltatottá teheti a kiskorúakat. A tiltáshoz hozzájárulhatott az országban nem sokkal korábban történt adatvédelmi incidens is, amelynek során a fizetős ChatGPT Plus előfizetők 1,2 százalékának személyes adatai kerülhettek nyilvánosságra,nemcsak a kereszt- és vezetéknevük, és e-mail címük, hanem a számlázási adataik is, vagyis a hitelkártyaszám utolsó négy számjegye és annak lejárati dátuma is.

A hibára az OpenAI gyorsan reagált, és mintegy 10 órára offline állapotba helyezte a csevegőrobotot, ez alatt az idő alatt megszüntette a problémát. Az olasz hatóság 20 napot adott az OpenAI-nak, hogy változtassanak azokon a gyakorlataikon, amelyeket a hatóság aggályosnak talált.

„Az EU-s szabályok nem engedik meg, hogy az AI korlátlanul, bármilyen adatból tanuljon. Ezért az AI használatát megelőzően kiemelten fontos ügyelni arra, hogy az adatvédelmi szempontok már a tervezési fázisban a projekt részévé váljanak, és megfelelő hangsúly kapjanak az adatkezelési célok, a lehetséges adatbiztonsági kockázatok azonosítása és kezelése, illetve, hogy figyelembe vegyük az adattakarékossági elvárásokat is” – hívja fel a figyelmet Nagy Dániel Attila, a Deloitte Legal adatvédelmi és technológiai csoportjának vezető ügyvédje.

Hozzáteszi, ha az olasz adatvédelmi hatóság megállapításai igaznak bizonyulnak, akkor ez egyben azt is jelenti, hogy az összes európai országban, sőt, a világ más régióiban is jogellenesnek minősülhet az applikáció által alkalmazott gyakorlat, ahol hasonló szabályozások vannak érvényben.

Több európai ország is fontolgatja az alkalmazás használatának a felülvizsgálatát, a francia és ír adatvédelmi hatóságok már felvették a kapcsolatot az olasz társszervekkel, hogy részletesen tájékozódjanak a tilalom alapjáról. Németország is követheti Olaszország példáját, és adatvédelmi aggályok miatt betilthatja a ChatGPT-t.

Már dolgoznak az európai AI Act-en, de a technológia túl gyorsan változik

Világszerte egyre többen hívják fel a figyelmet a mesterséges intelligencia veszélyeire és működések, működtetése szabályos keretek közé terelésének fontosságára. Az Európai Unió jelenleg is dolgozik az ún. AI Act-en, amelynek célja a mesterséges intelligencia rendszerek szabályozása.

A jelentések szerint azonban egyrészt annyira gyorsan változik a technológia, hogy ez gondot okoz a szöveg véglegesítésénél, emellett számos fontos kérdésben sem tudnak megegyezni a jogalkotók.

Az Europol az elemzésében kimondottan sötét jövőre figyelmeztet a kiberbűnözés, adathalászat, tévinformációk és a propaganda kapcsán. Elon Musk mellett számos etikus hacker hívja fel nyílt levélben arra a figyelmet, hogy mindenki által átvett biztonsági protokollokra van szükség, amelyeket független szakértők alakítanak. A fejlesztőknek pedig a kormányzatokkal és hatóságokkal kellene együtt dolgozniuk.

A kialakult helyzet is azt támasztja alá, hogy a mesterséges intelligenciát alkalmazó rendszerek fejlődési sebessége messze meghaladja a jogalkotást. Ugyan az AI Act végleges szövegére, és annak hatálybalépésére még várni kell, azoknak a vállalkozásoknak, amelyek mesterséges intelligencia rendszereket alkalmaznak, illetve terveznek bevezetni, kiemelt figyelmet kell fordítaniuk mind az etikai, mind a jogi megfelelésre.

„A megbízható mesterséges intelligencia egyik legfontosabb alappillére az adatvédelmi jogszabályok és előírások fokozott figyelembevétele. Az AI-t fejlesztő és használó szervezeteknek átláthatóan kell kommunikálniuk, hogy milyen adatokat milyen célból gyűjtenek, és megfelelő szintű kontrollt kell biztosítaniuk az adatalanyok számára az adataik felett” – teszi hozzá Barta Gergő, a Deloitte vezető mesterséges intelligencia szakértője.