A sci-fi irodalom nagyágyúja Isaac Asimov a robotika első három törvényét alkotta meg. Az Európai Unióban nemrégiben fogadták el a mesterséges intelligencia hét etikai alapfeltételét. Azt, ami irányt mutat a jövőbeni eurómilliárdos fejlesztésekhez.

EU mesterséges intelligencia

Ahhoz, hogy az emberek elfogadják és alkalmazzák a robotikát is magában foglaló mesterséges intelligenciát(AI), meg kell teremteni a technológiával kapcsolatos bizalmat. Az ez irányú fejlesztéseknél tiszteletben kell tartani az etikai szabályokat.

Így fogalmazta meg az elvárásokat még tavaly az Európai Bizottság annak a szakértői csoportnak, amely az elmúlt hónapok során a mesterséges intelligencia fejlesztésére és használatára vonatkozó etikai elvek kidolgozásán munkálkodott.

Indul a tesztidőszak

Munkájuk eredménye néhány hete vált ismertté, ennek alapján indítja el június végéna tesztidőszakot a brüsszeli bizottság. Ettől azt várják, hogy bebizonyosodjon az AI fejlesztésére és használatára vonatkozó etikai iránymutatások a gyakorlatban is végrehajthatók.

Mint ismert az uniós szinten 2018 áprilisában előterjesztett mesterségesintelligencia-stratégia célja, hogy a következő évtizedben éves szinten legalább 20 milliárd euróra növelje a területre irányuló köz- és magánberuházásokat, bővítse a rendelkezésre álló adatokat, támogassa a tehetségeket, erősítse a technológiába vetett bizalmat.(Erről részletesen korábban itt írtunk.)

A megbízható AI hét alapfeltétele

  1. az emberi cselekvőképesség támogatása és emberi felügyelet: az AI-rendszerek nem csökkenthetik vagy korlátozhatják az emberek autonómiáját, vagy vezethetik félre őket.
  2. stabilitás és biztonság: a mesterséges intelligencia akkor tekinthető megbízhatónak, ha a használt algoritmusok kellően megbízhatók és stabilak ahhoz, hogy az AI-rendszer teljes életciklusa alatt megbirkózzanak a hibákkal és a következetlenségekkel.
  3. adatvédelem és adatkezelés: Biztosítani kell a polgárok számára, hogy teljes mértékben rendelkezhessenek a saját adataik felett, valamint hogy adataik ne legyenek felhasználhatóak velük szembeni károkozásra vagy hátrányos megkülönböztetésre.
  4. átláthatóság: biztosítani kell az AI-rendszerek nyomon követhetőségét.
  5. sokféleség, megkülönböztetés-mentesség és méltányosság: Az AI-rendszereknek az emberi képességek, készségek és szükségletek teljes skáláját figyelembe kell venniük, és mindenki számára hozzáférhetőeknek kell lenniük.
  6. társadalmi és környezeti jólét: Az AI-rendszereket olyan módon kell használni, hogy előmozdítsák a pozitív társadalmi változásokat, javítsák a fenntarthatóságot és erősítsék az ökológiai felelősségvállalást.
  7. elszámoltathatóság: létre kell hozni olyan mechanizmusokat, amelyek rendezik az AI-rendszerekre és az általuk generált eredményekre vonatkozó, a felelősségvállalással és az elszámoltathatósággal kapcsolatban felmerülő kérdéseket.

A kísérleti időszakot követően 2020 elején a szakértői csoport a kapott visszajelzések alapján felülvizsgálja az értékelési listákat, értékeli az eredményeket és javaslatot tesz a további lépésekre.

Az etikus AI-fejlesztések biztosítása érdekében ez év őszéig létrejönnek a mesterséges intelligenciával foglalkozó kutatási kiválósági központokból álló hálózatcsoportok

Megkezdődik a digitális innovációs központok alkotta hálózatok kiépítése. Elindulnak a tárgyalások a tagállamokkal egy, az adatmegosztásra és a közös adatterek optimális felhasználására vonatkozó modell kidolgozására és végrehajtására.

Hogyan látja a kérdést a fejlesztői oldal?

A mesterséges intelligencia kutatásokra fordított összegek alapján Európa még messze van az USA-hoz és Kínához képest. Az öreg kontinensen ugyanis eddig nagyjából a harmadát költik el annak, amit az amerikaiak és a kínaiak fordítanak évente ilyen célokra.

„Ez a hátrány viszont nem behozhatatlan, sőt a tervek szerint jövőre már 20 milliárd euró jut erre a célra az Európai Unióban” – emelte ki nemrégiben egy budapesti háttérbeszélgetésen Nicholas Hodac, az IBM kormányzati és szabályozási ügyek igazgatója.

Megjegyezte, hogy nemcsak a finanszírozás növelésére fordít hangsúlyt az európai közösség. A már említett csoport, aminek a munkájában az IBM európai szakértői is részt vesznek, alapos és széleskörű iránymutatást ad ahhoz, hogy a fejlesztők megtalálják a megfelelő válaszokat a megbízható AI-termékek és szolgáltatások létrehozatalához.

Nicholas Hodac három alapvető dolgot emelt ki a megbízható mesterséges intelligencia kapcsán: a jogszabályok betartását, az etikai kérdések figyelembe vételét, és azt, hogy maga a rendszer minél robusztusabb legyen.

Ami a június végén induló tesztfolyamatot illeti, az IBM igazgatója megjegyezte: „Az egyértelmű, hogy az AI etikai kérdéseivel előbb-utóbb mindenkinek foglalkoznia kell. Azzal viszont, hogy az EU már most nagy figyelmet fordít erre a területre, ez hosszabb távon akár még komoly előnyt is jelenthet az amerikaiakkal és a kínaiakkal szemben”.

Robotika törvényei