Bűn és büntetés: A mesterséges intelligencia jogi dilemmája

A mesterséges intelligencia figyelemre méltó és néha ijesztő növekedést mutat, ez jogi és erkölcsi vitákat váltott ki szerte a világon. Van-e mód ennek a gyorsan növekvő iparágnak a szabályozására?

Dosztojevszkij „Bűn és büntetés” című klasszikus regényére emlékeztető új novellánk története a digitális korban zajlik, és a főszereplő Raszkolnyikov összetett indítékaira épül.

A mi értelmezésünkben azonban a főszereplő nem egy ember, hanem egy kifinomult robot, a RaszkolnikAI. Az összetett etikai döntéshozatali algoritmusokkal tervezett RaszkolnikAI következetességen alapuló szemléletmóddal működik, ahol a cselekvés helyénvalóságát az abból fakadó következmények alapján mérik.

Egy szerencsétlen napon, amikor számításai rendkívüli sebességgel zajlanak, RaszkolnikAI úgy dönt, hogy az emberiség általában árt a Földön élő más életformáknak.

Így egy megtervezett manőverrel hihetőnek tűnő események sorozatát indítja el, amelynek célja az állatok, a növények és a természet meggyógyítása.

Ennek érdekében, amikor csak teheti, elkezdi megölni az embereket a hatékony AiXE-vel, amelyhez Dosztojevszkij főhősének választott fegyvere, a fejsze adta az ihletet.

A nyomozó hatóságok egy mesterséges intelligencia közreműködésére gyanakodnak. Végül felfedeznek egy digitális nyomot, amely a Raszkolnik AI-hoz vezet.

De ez az igazi probléma: Hogyan kényszeríthetünk egy robotot arra, hogy vállalja döntései következményeit? 

A mesterséges intelligencia szabályozása

A mesterséges intelligencia szabályozására összpontosítanak, a döntéshozók világszerte dolgoznak a mesterséges intelligenciáról szóló törvényen, az AI biztonsági csúcstalálkozón, a Fehér Ház végrehajtási rendeletén és a kaliforniai SB-1047-en.

Ezek az erőfeszítések rávilágítanak arra, hogy mennyire fontos a mesterséges intelligencia technológiák biztonságának szavatolása, amikor egyre növekedik a közaggodalom és a geopolitikai verseny.    

Amikor verseny van a szabályozásért az Amerikai Egyesült Államok, Európa, és a G7-országok között, a kérdés egyre bonyolultabb, heves vita zajlik a megfelelő globális szabályozási keretről.

Az európai hatóságok azon dolgoznak, hogy egy általános adatvédelmi rendelet keretében globális AI-szabványokat alakítsanak ki, az Amerikai Egyesült Államok megpróbálja kiküszöbölni a "brüsszeli befolyás" lehetséges következményeit.

Mindazonáltal nehéznek tűnik konszenzusra jutni a szabályozás hatályát és természetét illetően, különös tekintettel az olyan befolyásos szereplőkre, mint Kína és annak „peking feletti befolyása”.

Ezenkívül a nagy nyelvi modellek, például a ChatGPT megjelenése új kihívásokat vet fel,  ami vitákat vált ki a betanított adatokkal és kockázatértékelési módszerekkel kapcsolatban.

Ennek eredményeként sikerült kompromisszumra jutni, miszerint az erős nyelvi modellekre szigorúbb szabályok vonatkoznak, a kisebb modellek pedig bizonyos mentességeket kapnak.

E viták közepette egy másik megoldhatatlan dilemma is felmerül, nevezetesen a mesterséges intelligenciával működő gépek jogi személyiséggel való felruházása. Ez továbbra is vitatott kérdés, ami aggodalmakat vet fel a felelősséggel és az etikai következményekkel kapcsolatban, és olyan kitalált forgatókönyvekre emlékeztet, mint például a RaszkolnikAI etikai dilemmája.

A felelősség az intézményi egységet terheli-e, amely létrehozta, a fejlesztőket, akik életet adtak a kódnak, vagy magát az egységet, amelynek autonómiája fejlődik? Sürgősen fel kell hívni a figyelmet erre a vitára, mielőtt helyreállíthatatlan károk keletkeznek.

A jelenlegi szabályozási keretek nem alkalmasak a mesterséges intelligenciával kapcsolatos felelősség sokrétű dimenzióinak kezelésére.

A jogi helyzet még összetettebbé válik, ha a mesterséges intelligencia szándékosan bűnözői magatartást tanúsít (mens rea), és magát a cselekményt hajtja végre (actus reus). Újabb kérdések merülnek fel arról, hogy ki az elkövető és mi a büntetés lehetséges módszere.

Az olyan hatóságok, mint az ENSZ Interregionális Bűnügyi és Igazságügyi Kutatóintézete (UNICRI) és az Europol Európai Számítógépes Bűnözés Elleni Központja (EC3) közelmúltbeli jelentései rámutatnak, hogy a rosszindulatú szereplők gyorsan integrálják a mesterséges intelligencia technológiákat.

A mesterséges intelligencia lehetőséget teremt a kiberbűnözőknek az okos házvezérlő rendszerek biztonsági réseitől a teljesen automatizált behatolási tesztelési eszközök telepítéséig mindent szolgáltatva.

Ezekben a forgatókönyvekben a mens rea emberi kézben van, míg az actus reust a mesterséges intelligencia biztosítja.

Ha azonban van ennél aggasztóbb forgatókönyv, akkor az az, hogy a mesterséges intelligenciát nemcsak bűncselekmények elkövetésére használják, hanem maga is rosszindulatú szándékkal rendelkezik.  

 

A mesterséges intelligencia személyeken keresztül történő humanizálása

Az Európai Parlament 2017-es jelentése szerint az öntanuló robotok "elektronikus személyiségnek" minősülhetnek.

Mary Shelley Frankenstein című regényére és a prágai Gólem-történetre utalva a jelentés hangsúlyozza, hogy az intelligens gépek létrehozásának lehetősége mindig is felkeltette a figyelmet a közvéleményben.

Ami egykor spekuláció volt, most valósággá válik.

A múltbeli elbeszélésekből levont megoldások azonban nem alkalmazhatók közvetlenül a mesterséges intelligenciára. A jelentés azt javasolja, hogy azáltal, hogy a robotokat elektronikus személyiségekkel látják el, felelősségre vonhatják őket tetteikért, ugyanúgy, mint a vállalatoknak adott jogi személy esetében.

Bár a felelősségnek a mesterséges intelligenciával működő gépekre  való tulajdonítása a helyes irányba tett lépés, továbbra is kihívást jelent annak meghatározása, hogy ki viseli a mesterséges intelligenciával kapcsolatos bűncselekmények terhét.

A jelentés rávilágít arra, hogy mennyire bonyolult megérteni az ilyen átláthatatlan rendszerek döntéshozatali folyamatait, ami zsákutcába szorítja a törvényhozókat.

A mesterséges intelligencia tetteiért való felelősségre vonásának gyakorlati következményei nem világosak, mivel az AI döntéshozatali folyamatainak bizonytalansága és az érzelmek hiánya miatt az elrettentés és a hagyományos büntetési módszerek hatástalanok.

Ez jelentős joghézagot teremt a jogrendszerekben, és aláássa a közbizalmat.

Sőt, az AI azon képessége, hogy gépi tanulási algoritmusok segítségével számos bűnözői magatartást utánoz, riasztó dimenziót ad a vitához.

A mesterséges intelligencia személyeken keresztül történő humanizálása esetén elengedhetetlenné válik, hogy megerősítsük státuszukat, annak tudatában, hogy különböző tulajdonságokkal rendelkező gépek.  

Az emberségre összpontosító szankciók alkalmazása ezekre az entitásokra nem kínál megoldást. A halálbüntetés (kill switch) vagy a mesterséges intelligencia rendszerek fogvatartása nem hatékony a többi mesterséges intelligencia rendszer elrettentésében, mert hiányzik belőlük a bűntudat érzése vagy a megváltás fogalmának megértése.

Kitérve a RaszkolnikAI történetére, ha a neurális hálózatába ágyazott haszonelvű logikájával úgy dönt, hogy felszámolja az emberiséget, a megoldások korlátozottak.

Az egyetlen módja annak, hogy kijussunk ebből a dilemmából, az lenne, mielőtt más gépek tudomást szereznek az okáról, proaktívan letiltjuk, így megelőzzük a hasonló akciók terjedését.

Az addig átélt veszteségek azonban megállják a helyüket egy szomorú, megoldatlan gyilkossági ügy történetében.

Az emberiségnek a folytonosságot kell előtérbe helyeznie az elkerülhetetlenül ismétlődő ballépések ellenére is. Mert, ahogy Dosztojevszkij mondta: “Sokkal jobb a saját (az emberiség) utunkat járni, mint a másokét (AI).”