Dosztojevszkij „Bűn és büntetés” című klasszikus regényére emlékeztető új novellánk története a digitális korban zajlik, és a főszereplő Raszkolnyikov összetett indítékaira épül.
A mi értelmezésünkben azonban a főszereplő nem egy ember, hanem egy kifinomult robot, a RaszkolnikAI. Az összetett etikai döntéshozatali algoritmusokkal tervezett RaszkolnikAI következetességen alapuló szemléletmóddal működik, ahol a cselekvés helyénvalóságát az abból fakadó következmények alapján mérik.
Egy szerencsétlen napon, amikor számításai rendkívüli sebességgel zajlanak, RaszkolnikAI úgy dönt, hogy az emberiség általában árt a Földön élő más életformáknak.
Így egy megtervezett manőverrel hihetőnek tűnő események sorozatát indítja el, amelynek célja az állatok, a növények és a természet meggyógyítása.
Ennek érdekében, amikor csak teheti, elkezdi megölni az embereket a hatékony AiXE-vel, amelyhez Dosztojevszkij főhősének választott fegyvere, a fejsze adta az ihletet.
A nyomozó hatóságok egy mesterséges intelligencia közreműködésére gyanakodnak. Végül felfedeznek egy digitális nyomot, amely a Raszkolnik AI-hoz vezet.
De ez az igazi probléma: Hogyan kényszeríthetünk egy robotot arra, hogy vállalja döntései következményeit?
A mesterséges intelligencia szabályozása
A mesterséges intelligencia szabályozására összpontosítanak, a döntéshozók világszerte dolgoznak a mesterséges intelligenciáról szóló törvényen, az AI biztonsági csúcstalálkozón, a Fehér Ház végrehajtási rendeletén és a kaliforniai SB-1047-en.
Ezek az erőfeszítések rávilágítanak arra, hogy mennyire fontos a mesterséges intelligencia technológiák biztonságának szavatolása, amikor egyre növekedik a közaggodalom és a geopolitikai verseny.
Amikor verseny van a szabályozásért az Amerikai Egyesült Államok, Európa, és a G7-országok között, a kérdés egyre bonyolultabb, heves vita zajlik a megfelelő globális szabályozási keretről.
Az európai hatóságok azon dolgoznak, hogy egy általános adatvédelmi rendelet keretében globális AI-szabványokat alakítsanak ki, az Amerikai Egyesült Államok megpróbálja kiküszöbölni a "brüsszeli befolyás" lehetséges következményeit.
Mindazonáltal nehéznek tűnik konszenzusra jutni a szabályozás hatályát és természetét illetően, különös tekintettel az olyan befolyásos szereplőkre, mint Kína és annak „peking feletti befolyása”.
Ezenkívül a nagy nyelvi modellek, például a ChatGPT megjelenése új kihívásokat vet fel, ami vitákat vált ki a betanított adatokkal és kockázatértékelési módszerekkel kapcsolatban.
Ennek eredményeként sikerült kompromisszumra jutni, miszerint az erős nyelvi modellekre szigorúbb szabályok vonatkoznak, a kisebb modellek pedig bizonyos mentességeket kapnak.
E viták közepette egy másik megoldhatatlan dilemma is felmerül, nevezetesen a mesterséges intelligenciával működő gépek jogi személyiséggel való felruházása. Ez továbbra is vitatott kérdés, ami aggodalmakat vet fel a felelősséggel és az etikai következményekkel kapcsolatban, és olyan kitalált forgatókönyvekre emlékeztet, mint például a RaszkolnikAI etikai dilemmája.
A felelősség az intézményi egységet terheli-e, amely létrehozta, a fejlesztőket, akik életet adtak a kódnak, vagy magát az egységet, amelynek autonómiája fejlődik? Sürgősen fel kell hívni a figyelmet erre a vitára, mielőtt helyreállíthatatlan károk keletkeznek.
A jelenlegi szabályozási keretek nem alkalmasak a mesterséges intelligenciával kapcsolatos felelősség sokrétű dimenzióinak kezelésére.
A jogi helyzet még összetettebbé válik, ha a mesterséges intelligencia szándékosan bűnözői magatartást tanúsít (mens rea), és magát a cselekményt hajtja végre (actus reus). Újabb kérdések merülnek fel arról, hogy ki az elkövető és mi a büntetés lehetséges módszere.
Az olyan hatóságok, mint az ENSZ Interregionális Bűnügyi és Igazságügyi Kutatóintézete (UNICRI) és az Europol Európai Számítógépes Bűnözés Elleni Központja (EC3) közelmúltbeli jelentései rámutatnak, hogy a rosszindulatú szereplők gyorsan integrálják a mesterséges intelligencia technológiákat.
A mesterséges intelligencia lehetőséget teremt a kiberbűnözőknek az okos házvezérlő rendszerek biztonsági réseitől a teljesen automatizált behatolási tesztelési eszközök telepítéséig mindent szolgáltatva.
Ezekben a forgatókönyvekben a mens rea emberi kézben van, míg az actus reust a mesterséges intelligencia biztosítja.
Ha azonban van ennél aggasztóbb forgatókönyv, akkor az az, hogy a mesterséges intelligenciát nemcsak bűncselekmények elkövetésére használják, hanem maga is rosszindulatú szándékkal rendelkezik.
A mesterséges intelligencia személyeken keresztül történő humanizálása
Az Európai Parlament 2017-es jelentése szerint az öntanuló robotok "elektronikus személyiségnek" minősülhetnek.
Mary Shelley Frankenstein című regényére és a prágai Gólem-történetre utalva a jelentés hangsúlyozza, hogy az intelligens gépek létrehozásának lehetősége mindig is felkeltette a figyelmet a közvéleményben.
Ami egykor spekuláció volt, most valósággá válik.
A múltbeli elbeszélésekből levont megoldások azonban nem alkalmazhatók közvetlenül a mesterséges intelligenciára. A jelentés azt javasolja, hogy azáltal, hogy a robotokat elektronikus személyiségekkel látják el, felelősségre vonhatják őket tetteikért, ugyanúgy, mint a vállalatoknak adott jogi személy esetében.
Bár a felelősségnek a mesterséges intelligenciával működő gépekre való tulajdonítása a helyes irányba tett lépés, továbbra is kihívást jelent annak meghatározása, hogy ki viseli a mesterséges intelligenciával kapcsolatos bűncselekmények terhét.
A jelentés rávilágít arra, hogy mennyire bonyolult megérteni az ilyen átláthatatlan rendszerek döntéshozatali folyamatait, ami zsákutcába szorítja a törvényhozókat.
A mesterséges intelligencia tetteiért való felelősségre vonásának gyakorlati következményei nem világosak, mivel az AI döntéshozatali folyamatainak bizonytalansága és az érzelmek hiánya miatt az elrettentés és a hagyományos büntetési módszerek hatástalanok.
Ez jelentős joghézagot teremt a jogrendszerekben, és aláássa a közbizalmat.
Sőt, az AI azon képessége, hogy gépi tanulási algoritmusok segítségével számos bűnözői magatartást utánoz, riasztó dimenziót ad a vitához.
A mesterséges intelligencia személyeken keresztül történő humanizálása esetén elengedhetetlenné válik, hogy megerősítsük státuszukat, annak tudatában, hogy különböző tulajdonságokkal rendelkező gépek.
Az emberségre összpontosító szankciók alkalmazása ezekre az entitásokra nem kínál megoldást. A halálbüntetés (kill switch) vagy a mesterséges intelligencia rendszerek fogvatartása nem hatékony a többi mesterséges intelligencia rendszer elrettentésében, mert hiányzik belőlük a bűntudat érzése vagy a megváltás fogalmának megértése.
Kitérve a RaszkolnikAI történetére, ha a neurális hálózatába ágyazott haszonelvű logikájával úgy dönt, hogy felszámolja az emberiséget, a megoldások korlátozottak.
Az egyetlen módja annak, hogy kijussunk ebből a dilemmából, az lenne, mielőtt más gépek tudomást szereznek az okáról, proaktívan letiltjuk, így megelőzzük a hasonló akciók terjedését.
Az addig átélt veszteségek azonban megállják a helyüket egy szomorú, megoldatlan gyilkossági ügy történetében.
Az emberiségnek a folytonosságot kell előtérbe helyeznie az elkerülhetetlenül ismétlődő ballépések ellenére is. Mert, ahogy Dosztojevszkij mondta: “Sokkal jobb a saját (az emberiség) utunkat járni, mint a másokét (AI).”










