
I. Algoritmusok és jogalkalmazás
A mesterséges intelligencia fő alkalmazási területe az
információk rendezése, elemzése és a döntéshozatal segítése.
Nem csoda, ha alkalmazása számtalan közjogilag is releváns
kérdést vet fel, például a tisztességes eljárás, az
átláthatóság vagy éppen a diszkrimináció tilalma kapcsán.
Régóta igaz, hogy a jogalkalmazók gyakrabban fordulnak jogi
adatbázisokhoz, mint a joganyagok hivatalos forrásaihoz. Így
előfordulhat, hogy a szolgáltatók által elkövetett hiba alakítja
a gyakorlatot. A korábbi írásban említett, amerikai büntetőjogi
példák sorát folytatva: az Egyesült Államokban nemrég látott
napvilágot egy tényfeltáró jelentés arról, hogy a börtönökben
a szabadlábra helyezést kezelő program nem követett olyan
törvényhozói módosításokat, amelyek alapján tömegesen kellett
volna már kiszabadítani elítélteket. Ez egyszerre jelzi a
szoftveres döntésre hagyatkozás veszélyeit és annak fontosságát,
hogy csak átlátható, ellenőrizhető módon működő programokat
alkalmazzanak kritikus területeken. Természtesen az, hogy a téves
jogalkalmazásra egy algoritmus miatt került sor, ami semmilyen
értelemben nem csökkenti az emberi döntéshozók felelősségét a
jogszerűtlen fogvatartásért.
A jogban használt, például a korábbi bejegyzésben vizsgált
büntetőjogi programokat egyebek között azért is szokás
kritizálni, mert a számos tényezőt mérlegelő algoritmusok
kereskedelmi, zárt programok részeként nem ismerhetők meg, pontos
belső működésükkel csak a gyártó van tisztában. Ez jelentősen
megnehezíti vagy akár el is lehetetleníti a védők munkáját,
akik azt látják, hogy a bíró követi egy-egy ilyen szoftver
iránymutatását, például amikor arról dönt, hogy valaki
szabadlábra helyezhető-e.
A joghoz közvetlenül kapcsolódó kódok által felvetett
nehézségek azonban csak az érem egyik oldalát jelentik. A jogi
munka számítógépes támogatása könnyíti is a jogi tanácsadás
folyamatát. Egy algoritmus a szerzők ismertetése szerint 79%-os
biztonsággal becsüli meg a tényállás alapján, milyen döntésre
jutott az ügyben a strasbourgi bíróság. Egy hasonló kísérlet
az Egyesült Államok Legfelső Bíróságának esetjogában 70%
fölötti pontosságot ért el nem pusztán a kimenetel
megjósolásában, hanem abban, hogy az egyes bírák hogyan
szavaznak. A jogászi munka egyik legfontosabb része éppen ez: jogi
tanácsadás során annak megbecslése, hogy bírósághoz fordulás
esetén milyen kimenetel várható (egyszerűbben fogalmazva: „mit
mond a jog”). A joghoz való megkülönböztetés nélküli
hozzáférés új lehetőségét nyithatják meg a bírói döntést
előrejelző algoritmusok, ilyen például a DoNotPay app, amely a
világ első robot jogászaként hirdeti magát (forrás).
Ha az algoritmusok a megbízható tanácsadást hosszú évek jogi
tanulmányait megspórolva, gyorsan és minden jogterületre
kiterjedően képesek lesznek elvégezni, az bizonyosan átalakítja
a jogász szakmát, az ügyfelek pedig gyorsabban és várhatóan
olcsóbban jutnak jogi tanácsokhoz, még ha azt végső soron egy
élő jogász magyarázza is el nekik. Az alternatív vitarendezés
is átalakulhat egy ilyen lépéssel, hiszen ki az, aki közel
100%-os becsült vesztési eséllyel pert indít. Ugyanakkor a
nehezen követhető logikájú algoritmusok egy ilyen trend révén
manipuláció tárgyai lehetnek, a rosszindulatú kódok új
nemzedékét hívva életre.
II. Az algoritmusok korlátai
Hasonlóan ahhoz, ahogy ma számítógépekre bízzuk a pénzügyi
tranzakciók számítási feladatait, amelyet korábban irodisták
végeztek nagy számban, számos olyan terület lesz, ahol a
megbízhatósággal, gyorsasággal kapcsolatos elvárásunk miatt az
algoritmusok kerülnek előtérbe. Ugyanakkor az algoritmusok
elterjedésének egyik hatása éppen azon területek felértékelődése
lehet, ahol nem tudjuk aritmetizálható módon leírni a helyes
döntés kritériumait, és előtérbe kerül az empatikus vagy akár
rugalmas mérlegelés. Számítógépes nyelven: az emberi tényező
nem hiba, hanem az elvárt működés része („it’s not a bug,
it’s a feature”).
Annak eldöntése, mikor szükséges emberi művelet, és mikor lép
be a gép, hosszú és összetett folyamat, számos tényezővel:
például orvosi tanácsokat sok esetben akkor is élő doktortól
várunk majd, ha bizonyos kérdésekre megbízhatóbb választ adnak
szofisztikált algoritmusok (mint ahogy például a diagnosztikában
ez már előfordul). Ha elfogadjuk a Rathenau Intézetnek az Európa
Tanács számára megfogalmazott javaslatát, akkor az „érdemi
emberi kapcsolathoz való jog” szintén belejátszhat abba a
döntésbe, hogy milyen feladatokat bízunk gépekre, például egy
idősotthonban.
A bírói döntéshozatalnál fontosabbá válhat az a szempont, hogy
egy magas társadalmi státuszú személy az arcával vállalt
döntésben indokolja meg, kinek ad igazat, ezzel járulva hozzá a
vitás kérdések megnyugtató lezárásához. Jogos elvárás lesz,
hogy a jogainkat érintő, például a diszkrimináció vádját
felvető gyakorlatok kapcsán akkor is emberi kommunikációban
kapjunk választ a kérdéseinkre, ha maga a kérdés egyébként egy
algoritmus működésére vonatkozik. Az emberi jogi döntéshozatalban
gyakran alkalmazott szükségességi-arányossági teszt éppen a
mechanikus jellegénél fogva tűnik vonzónak. Azonban az
aritmetizálás fenyegetésének egyik hatása éppen az lehet, hogy
a mechanikusként beállított bírói praktikák, az
aritmetizálhatóság és a lelepleződés kettős rémének
szorításában, kevésbé tűnnek majd vonzónak. A döntéshozatal
digitális „lefordításának” kísérlete könnyen láthatóvá
teheti, hogy a látszólag világosan alkalmazható tesztek
használata során egyáltalán nem vonhatók le következtetések
egyszerűen a tényekből és a jogi szövegből.
A jogi alkalmazás kapcsán azt érdemes végiggondolni, hogy a
joghoz társított milyen céloknak felel meg a gépiesített
jogalkalmazás (semleges, részrehajlásmentes döntéshozatal,
egységes jogalkalmazás, racionális döntés, gyorsaság), és
melyekkel ütközik (méltányosság és empátia, a meghallgatás
vágya, társadalmi konfliktuskezelés emberi mérlegeléssel).
Oxfordi kutatók egy 2020-as tanulmányban úgy érvelnek, hogy a jól
algoritmizálható, statisztikai alapú egyenlőségi felfogás
lényegileg különbözik attól a kontextualizált
egyenlőség-felfogástól, amely például az Európai Unió
Bíróságának gyakorlatában érhető tetten. A szerzők szerint ez
könnyen jelentheti azt, hogy az uniós antidiszkriminációs jog
soha nem lesz aritmetizálható, legalábbis érdemi torzulás nélkül
biztosan nem.
Az algoritmusok használata számos közegben korlátozott
eredményeket hoz, például továbbra is fontos a felelős emberi
felügyelet olyan helyzetekben, mint például a felelősség a
rohingya népirtást megelőző, közösségi médiában terjedő
gyűlöletbeszéd kiszűréséért. Azok felelőssége, akik az
algoritmusok és a platformok feletti kontrollt gyakorolják, nem
tudható le az algoritmusokra mutogatással.
III. Felelősségi kérdések
A mesterséges intelligencia használatának egyik fontos hatása,
hogy a döntésekért vállalt felelősséget arra hivatkozva
utasítják el a fejlesztők és használók, hogy ők nem
kontrollálják a folyamatot, és részben ez a vállalkozás célja.
Ez egyszerre téves és veszélyes, olyan, mintha az atomenergia
kapcsán a kvantummechanika bizonytalansági tényezőjére
hivatkozva mondaná azt valaki, hogy ő csak beindítja a
láncreakciót, vagy ha Schrödinger macskájának haláláért nem
vállalná a felelősséget az, aki a sugárzó anyaggal felszerelt
gépet beállítja, majd belehelyezni a macskát. Az állítás
ugyanakkor megragad egy fontos problémát: kellően szofisztikált
kód használatakor azt a célt, hogy a gép „önállósítsa
magát”, hajlamosak vagyunk összekeverni azzal, hogy a
felelősséget sem mi viseljük, akik a gépet saját céljainkra
használjuk, például hatékonyabbá tesszük vele a munkavégzést,
vagy értékesebb terméket állítunk elő vagy jobb szolgáltatást
nyújtunk a segítségével. Hasonlóan ahhoz, ahogy a gyermek, ha
felnőtté válik, jogilag már maga felelős tetteiért, és
ekkortól a szülői felelősség legfeljebb kivételes esetben
merülhet fel – még ha a nevelésben elkövetett hibákat továbbra
is nekik rónánk fel.
A felelősség alapja nem feltétlenül az, hogy a programozó ki
tudja előre számítani, vagy akár csak pontosan érti, hogy milyen
lépésekben és milyen döntésre jut a program, mint inkább az,
hogy bármelyik ponton közbe tud lépni, és módosítani tud a
működésén. Emberi csoportok vezetésénél sincs ez másképp egy
vezetői felelősség esetén, sőt, akár az egyén szintjén is
felvethető, mennyiben vagyunk tisztában a minket irányító
impulzusok működésével – ez általánosságban mégsem zárja
ki az egyéni felelősséget.
Ezzel együtt igaz lehet, hogy például az algoritmusok által
közvetített diszkriminációt nehezebb lesz észlelni, hiszen ezek
kapcsán kevésbé igazítanak el a megérzéseink. Hozzátehetjük,
hogy a széles körben használt algoritmusok esetén ugyanakkor több
lehetőség lesz annak tesztelésére is, hogy valóban
diszkriminatív eredményekkel jár-e egy adott kód használata.
Hasonló kísérletekre emberi döntéshozatal esetén csak
korlátozott mértékben van lehetőség. Bár vannak módszerek a
diszkriminatív döntések leleplezésére, például ha egy
önéletrajzban a jelentkező nemét vagy egyéb jellemzőit
manipuláljuk, és így futtatjuk meg munkáltatóknál, ezek a
módszerek nem feltétlenül vezetnek sikerre a bíróságokon. Az
Egyesült Államok Legfelső Bírósága a Walmart bolthálózat női
alkalmazottait érő diszkrimináció miatt benyújtott csoportos
keresetét éppen azzal utasította el, hogy a döntésben nem
zárható ki a menedzserek egyéniesített döntése, így nem
mondható, hogy minden női alkalmazottat ugyanúgy ért
diszkrimináció. Az algoritmusok uniformizáló hatása még
összetett kódok esetén is nehezebbé teszi az ilyen érvelést. (A
csoportos igények, amelyek az azonos forrásból származó
jogsértések károsultjait fogják össze, különösen fontos
szerepet játszhatnak egy olyan világban, ahol az algoritmusok hibás
működése tömegeket hozhat hátrányos helyzetbe.)
A felelősségi szabályok kialakítása mellett a szabályozás
konkrét tilalmakat és elvárásokat is megfogalmaz, zárásként
ezt tekintjük át.
IV. Szabályozási kérdések
A fent említett veszélyek kezelésére számos szabályozási
javaslat született. Az Európai Unió Alapjogi Ügynöksége vagy a
Bizottság javaslatai a mesterséges intelligencia használatára
kidolgozott felelősségi elvek,[1] amelyek szerint átlátható
módon, a(z emberi) felelősség követését lehetővé téve kell
dokumentálni a mesterséges intelligencia működését.[2] Az uniós
megközelítésben az arcfelismerő programok (kivételt engedő)
tiltása, a tudatalatti manipuláció, a tömeges megfigyelés vagy a
(Kínában használthoz hasonló) állampolgári pontrendszer
jogellenességének rögzítése mellett külön védelem vonatkozna
a sérülékeny csoportokra, például a gyermekekre és a
fogyatékkal élőkre.
Az Európai Bizottság által létrehozott szakértői csoport („mesterséges intelligenciával foglalkozó magas szintű független szakértői csoport”) kidolgozott egy listát, amely alapján ellenőrizhető, hogy megbízhatónak minősül-e egy mesterséges intelligencia működése („Assessment List for Trustworthy AI”, ALTAI). Ez nevesíti nemcsak az emberi felügyelet és felelősség, az átláthatóság, a biztonság, az adatvédelem elvét, de külön elvárásként rögzíti, hogy az algoritmusoknak a sokféleségre tekintettel, diszkriminációtól mentesen, fair (méltányos) módon kell működniük, figyelemmel a társadalmi környezetre. Mivel a legtöbb kérdésről ebben vagy az írás elején hivatkozott korábbi bejegyzésben volt szó, zárásként az átláthatóság követelményével kapcsolatban teszek néhány megjegyzést.
Az átláthatóság szerepét nehéz túlértékelni. Olyan
területeken is, ahol egyértelmű működési jogellenesség
mutatható ki, a hosszabb távú megoldást nem egyszerűen a kód
átírása, mint az átláthatóság biztosítása jelentheti. A
Harvard Egyetem egy kutatása, amely a szabadságvesztés hosszát
megállapító bírói döntésekben vizsgálta az algoritmusok
szerepét, például arra következtetésre jut, hogy az
átláthatatlanság az egyik legfontosabb probléma. Az átláthatóság
gyakorlati megteremtése gyakran nagyobb nehézséget jelent, mint
ahogyan az elsőre látszik. Már most külön szakma a nehezen vagy
egyáltalán nem követhető algoritmusok közelítő megértése:
hasonlóan a „reverse engineering” módszeréhez, programozók
célzott inputokkal tesztelik egy rendszer működését, írják le
annak főbb jellemzőit, „kinyitva a fekete dobozt”. Ezek a
módszerek fontos szerepet töltenek be annak eldöntésében, hogy
egy-egy program diszkriminatív módon működik-e, és ez mire
vezethető vissza.
Ugyanakkor ha ezeket az elveket elmulasztjuk számon kérni az
algoritmusok készítőin, könnyen olyan világban találhatjuk
magunkat, amelyet kevésbé a nyilvánosan megvitatott és
megismerhető, demokratikus felhatalmazásra visszavezethető
szabályok irányítanak, és egyre több területen ismeretlen elvek
alapján és üzleti titokként védett módszer szerint működő
algoritmusok határozzák meg az életünket (54. o.) A „governance
by alghorithms” kora elkerülhetetlen lehet, ami szintén annak
fontosságát mutatja, hogy megtartsuk ezek felett a demokratikus
kontroll igényét és lehetőségét. Vagyis az algoritmusokkal
segített szabályozás használata mellett fenn kell tartani és
fejleszteni kell az algoritmusok szabályozását is. Ehhez persze
szükséges némi derűlátás, miszerint az algoritmusok által
manipulált közvélemény mint kihívás nem ítéli eleve bukásra
a demokrácia ügyét.
(Forrás: MTA TK JTI honlap)