ROZHOVOR: O umelej inteligencii v práve
Aj na tomto mieste vám predkladáme náš rozhovor o možnom vplyve umelej inteligencie na právnické povolanie. Pozvanie naň prijal pán docent Martin Takáč z Fakulty matematiky fyziky a informatiky Univerzity Komenského v Bratislave. Rozhovor sme uverejnili aj v časopise PRECEDENT.

TÍ NAJLEPŠÍ EXPERTI BUDÚ STÁLE VYVÁŽENÍ ZLATOM
V súdnom
prostredí, a rovnako i medzi advokátmi, sa v poslednej dobe opakovane
analyzuje, aký vplyv vlastne bude mať umelá inteligencia na právnické
povolanie. Väčšina uznáva, že zmeny budú, ale zároveň (priznajme si) viacerí
dúfajú, že existenčne sa umelá inteligencia povolania právnikov nedotkne. My
sme sa preto na možný vplyv umelej inteligencie na právnické povolanie rozhodli
pozrieť bližšie a pokiaľ možno nestranne – preto sme sa rozhodli osloviť človeka,
ktorý právnik nie je, ale vyzná sa v umelej inteligencii.
doc. RNDr. Martin Takáč, PhD.
Vedec,
učiteľ pôsobiaci na Fakulte matematiky fyziky a informatiky Univerzity Komenského v Bratislave v Centre pre kognitívnu vedu. Je informatik a venuje sa aj umelej inteligencii. Okrem iného je aj členom Stálej komisie pre etiku a reguláciu umelej inteligencie pri
Ministerstve investícií, regionálneho rozvoja a informatizácie Slovenskej
republiky.
Základná otázka na úvod - podľa vás, majú mať právnici z umelej inteligencie obavy alebo naopak radosť, že im to uľahčí prácu?
Na mieste sú aj obavy aj radosť, podľa toho, aké miesto sa umelej inteligencii vyčlení. Pomohol by som si citátom profesora z Harvard Business School Karima Lakhaniho, ktorý hovorí, že umelá inteligencia nenahradí ľudí v zamestnaniach, ale ľudia, ktorí ju budú vedieť používať, nahradia tých, ktorí ju nebudú vedieť používať. To znamená, že viem si predstaviť veľa oblastí, kde umelá inteligencia môže byť veľmi užitočným nástrojom, ktorý pomôže aj sudcom aj advokátom. Ale nemyslím si, že by ich mali nahradzovať. Tam by potom chýbali veľmi zásadné veci ako otázka zodpovednosti za rozhodnutia, vysvetliteľnosť a zdôvodňovanie rozhodnutí a podobne.
Inými slovami, napriek tomu, že stále ostávajú nejaké sféry, ktoré budú patriť výsostne do oblasti ľudského uvažovania, je používanie umelej inteligencie nevyhnutnosťou aj v práve. Dobre som porozumel?
Neviem, či nevyhnutnosťou. Ale môže byť veľkou pomocou. A to preto, že momentálne je to tak, že každý právnik musí v hlave držať obrovské množstvo zákonov a zároveň musí vedieť flexibilne vyhľadávať v pamäti to, čo je aplikovateľné a ako. Viem si totiž predstaviť, že nie všetky súvislosti človeka napadnú. A ak v danej veci bude existovať algoritmus, ktorý vie poukázať na súvislosti s inými právnymi normami, môže to byť veľká pomoc.
To, čo
sa presadzuje najviac, sú systémy, ktoré vám s nejakou pravdepodobnosťou dajú
správne riešenie.
Lenže ak ho nedajú, tak si ho niekedy vymyslia.
Tak prejdime k číslam. V jednom z posledných vydaní časopisu Forbes sú uvedené výsledky výskumu, ktorý hovorí o tom, že lekári správne určujú diagnózu pacienta v 74 percentách prípadov,
umelá inteligencia v 92 percentách. A čo ma naozaj prekvapilo bol percentuálny
údaj v prípade, pokiaľ sa lekár poradí s umelou inteligenciou – správnosť bola 76
percent. To znamená, že len o dve percentá viac, ako keď si lekár diagnózu
stanoví sám, a stále pomerne výrazne nižšie ako v prípade, ak diagnózu ponecháme umelej inteligencii. Môžeme výsledky tejto
analýzy primerane aplikovať aj na prácu advokátov alebo sudcov? Vedela by umelá inteligencia, napríklad, dospieť k spravodlivejším rozhodnutiam ako sudca človek?
To je skôr empirická otázka. My hovoríme, že umelá inteligencia je niečo ako keby dobre definované, že čo to vlastne je. Ale v skutočnosti tu máme množstvo systémov, softvérov, či algoritmov, ktoré pracujú na báze umelej inteligencie a oni sa v čase vyvíjajú. To znamená, že to čo povedzme platilo pred dvomi rokmi, ohľadom toho, čo tie systémy dokážu alebo nedokážu, to už dnes je inak a o päť rokov to môže byť zase inak. Napríklad, neviem či sledujete vývoj v oblasti automobilového priemyslu, ale keby som sa vás opýtal, či budú raz autá lietať, tak ma asi vysmejete. Napriek tomu na Slovensku existuje človek, ktorý má na to firmu a navrhol model lietajúceho auta. Jedna z jeho firiem mu pred pár rokmi skrachovala, ale teraz má novú a táto firma už zarába. Predala do Číny licencie na autá. To znamená - chcem sa vyhnúť tomu, čo tá umelá inteligencia dokáže, lebo to je príbeh s otvoreným koncom.
Možno by sme však mohli objasniť, ako taký systém vnútorne funguje, lebo z toho bude vyplývať aj viacero limitov, alebo to, čo od nej nemôžeme čakať. Asi v päťdesiatych rokoch minulého storočia, v čase, keď sa vôbec táto oblasť začala rozvíjať, sa vedci snažili namodelovať to, ako my introspekciou vnímame vlastné myslenie. Že je to kvázi nejaká logická dedukcia alebo postupnosť logických krokov, snaha o korektné vyvodzovanie z faktov. A vytvárali takzvané expertné systémy, ktoré sa používali napríklad na diagnostiku v medicíne, a aj v práve. To bol systém, ktorý nakŕmili všetkými možnými faktami, alebo v našom prípade zákonmi, a mali v sebe zakódované nejaké pravidlá, čo logicky z čoho vyplýva. Tomuto systému ste mohli klásť otázky a on na otázky odpovedal. Dokonca vedel aj veľmi dobre zdôvodňovať svoje rozhodnutia, respektíve, vždy to bola reťaz nejakých korektných odvodení.
Toto sa ale veľmi zmenilo od deväťdesiatych rokov minulého storočia, kedy sa presadila iná paradigma, a to, že ľudský mozog je v podstate sieť miliárd neurónov. Každý z nich je veľmi jednoduchý, ale medzi sebou si posielajú elektrické signály a fungujú ako sieť. Dokopy teda počítajú niečo strašne zložité a vedia sa učiť z príkladov. Nepotrebujú teda explicitne pravidlo či príkaz typu logicky odvodzuj to a to. Dostanú však napríklad 200 právnych prípadov ako precedentné právo a ten systém sa z nich učí, hoci my mu nehovoríme ako. Tieto systémy prekonali tie predošlé. Ale celé je to také štatistické. Ono to dá správne riešenie s nejakou pravdepodobnosťou a kľudne sa to môže aj pomýliť. Navyše, tieto systémy nevedia veľmi zdôvodňovať. Je to proste nejaký numerický výpočet a on vám povie výsledok a vy mu buď uveríte alebo neuveríte. A môžete to odmerať na nejakom množstve prípadov, že v akom percente sa pomýli. Toto bola druhá paradigma. Čiže toto sú systémy, ktoré vy by ste vedeli naučiť povedzme klasifikovať. Nechcem rovno povedať, že vinných od nevinných. Ale napríklad v USA sa taký systém využíval na to, či je možné zatknutú osobu prepustiť na kauciu a aké je riziko recidívy. Čiže dá sa spraviť systém, ktorý sa na základe predošlých prípadov naučí nejako počítať nejaké štatistiky. Ale správnosť nie je zaručená.
No a potom tretia paradigma, ktorá je úplne nová, a ktorá je dva tri roky stará, sú veľké jazykové modely. Tieto verejnosť najviac pozná. Typu ChatGPT alebo niečo, s čím sa môžete ľudským jazykom rozprávať. A tam je to založené na tom, že on počíta nejaké pravdepodobné odpovede na vaše otázky, ktoré zároveň na základe nejakých minulých skúseností by mali byť užitočné. Je veľmi zložité povedať, kde sú limity takého systému. Momentálne to, čo sa presadzuje najviac, sú systémy, ktoré vám s nejakou pravdepodobnosťou dajú správne riešenie. Lenže ak ho nedajú, tak si ho niekedy vymyslia. A vy neviete, že si ho vymysleli. Je známy prípad v USA, kedy si obhajca obhajobu svojho klienta vygeneroval pomocou ChatGPT a potom to prezentoval na súde. Lenže v rámci danej prezentácie uviedol kopu precedensov, ktoré vôbec neexistovali. ChatGPT si ich všetky vymyslel. Vyzeralo to vierohodne, štatisticky to bolo pravdepodobné, no napokon bol príslušný obhajca veľmi zaskočený, lebo vôbec ho nenapadlo, že taký systém si môže vymýšľať. Čiže - tieto systémy sa čoraz viacej spresňujú a čoraz viacej sa s nimi pracuje, aby sa mýlili čo najmenej. Ale oni sa napriek tomu stále mýlia a my nemáme garanciu správnosti.
Potenciálny
problém týchto systémov je, že oni síce vyzerajú, že férovo budú rozhodovať,
ale pokiaľ sa kŕmia dátami, ktoré
v sebe obsahujú neférovosť, budú ju generovať ďalej.
Nadviažem na to, čo ste povedali. Predstavme si, že ten systém, ktorý by to vytváral, by mal obmedzený rozsah informácií. Obmedzený v tom, že by naozaj vychádzal len z rozhodnutí Najvyššieho súdu Slovenskej republiky, Ústavného súdu Slovenskej republiky a Európskeho súdu pre ľudské práva, a to z takých, ktoré neboli prekonané alebo neboli zrušené. Prichádzalo by do úvahy, že by takýto systém priamo rozhodoval? Ja viem, že mi môžete povedať, že aj tak nebude tá správnosť stopercentná. Lenže to nie je ani pri človeku.
Tu by som nadviazal na štúdiu, hoci mierne spochybňovanú, z Izraela z roku 2011. Kde sa zistilo, že keď to zjednoduším, hladní sudcovia dávajú prísnejšie tresty ako najedení. Porovnávali verdikty, ktoré boli tesne po raňajkách a tesne pred obedom. Zatiaľ čo v 35 percentách prípadov, keď boli najedení, tak zamietli podmienečné prepustenie, pred obedom to bolo v 85 percentách prípadov. Teda samozrejme, že ani ľudia nie sú nezaujatí, ale nezaujaté nie sú ani algoritmy. Tu by som sa možno vrátil k spomenutému systému v USA, ktorý počítal pravdepodobnosť recidívy a je aj nasadený vo viacerých amerických štátoch. Existuje report publikovaný v roku 2016, v rámci ktorého určití aktivisti podrobili analýze rozhodnutia toho systému a zistili, že vlastne rozhodoval rasisticky. Že nadhodnotil pravdepodobnosť, že bieli Američania nebudú recidivovať a oni napriek tomu recidivovali, zatiaľ čo v prípadoch čiernych Američanov omnoho viackrát povedal, že budú recidivovať a oni nerecidivovali. Samozrejme, dá sa argumentovať, že možno keby to bolo založené iba na historických dátach, tak to percento recidívy je vyššie u čiernych Američanov. Ale na druhej strane, keď oni overovali, že v koľkých percentách sa mýlil, tak on opačne predikoval. Prečo toto nastalo? Preto, lebo keď je systém kŕmený historickými údajmi, tak už tie údaje môžu byť zaujaté. Napríklad, v chudobných štvrtiach oveľa viac polícia kontroluje a nachádza aj malé delikty ako držanie omamných látok. Keby kontrolovali v bohatých štvrtiach, možno by našli toľko isto, ale tam kontrolujú menej. Čiže potenciálny problém týchto systémov je, že oni síce vyzerajú, že férovo budú rozhodovať, ale pokiaľ sa kŕmia dátami, ktoré v sebe obsahujú nejakú neférovosť, tak oni ju budú generovať ďalej.
Čiže aj umelá inteligencia môže byť predpojatá.
Áno môže byť, presne tak.
Tým pádom nie je možné uvažovať ani o tom, že umelá inteligencia bude vedieť vyhodnotiť, čo je správne a čo nie, respektíve, čo je dobré a čo nie. Dobre tomu rozumiem? Napríklad je možné očakávať v budúcnosti od umelej inteligencie rozhodnutie o tom, ktorému rodičovi zveriť deti do osobnej starostlivosti a periodicitu stretávania sa druhého rodiča s deťmi? Alebo je to úplne mimo sféry umelej inteligencie?
Nie je to mimo sféry. Podobné úlohy alebo otázky by ste mohli už dnes dávať umelej inteligencii. Len teda otázka je, či naozaj bude dodržaný princíp, že výsledok nemá len napĺňať literu zákona, teda postup, ktorý bude nejako logicky vyplývať z právnych noriem, ale že ide nám aj o akúsi spravodlivosť alebo spoločné dobro. A tam častokrát, napríklad práve v takýchto prípadoch ako deti s rodičmi, to riešenie, ktoré je teoreticky vypočítané, nemusí byť vhodné. Mohli by sme to prirovnať k rozhodovaniu ľudí s autizmom, ktorí nerozhodujú citovo, ale len čisto racionálne. Takto by sme prišli na to, že nejaký Šalamún by to dieťa rozsekol na polovicu a dal by každému polovicu. A toto nie je to, čo chceme. To znamená, že tú empatiu, alebo schopnosť sudcu posudzovať širší kontext, neviem nakoľko sa podarí do tých systémov dať. A to preto, lebo zatiaľ je ten problém systémov taký, že sa učia prakticky z celého internetu. A sami vieme, koľko je na internete nenávisti a zlých vecí. Veľmi veľa sa teraz výskum venuje práve tomu ako zabezpečiť, aby tie systémy, ktoré si prečítajú prakticky celý internet a z toho sa snažia v úvodzovkách pochopiť naše ľudské myslenie a fungovanie, aby si z toho nezobrali aj to zlé. Ale aby sme naozaj vedeli spraviť systém, ktorý je dobrý a spravodlivý. Ktorému ide o dobro.
Dokázala by umelá inteligencia, či už teraz alebo v budúcnosti, v prípade rozdielnej rozhodovacej činnosti súdov o tej istej otázke povedať, ktorému riešeniu dať prednosť? Alebo iný príklad - dokázala by umelá inteligencia povedať, že určitá, hoci jednotná rozhodovacia činnosť súdov, nie je správna?
Tam je jeden problém. Sudca by nemal byť automat, ktorý len ide na základe nejakých minulých rozhodnutí. A to je práve veľký problém týchto systémov, lebo oni sú presne na to stavané, že dostanú nejaké dáta z minulosti a snažia sa ich aplikovať do budúcnosti. Čiže tie situácie, ktoré poznajú, sa snažia zovšeobecniť. To znamená, že neprídu s diametrálne odlišným riešením, ale snažia sa aplikovať tú znalosť, ktorá tam bola. To znamená, že viem si predstaviť, že takýto systém by rozhodoval stereotypne alebo typicky, čo možno v deväťdesiatich percentách prípadov je správne. Ale nemá tú citlivosť na tie nuansy – povedať, že tak pozor, tento prípad sa líši nejakým malým ale podstatným detailom a preto to nemôžeme aplikovať a musíme vymyslieť niečo nové. Myslím si, že toto by mohla byť slabina tých systémov.
Povedali ste, že v 90 percentách prípadov by ten systém mohol rozhodovať správne. Ale čo je vlastne menšie zlo? To, že tých 10 percent bude rozhodnutých nesprávne kvôli tomu, že ten systém vychádza z nejakých minulých dejov, alebo to, že sudca človek v určitom počte prípadov nemusí ani identifikovať rozhodnutie najvyššieho alebo ústavného súdu, ktoré dopadá na konkrétnu situáciu? Nie je tých 10 percent menšie zlo ako prípad, kedy nevieme, či sudca človek rozhodne tak ako by mal?
Dá sa na to pozerať dvomi spôsobmi. Na jednej strane by to určite zlepšilo vymožiteľnosť práva, spriechodnilo súdy, lebo vieme, že niekedy tie procesy trvajú aj roky či desiatky rokov. V globále by sa to zlepšilo, právny štát by bol lepší. Na druhej strane aj jedno nespravodlivé rozhodnutie je jeden ľudský osud. Čiže my sa snažíme, aby sa ten počet minimalizoval. Poviete si, no 90 percent je super, ale tých 10 percent prípadov, kedy príde k nespravodlivému rozsudku, je problém. Ale myslím si, že na toto už v podstate existuje mechanizmus aj teraz a to sú predsa odvolania. Máte hierarchiu súdov. Čiže môže byť nižší súd, a keď účastníci nie sú spokojní, môžu ísť na vyšší súd, a tak ďalej. Toto by podľa mňa mohlo fungovať aj s umelou inteligenciou, že jednak by mohla pokryť rutinné prípady a možnože 90 percent prípadov by sa vyriešilo automaticky. A tie komplexnejšie, tie zložitejšie, by ostali sudcovi človeku. V ideálnom prípade, keby samotný ten systém vedel detekovať, že tak na to ja nemám, toto je zložité, delegujem to ľudským súdom.
A nakoľko je to možné podľa vás teraz? Pri tom vývoji, ktorý práve je?
To je práve slabina tých systémov, lebo oni väčšinou nevedia, že nevedia. Lebo to rozhodnutie sa vždy počíta nejako štatisticky a ten systém vnútorne nemusí mať informáciu o tom, že je v neistote, že si to vymýšľa. Na rozdiel od človeka. Ja keď si vymýšľam, tak viem, že si vymýšľam, že proste varím z vody. Čiže toto je podľa mňa niečo, čomu by sa mala venovať výskumná pozornosť, aby ten systém dával také konzervatívne rady, že keď si nie je istý, aby radšej povedal, že neviem. Namiesto toho, aby proste fabuloval. Ale keby sa toto podarilo, tak máme hneď dva mechanizmy. A to, že jednak ten samotný systém by delegoval niečo tým ľudským sudcom, a jednak je tam tá možnosť kontroly, že vždy je možnosť sa odvolať. A čím vyšší súd, tak tým viac by to malo byť pod ľudskou kontrolou.
Je to reálne, že sa to podarí? Že umelá inteligencia si sama prizná, že toto je niečo, čo neviem zodpovedať, tak rieš to človek ty?
Je to reálne, len treba tie systémy tak urobiť. Už teraz niektoré firmy, ktoré vyrábajú veľké jazykové modely, urobili bezpečnostné filtre, ktoré z dôvodu politickej korektnosti, alebo aby ten systém nebol rasistický či sexistický, majú implementovaný ešte filter, ktorý napríklad povie, že tak na túto otázku nebudem odpovedať. Čiže dá sa to tam dorobiť, len treba chcieť to tam dorobiť.
Tento systém na prvý pohľad vyznieva veľmi fajn. Ale prečo potom, pokiaľ sa vrátime k výsledkom výskumu so stanovovaním lekárskych diagnóz, keď človek lekár dohliada na umelú inteligenciu, má len o 2 percentá vyššiu úspešnosť, ako keby tam umelá inteligencia nebola, a až o 16 percent nižšiu, ako keď umelá inteligencia rozhoduje sama?
Odpoviem vám iným príkladom. Kedysi som bol v projekte na zlepšenie bezpečnosti leteckej dopravy a štatistiky hovoria veľmi jasne. Najviac nehôd sa stane vtedy, keď sa vypne autopilot, keď preberá riadenie človek. Samozrejme, že to môže vyplývať aj z toho, že väčšinou ten človek preberá riadenie, keď je nejaká komplikovaná situácia, ale na druhej strane to tiež svedčí o niečom. Takisto sa ukázalo, že oveľa častejšie nerešpektovali pravidlá skúsení piloti. Napríklad, keď bola nejaká núdzová situácia, tak proste chceli pristáť a neriadili sa protokolmi. A toto môže nastať aj tu, že možno ten lekár proste neverí tomu systému. Že ten systém mu radí niečo a on si povie, že ale ja to viem lepšie. Len tak si to viem vysvetliť.
A nehrozí to aj pri práve? Že sudca vstúpi do rozhodnutia umelej inteligencie a v skutočnosti možno rozhodne horšie, ako keby to nechal tak?
Otázka ale je, že ako vieme vyhodnotiť, čo bolo u ľudských sudcov horšie a čo bolo lepšie. Ak by sme to aj vedeli odmerať, tak potom je to empirická otázka, to znamená, že testujme tie systémy umelej inteligencie. A keď dosiahnu lepšiu presnosť ako ľudia, tak potom sa môžeme o tom baviť. Len my zatiaľ hovoríme o nejakých veľmi fiktívnych systémoch, ktoré teraz sú v nejakom štádiu vývoja a o 5 rokov môžu byť inde a o 10 zase inde. A to treba vždy kalibrovať a znovu to merať. Lebo tu ide o ľudské osudy, toto nie je systém, ktorý nám píše slohové práce pre študentov. Toto je systém, ktorý môže niekoho na desať rokov poslať do väzenia. Takže tak isto ako napríklad v leteckej doprave. Tam sa môžu používať iba systémy, ktoré sú mnohokrát verifikované a certifikované. To znamená, že do lietadla sa nemôže dostať hocijaký kus softvéru. Preto si myslím, že to, kde sa rozhoduje o ľudských osudoch, by malo byť tiež veľmi rigorózne testované skôr, než sa to nasadí do nejakej ostrej prevádzky. A aj tam by to malo byť ďalej kontrolované a znovu testované.
Tieto
systémy sa trénujú na ľudských dátach a väčšinou dobre fungujú na tej časti
populácie, pre ktorú majú veľa dát. No nie až tak dobre fungujú na tých ostatných.
Nakoľko by si umelá inteligencia vedela posúdiť alebo ustáliť skutkový stav v určitej veci? Lebo keď máme nesporný skutkový stav, tak na to právne riešenie aplikovať dokážeme aj podľa minulých prípadov. Ale otázka je čo v prípade, ak osoba A hovorí, že peniaze sa požičali, osoba B hovorí, že peniaze sa darovali? Dokáže si umelá inteligencia vybrať k čomu sa prikláňa?
Tu sa dostávame v podstate do starého známeho problému detektorov lži, ktoré už teraz existujú. Otázka ale je, aká je ich technická spoľahlivosť a druhá vec, že či sa vôbec toto v práve berie ako nejaký dôkaz. Systémy umelej inteligencie samozrejme dokážu brať do úvahy oveľa viac dát. Tón hlasu, zášklby oka, jednoducho všetko možné. Existujú systémy na báze umelej inteligencie, ktoré napríklad detekujú emócie. Čiže, ja si myslím, že teoreticky takýto systém by mohol byť skúsenejší ako ľudský. Jednoducho detekovať nejaké klamstvá alebo zavádzanie, na to by tie systémy mohli byť dobré. Ale má to niekoľko "ale". Jedno "ale" je, že tieto systémy sa trénujú na ľudských dátach a väčšinou dobre fungujú na tej časti populácie, pre ktorú majú veľa dát. To je v tých príkladoch, v ktorých sa učia. No nie až tak dobre fungujú na tých ostatných. A toto sa zase ukazuje, že väčšinou, keď sa tieto systémy trénujú, napríklad systémy na rozpoznávanie tvárí alebo dokonca systémy na detekovanie nenávistných prejavov na internete, tak povedzme, že tie detekcie tvárí dobre fungujú na belochoch a na ľuďoch inej farby pleti až tak dobre nefungujú, lebo tých bolo v tých dátach málo. Čiže takýto systém by sa mohol oveľa viac štatisticky mýliť u minoritných populácií. Alebo napríklad veľakrát sa stávalo, že tie systémy boli trénované na anglickom jazyku a keď na internet anglicky písal niekto kto nemá angličtinu ako prvý jazyk, tak vo výrazne väčšom počte to tým ľuďom vyhadzovalo príspevok z internetu, že sú akože nenávistné. Napriek tomu, že neboli. A to len preto, že ten systém mal väčšiu chybovosť. Čiže zase je to o tom ako ošetriť, aby to bolo spravodlivé a rozhodovalo to rovnako pre rôzne skupiny obyvateľstva. Aby to nebolo zaujaté voči niekomu. Takže odpovedať sa dá tak, že toto je technický problém.
Ale je veľmi zaujímavé, že na európskej úrovni bol prijatý minulý rok takzvaný "AI Act", teda zákon regulujúci umelú inteligenciu. A on rozlišuje rôzne skupiny rizikovosti systémov. Najvyššia skupina sú systémy, ktoré zásadne porušujú základné ľudské práva a hodnoty Európskej únie a tieto systémy sú zakázané. Ale potom máme systémy, ktoré sú v kategórii vysoko rizikové. Tie môžu tie hodnoty ohrozovať, ale za istých podmienok sú užitočné. A je pozoruhodné, že napríklad rozpoznávanie emócií je úplne zakázané, pokiaľ sa deje v školstve alebo na pracovisku. Čiže vy nemôžte mať systém, že zavoláte si niekoho na pracovný pohovor a tu ho bude pozorovať nejaká umelá inteligencia, či akože neklame. To je zakázané európskym predpisom. Čo sa týka vysoko rizikových systémov, tak tieto systémy musia byť veľmi presne a veľmi citlivo urobené a dokumentované, pokiaľ sa to týka law enforcement, čiže vymožiteľnosti práva, potom migračných, azylových a hraničných kontrol a výkonu spravodlivosti a demokracie. Čiže presne tieto veci sú v kategórii rizikové systémy preto, lebo tam ide o uplatňovanie moci. V tomto prípade štátnej moci nad nejakým jednotlivcami a častokrát aj povedzme v prípade tých migrantov, či ľudí, ktorí majú veľmi nízky sociálny status. Takže Európska únia si dáva pozor, aby sa to ošetrilo tak, aby neboli porušované práva týchto ľudí práve z dôvodu toho, že ten systém bude nejak nedobre okalibrovaný.
Problém
je, že tieto moderné systémy fungujú tak,
že informácia je rozložená v miliardách čísiel
a nikto nevie, čo je presne kde.
To už teraz prechádzame k zodpovednosti. Vieme si predstaviť, že kto by napríklad takýto systém, ktorý by mal pomáhať rozhodovať súdne procesy, pre Slovenskú republiku vytvoril a kto by za to zodpovedal? Aj keď uznávam, že to je tak trochu otázka pre samotných právnikov, lebo pokiaľ si Slovenská republika niečo objedná, tak vo vzťahu k sporovým stranám právne zodpovedá práve ona, pokiaľ sa ukáže, že systém nerozhodol správne. Je však podľa vás reálne, že by sa dala objednávka na takéto niečo, čo by bolo používané v súdnictve a že by bola vyvodzovaná zodpovednosť voči štátu a ten by regresne prípadne postupoval voči tomu, kto taký systém zhotovoval?
Je to reálne a v podstate presne takto funguje európsky zákon o umelej inteligencii. Má podobnú logiku ako prípady, kedy akékoľvek produkty, ktoré idú na európsky trh, musia prejsť certifikáciou, či sú bezpečné, nezávadné a či môžu byť použité na európskom trhu. V prvom rade ten zákon uvaľuje množstvo povinností na výrobcov takýchto systémov. Oni musia veľmi presne dokumentovať celý ten proces, ako ten systém bol vyvíjaný, na akých dátach bol trénovaný, či tam nenastala práve nejaká potenciálna diskriminácia. Jednoducho už samotný zhotoviteľ toho systému má obrovské množstvo zákonných povinností, ale keď ich splní a naplní zákonné povinnosti, tak sa systém môže v Európe používať. V tom prípade štát má akúsi rozumnú garanciu, že ten systém je dobrý a mohol by prevziať zodpovednosť voči tým, ktorých by potenciálne on poškodil. Takže určite je to možné, ale aj to je stále oblasť živého výskumu. Zákon o umelej inteligencii sa pripravoval štyri roky a rok predtým, ako bol prijatý, sa tu zrazu objavili veľké jazykové modely, s ktorými sa predtým vôbec nerátalo a bolo ich treba veľmi rýchlo zapracovať, keďže vznikla otázka, čo s nimi. To sú takzvané systémy so systematickým rizikom, keďže oni môžu narušiť oveľa viac vecí. Takže všetko sa dá a aj sa na tom robí a pravdepodobne ten vývoj pôjde ďalej, takže takéto systémy sa budú čoraz viac nasadzovať. Ale treba k tomu pristupovať veľmi citlivo z hľadiska vedeckej stránky tej spoľahlivosti a potom samozrejme aj právna stránka musí byť ošetrená. Bez regulácie to nepôjde.
A bude takýto systém naozaj garantovať ochranu údajov osôb, ktorých sa tie súdne spory budú týkať?
To je ďalší problém, ktorý sa už ukázal pri systémoch ako ChatGPT a podobne. Existuje precedens, že ľudia z určitej kórejskej firmy do takéhoto systému zadali citlivé údaje, ktoré potom naozaj pretiekli inde. Problém týchto systémov je vždy v tom, že vy máte povedzme vo svojom počítači nejakú jednu inštanciu toho systému, ktorá komunikuje s vami a funguje pre vás. Ale ona čerpá svoju inteligenciu z nejakého cloudu, teda zo zdieľaného úložiska. A samozrejme tam aj ona posiela dáta, aby sa ten systém ďalej zdokonaľoval. A ona musí veľmi presne vedieť, ktoré dáta môže posielať, a ktoré nie, aby nedošlo k nejakému úniku citlivých informácií alebo osobných údajov. A toto je opäť otázka, ktorú nie je vôbec ľahké technicky zabezpečiť. To totiž nie je iba tak, že sa niekde ukladajú údaje do databázy po riadkoch. Je to to isté, ako keď ja vám poviem teraz nejaké informácie a váš mozog si ich zapamätá tak, že tam nastane určitá syntéza bielkovín a niektoré spojenia zmenia svoje elektrochemické vlastnosti. A teraz, keby som chcel ja tú spomienku vymazať z vašej hlavy, tak kde pôjdem? Ktorú spomienku vymažem? A problém je, že tieto moderné systémy fungujú presne takto, to znamená, že tá informácia je rozložená v miliardách čísiel a nikto nevie, čo je presne kde. Čiže, dalo by sa to robiť zrejme iba tak, že pokiaľ ten systém narába s citlivými informáciami, tak je ako keby enkapsulovaný a nič z neho sa neposiela von. Alebo musí to byť veľmi presne filtrované, ktoré údaje môžu ako keby zdokonaľovať ten systém, a ktoré nie. Preto momentálne, so súčasným stavom poznania, by som povedal, že je tam možná len taká tvrdá kontrola, že jednoducho - ak chceme naozaj garantovať, že citlivé údaje budú chránené - sa nepustí nič. Z tohto dôvodu napríklad, keď sa ChatGPT zverejnil, tak Taliansko zakázalo jeho používanie. Práve z dôvodu GDPR. Tvrdili totiž, že nebolo dostatočne zabezpečené, aby citlivé alebo osobné údaje neodchádzali. Potom to niekto obišiel tak, že vytvoril takzvané Pizza GPT, taliansku verziu, ktorá tie dáta nikam neposielala a tým pádom už táto podmienka GDPR bola naplnená. Preto pre ľudí pôsobiacich v práve ide o ideálnu oblasť, lebo je v nej toľko problémov, ktoré treba ošetriť, že určite to nie je niečo, čo by mali robiť len vedci z oblasti umelej inteligencie. Je to niečo, kde je naozaj potrebná interdisciplinárna spolupráca všetkých možných expertov, ak to nemá poškodzovať spoločnosť a ľudí.
Keď banky rozhodujú, komu dajú hypotéku a komu nedajú,
tam častokrát už rozhodujú nejaké systémy umelej inteligencie.
Ale to nie je to isté ako súdnictvo.
Možný vplyv umelej inteligencie na súdne rozhodnutia - aký očakávate vývoj a čo by bolo podľa vás optimálne?
Očakávam, že s týmito systémami sa bude experimentovať čoraz viac. Možno najprv iba v nejakých nezáväzných podmienkach. Teraz už napríklad existuje pojem "regulačné sandboxy". To je akože pieskovisko, kde sa tieto systémy testujú, ale bez toho, aby mali možnosť niečo reálne poškodiť. Takže je dosť možné, že aj v tejto oblasti súdnictva budú takéto "sandboxy" vznikať. S tým, že to bude pod dohľadom ľudských sudcov, a keď sa časom zistí, že tie systémy sú dostatočne spoľahlivé, tak minimálne ako nejaký poradný nástroj podľa mňa budú zavedené. Či budú zavedené až tak, že by autonómne rozhodovali bez prítomnosti človeka, to neviem, či sa stane. A zároveň si ani nemyslím, že by to bolo optimálne, napriek tomu, čo sme už spomínali napríklad o chybovosti a podobne. Navyše, zatiaľ ľudia majú iné nároky na ľudskú chybovosť a iné nároky na chybovosť nejakých technických riešení. To platí napríklad aj pri autonómnych autách. Keď autonómne auto samojazdiace niekoho zrazí, tak ľudia to strašne citlivo vnímajú. Ale keby sa percentuálne pozrelo, koľko ľudí zabijú autonómne autá a koľko ľudí zabijú ľudskí šoféri, tak ľudskí šoféri sú na tom oveľa horšie, ale verejnosť to vníma inak. Takže je dosť možné, že aj v oblasti práva to bude ešte dlho vnímané obdobne. Veď predsa len máme nejakú evolučne a civilizačne vybudovanú vieru v spravodlivosť ľudí. Ale spravodlivosť algoritmov, na to nemáme vybudovanú vieru, tú treba empiricky overovať a dôveru si ešte musia tieto systémy získať.
V najbližších rokoch sa teda asi nedá očakávať, že by rozhodovanie namiesto ľudí prevzala umelá inteligencia.
Nemyslím si, že by to malo nastať. Samozrejme, že už teraz sú systémy, ktoré sa využívajú. Napríklad, keď banky rozhodujú, komu dajú hypotéku a komu nedajú, alebo keď firmy rozhodujú, koho zoberú do zamestnania alebo koho nezoberú. Tam častokrát už rozhodujú nejaké systémy umelej inteligencie. Ale to nie je to isté ako súdnictvo.
Prejdime k advokácii. Z vlastnej praxe môžem povedať, že, napríklad, keď robíte zmluvu, tak každá zmluva je iná. A každý klient, pre ktorého robíte, má špecifické požiadavky. Vedela by sa teda umelá inteligencia prispôsobiť špecifickým požiadavkám osôb, ktoré by ju chceli využiť?
Toto je relatívne zložitá oblasť. Dlhodobo sa s umelou inteligenciou spomína takzvaný "frame problem", alebo problém vymedzenia. Spočívajúci v tom, ktoré fakty treba brať do úvahy, a ktoré už nie. A my máme nejaký "common sense" alebo zdravý sedliacky rozum. A väčšinou skúsený právnik nielenže drží v hlave právne normy, čo dokáže aj umelá inteligencia, ale vie chápať aj ľudskú situáciu a vie to nejako tvorivo skombinovať. Toto môže byť slepá škvrna tých systémov, že môžu niečo nezobrať do úvahy, čo by bolo treba zobrať do úvahy, pokiaľ im to priamo ten zadávateľ nepovie. Pretože pokiaľ ten klient povie všetko, čo považuje za relevantné a to je tá množina z ktorej vyberáme, tak to je jasné zadanie pre umelú inteligenciu. Ale napríklad ten advokát sa ešte môže spýtať: "A nie je tam ešte toto náhodou?" Skrátka vie to rozširovať. Opäť tam teda narážame na to, že ten systém má rád stereotypnosť a že on najradšej robí veci, ktoré pripomínajú to, čo sa stalo v minulosti. Generovať nejaké úplne nové tvorivé veci, to môže byť ťažšie. Samozrejme, ako pri tom všetkom, čo som povedal, platí aj tu, že ten vývoj pôjde dopredu a tie systémy sa budú učiť aj toto. Napríklad boli zverejnené informácie, že ChatGPT a podobné systémy testovali na záverečných skúškach. A napríklad na americkom bar examination získal systém 90 percent správnych odpovedí.
Čiže prešiel.
Čiže prešiel. Dalo by sa povedať, že on by dostal diplom z práva v USA. Ale stále narážame na otázku garancie správnosti. Že to nie je niečo, čo je dokázateľné. Je to niečo, čo my vieme empiricky pozorovať, štatisticky vyhodnocovať, a ono sa to môže meniť s tým, ako sa tie systémy budú zlepšovať.
Takže platí to, že dobrý advokát by mal vedieť používať umelú inteligenciu, aby bol efektívnejší, ale stále by mal byť nad tým jeho pohľad, či naozaj to, čo mu tá umelá inteligencia vygeneruje, je správne pre jeho klienta v tej konkrétnej veci.
Áno. Ja by som povedal, že toto je najzdravší prístup práve preto, že my sa nevieme spoľahnúť, že všetko, čo je vygenerované, je správne. Že môže tam byť naozaj prepašovaný aj nejaký úplný blud. Vedci to nazvali halucinácia. Že ten systém občas halucinuje. Preto tak, ako ste to povedali, si myslím, že by to bolo skvelé. Umelá inteligencia je nástroj, ktorý dokáže aj upozorniť na nejaké uhly, ktoré možno ten právnik nebral do úvahy. Ale konečná kontrola toho výstupu a ten dohľad by zatiaľ mal byť na ľudskom advokátovi. A tým pádom on aj preberá zodpovednosť. Lebo on je ten, kto robí kontrolu.
Možno
90 percent prípadov je štandardných, kde netreba ani veľa rozmýšľať. Tie takéto
systémy zvládnu. Ale tých 10 percent, kde treba rozmýšľať, tak na to bude treba
expertov.
Teraz vás konfrontujem s jedným tvrdením českého vysokoškolského pedagóga kybernetickej bezpečnosti a IT konzultanta v oblasti implementácie umelej inteligencie, spoluautora knihy "Právo a umělá inteligence", pána Luďka Nezmara. On povedal v súvislosti s právnikmi vetu "Prežije len elita." Súhlasíte s týmto tvrdením?
Áno. Toto sa mi páči, lebo priemernú mechanickú prácu aj v práve dokáže umelá inteligencia nahradiť. Ale tých najlepších nedokáže. A to platí nielen v práve, to platí v umení, pri prekladaní literatúry, a tak ďalej. Možno 80 percent ľudí, ktorí robia mechanizované bežné ľahké veci, umelá inteligencia, ktorá je dobrá práve v tých mechanizovaných činnostiach, nahradí. Ale tí najlepší experti budú stále vyvážení zlatom. Lebo umelá inteligencia má svoje limity. Moja manželka sa napríklad zúčastňovala prípravy jedného zákona. Dala si porovnať dve verzie návrhu zákona a ChatGPT jej mal vypichnúť rozdiely a nejako ich charakterizovať a povedala, že to bolo veľmi povrchné. Že to bolo niečo, čo by človek vedel bežne spraviť za 10 minút, ale keď chcela ísť hlbšie, tak ten systém to neurobil. Čiže naozaj si myslím, že elitu to nenahradí. Ale možno nejaké bežné veci áno. To je o tom, čo sme už hovorili. Že možno 90 percent prípadov je štandardných, kde netreba ani veľa rozmýšľať. Tie takéto systémy zvládnu. Ale tých 10 percent, kde treba rozmýšľať, tak na to bude treba tých expertov.
To znamená, že elitou vo vyššie uvedenom význame sú právnici, ktorí vedia samostatne myslieť.
Áno.
Aký vplyv podľa vás môže mať
umelá inteligencia a jej využívanie na myslenie človeka ako také? Nebude to mať na právnika, ktorý sa ju naučí používať a využívať, z dlhodobého hľadiska negatívne konzekvencie? Pretože si na ňu
zvykne a aj jeho rozum sa tomu prispôsobí. A tou elitou byť prestane, lebo
prestane myslieť samostatne. A dohliadať bude na umelú inteligenciu stále menej
a menej. Nehrozí to?
Ja si myslím, že to určite hrozí. Pretože ak nám, povedzme, umelá inteligencia dá päťkrát správne riešenie, tak už jej začnem veriť a už to šieste ani nebudem poriadne kontrolovať. A toto nastáva aj v iných oblastiach, že ľudia sa začínajú nekriticky spoliehať na tieto systémy. Jasné, že niekde to má opodstatnenie. Že, napríklad, už sme si tak všetci zvykli na navigáciu v aute, že už pomaly ani nevieme kde sme, lebo len počúvame "zaboč doľava" alebo "doprava".
Áno, to sa mi stalo, keď som išiel sem.
(Smiech). Áno, ale zatiaľ tá chybovosť tých systémov je minimálna a väčšinou vás to naviguje dobre, takže ľudia sa na to spoliehajú automaticky. Ale to je práve to, či budeme vedieť odhadnúť tú chybovosť. Lebo dnes sme sa bavili o pracovnej oblasti, o práve. Ale myslím si, že vo všeobecnosti je taký trend, ako keď mi môj telefón čoraz častejšie hovorí, že nerozmýšľaj, len mi povoľ prístup k týmto dátam a ja to všetko urobím za teba. A toto podľa mňa nie je zdravé. Ja si myslím, že aj pre zachovanie nejakej ľudskej autonómnosti platí, že by sme si mali vedieť rozhodnúť, ktoré úlohy chceme delegovať na nejakú umelú inteligenciu, a ktoré chceme robiť sami. Či už pre radosť z tých činností alebo pre nejaké zachovanie alebo trénovanie mentálnej kapacity. Nemyslím si, že ideálny stav je, že všetko bude robiť umelá inteligencia a ľudia ohlúpnu.
Sú ľudia, a nie je ich málo, ktorí hovoria, že žijeme v dobe, ktorá je príliš materiálna. Že každý jeden človek by sa mal zamýšľať aj nad duchovnejšími otázkami svojej existencie a svojho života. A tým nemusíme mať na mysli napríklad len vieru, ale aj vzťahy a podobne. Nie je riziko, že tento materiálny stav našej spoločnosti umelá inteligencia ešte viac prehĺbi? Že to bude ešte horšie ako je to teraz?
V princípe to môže ísť oboma smermi. Napríklad, veľa sa hovorí o tom, že by zdravotné sestry v nemocniciach mohli nahradzovať roboty. A teraz, keď si to predstavím ja ako pacient, ktorý som tam celý ubolený a chcem nejaký ľudský kontakt a miesto sestričky mi tam bude pichať injekciu robot, no neznie to príjemne. Ale napríklad, britská štatistika hovorí, že sestrička má na jedného pacienta 15 minút denne. A to už zahŕňa aj tie medicínske činnosti. Tak čo keby sa stalo, že tie medicínske činnosti robí ten robot a sestrička sa namiesto toho tých 15 minút porozpráva s pacientom. Čiže, viem si predstaviť aj to, že pokiaľ sú nejaké činnosti pre nás veľmi cenné, ako nejaké ľudské vzťahy alebo práca pre komunitu, alebo možno služby, ktoré chceme, aby robili ľudia, napríklad fyzioterapiu alebo masáže - ak mám rád ľudský dotyk a nechcem aby ma masíroval robot - tak sa to dá zabezpečiť aj ekonomicky. Že sa proste presunú nejaké zdroje, napríklad znížením daní a podobne. Tak, že keď chceme, aby niektoré povolania robili ľudia, lebo je nám to vzácne, tak sa ten systém nastaví tak, aby to bolo výhodné. Napríklad, keď máme záujem, aby sa o starých ľudí v domovoch pre seniorov nestarali roboty, ale živé sestričky, tak ich treba zaplatiť, lebo zatiaľ nám všetky utekajú niekde, kde to zaplatené je. Takže si myslím, že je to aj o prioritách. Ale na druhej strane, ak sa nezobudíme, tak naozaj sa to celé zmechanizuje. Ale práve to je dobrý dôvod na to, aby sme si uvedomili, že, aha, tak toto všetko umelá inteligencia vie robiť a dokonca to vie robiť lepšie ako my. Tak čo teda je to, čo nás robí ľuďmi a čo je to podstatné, čo my si chceme nechať? Možno práve to je také zazvonenie budíka, že teraz by sme sa mali prebudiť a na toto sa zamerať. Ako spoločnosť a aj ako jednotlivci.
▪▪▪