Naujienos
Teisininko komentaras: Dirbtinis intelektas – grėsmė teisingumui?
Gyvename pereinamajame laikotarpyje, kai informacija vis dažniau perduodama skaitmeninėmis technologijomis[1]. Informacijos perdavimas ir transformavimas naudojant įvairius dirbtinio intelekto (DI) įrankius šiuo metu yra bene plačiausiai naudojamas informacijos apdorojimo skaitmeninėmis technologijomis būdas. Ne paslaptis, kad DI pagalbą vis dažniau pasitelkia ir teisininkų bendruomenė. Vien 2024 m. atlikta UNESCO 96 šalių teisminių institucijų operatorių apklausa parodė, kad net 44 % teisminių institucijų operatoriai, įskaitant teisėjus, prokurorus ir advokatus, savo darbe naudoja DI įrankius[2]. Europos veiksmingo teisingumo komisija 2018 m. priimtoje Chartijoje dėl etikos principų naudojant DI teismų sistemoje akcentuoja, kad DI įrankių, tokių kaip natūralios kalbos apdorojimas, pokalbių robotai, bylų analizės, klasifikavimo sistemos ir kt., integravimas į teisinę sistemą gali padėti pagerinti efektyvumą ir kokybę teisingumo srityje[3]. Kaip žinia, DI yra nepaprastai našus bei geba priimti sprendimus nesivadovaudamas emocijomis, be to, DI yra nepaperkamas, jam nereikia ilsėtis, valgyti, jis nepatiria emocijų kaitos ir nereikalauja kitų žmogiškųjų poreikių patenkinimo. Nepaisant to DI patikimumo klausimas kelia žymiai daugiau iššūkių Lietuvos Respublikos Konstitucijos 31 straipsnio 2 dalyje įtvirtintai teisei į teisingą bylos išnagrinėjimą nei iš pirmo žvilgsnio gali pasirodyti.
Sprendimo šališkumas
Europos veiksmingo teisingumo komisijos 2018 m. priimtoje Chartijoje dėl etikos principų naudojant DI teismų sistemoje minima daug dėmesio sulaukusi DI prognozuojamosios analizės (angl. Predictive justice) funkcija, leidžianti teisėjams kur kas efektyviau ir pigiau išspręsti bylas remiantis istoriniais teisėjų sprendimais bylose[4]. Tai reiškia, kad DI analizuoja ir mokosi iš buvusių teisėjų patirčių, o jo algoritmų sugeneruoto rezultato kokybė priklauso nuo konkrečių ankstesnių teisėjų priimtų sprendimų, jų racionalumo bei objektyvumo[5]. Problema yra ta, kad, kitaip nei žmogus, DI nesugeba tinkamai įvertinti atskirų turimų duomenų reikšmingumo, jų svorio konkrečiai teisinei išvadai padaryti, nes jam stinga kritinio kontekstinio supratimo, moralinio jautrumo bei vertybinės orientacijos. Pavyzdžiui, atlikus kaltinamojo recidyvo ir jo rizikos lygio prognozavimą JAV teisingumo sistemos naudojama DI sistema juodaodžius kaip būsimus nusikaltėlius nurodė beveik dvigubai dažniau nei baltaodžius[6]. Nustatyta, kad marginalizuotos bendruomenės paprastai dažniau minimos suėmimų ir apkaltinamųjų nuosprendžių įrašuose, todėl DI sistema padaro nepagrįstą išvadą, kad konkretūs žmonės iš tam tikros aplinkos yra savaime labiau linkę būti kalti[7]. Taigi, DI sistema yra linkusi diskriminuoti tam tikras socialines bendruomenes, o tai mažų mažiausiai reiškia nekaltumo prezumpcijos ir lygiateisiškumo principų pažeidimą. Kitaip nei DI, kuris remiasi statistine tikimybe, teisėjas paprastai suvokia platesnį bylos aplinkybių kontekstą, geriau atpažįsta tikrąjį pažeidimo priežastinį ryšį, geba kritikuoti netikslius ar nepatikimus bylos duomenis, pastebėti klaidas. Dar daugiau, skirdamas bausmę teisėjas geba geriausiai atsižvelgti į bylos aplinkybes, parodančias žmogaus potencialą keistis gera linkme, t. y. vertinti empatiškai ir individualiai, pavyzdžiui, išklausydamas asmens psichoterapeuto, pataisos įstaigos prižiūrėtojo ar kunigo nuomonių.
„Juodosios dėžės“ problema
Problemą gilina dar ir tai, kad ne visada įmanoma suprasti DI algoritmų, generuojančių sprendimus, veikimo logikos. Šis reiškinys dar vadinamas DI „juodąja dėže“ (angl. “Black box AI “), kai norima akcentuoti sudėtingas DI sistemas, kurių vidinio veikimo iki galo nesupranta ar nepaaiškina net jų kūrėjai. Sudėtingi DI modeliai, ypač gilieji neuroniniai tinklai, apdoroja milžiniškus duomenų kiekius ir priima sprendimus remdamiesi vidiniais skaičiavimais, kurių žmogus ne visada sugeba interpretuoti. Tai reiškia, kad galimybės iki galo patikrinti, ar tikrai DI sugeneruotame atsakyme vadovautasi tinkamu ir galiojančiu teisiniu reguliavimu, visomis aktualiomis, reikšmingomis ir objektyviomis faktinėmis aplinkybėmis, realiai nebėra. Akivaizdu, kad tokie DI sprendimai, stokojantys skaidrumo, pažeidžia esminius teisėjų priimamiems sprendimams taikomus reikalavimus, užtikrinančius teisingą bylos išnagrinėjimą: motyvuoti ir pagrįsti. Dar daugiau, tiesioginė grėsmė teisingumui išryškėja tada, kai DI suklysta, o to neįmanoma atpažinti ir atsekti.
Akivaizdu, jog tokie DI trūkumai, kaip šališkumas ir neaiškus algoritmų veikimo modelis, gali kelti milžinišką iššūkį siekiant užtikrinti teisingumo vykdymą. Nors negalima paneigti gausybės DI pranašumų sprendžiant įvairius teisinius klausimus, tačiau žmogus negali leisti prarasti savo unikalių mąstymo gebėjimų ir tapti vadinamais mašinų vasalais[8], o įvairių DI įrankių naudojimasis turėtų išlikti tik kaip pagalbinė priemonė. Juolab, kad Lietuvos Respublikos Konstitucijos 109 str. 1 d. numato, kad teisingumą vykdo tik teismai, tad jei paaiškėtų, jog teismo sprendimą nulėmė DI, ateityje gali kilti bylų, kai toks sprendimas yra apskundžiamas. Algoritmas atspindi formalią, apskaičiuojamą teisingumo formą, išreikštą nuspėjamais algoritmais ir automatizuotais sprendimais, o teisėjas įkūnija esminę, žmogišką teisingumo formą, apimančią emocijas ir vertybes, peržengiančias matematinį mašinų tikslumą[9]. Už kiekvienos bylos slepiasi žmogus, o kartais teismų sprendimai formuoja net žmonių likimus, tad sprendimo galios atidavimas algoritminiam protui gali reikšti ne tik žmoniškumo ištrynimą iš teisingumo esmės, bet ir neteisingą žmogaus nuteisimą.
[1] Profesorius ir plačiai žinomas teisinių technologijų ekspertas Richard E. Susskind vienoje iš savo knygų pažymi, kad, anot antropologų, žmonija turėjo tris pagrindinius informacijos perdavimo etapus: informacijos perdavimą žodžiu, raštu, spausdinimu. Dabar yra pereinamasis laikotarpis, kai informacija vis dažniau perduodama skaitmeninėmis technologijomis. Žr.: SUSSKIND, Richard E. (2023). Tomorrow’s Lawyers: An Introduction to Your Future. OUP Oxford, p. 263.
[2] UNESCO (2024-06-14). UNESCO Survey Uncovers Critical Gaps in AI Training Among Judicial Operators [interaktyvus]. https://www.unesco.org/en/articles/unesco-survey-uncovers-critical-gaps-ai-training-among-judicial-operators.
[3] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ). European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, 2018, p. 17, 64 [interaktyvus]. https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c.
[4] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment, 2018, p. 57. https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c.
[5] XU, Zichun (2022). Human Judges in the Era of Artificial Intelligence: Challenges and Opportunities. Taylor & Francis Group, LLC, 36(1) [interaktyvus]. https://doi.org/10.1080/08839514.2021.2013652.
[6] Ibid.
[7] The Conversation (2023-07-10). AI: why installing ‘robot judges’ in courtrooms is a really bad idea. Rónán Kennedy [interaktyvus]. https://theconversation.com/ai-why-installing-robot-judges-in-courtrooms-is-a-really-bad-idea-208718.
[8] XU, Zichun (2022). Human Judges in the Era of Artificial Intelligence: Challenges and Opportunities. Taylor & Francis Group, LLC, 36(1) [interaktyvus]. https://doi.org/10.1080/08839514.2021.2013652.
[9] BORGESANO, Francesco; DE MAIO, Annarita; LAGHI, Pasquale ir kt. (2025). Artificial intelligence and justice: a systematic literature review and future research perspectives on Justice 5.0. European Journal of Innovation Management, 28(11), p. 349 – 385 [interaktyvus]. https://doi.org/10.1108/EJIM-01-2025-0117.
Autorė: Austėja Marcinkevičiūtė
Advokatų kontora LEADELL Balčiūnas ir Grajauskas
Kategorijos
Prenumeruoti LEADELL naujienlaiškį
