Etyka a sztuczna inteligencja – jak daleko możemy posunąć się z poleganiem na AI? Czy AI powinno wydawać wyroki?

Czy AI będzie orzekać w sprawach sądowych?
Aktualnie wyrok wydany przez sztuczną inteligencję jest motywem filmu z kategorii science-fiction, ale już teraz sędziowie w niektórych krajach korzystają z narzędzi wyposażonych w AI. Choć sztuczna inteligencja nie jest nowością, od kilku lat rozwija się w niezwykłym tempie. Korzystają z niej wszyscy – od dużych firm po użytkowników Internetu, którzy zakochali się w możliwościach, jakie daje ChatGPT, NoteLM czy Gemini. Również chiński wymiar sprawiedliwości zamierza wykorzystać potencjał, jaki daje współczesna technologia.

Chiński sędzia będzie korzystał z bota AI przy sprawach sądowych
Jak podano na oficjalnej strony internetowej Najwyższego Sądu Ludowego Chin [1], chińscy sędziowie mają korzystać ze specjalnego bota, opartego o miliony informacji z oficjalnych spraw sądowych, wyroków i opinii prawnych. Zadaniem bota jest analizowanie i porównywanie tych informacji, a następnie tworzenie list z kluczowymi punktami i streszczeniem najważniejszych kwestii. Sztuczna inteligencja ma pełnić funkcję prywatnego asystenta prawnego sędziego, ułatwiając mozolną pracę przy sprawach sądowych. Chiński obywatel nie zostanie więc skazany przez AI, lecz wyrok wydany w jego sprawie może opierać się orzeczenia wybrane przez sztuczną inteligencję.
Chiny nie są pierwszym krajem, który korzysta ze sztucznej inteligencji w wymiarze sprawiedliwości. Portal Rzeczpospolita.pl zaznacza, że posługują się nimi sądy w USA, Argentynie czy w Indiach [2]. W tym ostatnim AI tłumaczy wyroki sądowe czy tworzy transkrypcje w czasie rzeczywistym z przesłuchań sądowych [3]. Nie tylko sądy korzystają z nowych technologii – poniższa lista prezentuje systemy AI stworzone przez kancelarie, które wspomagają pracę prawników.
Wykorzystywanie AI w kancelariach prawnych naświecie:
· SystemROSS Intelligence (Kanada)[4],który wyszukuje odpowiednie przepisy i precedensy na podstawie zadanych pytań, ułatwiając prawnikom proces tworzenia odpowiedniej argumentacji prawnej,
· BlueJ Legal (Kanada)[5],który analizuje tysiące wcześniejszych wyroków i przewiduje prawdopodobny wynik na podstawie podobieństw do obecnej sprawy w sprawach podatkowych,
· SmithAI(USA)[6],który oferuje usługi wirtualnych recepcjonistów i automatyzacji obsługi klienta poprzez chat-boty,
· LexAI (Polska), innowacyjny model prawnika sztucznej inteligencji wyspecjalizowanego w polskim prawie, który oferuje możliwość rozmowy z czatem Lex AI oraz błyskawicznie generuje dokumenty i udziela rzetelnych porad prawnych zgodnych z aktualnymi przepisami. Użytkownik może zweryfikować otrzymaną odpowiedź lub zamówić opinię prawną u realnego prawnika - LexPartnerem. Lex AI wpisuje się w światowy trend wykorzystywania sztucznej inteligencji w prawie, upraszczając dostęp do szybkiej i skutecznej pomocy prawnej.
Nakarmienie sztucznej inteligencji wyrokami i przepisami prawa może skutkować nieaktualnymi wynikami
Wydaje się, że obecność sztucznej inteligencji na sali sądowej czy pokoju sędziego jest już nieunikniona. Nie ulega wątpliwości, że narzędzia AI mogą okazać się przydatne i ułatwiać pracę w zakresie researchu czy przy tłumaczeniu wyroków. Należy jednak rozważyć, jak daleko możemy – i powinniśmy – posunąć się z poleganiem na sztucznej inteligencji w tak istotnych sprawach, jak sądownictwo.
Jak pisze Katherine B. Forrest, była sędzia sądu federalnego w Stanach Zjednoczonych, sztuczna inteligencja uczy się na podstawie bazy danych wprowadzonych do jej systemu [7].W przypadku AI wykorzystywanej w sądzie, baza danych będzie składać się głównie z wyroków i postanowień sądowych. Orzeczenia zaś opierają się o prawo obowiązujące w danym czasie, precedensy lub wyroki Sądu Najwyższego. Treści sporządzone przez sztuczną inteligencję mogą więc opierać się o nieaktualne dane lub nie zgadzać się ze współczesnymi tendencjami sądowymi. Istotną kwestią przy wydawaniu wyroków są także warunki społeczne. Katherine B. Forrest jako przykład wskazuje zmiany, które zaszły w amerykańskim wymiarze sprawiedliwości w sprawie marihuany. Przez wiele lat jej hodowanie, sprzedawanie czy posiadanie było zabronione na poziomie stanowym i federalnym. Następnie większość stanów zdekryminalizowało używanie marihuany, a niektóre zalegalizowały ją całkowicie(np. Nevada). Zmieniło się także postrzeganie społeczne przestępstw związanych z marihuaną. System AI korzystający z bazy zawierającej tysiące wyroków wydanych na przestrzeni lat może więc zaprezentować wynik niezgodny ze zmianami, jakie przeszło prawo i społeczeństwo.

Wykorzystanie AI w sądownictwie może ułatwić pracę sędziego, ale wiąże się z zagrożeniami
Chociaż działanie AI oparte o uczenie głębokie ma symulować działania człowieka, AI może mieć trudności z oceną niuansów, emocji i wyjątkowych sytuacji, które spotykane są w sprawach sądowych. Sztuczna inteligencja opierająca się o szeroką bazę danych może powielać uprzedzenia zawarte w danych historycznych, co ma istotne znaczenie przy zmianach w prawie. Jeśli wyselekcjonowane przez AI dane okażą się niedostosowane do danej sprawy, a nawet błędne (tzw. halucynacje), a sędzia nie dostrzeże błędnego rozumowania, strony sporów sądowych mogą otrzymać niesprawiedliwy wyrok. To zaś nasuwa kolejne pytanie - kto miałby odpowiadać za błędną decyzję AI – twórca algorytmu, sąd czy państwo?
Zalety wykorzystania AI w sądach:
· szybkość działania: AI potrafi błyskawicznie analizować tysiące dokumentów, co przyspiesza rozpatrywanie spraw,
· obniżenie kosztów: automatyzacja procesów może zmniejszyć koszty administracyjne, np. związane z tłumaczeniem wyroków czy automatyczną transkrypcją tekstu,
· wsparcie w research’u: AI dostarcza analiz, podpowiedzi i rekomendacje, pozwalając skupić się na kluczowych aspektach sprawy.
Potencjalne zagrożenia związane z wykorzystaniem AI w sądach:
· stronniczość i nieaktualność danych: AI może powielać uprzedzenia zawarte w danych historycznych (np. rasizm, stereotypy społeczne),
· ograniczona zdolność rozumienia kontekstu: AI może mieć trudności z oceną niuansów, emocji warunków społecznych,
· dehumanizacja wymiaru sprawiedliwości: Ludzie mogą czuć się gorzej traktowani, jeśli przy rozstrzyganiu ich problemów wykorzystywane są maszyny.
Sędzia korzystający z AI musi rozumieć, jak działa nowa technologia
Chociaż AI może wydawać się świetnym rozwiązaniem w sądownictwie, należy pamiętać także o zagrożeniach, jakie ze sobą niesie. Sędziowie, którzy korzystają z AI przy wydawaniu wyroków powinni być odpowiednio przeszkoleni, aby odpowiednio kontrolować treści, jakie sporządziła dla nich sztuczna inteligencja. Równie przydatna może się okazać umiejętność weryfikacji, kiedy strona sporu sądowego posługuje się wytworem sztucznej inteligencji. Coraz częściej spotykane są fake newsy wygenerowane przez sztuczną inteligencję, takie jak fałszywe zdjęcia lub spreparowane e-maile[8]. Co istotne, takie dokumenty mogą być nie tylko przedmiotem postępowania, ale także dowodem przedstawionym przez stronę. Zauważyła to także pozarządowa organizacja NCSC, wydając rekomendacje w sprawie AI dla sędziów na poziomie stanowym[9]. Jak wskazują, sędziowie i prawnicy mają etyczny obowiązek posiadania kompetencji w zakresie wykorzystywanych technologii. Wydaje się, że taki obowiązek powinien dotyczyć nie tylko amerykańskich przedstawicieli wymiaru sprawiedliwości, lecz zostać nałożony na sędziów wszystkich państw, które zamierzają wprowadzić AI do swoich sądów.
Źródła:
[1]https://english.court.gov.cn/2024-12/05/c_1050751.htm
[2]https://cyfrowa.rp.pl/technologie/art41489741-w-chinach-bot-wyda-wyrok-rewolucja-w-sadach-juz-sie-zaczela
[3]https://analyticsindiamag.com/ai-features/ai-is-emerging-as-an-administrative-tool-in-indias-judiciary-enhancing-accessibility-and-streamlining-legal-processes-from-real-time-transcriptions-of-bench-hearings-to-multilingual-transla/
[4]https://www.rossintelligence.com/what-is-ai
[5]https://www.businesswire.com/news/home/20230823880057/en/Introducing-Ask-Blue-J-the-Groundbreaking-Generative-AI-Platform-for-Tax
[6] https://smith.ai/
[7] Katherine B. Forrest, When MachinesCan Be Judge, Jury, and Executioner, Justice in the Age of ArtifficialIntelligence, World Scientific Publishing Co. Pte. Ltd., USA, 2021, s. 18-20.
[8] https://www.lexai.pl/post/fake-newsy-w-erze-ai-jak-sztuczna-inteligencja-tworzy-swiat-ktorego-nie-bylo--i-co-to-oznacza-dla-prawa
[9]https://www.ncsc.org/__data/assets/pdf_file/0014/102830/ncsc-artificial-intelligence-guidelines-for-courts.pdf
Premiera już 9 czerwca 2025
Kontakt
Dowiedz się więcej
Infolinia 24h