5 min read

Prawo w nowej rzeczywistości AI – co przynosi raport Wolters Kluwer?

Opublikowano:
May 30, 2025

Sztuczna inteligencja zdobywa rynek szybciej niż ustawodawcy są w stanie nadążyć z regulacjami. Opublikowany w kwietniu 2025 r. raport „Prawo w nowej rzeczywistości AI – szanse i wyzwania” analizuje, jak AI już dziś zmienia praktykę prawniczą i gdzie rodzi największe ryzyka. Dokument przygotowany przez zespół ponad 20 ekspertów – od profesorów i doktorów prawa po liderów w branży łączącej informatykę z prawem. Ten raport stanowi pierwsze w Polsce tak przekrojowe opracowanie problematyki AI w prawie.

Kluczowe wnioski raportu

• AI w kancelarii – już prawie 50% polskich firm prawniczych testuje generatywne modele językowe, a niektóre z nich wdrożyło je komercyjnie.

• Nowe kompetencje prawnika – rośnie popyt na specjalistów łączących prompt engineering i analizę ryzyka regulacyjnego (compliance AI).

• Zwiększenie znaczenia materiałów deepfake– fałszywe nagrania stanowią wyzwanie dowodowe i wymagają weryfikacji eksperckiej (authentication by provenance).

• AI Act już obowiązuje – od 2 lutego 2025 zakazane systemy AI (np. masowa biometryczna identyfikacja) są objęte sankcjami do 35 mln € lub 7 % globalnego obrotu.

"Ponad 50% kancelarii testuje generatywną AI – nowa rzeczywistość prawników. Źródło: iStock. Obraz AI"

AI Act – europejski kompas regulacyjny

Od 1 sierpnia 2024 r. EU AI Act jest oficjalnie w mocy, a pierwsza fala obowiązków (prohibicje i AI literacy) weszła w życie 2 lutego 2025 r.

W praktyce oznacza to, że:

• Kancelarie muszą klasyfikować narzędzia AI według poziomów ryzyka (minimal, limited, high, unacceptable);

• dostawcy generatywnych modeli językowych zobligowani są do publikowania raportów przejrzystości i oceny oddziaływania na prawa podstawowe;

• organizacje muszą szkolić personel w zakresie AI literacy – poziom ten stał się wymogiem prawnym, a nie miękką rekomendacją.

"Deepfake w sądach – jak odróżnić manipulację od dowodu? Źródło: Getty Images" Obraz AI.

Deepfake – problem “fake-or-fact”

Raport zwraca uwagę na rosnącą falę materiałów deepfake, które trafiają do postępowań cywilnych i karnych. Najnowsze statystyki amerykańskich sądów pokazują pierwsze przypadki obrony opartej na tezie, że wideo mogło być zmanipulowane przez sztuczną inteligencję (deepfake defense).

Case study

W 2024 r. kalifornijski sąd w sprawie Huang v. Tesla uznał nagranie z kamery samochodowej jako wiarygodne, odrzucając zarzut deepfake, bo strona pozwana nie przedstawiła prima facie dowodu zmanipulowania metadanych.

Praktyczne implikacje dla stron postępowania

1. Wniosek o biegłego IT – w sprawach może wystąpić konieczność zlecenia ekspertyzy obejmującej identyfikację metadanych i analizę ścieżki łańcucha dowodowego (chain of custody).

2. Zasada proporcjonalności – TSUE (sprawa C-159/20) podkreślił, że sąd może ograniczyć dostęp do pełnych danych, jeśli naruszałoby to prawa osób trzecich.

3. Standard uznania – w polskiej procedurze cywilnej przepisy dają sędziemu swobodę oceny dowodów, lecz przy AI warto wspierać się wytycznymi NCSC (USA, 2024).

Prawa autorskie, a LLM-y

Już wcześniej został opublikowany artykuł na temat „Jak daleko można się posunąć z wykorzystaniem danych?”, który poruszał kwestie legalnych granic zastosowania dużych modeli językowych (Large Language Models – LLM) w kontekście naruszenia praw autorskich.

Przy używaniu autorskiego oprogramowania AI, które uczy się na podstawie zamkniętych baz danych, należy uważać czy nie narusza się w ten sposób praw autorskich osób trzecich. Nawet jeżeli dane są z pozoru publiczne (np. baza zbierająca orzeczenia sądów), to nadal część treści może być objęta prawami autorskimi (np. komentarze czy glosy do orzeczeń dostępnych publicznie).

Medycyna, HR, finanse – AI w sektorach regulowanych

Eksperci raportu przewidują, że wysokiego ryzyka systemy AI – od diagnostyki radiologicznej, przez algorytmy kadrowe, po monitorowanie transakcji finansowych – staną się poligonem testowym dla nowych regulacji i sporów prawnych.

Medycyna – AI w ochronie zdrowia

Modele takie jak GPT-Med wspomagają radiologów w analizie skanów MRI i CT, skracając czas diagnozy do kilku sekund. Błąd klasyfikacji może jednak skutkować odpowiedzialnością za błąd w sztuce. Zgodnie z unijnym MDR 2017/745 oprogramowanie to klasyfikowane jest w klasie IIb, a jako „high-risk” według AI Act wymaga rejestracji, ciągłego nadzoru poklienckiego i pełnej dokumentacji klinicznej.

HR – algorytmy kadrowe

Automatyczna selekcja CV coraz częściej filtruje tysiące aplikacji w dużych firmach. Gdy logika decyzji jest niejawna, pojawia się ryzyko nieuzasadnionego profilowania. Kandydat może, powołując się na art. 22 RODO, żądać ludzkiej weryfikacji i wyjaśnienia kryteriów. AI Act klasyfikuje takie systemy (zał. III) jako „high-risk”, nakładając obowiązek oceny zgodności ex-ante, czyli przed faktem oraz dokumentowania i minimalizowania ryzyka dyskryminacji.

"EU AI Act już obowiązuje – wysokie kary za naruszenia. Obraz AI.

Finanse – przeciwdziałanie praniu pieniędzy

Banki stosują uczenie maszynowe do wykrywania nietypowych wzorców w ramach procedur AML. Wysoki odsetek false-positive (nawet > 90 %) prowadzi do blokowania legalnych transakcji i możliwych roszczeń klientów. Systemy te działają w ramach AML 6 i wytycznych EBA, a AI Act uznaje je za „high-risk” w sektorze finansowym. Instytucja musi zatem stale walidować skuteczność algorytmu oraz przechowywać pełne logi decyzyjne przez co najmniej pięć lat.

Ochrona danych osobowych a modele językowe

• Podstawa prawna przetwarzania – nie jest jasne czy trening modelu można oprzeć na przesłance przetwarzania „z prawnie uzasadnionych interesów” (art. 6 ust. 1 lit. f RODO)

• Prawo do sprostowania a halucynacje modelu – użytkownik może żądać korekty nieprawdziwych danych wygenerowanych przez system (Opinie EROD 02/2024).

• Obowiązek DPIA – projekty wysokiego ryzyka wymagają oceny skutków dla ochrony danych (art. 35 RODO), najlepiej połączonej z analizą AI Act.

Jak przygotować kancelarię, żeby była “AI-ready”?

1. Opracowanie polityki korzystania z generatywnej AI – powinno się precyzyjnie określić zasady udostępniania informacji poufnych w narzędziach AI, ustalić czas przechowywania zapytań (promptów) oraz sposób zarządzania pamięcią podręczną modeli, aby zminimalizować ryzyko wycieku danych.

2. Wdrożenie obowiązkowych szkoleń z zakresu AI literacy – zgodnie z wymogami AI Act (art. 4), od 2 lutego 2025 r. wszyscy pracownicy powinni zostać właściwie przeszkoleni, co umożliwi im świadome i bezpieczne korzystanie z technologii sztucznej inteligencji.

3. Prowadzenie wewnętrznego rejestru modeli AI – katalog powinien zawierać szczegółowe informacje o każdym wykorzystywanym modelu: przeznaczenie, kategorię ryzyka według AI Act, dane dostawcy oraz status zgodności z obowiązującymi regulacjami i politykami kancelarii.

4. Systematyczne monitorowanie orzecznictwa i regulacji – konieczne jest regularne aktualizowanie wiedzy na temat najnowszych wyroków sądowych, interpretacji prawnych oraz zmian legislacyjnych dotyczących AI, co pozwoli na szybkie reagowanie i dostosowywanie procedur kancelarii do obowiązujących standardów.

Podsumowanie

Raport Wolters Kluwer wyraźnie pokazuje, że AI nie zastąpi prawnika, ale prawnik, który potrafi pracować z AI będzie miał znaczącą przewagę na rynku. Od EU AI Act, przez deepfake w postępowaniach sądowych, aż po ochronę danych – nadchodzi czas, w którym kompetencje technologiczne stają się nieodłączną częścią warsztatu prawniczego. Aby kancelaria była „AI-ready”, najlepiej jest zacząć od lektury raportu i wdrożenia powyższych kroków już dziś.

Pobierz pełny raport tutaj:

https://www.wolterskluwer.com/pl-pl/solutions/lex/prawo-sztucznej-inteligencji/wiedza/raport-ai-prawo

https://www.wolterskluwer.com/pl-pl/solutions/lex/prawo-sztucznej-inteligencji/wiedza/raport-ai-prawo?utm_source=lexai.pl&utm_medium=link&utm_campaign=WKPL_LEG_ACQ_LPSI-EBO-POT-raport-AI-03-25-TOFU_LFM/PRW0125001_PCM002&utm_term=ebo&utm_content=publikacja_LEXAI

Udostępnij ten post
Remigiusz Sokołowski
Student prawa UG.

Premiera już 9 czerwca 2025

Kontakt

Dowiedz się więcej

Infolinia 24h

+48 585 005 999