Prawo w nowej rzeczywistości AI – co przynosi raport Wolters Kluwer?

Sztuczna inteligencja zdobywa rynek szybciej niż ustawodawcy są w stanie nadążyć z regulacjami. Opublikowany w kwietniu 2025 r. raport „Prawo w nowej rzeczywistości AI – szanse i wyzwania” analizuje, jak AI już dziś zmienia praktykę prawniczą i gdzie rodzi największe ryzyka. Dokument przygotowany przez zespół ponad 20 ekspertów – od profesorów i doktorów prawa po liderów w branży łączącej informatykę z prawem. Ten raport stanowi pierwsze w Polsce tak przekrojowe opracowanie problematyki AI w prawie.
Kluczowe wnioski raportu
• AI w kancelarii – już prawie 50% polskich firm prawniczych testuje generatywne modele językowe, a niektóre z nich wdrożyło je komercyjnie.
• Nowe kompetencje prawnika – rośnie popyt na specjalistów łączących prompt engineering i analizę ryzyka regulacyjnego (compliance AI).
• Zwiększenie znaczenia materiałów deepfake– fałszywe nagrania stanowią wyzwanie dowodowe i wymagają weryfikacji eksperckiej (authentication by provenance).
• AI Act już obowiązuje – od 2 lutego 2025 zakazane systemy AI (np. masowa biometryczna identyfikacja) są objęte sankcjami do 35 mln € lub 7 % globalnego obrotu.

AI Act – europejski kompas regulacyjny
Od 1 sierpnia 2024 r. EU AI Act jest oficjalnie w mocy, a pierwsza fala obowiązków (prohibicje i AI literacy) weszła w życie 2 lutego 2025 r.
W praktyce oznacza to, że:
• Kancelarie muszą klasyfikować narzędzia AI według poziomów ryzyka (minimal, limited, high, unacceptable);
• dostawcy generatywnych modeli językowych zobligowani są do publikowania raportów przejrzystości i oceny oddziaływania na prawa podstawowe;
• organizacje muszą szkolić personel w zakresie AI literacy – poziom ten stał się wymogiem prawnym, a nie miękką rekomendacją.

Deepfake – problem “fake-or-fact”
Raport zwraca uwagę na rosnącą falę materiałów deepfake, które trafiają do postępowań cywilnych i karnych. Najnowsze statystyki amerykańskich sądów pokazują pierwsze przypadki obrony opartej na tezie, że wideo mogło być zmanipulowane przez sztuczną inteligencję (deepfake defense).
Case study
W 2024 r. kalifornijski sąd w sprawie Huang v. Tesla uznał nagranie z kamery samochodowej jako wiarygodne, odrzucając zarzut deepfake, bo strona pozwana nie przedstawiła prima facie dowodu zmanipulowania metadanych.
Praktyczne implikacje dla stron postępowania
1. Wniosek o biegłego IT – w sprawach może wystąpić konieczność zlecenia ekspertyzy obejmującej identyfikację metadanych i analizę ścieżki łańcucha dowodowego (chain of custody).
2. Zasada proporcjonalności – TSUE (sprawa C-159/20) podkreślił, że sąd może ograniczyć dostęp do pełnych danych, jeśli naruszałoby to prawa osób trzecich.
3. Standard uznania – w polskiej procedurze cywilnej przepisy dają sędziemu swobodę oceny dowodów, lecz przy AI warto wspierać się wytycznymi NCSC (USA, 2024).
Prawa autorskie, a LLM-y
Już wcześniej został opublikowany artykuł na temat „Jak daleko można się posunąć z wykorzystaniem danych?”, który poruszał kwestie legalnych granic zastosowania dużych modeli językowych (Large Language Models – LLM) w kontekście naruszenia praw autorskich.
Przy używaniu autorskiego oprogramowania AI, które uczy się na podstawie zamkniętych baz danych, należy uważać czy nie narusza się w ten sposób praw autorskich osób trzecich. Nawet jeżeli dane są z pozoru publiczne (np. baza zbierająca orzeczenia sądów), to nadal część treści może być objęta prawami autorskimi (np. komentarze czy glosy do orzeczeń dostępnych publicznie).
Medycyna, HR, finanse – AI w sektorach regulowanych
Eksperci raportu przewidują, że wysokiego ryzyka systemy AI – od diagnostyki radiologicznej, przez algorytmy kadrowe, po monitorowanie transakcji finansowych – staną się poligonem testowym dla nowych regulacji i sporów prawnych.
Medycyna – AI w ochronie zdrowia
Modele takie jak GPT-Med wspomagają radiologów w analizie skanów MRI i CT, skracając czas diagnozy do kilku sekund. Błąd klasyfikacji może jednak skutkować odpowiedzialnością za błąd w sztuce. Zgodnie z unijnym MDR 2017/745 oprogramowanie to klasyfikowane jest w klasie IIb, a jako „high-risk” według AI Act wymaga rejestracji, ciągłego nadzoru poklienckiego i pełnej dokumentacji klinicznej.
HR – algorytmy kadrowe
Automatyczna selekcja CV coraz częściej filtruje tysiące aplikacji w dużych firmach. Gdy logika decyzji jest niejawna, pojawia się ryzyko nieuzasadnionego profilowania. Kandydat może, powołując się na art. 22 RODO, żądać ludzkiej weryfikacji i wyjaśnienia kryteriów. AI Act klasyfikuje takie systemy (zał. III) jako „high-risk”, nakładając obowiązek oceny zgodności ex-ante, czyli przed faktem oraz dokumentowania i minimalizowania ryzyka dyskryminacji.

Finanse – przeciwdziałanie praniu pieniędzy
Banki stosują uczenie maszynowe do wykrywania nietypowych wzorców w ramach procedur AML. Wysoki odsetek false-positive (nawet > 90 %) prowadzi do blokowania legalnych transakcji i możliwych roszczeń klientów. Systemy te działają w ramach AML 6 i wytycznych EBA, a AI Act uznaje je za „high-risk” w sektorze finansowym. Instytucja musi zatem stale walidować skuteczność algorytmu oraz przechowywać pełne logi decyzyjne przez co najmniej pięć lat.
Ochrona danych osobowych a modele językowe
• Podstawa prawna przetwarzania – nie jest jasne czy trening modelu można oprzeć na przesłance przetwarzania „z prawnie uzasadnionych interesów” (art. 6 ust. 1 lit. f RODO)
• Prawo do sprostowania a halucynacje modelu – użytkownik może żądać korekty nieprawdziwych danych wygenerowanych przez system (Opinie EROD 02/2024).
• Obowiązek DPIA – projekty wysokiego ryzyka wymagają oceny skutków dla ochrony danych (art. 35 RODO), najlepiej połączonej z analizą AI Act.
Jak przygotować kancelarię, żeby była “AI-ready”?
1. Opracowanie polityki korzystania z generatywnej AI – powinno się precyzyjnie określić zasady udostępniania informacji poufnych w narzędziach AI, ustalić czas przechowywania zapytań (promptów) oraz sposób zarządzania pamięcią podręczną modeli, aby zminimalizować ryzyko wycieku danych.
2. Wdrożenie obowiązkowych szkoleń z zakresu AI literacy – zgodnie z wymogami AI Act (art. 4), od 2 lutego 2025 r. wszyscy pracownicy powinni zostać właściwie przeszkoleni, co umożliwi im świadome i bezpieczne korzystanie z technologii sztucznej inteligencji.
3. Prowadzenie wewnętrznego rejestru modeli AI – katalog powinien zawierać szczegółowe informacje o każdym wykorzystywanym modelu: przeznaczenie, kategorię ryzyka według AI Act, dane dostawcy oraz status zgodności z obowiązującymi regulacjami i politykami kancelarii.
4. Systematyczne monitorowanie orzecznictwa i regulacji – konieczne jest regularne aktualizowanie wiedzy na temat najnowszych wyroków sądowych, interpretacji prawnych oraz zmian legislacyjnych dotyczących AI, co pozwoli na szybkie reagowanie i dostosowywanie procedur kancelarii do obowiązujących standardów.
Podsumowanie
Raport Wolters Kluwer wyraźnie pokazuje, że AI nie zastąpi prawnika, ale prawnik, który potrafi pracować z AI będzie miał znaczącą przewagę na rynku. Od EU AI Act, przez deepfake w postępowaniach sądowych, aż po ochronę danych – nadchodzi czas, w którym kompetencje technologiczne stają się nieodłączną częścią warsztatu prawniczego. Aby kancelaria była „AI-ready”, najlepiej jest zacząć od lektury raportu i wdrożenia powyższych kroków już dziś.
Pobierz pełny raport tutaj:
https://www.wolterskluwer.com/pl-pl/solutions/lex/prawo-sztucznej-inteligencji/wiedza/raport-ai-prawo
https://www.wolterskluwer.com/pl-pl/solutions/lex/prawo-sztucznej-inteligencji/wiedza/raport-ai-prawo?utm_source=lexai.pl&utm_medium=link&utm_campaign=WKPL_LEG_ACQ_LPSI-EBO-POT-raport-AI-03-25-TOFU_LFM/PRW0125001_PCM002&utm_term=ebo&utm_content=publikacja_LEXAI
Premiera już 9 czerwca 2025
Kontakt
Dowiedz się więcej
Infolinia 24h