AI ACT
5 min read

Sztuczna inteligencja w dyskursie publicznym: źródła nieufności i ich przełamywanie

Opublikowano:
May 6, 2025

Niniejszy artykuł otwiera cykl publikacji poświęconych sztucznej inteligencji. Naszym celem jest stopniowe wprowadzanie czytelników w świat kluczowych pojęć, zjawisk i regulacji związanych z AI – od podstawowych definicji, przez aspekty prawne i etyczne, popraktyczne zastosowania tej technologii. Kierujemy go zarówno do osób stawiających pierwsze kroki w tej tematyce, jak i tych, którzy chcą uporządkować lub pogłębić swoją wiedzę.

1. Wprowadzenie do Sztucznej Inteligencji: Obawy i Potencjał

Sztuczna inteligencja od początku budzi emocje i wątpliwości. Często obawiamysię tego, czego nie rozumiemy, a w przestrzeni publicznej dominują narracjeoparte na lęku i dezinformacji. W wyobraźni wielu AI przybiera postać robotów przejmujących władzę, odbierających wolność i podejmujących decyzje sprzeczne zludzkimi wartościami. Choć takie wizje są niepokojące, w dużej mierze nieznajdują oparcia w rzeczywistości. Kluczem do ich oswojenia pozostaje ciekawość– motywująca do zdobywania wiedzy – oraz otwartość na zmianę perspektywy.

2. AI Act: Regulacje Unii Europejskiej w Zakresie Sztucznej Inteligencji        

        W odpowiedzi na rosnące obawy związane z rozwojem sztucznej inteligencji, naukowcyi prawodawcy opracowali Akt w sprawie sztucznej inteligencji (AI Act)– kompleksowe rozporządzenie, którego finalna wersja, przyjęta przez Parlament Europejski i Radę UE, liczy aż 458 stron. Tak obszerna regulacja podkreśla wagę kwestii bezpieczeństwa, przejrzystości i zgodności systemów AI z etyką orazprawami człowieka (European Commission, 2021).


Wygenerowany obraz

3. Czym Jest Sztuczna Inteligencja?

        Zgodnie z AI Act (art. 3, pkt 1),"system sztucznej inteligencji" to oprogramowanie działające częściowo autonomicznie, generujące treści, prognozy, decyzje lub rekomendacjena podstawie danych. Mówiąc prościej – AI to program uczący się z danych,wykonujący konkretne zadania: od rozpoznawania twarzy po wspieranie lekarzy.
AI nie ma świadomości ani emocji – to algorytm wykrywający wzorce.
Ograniczenia AI:

  1. Nie rozumie treści – tylko je przetwarza.
  2. Nie posiada intuicji – może popełniać zaskakujące błędy.
  3. Uczy się na danych – może powielać uprzedzenia.
  4. Wymaga nadzoru – nie zastępuje człowieka w kluczowych decyzjach.

Mimo obaw, AI to narzędzie – jak młotek: można go użyć dobrze lub źle. Nie ma własnej woli, nie działa samodzielnie. Unia Europejska wprowadza regulacje, by AI służyła człowiekowi, nie go zastępowała. Zgodnie zAI Act, każdy system musi spełniać rygorystyczne wymogi ochrony danych i prawczłowieka. AI nie jest ani dobra, ani zła – wszystko zależy od jej twórców i użytkowników.

4. Wykorzystanie AI w Prawie: Rewolucja w Branży Prawniczej  

           Jednym z kluczowych obszarów zastosowania AI jest prawo. Sztuczna inteligencja coraz silniej rewolucjonizuje branżę prawniczą – przyspieszając analizy, automatyzując rutynowe zadania i znacznie obniżając koszty. W 2023 roku wartość globalnego rynku AI w sektorze prawnym wyniosła około 1,5 miliarda dolarów, a według prognoz do 2030 roku wzrośnie do ponad 6 miliardów dolarów (przy rocznym tempie wzrostu ~23%) (Statista, 2023).

Dlaczego ten rozwój jest tak szybki?
Przede wszystkim ze względu na ogromną oszczędność czasu – AI może przeanalizować tysiąc stron dokumentów wminutę, podczas gdy prawnik potrzebowałby na to kilkunastu godzin. Ponadto algorytmy potrafią wykrywać aż 95% nieścisłości w umowach (Koller et al.,2021). Narzędzia te przyczyniają się także do demokratyzacji dostępu do prawa –umożliwiając małym firmom i osobom prywatnym skorzystanie z przystępnych cenowousług prawnych.


5. PrzykładyRyzyk Związanych z AI: Błąd w Praktyce Prawnej

           Jednocześnie pojawiają się wyzwania. AI, takie jak ChatGPT, potrafi tworzyć pozornie wiarygodne, lecz całkowicie fikcyjne treści – np. cytować nieistniejące precedensy sądowe. Dlatego zgodnie z założeniami AI Act, kluczowe jest zachowanie przejrzystości algorytmów i zapewnienie ludzkiego nadzoru (EuropeanCommission, 2021).

Nie ma obaw, że AI zastąpi prawników – raczej stanie się ich wsparciem, przejmując czasochłonne zadania techniczne. To pozwoli specjalistom skupić się na tym, co najważniejsze: strategii, etyce i relacjach z człowiekiem – czego żadna maszyna nie zastąpi (Susskind, 2020).

Jeden z głośniejszych przypadków miał miejsce w NowymJorku w 2023 roku, kiedy prawnik Steven A. Schwartz użył ChatGPT do wyszukania precedensów sądowych. AI podało mu kilka fikcyjnych spraw, które nigdy nieistniały, a Schwartz, nie weryfikując informacji, złożył pismo do sądu. Dopiero strona przeciwna zauważyła błąd, a Schwartz został ukarany grzywną w wysokości 5000 dolarów. Sprawa ta pokazuje, jak ważny jest ludzki nadzór nad AI,szczególnie w kontekście prawa, gdzie błędy mogą mieć poważne konsekwencje (Reuters, 2023).

6. Etyka w AI Act: Jak Unia Europejska chroni nasprzed zagrożeniami sztucznej inteligencji?

           Unijne rozporządzenie o sztucznej inteligencji (AI Act) to jeden z najbardziej kompleksowych systemów ochrony etycznej na świecie. Jego podstawą jest zakazstosowania praktyk naruszających prawa podstawowe, takich jak manipulowanie zachowaniami czy tworzenie systemów społecznego scoringu, jak w Chinach. Te kontrowersyjne zastosowania AI zostały całkowicie wykluczone jako niedopuszczalne (European Commission, 2021).

Dla systemów wysokiego ryzyka, stosowanych wsądownictwie, ochronie zdrowia czy rekrutacji, AI Act nakłada podwójną ochronę.Z jednej strony wymaga ludzkiego nadzoru, z drugiej – przejrzystości algorytmówi testów pod kątem uczciwości. Algorytmy muszą być regularnie audytowane, bywykrywać uprzedzenia, a ich decyzje muszą być zawsze możliwe do zakwestionowania przez człowieka (European Commission, 2021).

 

7. Wymogi AI Act dla Systemów Wysokiego Ryzyka

           Producenci AI zobowiązani są do pełnej dokumentacji swoich systemów – od danych treningowych po szczegółowe logi działania. To odpowiedź na problem"czarnej skrzynki" – nieprzejrzystości algorytmów. Przykłady ryzykautraty kontroli nad decyzjami maszyn obejmują błędne dane, autonomiczne systemy broni, a także uprzedzenia w algorytmach, które mogą wpływać na decyzje wkwestiach takich jak oceny kredytowe czy rekrutacja (O'Neil, 2016).

Choć istnieje ryzyko utraty kontroli nad decyzjami podejmowanymi przez sztuczną inteligencję, odpowiednie regulacje i nadzór pozwalają skutecznie zminimalizować te zagrożenia. Szczególną rolę odgrywa zasada przejrzystości: użytkownicy muszą być zawsze świadomi, że mają do czynienia zsystemem AI. Treści generowane przez sztuczną inteligencję, takie jak deepfake’i czy teksty, powinny być odpowiednio oznakowane. W przypadku narzędzi generujących obrazy, jak DALL-E czy Midjourney, oznacza to obowiązek informowania o sztucznym pochodzeniu dzieł (European Commission, 2021).

8. Przyszłość Sztucznej Inteligencji: Jakie Granice Powinny Być Ustanowione?

           AI Act wprowadza także specjalne zabezpieczenia dla danych wrażliwych, zakazującnp. inwigilacyjnego wykorzystywania rozpoznawania twarzy w przestrzeni publicznej. Dodatkowo, systemy generatywne (np. ChatGPT) muszą filtrować nielegalne treści oraz respektować prawa autorskie. Za naruszenie tych zasad grożą kary finansowe do 30 mln euro lub 6% globalnego obrotu firmy oraz publiczne napiętnowanie nieetycznych praktyk (European Commission, 2021).

Unia Europejska postawiła wyraźną granicę: rozwój AI musi iść w parze z ochroną ludzkiej godności, autonomii i podstawowych wolności. To przełomowe podejście sprawia, że AI Act może stać się globalnym wzorem odpowiedzialnego zarządzania technologią, pokazując, że innowacje i etyka mogą iść ramię w ramię (European Commission, 2021).

9. Podsumowanie

Sztuczna inteligencja to jedno z najważniejszych narzędzi XXI wieku – wspierające prawo, medycynę czy administrację. Ale wiąże się z ryzykiem, jeśli zabraknie nadzoru czy rzetelnych danych. Kluczowe są regulacje prawne zapewniające jej bezpieczne i etyczne zastosowanie. AI ma ogromny potencjał – ale to my decydujemy, jak go wykorzystamy.

AI to potężne narzędzie, a to, jak je wykorzystamy,zależy od nas.

(…)To nie jest świadoma istota, z którą rozmawiasz – to artefakt, narzędzie, stworzone przez ludzi i wpływające na ludzi. (…), więc musimy je rozwijać i wdrażać odpowiedzialnie.” — dr Timnit Gebru (Gebru, 2020).

10. Źródła

  1. European Commission. (2021). Proposal for a  Regulation of the European Parliament and of the Council laying down  harmonised rules on artificial intelligence (Artificial Intelligence Act).     https://ec.europa.eu/info/business-economy-euro/banking-and-finance/financial-services-consumers/financial-sector-technology/ai-regulation_en
  2. Goodfellow, I., Bengio, Y., & Courville, A.     (2016). Deep     Learning. MIT     Press.
  3. O'Neil, C. (2016). Weapons of Math     Destruction: How Big Data Increases Inequality and Threatens Democracy.     Crown     Publishing Group.
  4. Koller, D., et al. (2021). AI in the Legal     Industry: Automation, Cost Reduction, and Risk Management. Harvard Law Review.
  5. Reuters. (2023). Lawyer Fined Over False Legal     Precedents Found in AI. Reuters.
  6. Statista. (2023). Global Artificial     Intelligence Market in Legal Sector. https://www.statista.com
  7. Susskind, R. (2020). Online Courts and the     Future of Justice. Oxford University Press.

Zofia Hordyńska
Communication Manager

Premiera już 9 czerwca 2025

Kontakt

Dowiedz się więcej

Infolinia 24h

+48 585 005 999