reklama
kategoria: Kraj
15 październik 2025

Sztuczna inteligencja może być w przyszłości asystentem sędziego. Jego samego nigdy nie zastąpi

zdjęcie: Sztuczna inteligencja może być w przyszłości asystentem sędziego. Jego samego nigdy nie zastąpi / fot. Newseria - Sebastian Szczepański, prezes zarządu, Currenda
fot. Newseria - Sebastian Szczepański, prezes zarządu, Currenda
Rozwiązania sztucznej inteligencji stosowane w wymiarze sprawiedliwości zaliczane są do kategorii wysokiego ryzyka, zgodnie z unijnym rozporządzeniem AI Act. To oznacza m.in. konieczność wdrożenia procedur nadzoru nad algorytmami. Dlatego nie ma ryzyka, że sztuczna inteligencja zastąpi sędziego i będzie za niego wydawać wyroki. W przyszłości może się jednak stać jego asystentem odpowiedzialnym m.in. za analizę dowodów czy przygotowywanie treści orzeczeń. Eksperci uważają, że może to znacząco usprawnić postępowania sądowe.

W polskich sądach sztuczna inteligencja jest już wykorzystywana w prostych zadaniach, takich jak anonimizacja dokumentów, transkrypcja, wyszukiwanie orzeczeń czy chociażby monitorowanie i śledzenie zmian aktów prawnych. W przyszłości będzie asystentem sędziego, pomoże w prowadzeniu akt, wyszukiwaniu dowodów czy zaproponuje treść orzeczenia na podstawie podobnych spraw – mówi agencji Newseria Sebastian Szczepański,
prezes zarządu Currendy.


Podobne zastosowania widać wśród całego środowiska prawników. Jak wynika z raportu „Future Ready Lawyer 2024” opublikowanego przez Wolters Kluwer, 76 proc. prawników z działów prawnych i 68 proc. prawników z kancelarii korzysta z generatywnej AI przynajmniej raz w tygodniu, najczęściej do researchu, analizy i automatyzacji tworzenia dokumentów.

Teraz największym problemem, przed którym stoi sądownictwo, jest brak asystentów. Sędziowie mają bardzo dużo spraw, którymi się zajmują, jest duża liczba dokumentów, która jest przez nich do obrobienia. W momencie kiedy byśmy zaprzęgli do tych czynności sztuczną inteligencję, która np. prowadziłaby nam akta, analizowała dowody, proponowała podstawę prawną, to na pewno bardzo by to wpłynęło na szybkość postępowania – uważa prezes Currendy.

 

W świetle raportu „Rekomendacje w zakresie zastosowania sztucznej inteligencji w sądownictwie i prokuraturze” przygotowanego przez Grupę Roboczą ds. Sztucznej Inteligencji (Podgrupa ds. etyki i prawa) zakres zastosowania systemów AI jest bardzo szeroki. Może służyć m.in. jako wsparcie organizacji pracy sądów i prokuratury, pomoc w codziennych zadaniach sędziów, prokuratorów i innych pracowników wymiaru sprawiedliwości czy narzędzie do proponowania projektu uzasadnienia rozstrzygnięcia w konkretnej sprawie. W rekomendacjach GRAI w zakresie wdrożenia sztucznej inteligencji w sądownictwie znalazło się kilka propozycji, w tym m.in. automatyzacja przebiegu rozprawy do pisemnego protokołu, chatbot uzupełniający pracę Biura Obsługi Interesanta, system do wyszukiwania podobnych spraw czy też tłumaczenie rozprawy na żywo.

Sędzia bot na razie to czyste science fiction, ale mogę sobie wyobrazić pojedyncze przypadki, w których orzeczenia sądowe będą podejmowane przez sztuczną inteligencję. Mamy na przykład elektroniczne postępowanie upominawcze, prowadzone przez Sąd Rejonowy w Lublinie, gdzie tak naprawdę jest sprawdzana tylko kompletność dokumentów i zapada orzeczenie. W takich przypadkach jak najbardziej sztuczna inteligencja mogłaby się doskonale odnaleźć. Natomiast już w bardziej skomplikowanych, gdzie zapadają sprawy w sądzie rejonowym, okręgowym czy apelacyjnym, to jednak decyzja powinna należeć do człowieka – uważa Sebastian Szczepański.


Jak dodaje, na świecie sztuczna inteligencja w sądownictwie wykorzystywana jest częściej niż w Polsce.

Na przykład w Chinach stosowana jest do prowadzenia rozpraw sądowych, do analizy dokumentów, do przesłuchiwania świadków i później do proponowania treści orzeczenia. Natomiast oczywiście, ostateczny wyrok zapada z udziałem człowieka – podkreśla ekspert.
Sztuczna inteligencja mogłaby być dużym wsparciem dla sędziów i referendarzy sądowych, w szczególności w pisaniu uzasadnień sądowych. AI może przygotować strukturę dokumentów, przeanalizować dowody, zaproponować treść podstawy prawnej, natomiast ostateczna odpowiedzialność za treść należy oczywiście do sędziego.


Prawnicy w badaniu Wolters Kluwer jako główne wyzwania w stosowaniu GenAI wymieniają trudności z jej integracją do codziennej pracy, wiarygodność wyników oraz obawy co do poufności danych.

Nie powinniśmy do końca ufać sztucznej inteligencji, która jest swego rodzaju black boxem. Nie wiemy tak naprawdę, co się do końca dzieje w tym magicznym pudełku i dlaczego uzyskujemy taki wynik, a nie inny. Z pomocą przychodzi nam AI Act, który został wdrożony w 2024 roku i w tej chwili jest implementowany etapami – mówi Sebastian Szczepański.
Systemy sądowe zostały zaklasyfikowane jako aplikacje informatyczne wysokiego ryzyka, co oznacza, że muszą być przejrzyste i używane pod nadzorem człowieka.


Według unijnego rozporządzenia AI Act systemy sztucznej inteligencji wysokiego ryzyka podlegają rygorystycznym obowiązkom przed wprowadzeniem ich do obrotu. Wymagają m.in. systemów oceny i ograniczenia ryzyka, wysokiej jakości zbiorów danych, odpowiednich środków nadzoru ze strony człowieka czy też wysokiego poziomu solidności, cyberbezpieczeństwa i dokładności. Zgodnie z treścią rozporządzenia wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować. Podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka.

Kwalifikacja systemów AI jako systemów wysokiego ryzyka nie powinna jednak obejmować systemów przeznaczonych do pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości. Mowa m.in. o anonimizacji lub pseudonimizacji orzeczeń sądowych, dokumentów lub danych, komunikacji między członkami personelu czy też zadaniach administracyjnych.

2 sierpnia br. zaczęły obowiązywać zapisy AI Act dotyczące wprowadzania na rynek modeli ogólnego przeznaczenia (GPAI) – to modele projektowane nie do jednego, konkretnego zastosowania, ale do wielu różnych zadań (to np. duże modele językowe czy tworzące grafiki). Każdy podmiot, który opracowuje i wprowadza do obrotu takie modele, ma obowiązek m.in. przygotowania i udostępnienia ich dokumentacji technicznej, publikacji streszczenia zbiorów danych wykorzystanych do ich trenowania czy wdrożenia środków zapewniających zgodność modeli z prawem. Dostawcy GPAI o systemowym ryzyku mają jeszcze bardziej rygorystyczne zadania, obejmujące m.in. testy bezpieczeństwa.

Źródło: Newseria
PRZECZYTAJ JESZCZE
pogoda Łódź
6°C
wschód słońca: 07:05
zachód słońca: 17:50
reklama

Kalendarz Wydarzeń / Koncertów / Imprez w Łodzi

kiedy
2025-10-16 19:00
miejsce
Pub Keja, Łódź, Kopernika 46
wstęp biletowany
kiedy
2025-10-16 19:00
miejsce
Teatr Komedii Impro w Łodzi scena...
wstęp biletowany
kiedy
2025-10-16 19:00
miejsce
Przechowalnia, Łódź, ul. 6 sierpnia 5
wstęp biletowany
kiedy
2025-10-17 18:00
miejsce
Sala Widowiskowa Politechniki...
wstęp biletowany