Page 9 - "Klinika" Nr 37-38 (42-43) 2024
P. 9
WPŁYW KLINIK NA PRZYSZŁOŚĆ SPOŁECZNĄ
osobowe nie będą bezpieczne po ich przekazaniu przez studenta/ Kliniki prawa mogą również zaangażować się w takie formy edu-
studentkę sztucznej inteligencji. Jeżeli natomiast osoba, której kacji, jak organizowane konferencji, seminariów, spotkań, debat
takie dane dotyczące wszystkich aspektów prywatnego życia do- celem podnoszenia świadomości społecznej na tematy związane
tyczą, skorzysta samodzielnie z możliwości sztucznej inteligencji, z jednej strony z wartościami AI, ale z drugiej strony z jej zagroże-
to robi to na własne ryzyko i powinna liczyć się z tym, że – tak niami i koniecznością świadomego korzystania z dostępnych pro-
jak w każdym innym przypadku – dane te zasilą zasoby sztucz- gramów sztucznej inteligencji.
nej inteligencji. W opisanych powyżej sytuacjach rolą studenckich Co do drugiego zagadnienia tj. wprowadzania systemów mają-
poradni prawnych może i powinno być w przyszłości zwiększanie cych na celu poprawę funkcjonowania wymiaru sprawiedliwości
świadomości prawnej społeczeństwa na temat istniejącego ry- w świetle pojawiających się przyszłych wyzwań dla nauczania
zyka w związku z wykorzystywaniem w różny sposób programów klinicznego, sytuacja jest bardziej złożona i ze względu na jej ob-
sztucznej inteligencji. szerność zostanie – w niniejszym opracowaniu – wyłącznie za-
W powyższym kontekście, rolą klinik prawa będzie rozważenie sygnalizowana. Niewątpliwie bowiem, jak słusznie wskazuje
40
wprowadzania obowiązkowych szkoleń dla wszystkich studentów/ M. Bartoszek , „wprowadzanie systemów niezależnych w swoim
studentek, z każdej sekcji działającej w poradni z zakresu wiedzy działaniu od człowieka do tak kluczowych dla demokracji i pra-
na temat ochrony danych osobowych w świetle zagrożeń wynika- worządności instytucji jak sądy wiąże się z wieloma zagrożeniami
jących z korzystania ze sztucznej inteligencji. nie tylko dla zakazu dyskryminacji, ale także dla niezawisłości
Przykładem konieczności podnoszenia wiedzy i świadomości sędziowskiej, prawa dostępu do sądu i prawa do rzetelnego pro-
przyszłych prawników i prawniczek jest także temat deepfake’ów, cesu”. Rodzi się bowiem uzasadnione pytanie, czy zastosowanie
czyli wygenerowanych przez AI lub zmanipulowanych przez AI ob- systemów informatycznych AI w ramach sądownictwa może naru-
razów, treści dźwiękowych lub treści wideo, które przypominają szać podstawowe prawa i wolności każdego człowieka, a jeśli tak,
istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, to w jaki sposób powinno być tworzone przyszłe prawo w kon-
które odbiorca mógłby niesłusznie uznać za autentyczne lub praw- tekście rozwoju AI i jej wykorzystywania, aby skutecznie chronić
dziwe . Technologia ta rozwija się w tak szybkim tempie, że co- jednostki przed naruszeniami?
35
raz trudniej jest powiedzieć, co jest fałszywe , a dalszego rozwoju W kontekście AI i jej wpływu na usprawnienie sądownictwa,
36
technologii służącej deepfake’om nie jesteśmy w stanie zatrzy- M. Bartoszek wskazuje na dwie grupy potencjalnych systemów,
mać . Z biegiem czasu, bez zastosowania odpowiedniego sprzętu, które mogłyby mieć istotny wpływ na orzekanie, a jednocze-
37
filmy deepfake mogą stać się nie do odróżnienia od prawdziwych śnie na usprawnienie funkcjonowania wymiaru sprawiedliwości:
zdjęć czy filmów i mogą być wykorzystywane również do two- „tj. systemy analizujące dane i wspierające pracę sędziego oraz
38
rzenia fałszywych wiadomości i oszustw . Niezbędne jest więc systemy mogące zastąpić sędziego”. W ramach obu grup pojawia
wprowadzanie wielu zabezpieczeń służących ochronie danych oso- się wiele zagrożeń, których uwzględnienie i skuteczne poradze-
bowych. Jak słusznie zauważył G. Kolasa, konieczne wydaje się nie sobie z nimi będzie konieczne w momencie, kiedy będą wpro-
stworzenie odpowiednich regulacji prawnych oraz mechanizmów wadzane. Wydaje się jednak, że – przy umiejętnym i wrażliwym
umożliwiających skuteczne ograniczanie szczegółowości przetwa- na prawa człowieka wprowadzaniu systemów AI – istnieje wiele
rzanych informacji czy też zakresu wiadomości obowiązkowych korzyści, mogących skutecznie przyczynić się do poprawy funk-
do przekazania w ramach wykonywania prawa dostępu do danych cjonowania wymiaru sprawiedliwości. Słuszna jest bowiem ocena,
osobowych w przypadku rozwiązań opartych na sztucznej inteli- że – ze względu na sporo obiektywnych czynników – już teraz, przy
gencji i uczeniu maszynowym . wielu pojawiających się problemach, wymiar sprawiedliwości nie
39
Istnieje więc pilna potrzeba dalszego diagnozowania problemów radzi sobie z nowymi wyzwaniami. Przykładem może być coraz
związanych z zagrożeniami dla ochrony danych osobowych, a także większe tempo wpływających spraw do sądów albo powstawanie
im przeciwdziałania przy użyciu różnych środków, w tym również przewlekłości postępowań z uwagi na ich coraz większą liczbę przy-
o charakterze prawnym. Warunkiem skutecznych działań praw- padającą na jednego sędziego. To pokazuje, że istnieje potencjał
nych w tym zakresie będzie po pierwsze, istnienie odpowiednio w stworzeniu programów, które – tam, gdzie będzie to możliwe –
wyszkolonej kadry akademickich prawników/czek, specjalizujących pomogą w pracy sędziego albo wręcz go zastąpią.
się w problematyce przeciwdziałania naruszeniom praw jednostki W naszej ocenie, w ramach systemów sztucznej inteligencji wspie-
w zakresie ochrony ich danych osobowych, a po drugie ewentualne rających pracę sądownictwa mogą pojawić się również problemy
zaangażowanie się poradni prawnych w działalność na rzecz sze- dotyczące prawa do prywatności w kontekście ochrony danych
roko rozumianego aktywizmu społecznego celem wprowadzania osobowych. Zgodnie z treścią Aktu o AI prawo do prywatności
efektywnych zmian prawnych. Wydaje się więc, że kliniki prawa i ochrony danych osobowych musi być zagwarantowane przez
będą miały ważną rolę do odegrania w stworzeniu efektywnego cały cykl życia systemu AI . W tym względzie, gdy przetwarzane
41
programu nauczania klinicznego, uwzględniającego interdyscypli- są dane osobowe, zastosowanie mają zasady minimalizacji danych
narną wiedzę na temat zagadnień dotyczących ochrony prywat- oraz uwzględnienia ochrony danych już w fazie projektowania i do-
ności każdej osoby ze szczególnym uwzględnieniem ochrony da- myślnej ochrony danych, które określono w prawie Unii o ochro-
42
nych osobowych w świetle wykorzystywania sztucznej inteligencji. nie danych . Warto w tym kontekście zwrócić uwagę, że AI może
stwarzać zagrożenia i wyrządzać szkody w zależności od okoliczno-
35 Definicja deepfake znajduje się w art. 3 pkt 60 Aktu o AI.
36 O. Wasiuta, S. Wasiuta, Deepfake jako skomplikowana i głęboko fałszywa rzeczywi- ści jej konkretnego zastosowania, wykorzystania oraz od poziomu
stość, Annales Universitatis Paedagogicae Cracoviensis Studia de Securitate 2019, rozwoju technologicznego. W zakresie danych osobowych wydaje
Nr 9(3), s. 21. się, że szkody te mogą dotyczyć w szczególności niewłaściwego
37 I.Dąbrowska, Deepfake – nowy wymiar internetowej manipulacji, Zarządzanie Me-
diami 202, tom 8(2), s. 100. lub nieautoryzowanego dostępu do danych, manipulacji danymi,
38 https://www.technologyreview.com/2019/01/04/66232/five-emerging-cyber-
-threats-2019/, dostęp 27.10.2024 r. 40 M. Bartoszek, Zastosowanie sztucznej inteligencji w sądownictwie, s. 10.
39 G. Kolasa, Sztuczna inteligencja (AI) vs. ochrona danych osobowych (RODO), Acta 41 Punkt 69 preambuły Aktu o AI.
Iuridica Resoviensia 2024, Nr 1(44), s.129 i n. 42 Ibidem.
8 KLINIKA Nr 37–38 (42–43)/2024 fupp.org.pl