Page 29 - Klinika Nr 31–32 (36–37)/2021–2022
P. 29
SZTUCZNA INTELIGENCJA A WYZWANIA W PRAWIE
samodzielnej potencjalnej odpowiedzialności robota za semiau- przestępstwa prania brudnych pieniędzy, o tyle w przyszłości
tonomiczne bądź w pełni autonomiczne działania. Dostosowanie możliwe będzie wykorzystanie algorytmów SI do wykrywania
obowiązujących przepisów do stopnia rozwoju technologicznego transportu nielegalnych towarów, takich jak narkotyki, oraz auto-
powinno być priorytetem w działaniach rządowych. matycznego zgłoszenia podejrzanego ładunku do odpowiednich
W wyniku realizacji powyższego celu niezbędne jest stworzenie organów. Ponadto SI może być wykorzystywana do wsparcia walki
obowiązującej na terenie całej Unii Europejskiej jednolitej defini- z terroryzmem czy wykroczeniami drogowymi . Te przykłady
17
cji systemów cyberfizycznych, systemów autonomicznych, inte- to tylko niektóre obszary w prawie karnym, w których SI może
ligentnych robotów autonomicznych oraz ich podkategorii, przy wspomóc pracę człowieka.
uwzględnieniu ogólnie obowiązujących kryteriów. W pracy praw- Głównym zagrożeniem wynikającym z pomocniczego użycia SI
nika w przyszłości ważne będzie także chociażby określenie ram w prawie karnym jest „przewidywanie” możliwości popełnienia
prawnych dla obowiązku rejestracji zaawansowanych robotów przestępstwa przez daną osobę, używając do tego wyłącznie zgro-
na terytorium UE czy rozważaniu kwestii odpowiedzialności robo- madzonych baz danych . Zagrożenie to wiąże się również z moż-
18
tów za szkody psychiczne lub psychologiczne na umyśle człowieka, liwością takiego zaprogramowania SI, aby wydawała rozstrzy-
gdyż jest możliwe powstanie zaawansowanych robotów umiejących gnięcia w postępowaniu sądowym. Algorytmy używane przez SI
odczuwać i wywoływać emocje. Parlament Europejski, jako organ są tworzone na najwyższą możliwość przetwarzania ogromnych
współdecydujący w procedurze legislacyjnej na poziomie unijnym, zbiorów danych, nieprzetwarzalnych przez człowieka. Jednak uzy-
ma prawo do „wezwania” Komisji Europejskiej do poszczególnych skane w wyniku analizy tych danych rezultaty zakładają wyłącznie
działań. W tym przypadku PE: „wzywa Komisję i państwa człon- rozwiązania oparte na danych. Ten absolutny obiektywizm nie za-
kowskie do zadbania o to, by uregulowania cywilnoprawne w za- wiera wielu istotnych aspektów wpływających na wysokość kary.
kresie robotyki były zgodne z ogólnym rozporządzeniem o ochro- Sprawia to, iż wydawane przez SI obecnie i w przyszłości postano-
nie danych oraz z zasadami konieczności i proporcjonalności; wienia nie zakładają czynnika ludzkiego. Ten sam czynnik, który
wzywa Komisję i państwa członkowskie do uwzględnienia szyb- powoduje tak wiele błędów na wszystkich szczeblach procedury
kiego rozwoju technicznego w dziedzinie robotyki, w tym rozwoju karnej, pozwala na wydanie najwłaściwszych wyroków i posta-
systemów cyberfizycznych, a także do dołożenia starań, by prawo nowień w odniesieniu do ludzkiego życia i przyszłości człowieka,
Unii Europejskiej nie pozostawało w tyle za tempem rozwoju tech- który jest winny bądź niewinny zarzucanych mu czynów.
15
nicznego i nowych zastosowań” . Sztuczna inteligencja nie posiada empatii, intuicji i zdolności
W polskiej rzeczywistości prawnej, w dokumencie programowym do popełniania błędów oraz wyciągania z nich wniosków. Nie na-
Ministerstwa Cyfryzacji, grupa ekspertów odpowiedzialna za ana- leży jednak traktować owych niedoskonałości jako aspektu wy-
lizę wpływu SI na system norm prawnych doszła do wniosku, kluczającego możliwość użycia SI w prawie karnym. Ułomności
iż: „W miejsce odrębnego «prawa własności danych» godne roz- te sprawiają, iż rola SI z definicji musi być pomocnicza i podlegać
ważenia byłoby stworzenie ram wyznaczających prawo dostępu nieustannej kontroli i nadzorowi kompetentnych ludzi. Nie należy
do danych. Wymaga zastanowienia, czy możliwe jest stworzenie bezkrytycznie podchodzić do możliwości oferowanych przez tech-
jednej «horyzontalnej», powszechnie obowiązującej regulacji do- nologię, bagatelizując jednocześnie zagrożenia, które może powo-
stępu do danych, czy też niezbędne byłoby w tym zakresie zróż- dować SI. W prawie karnym te zagrożenia są szczególnie mocno
nicowanie zasad w zależności od sektora? Wątpliwe, aby istniała widoczne, gdyż decydowanie o losie innego człowieka może być
możliwość ustalenia wspólnych zasad dostępu do danych, które wyłącznie domeną sędziego-człowieka. W przyszłości możliwe jest
stanowią przecież zbiór skrajnie heterogeniczny. W konsekwencji stworzenie SI na bazie rozgałęzionych sieci neuronowych symu-
ustalenie zasad dostępu do danych maszynowych powinno nastą- lujących wpływ ludzkich uczuć na teoretyczne wyniki analizy baz
pić przy uwzględnieniu specyfiki i potrzeb konkretnej branży. Do- danych. Jednak nawet wtedy symulowanie ludzkiej duszy będzie
określając zasady dostępu i korzystania z danych, warto promować jedynie swego rodzaju odbiciem w lustrze. Algorytmy SI są ska-
zasadę przenoszalności danych (data portability). Przenoszalność zane na konieczność interpretacji wyników ich działania przez sę-
danych powinna stać się uniwersalnym podejściem regulacyjnym dziego-człowieka, gdyż każda propozycja wyroku wskazana przez
19
zaczerpniętym z obszaru ochrony danych osobowych. Zalecane SI może być z założenia niesprawiedliwa . Dlatego też, jeżeli nie
jest między innymi promowanie otwartego dostępu do danych ge- dojdzie do przełomu w „myśleniu” SI, sprawiedliwość będzie przy-
nerowanych maszynowo i ich ponownego wykorzystywania, przy- miotem tylko człowieka. Również grupa ekspercka współpracująca
gotowanie listy danych o wysokiej wartości, opracowanie kryteriów z ówczesnym Ministerstwem Cyfryzacji zwróciła uwagę na takie
odpowiedzialności za udostępniane dane, wdrażanie interoperacyj- problemy, jak: „Istotnym ryzykiem dla strony słabszej jest wy-
ności danych i ich standaryzacji” . korzystywanie inteligentnych kontraktów i SI, w szczególności
16
w inteligentnych kontraktach otwartych oraz imperatywnych.
Szanse i zagrożenia związane z wykorzystaniem SI Problem odpowiedzialności za wady kodu źródłowego wytworzo-
w pracy prawnika nego w ramach SI. Problem dopuszczalności samodestrukcji kodu,
Głównym celem i podstawą funkcjonowania prawa karnego a co za tym idzie dowodu w postępowaniu. Brak regulacji odno-
we współczesnym społeczeństwie jest, możliwie jak największe, śnie inteligentnych kontraktów w polskim prawie. Brak definicji
wyeliminowanie problemu występowania zjawiska przestępczo- legalnej. Brak przepisów nakładających obowiązek informacyjny,
ści. Jest to problem złożony, rozbudowany i dotyczący wszyst-
kich podmiotów funkcjonujących w systemie prawa karnego.
O ile obecnie SI jest w dużej mierze używana w systemach roz- 17 The Risks And Benefits Of Using AI To Detect Crime (oliverwyman.com), Using
Artificial Intelligence to Address Criminal Justice Needs | National Institute of
poznawania twarzy czy do wykrywania oszustw bankowych lub Justice (ojp.gov) (dostęp: 24.1.2021 r.).
18 Artificial intelligence poses serious risks in the criminal justice system
15 Parlament Europejski, op.cit., s. 10. – The Johns Hopkins News-Letter (jhunewsletter.com) (dostęp: 29.1.2020 r.).
16 Ministerstwo Cyfryzacji, Założenia do strategii AI w Polsce. Plan działań Minister- 19 H. Fry, Hello World: Being Human in the Age of the Machine, New York 2018,
stwa Cyfryzacji, Warszawa 2018, s. 133. s. 330–332.
28 KLINIKA Nr 31-32 (36-37)/2021-2022 fupp.org.pl
17.12.2021 11:33
Klinika 31-32(36-37) 2021-2022.indb 28 17.12.2021 11:33
Klinika 31-32(36-37) 2021-2022.indb 28