Page 29 - Klinika Nr 31–32 (36–37)/2021–2022
P. 29

SZTUCZNA INTELIGENCJA A WYZWANIA W PRAWIE


             samodzielnej potencjalnej odpowiedzialności robota za semiau-  przestępstwa prania brudnych pieniędzy, o tyle w przyszłości
             tonomiczne bądź w pełni autonomiczne działania. Dostosowanie   możliwe będzie wykorzystanie algorytmów SI do wykrywania
             obowiązujących przepisów do stopnia rozwoju technologicznego   transportu nielegalnych towarów, takich jak narkotyki, oraz auto-
             powinno być priorytetem w działaniach rządowych.    matycznego zgłoszenia podejrzanego ładunku do odpowiednich
             W wyniku realizacji powyższego celu niezbędne jest stworzenie   organów. Ponadto SI może być wykorzystywana do wsparcia walki
             obowiązującej na terenie całej Unii Europejskiej jednolitej defini-  z terroryzmem czy wykroczeniami drogowymi . Te przykłady
                                                                                                      17
             cji systemów cyberfizycznych, systemów autonomicznych, inte-  to tylko niektóre obszary w prawie karnym, w których SI może
             ligentnych robotów autonomicznych oraz ich podkategorii, przy   wspomóc pracę człowieka.
             uwzględnieniu ogólnie obowiązujących kryteriów. W pracy praw-  Głównym zagrożeniem wynikającym z pomocniczego użycia SI
             nika w przyszłości ważne będzie także chociażby określenie ram   w prawie karnym jest „przewidywanie” możliwości popełnienia
             prawnych dla obowiązku rejestracji zaawansowanych robotów   przestępstwa przez daną osobę, używając do tego wyłącznie zgro-
             na terytorium UE czy rozważaniu kwestii odpowiedzialności robo-  madzonych baz danych . Zagrożenie to wiąże się również z moż-
                                                                                  18
             tów za szkody psychiczne lub psychologiczne na umyśle człowieka,   liwością takiego zaprogramowania SI, aby wydawała rozstrzy-
             gdyż jest możliwe powstanie zaawansowanych robotów umiejących   gnięcia w postępowaniu sądowym. Algorytmy używane przez SI
             odczuwać i wywoływać emocje. Parlament Europejski, jako organ   są tworzone na najwyższą możliwość przetwarzania ogromnych
             współdecydujący w procedurze legislacyjnej na poziomie unijnym,   zbiorów danych, nieprzetwarzalnych przez człowieka. Jednak uzy-
             ma prawo do „wezwania” Komisji Europejskiej do poszczególnych   skane w wyniku analizy tych danych rezultaty zakładają wyłącznie
             działań. W tym przypadku PE: „wzywa Komisję i państwa człon-  rozwiązania oparte na danych. Ten absolutny obiektywizm nie za-
             kowskie do zadbania o to, by uregulowania cywilnoprawne w za-  wiera wielu istotnych aspektów wpływających na wysokość kary.
             kresie robotyki były zgodne z ogólnym rozporządzeniem o ochro-  Sprawia to, iż wydawane przez SI obecnie i w przyszłości postano-
             nie danych oraz z zasadami konieczności i proporcjonalności;   wienia nie zakładają czynnika ludzkiego. Ten sam czynnik, który
             wzywa Komisję i państwa członkowskie do uwzględnienia szyb-  powoduje tak wiele błędów na wszystkich szczeblach procedury
             kiego rozwoju technicznego w dziedzinie robotyki, w tym rozwoju   karnej, pozwala na wydanie najwłaściwszych wyroków i posta-
             systemów cyberfizycznych, a także do dołożenia starań, by prawo   nowień w odniesieniu do ludzkiego życia i przyszłości człowieka,
             Unii Europejskiej nie pozostawało w tyle za tempem rozwoju tech-  który jest winny bądź niewinny zarzucanych mu czynów.
                                    15
             nicznego i nowych zastosowań” .                     Sztuczna inteligencja nie posiada empatii, intuicji i zdolności
             W polskiej rzeczywistości prawnej, w dokumencie programowym   do popełniania błędów oraz wyciągania z nich wniosków. Nie na-
             Ministerstwa Cyfryzacji, grupa ekspertów odpowiedzialna za ana-  leży jednak traktować owych niedoskonałości jako aspektu wy-
             lizę wpływu SI na system norm prawnych doszła do wniosku,   kluczającego możliwość użycia SI w prawie karnym. Ułomności
             iż: „W miejsce odrębnego «prawa własności danych» godne roz-  te sprawiają, iż rola SI z definicji musi być pomocnicza i podlegać
             ważenia byłoby stworzenie ram wyznaczających prawo dostępu   nieustannej kontroli i nadzorowi kompetentnych ludzi. Nie należy
             do danych. Wymaga zastanowienia, czy możliwe jest stworzenie   bezkrytycznie podchodzić do możliwości oferowanych przez tech-
             jednej «horyzontalnej», powszechnie obowiązującej regulacji do-  nologię, bagatelizując jednocześnie zagrożenia, które może powo-
             stępu do danych, czy też niezbędne byłoby w tym zakresie zróż-  dować SI. W prawie karnym te zagrożenia są szczególnie mocno
             nicowanie zasad w zależności od sektora? Wątpliwe, aby istniała   widoczne, gdyż decydowanie o losie innego człowieka może być
             możliwość ustalenia wspólnych zasad dostępu do danych, które   wyłącznie domeną sędziego-człowieka. W przyszłości możliwe jest
             stanowią przecież zbiór skrajnie heterogeniczny. W konsekwencji   stworzenie SI na bazie rozgałęzionych sieci neuronowych symu-
             ustalenie zasad dostępu do danych maszynowych powinno nastą-  lujących wpływ ludzkich uczuć na teoretyczne wyniki analizy baz
             pić przy uwzględnieniu specyfiki i potrzeb konkretnej branży. Do-  danych. Jednak nawet wtedy symulowanie ludzkiej duszy będzie
             określając zasady dostępu i korzystania z danych, warto promować   jedynie swego rodzaju odbiciem w lustrze. Algorytmy SI są ska-
             zasadę przenoszalności danych (data portability). Przenoszalność   zane na konieczność interpretacji wyników ich działania przez sę-
             danych powinna stać się uniwersalnym podejściem regulacyjnym   dziego-człowieka, gdyż każda propozycja wyroku wskazana przez
                                                                                               19
             zaczerpniętym z obszaru ochrony danych osobowych. Zalecane   SI może być z założenia niesprawiedliwa . Dlatego też, jeżeli nie
             jest między innymi promowanie otwartego dostępu do danych ge-  dojdzie do przełomu w „myśleniu” SI, sprawiedliwość będzie przy-
             nerowanych maszynowo i ich ponownego wykorzystywania, przy-  miotem tylko człowieka. Również grupa ekspercka współpracująca
             gotowanie listy danych o wysokiej wartości, opracowanie kryteriów   z ówczesnym Ministerstwem Cyfryzacji zwróciła uwagę na takie
             odpowiedzialności za udostępniane dane, wdrażanie interoperacyj-  problemy, jak: „Istotnym ryzykiem dla strony słabszej jest wy-
             ności danych i ich standaryzacji” .                 korzystywanie inteligentnych kontraktów i SI, w szczególności
                                     16
                                                                 w inteligentnych kontraktach otwartych oraz imperatywnych.
             Szanse i zagrożenia związane z wykorzystaniem SI    Problem odpowiedzialności za wady kodu źródłowego wytworzo-
             w pracy prawnika                                    nego w ramach SI. Problem dopuszczalności samodestrukcji kodu,
             Głównym celem i podstawą funkcjonowania prawa karnego   a co za tym idzie dowodu w postępowaniu. Brak regulacji odno-
             we współczesnym społeczeństwie jest, możliwie jak największe,   śnie inteligentnych kontraktów w polskim prawie. Brak definicji
             wyeliminowanie problemu występowania zjawiska przestępczo-  legalnej. Brak przepisów nakładających obowiązek informacyjny,
             ści. Jest to problem złożony, rozbudowany i dotyczący wszyst-
             kich podmiotów funkcjonujących w systemie prawa karnego.
             O ile obecnie SI jest w dużej mierze używana w systemach roz-  17   The Risks And Benefits Of Using AI To Detect Crime (oliverwyman.com), Using
                                                                  Artificial Intelligence to Address Criminal Justice Needs | National Institute of
             poznawania twarzy czy do wykrywania oszustw bankowych lub   Justice (ojp.gov) (dostęp: 24.1.2021 r.).
                                                                 18   Artificial intelligence poses serious risks in the criminal justice system
             15   Parlament Europejski, op.cit., s. 10.           – The Johns Hopkins News-Letter (jhunewsletter.com) (dostęp: 29.1.2020 r.).
             16   Ministerstwo Cyfryzacji, Założenia do strategii AI w Polsce. Plan działań Minister-  19   H. Fry, Hello World: Being Human in the Age of the Machine, New York 2018,
              stwa Cyfryzacji, Warszawa 2018, s. 133.             s. 330–332.

             28 KLINIKA Nr 31-32 (36-37)/2021-2022                                                      fupp.org.pl



                                                                                                               17.12.2021   11:33
        Klinika 31-32(36-37) 2021-2022.indb   28                                                               17.12.2021   11:33
        Klinika 31-32(36-37) 2021-2022.indb   28
   24   25   26   27   28   29   30   31   32   33   34