Partner serwisu
17 sierpnia 2022

Kto ponosi odpowiedzialność za szkody wyrządzone przez AI?

Kategoria: Aktualności

Do pewnego momentu zagadnienia z tym związane stanowiły „czystą kartę” dla systemów prawnych. Jednak dnia 20 października 2020 roku Parlament Europejski wydał Rezolucję z zaleceniami dla Komisji w sprawie odpowiedzialności cywilnej za sztuczną inteligencję. Mimo że nie jest to jeszcze wiążący akt prawny, to stanowi pierwszy etap regulacji tych zagadnień.

Kto ponosi odpowiedzialność za szkody wyrządzone przez AI?

Pojęcie sztucznej inteligencji zostało zaproponowane przez amerykańskiego informatyka Johna McCarthy’ego na konferencji w Dartmouth w 1956 roku. Od tego czasu inteligentne systemy informatyczne wykroczyły daleko poza element fikcji literackiej. Dziś towarzyszą nam niemal każdego dnia.

 

Sztuczna inteligencja – definicja pojęcia

Sztuczna inteligencja (z ang. Artificial Intelligence, AI) to programy komputerowe samodzielne lub sterujące maszynami albo procesami, które nie są oparte o algorytmizację. Tego typu oprogramowania są więc w stanie podejmować działania i decyzje wynikające z matematycznych równań, ale takie, które w czasie rzeczywistym dopasowują do zmiennych warunków środowiska. Z założenia AI ma za zadanie symulować pracę ludzkiego mózgu lub chociaż jego wybranych części. Gdzie korzysta się z takich technologii?

  • Reklama i marketing używają AI do segmentacji rynków i konsumentów, a także optymalizacji wyświetlania reklam;
  • Bankowość elektroniczna stosuje ją jako element zabezpieczeń biometrycznych (np. rozpoznawanie twarzy lub odcisku palca);
  • Sektor usług wykorzystuje AI do tworzenia wirtualnych asystentów klienta;
  • Z kolei medycyna do wykrywania nieprawidłowości w badaniach EKG, EEG i innych.

Z AI korzysta się na masową skalę do rozpoznawania mowy, pisma, a także do oceny zdolności kredytowej. Oczywiście takich zastosowań jest o wiele więcej, co uświadamia wagę tej technologii i zasadność stworzenia dla niej właściwych rozwiązań legislacyjnych.

 

Motywy przewodnie projektu rozporządzenia

W tekście rozporządzenia znajduje się obszerny wstęp prezentujący główne założenia projektu aktu prawnego, który jednocześnie uzasadnia wybór konkretnych rozwiązań.

Co z osobowością prawną AI?

Rozporządzenie ma na celu pełną harmonizację zagadnień związanych ze sztuczną inteligencją na terenie krajów członkowskich. Jest to rezultatem ogromnej dynamiki rozwoju tych zagadnień i ma zapobiec rozbieżności na poziomie ustawodawstw krajowych.

Na aktualnym etapie prac legislacyjnych nie nastąpiło nadanie odrębnej osobowości prawnej sztucznej inteligencji. Ustawodawca podkreśla, że zagadnienie odpowiedzialności ma skupiać się wokół operatora, a więc osoby, która odpowiada za proces projektowy lub wprowadzenie danych do systemu. Zakłada się, że personifikacja AI mogłaby prowadzić do rozmycia odpowiedzialności.

Odpowiedzialność operatora uzasadniono kontrolą, którą sprawuje on nad systemem sztucznej inteligencji i związanym z tym ryzykiem. Przemawiają za tym także względy praktyczne. Zazwyczaj operator jest osobą, którą poszkodowany może łatwo ustalić w łańcuchu odpowiedzialności. Co więcej, systemy AI często są łączone ze sobą w taki sposób, że tworzą jeden, sprawnie funkcjonujący organizm.

 

Odpowiedzialność operatora

Planowanie rozwiązania dotyczą operatorów front-end  i operatorów back-end. W pierwszej grupie mieszczą się osoby fizyczne i prawne do pewnego stopnia kontrolujące ryzyko związane z działaniem AI i korzystające z konkretnego systemu. Za to operator back-end to osoba fizyczna lub prawna, która definiuje sposób działania systemu, sprawuje nad nim kontrolę w ramach obsługi i wprowadzania danych, oraz zapewnia wsparcie, które umożliwia korzystanie z rozwiązań.

W rezolucji określono sprawowanie kontroli nad sztuczną inteligencją jako dowolne działanie operatora, które ma wpływ na działanie systemu, a w rezultacie przekłada się na poziom ryzyka dla korzystających z niego osób. Takie działanie może opierać się na:

  • dostarczeniu danych wejściowych lub wyjściowych,
  • przetwarzaniu wyników,
  • zmianie konkretnych funkcji,
  • modyfikacji zachodzących procesów.

 

Czy wszystkie AI będą traktowane tak samo?

Według projektu rozporządzenia należy rozróżnić systemy sztucznej inteligencji z uwzględnieniem tzw. AI wysokiego ryzyka, czyli z ang. High Risk AI. Dla tego typu rozwiązań reżim odpowiedzialności jest znacznie bardziej surowy. Co decyduje o zaliczeniu AI do grupy systemów wysokiego ryzyka?

  • autonomiczne działania systemu wiąże się ze dużym potencjałem wyrządzenia szkody osobie lub grupie osób (np. AI sterujące ruchem ulicznym),
  • ryzyko wyrządzenia szkody jest losowe i wykracza poza to, czego można oczekiwać po systemach danego rodzaju,
  • branża lub charakter prowadzonej działalności (np. AI medyczne).

Oceniając stopień ryzyka, należy uwzględnić powagę szkody i prawdopodobieństwo jej wystąpienia, a także sposób wykorzystania AI. Oceny powagi szkody dokonuje się, biorąc pod uwagę takie czynniki, jak:

  • wpływ na prawa podstawowe,
  • liczba poszkodowanych,
  • całkowita wartość potencjalnych szkód,
  • szkody dla ogółu społeczeństwa.

Ustawodawca podkreśla również kwestię problematyki związanej z niedostosowaniem sektora ubezpieczeń do rozwiązań mających związek z AI. Dostępne w tej chwili produkty ubezpieczeniowe są w najlepszym razie dostosowane do zabezpieczenia konkretnego rodzaju produktów czy usług, ale nie uwzględniają poziomu złożoności, którego można oczekiwać od AI.

Poza tym zupełny brak porównywalnych danych związanych z prawdopodobieństwem wystąpienia szkody i jej rozmiarów w opisanej sytuacji powoduje, że bez względu na uregulowania samej odpowiedzialności, trzeba będzie dopasować również wiele innych sektorów i branż.

 

Zakres przedmiotowy rozporządzenia

Według artykułu 2 ust. 1 rozporządzenia, znajduje ono zastosowanie na terytorium krajów członkowskich wszędzie tam, gdzie fizyczne lub wirtualne działanie sztucznej inteligencji albo opartego na niej urządzenia bądź procesu może skutkować:

  • pozbawieniem życia, okaleczeniem lub uszczerbkiem na zdrowiu osób fizycznych,
  • powstaniem szkód majątkowych u osób fizycznych lub prawnych,
  • powstaniem innych szkód niematerialnych, o ile można ustalić ich wartość ekonomiczną.

Rozporządzenie unieważnia wszelkie umowy czy postanowienia, które wyłączają lub ograniczają odpowiedzialność przewidzianą w przepisach unijnych. Mimo to wspólnotowa regulacja ma charakter paralelny w stosunku do krajowych lub unijnych regulacji traktujących o:

  • odpowiedzialności za produkt,
  • ochronie konsumenta,
  • niedyskryminacji,
  • ochronie pracy,
  • środowisku.

 

Systemy AI wysokiego ryzyka

Systemy AI uznane za stwarzające wysokie ryzyko dla odbiorców obejmują operatora odpowiedzialnością na zasadzie ryzyka. Od tej odpowiedzialności nie można się zwolnić wykazując, że działano w dochowaniem należytej staranności albo że szkoda wynika z autonomicznego działania systemu, czyli takiego, którego nie można regulować. Odpowiedzialność nie występuje jednak w wyniku szkody powstałej wskutek działania siły wyższej.

W rozporządzeniu przewidziano przygotowanie załącznika, który ma zawierać listę systemów AI obarczonych wysokim ryzykiem oraz listę istotnych branż, w których mogą być one wykorzystane. Można będzie też na bieżąco go modyfikować w ramach rozszerzenia katalogu lub odwrotnie – wykreślenia z niego systemów, które nie mogą być dłużej uznawane za stwarzające wysokie ryzyko.

Artykuł 4 ust. 4 rozporządzenia wprowadza też obowiązek ubezpieczenia systemu sztucznej inteligencji wysokiego ryzyka. Obowiązuje on w przypadku:

  • operatora front-end – musi on dopilnować ubezpieczenia samego systemu,
  • operatora back-end – ubezpieczeniem muszą być objęte jego usługi.

W każdym z tych przypadków kwota oraz zakres ubezpieczenia muszą być adekwatne w rozumieniu przepisów rozporządzenia. Trzeba też zwrócić uwagę, iż przepisy unijne narzucają tutaj na lokalne porządki prawne państw członkowskich odpowiedzialność na zasadzie ryzyka. W wyniku tego wprowadzenie dla danej klasy systemów AI odpowiedzialności łagodniejszej, na zasadzie winy, nie wpływa na ewentualne roszczenia poszkodowanego.

 

Odszkodowanie przewidziane przez rozporządzenie

Pociągnięcie operatora do odpowiedzialności za szkody wyrządzone przez AI wysokiego ryzyka maksymalna kwota odszkodowania będzie różnić się zależnie od zakresu owej szkody. Wynosi tym samym:

  • 2 miliony euro w przypadku śmierci, uszczerbku na zdrowia lub okaleczenia osoby fizycznej w wyniku działania systemu AI,
  • 1 milion euro w przypadku poważnej szkody niematerialnej o możliwej do ustalenia wysokości ekonomicznej.

Odszkodowanie nie zostanie wypłacone, jeśli poszkodowany na mocy umowy ma prawo do wystąpienia z roszczeniem w stosunku do operatora, a wysokość szkody nie przekracza 500 euro.

W rozporządzeniu wprowadzono też ograniczenie odszkodowania wtedy, gdy szkoda zostanie wyrządzona kilku osobom, a łączne odszkodowanie przekroczy 2 miliony euro. Wówczas kwoty poszczególnych świadczeń będą proporcjonalnie zredukowane w taki sposób, aby nie przekroczyć wartości 2 mln euro.

 

Jak wyliczać odszkodowanie według rozporządzenia?

W sytuacji śmierci, uszczerbku na zdrowiu lub okaleczenia wysokość odszkodowania wylicza się w oparciu o:

  • koszty leczenia (również te poniesione przed śmiercią),
  • szkody majątkowe związane z ograniczeniem możliwości zarobkowych lub zwiększeniem kosztów utrzymania (w tym wydatki poniesione przed śmiercią).

Niezależnie od tego, operator jest zobowiązany do wypłaty kosztów pochówku osobie, która je poniosła.

Szeroki zakres odpowiedzialności można dostrzec zwłaszcza w artykule 6 ust. 1 in fine, który w razie śmierci poszkodowanego przewiduje obowiązek operatora do łożenia na utrzymanie osoby trzeciej, z którą poszkodowany pozostawał z związku i do utrzymywania której był zobligowany.

Podmiot odpowiedzialny przekazuje środki na utrzymanie osoby trzeciej w kwotach analogicznych jak poszkodowany, przed okres odpowiadający średniej długości życia człowieka w podobnym wieku i stanie zdrowia. Dotyczy to również nasciturusa, czyli dziecka poczętego, które jeszcze się nie narodziło.

 

Okres przedawnienia roszczeń

W projekcie rozporządzenia znajdują się odrębne terminy przedawnienia w przypadku szkody wyrządzonej przez sztuczną inteligencję wysokiego ryzyka, w zależności od wagi skutku:

  • 30 lat od dnia powstania szkody – w przypadku śmierci, kalectwa lub uszczerbku na zdrowiu,
  • 30 lat od przeprowadzenia operacji – w przypadku wykorzystania AI wysokiego ryzyka, jeżeli doprowadziło to do zniszczenia własności poszkodowanego lub poważnej szkody niematerialnej,
  • 10 lat od daty powstania szkody – gdy uszczerbek ma charakter majątkowy lub jest możliwą do zweryfikowania stratą ekonomiczną.

Priorytet zachowują też krajowe porządki w zakresie obejmującym zawieszenie lub przerwanie terminu przedawnienia. Dla zwyczajnych systemów AI stosuje się krajowe normy związane z przedawnieniem oraz zakresem i kwotami odszkodowania.

 

Odpowiedzialność za szkody wyrządzone przez AI inne niż systemy wysokiego ryzyka

Dla systemów AI, w stosunku do których nie powstaje wysokie ryzyko zaistnienia szkody, ustawodawca przyjmuje odpowiedzialność operatora na zasadzie winy za każdą szkodę, która wynika z:

  • fizycznego lub wirtualnego działania systemu,
  • działania urządzenia sterowanego systemem,
  • funkcjonowania procesu opartego na systemie.

Operator ma prawo wyłączyć się od odpowiedzialności pod warunkiem, że wykaże, iż:

  • AI zostało uruchomione bez zgody operatora, a przy tym podjęto wszelkie rozsądne i niezbędne środki aby tego uniknąć, chyba że nie można ustalić miejsca pobytu sprawcy szkody albo jest on niewypłacalny;
  • Dochowano należytej staranności poprzez łączne: dobranie właściwego AI do zadania, prawidłowe uruchomienie procesu, nadzorowanie działania systemu, regularne aktualizowanie oprogramowania;
  • Szkoda powstała wskutek siły wyższej lub wyłącznej winy poszkodowanego albo osoby, za której działanie on odpowiada.

Nie można zwolnić się od odpowiedzialności, wykazując autonomiczne działanie systemu AI. W rozporządzeniu nałożono obowiązek współpracy operatora i producenta systemu dla określenia zakresu odpowiedzialności.

 

Modyfikacje odpowiedzialności

Poza tym rozporządzenie uwzględnia redukcję odpowiedzialności operatora wtedy, kiedy poszkodowany przyczyni się do powstania uszczerbku. Wówczas obie strony postępowania mogą korzystać z danych wygenerowanych przez system, który szkodę wyrządził, aby ustalić odpowiedzialność i jej zakres.

Jeśli szkoda zostanie wyrządzona przez kilku operatorów, ich odpowiedzialność będzie solidarna. Gdy któryś z operatorów back-end lub front-end jest jednocześnie producentem systemu AI, rozporządzenie będzie mieć priorytet przed dyrektywą w sprawie odpowiedzialności za produkt. Operatorzy mogą dochodzić między sobą roszczeń zwrotnych, czyli tak zwanych regresów, oraz zgłosić je w stosunku do producenta oprogramowania, jeśli pokryli szkodę całościowo.

W wyniku rozwoju branży IT rozwiązania sztucznej inteligencji są wdrażane w wielu obszarach naszego życia. Wprowadzenie regulacji prawnych normujących reżimy odpowiedzialności za szkody wyrządzone przez AI jest więc krokiem niezbędnym i uzasadnionym. Oczywiście dopiero po zastosowaniu ich w praktyce okaże się, czy planowane rozwiązania faktycznie przynoszą oczekiwane rezultaty.  

 

Marcin Staniszewski

Kancelaria Prawna RPMS Staniszewski & Wspólnicy

źródło: Marcin Staniszewski, Kancelaria Prawna RPMS Staniszewski & W
fot. 123rf.com/zdj. ilustracyjne
Nie ma jeszcze komentarzy...
CAPTCHA Image


Zaloguj się do profilu / utwórz profil
ZAMKNIJ X
Strona używa plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies. OK, AKCEPTUJĘ