Ten blog korzysta z plików cookies na zasadach określonych tutaj
Zamknij
16.08.2023
NEW TECH & INNOWACJE

Odpowiedzialność za działania sztucznej inteligencji w Europie

Ostatnie lata obfitują w dynamiczny rozwój technologii oraz rozwiązań opartych na sztucznej inteligencji, a wykorzystujące ją urządzenia, narzędzia informatyczne czy aplikacje trafiają do coraz szerszego grona odbiorców. Chociaż w wielu obszarach sztuczna inteligencja przewyższa możliwości przeciętnego człowieka, w dalszym ciągu oparte o nią rozwiązania nie są niezawodne, w efekcie czego w niektórych przypadkach ich działanie może doprowadzić do wyrządzenia szkody korzystającemu z nich podmiotowi.

Rodzi to naturalne pytania o zasady ponoszenia odpowiedzialności odszkodowawczej za szkody wyrządzone na skutek autonomicznych decyzji systemów opartych na sztucznej inteligencji, zwłaszcza, że istniejące obecnie regulacje prawne nie do końca nadążają za postępem technologicznym i nie przystają do jego aktualnej specyfiki. Problem ten został dostrzeżony przez prawodawcę unijnego, który w ostatnim czasie podjął istotne kroki mające na celu uregulowanie tej materii.

Obecnie obowiązujące regulacje prawne

Obecnie, z braku alternatywy, podstawę prawną dochodzenia roszczeń odszkodowawczych za szkody wyrządzone działaniem systemów opartych o sztuczną inteligencję stanowią ogólne przepisy poszczególnych krajów członkowskich, dotyczące odpowiedzialności za szkodę. Przepisy te uzależniają możliwość uzyskania odszkodowania za szkodę od udowodnienia przez osobę dochodzącą tego odszkodowania szeregu przesłanek, do których należą zazwyczaj: zawinione działanie lub zaniechanie osoby, która spowodowała szkodę, wystąpienie szkody w określonej wysokości, oraz istnienie związku przyczynowego pomiędzy zachowaniem sprawcy, a powstałą szkodą. Problem pojawia się w sytuacji, gdy w ramach łańcucha przyczynowo-skutkowego, istniejącego pomiędzy działalnością człowieka a powstałą szkodą, pojawia się aktywność sztucznej inteligencji, cechująca się autonomicznością i złożonością. Stopień skomplikowania procesów podejmowania decyzji przez systemy oparte na sztucznej inteligencji powoduje, że dla osoby dochodzącej odszkodowania szczególnie karkołomne może okazać się udowodnienie, że konkretne dane wejściowe, wprowadzane do tych systemów przez potencjalnego sprawcę, rzeczywiście przyczyniły się do uzyskania przez system sztucznej inteligencji wyniku, który skutkował powstaniem szkody. W wielu przypadkach może stanowić to faktyczną przeszkodę w uzyskaniu odszkodowania przez podmiot poszkodowany.

Dyrektywa w sprawie stosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji – główne założenia

Remedium na opisane wyżej problemy ma być między innymi unijna dyrektywa mająca na celu harmonizację przepisów krajowych tak, aby zapewnić osobom dochodzącym odszkodowania za szkody wyrządzone przez systemy sztucznej inteligencji analogicznego poziomu ochrony prawnej, jak w przypadku osób, które poniosły szkody spowodowane w „tradycyjny” sposób, tj. bez udziału takich systemów. Harmonizacja przepisów ma ponadto doprowadzić do likwidacji niepewności prawa oraz różnic w zakresie procesu dochodzenia odszkodowań w ramach poszczególnych jurysdykcji krajowych, co współgra z transgranicznym i uniwersalnym charakterem usług i produktów opartych na systemach sztucznej inteligencji. 28 września 2022 r. Komisja Europejska przyjęła wniosek dotyczący projektu dyrektywy w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (ang. Artificial Intelligence Liability Directive, skr. AILD), który pozwala na ocenę kierunku, w którym zmierzać będą przyszłe, unijne regulacje w tym zakresie.

Zakładane przez unijnego ustawodawcę cele mają być osiągnięte poprzez wprowadzenie ułatwień dowodowych dla osób dochodzących odszkodowania za szkody. Kluczowe z tego punktu widzenia są przepisy artykułu 4 AILD, ustanawiające tzw. domniemanie istnienia związku przyczynowego pomiędzy winą pozwanego, a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system spodziewanego wyniku. Oznacza to, że w ramach procesu odszkodowawczego, przy spełnieniu szeregu opisanych w tym przepisie przesłanek, powód będzie zwolniony z obciążającego go w obecnym stanie prawnym obowiązku udowodnienia istnienia takiego związku przyczynowego. W efekcie, to pozwany, chcący uwolnić się od odpowiedzialności odszkodowawczej, będzie musiał wykazać przed sądem, że związek ten w danej sprawie nie zaistniał. Rozwiązanie to ma na celu swoiste wyrównanie sił stron postępowania, zważywszy na fakt, że dla osoby poszkodowanej – będącej niejednokrotnie konsumentem – samodzielne sprostanie ciężarowi dowodu w tym zakresie mogłoby okazać się de facto niemożliwe z uwagi na stopień skomplikowania funkcjonowania systemów sztucznej inteligencji i konieczne do poniesienia nakłady czasowe i finansowe.

Ponadto, projektowane przepisy przyznają sądowi rozpoznającemu sprawę odszkodowawczą uprawnienie do nakazania dostawcom lub użytkownikom systemów sztucznej inteligencji ujawnienia istotnych dowodów, dotyczących konkretnego systemu sztucznej inteligencji wysokiego ryzyka, co do którego istnieje podejrzenie, że wywołał szkodę, w zakresie, w jakim dowody te okażą się niezbędne do uzasadnienia roszczenia odszkodowawczego. W przypadku odmowy uczynienia zadość temu nakazowi przez pozwanego, sąd rozpoznający sprawę odszkodowawczą będzie uprawniony do domniemania, że pozwany nie zastosował się do obowiązku zachowania należytej staranności co do okoliczności, które miały zostać wykazane za pomocą dowodów, podlegających ujawnieniu zgodnie z treścią nakazu, a które mają wpływ na ustalenie jego odpowiedzialności.

Planowana dyrektywa, jak pośrednio wskazuje sama jej nazwa, dotyczyć ma odpowiedzialności cywilnej wynikającej przede wszystkim z czynów niedozwolonych. Do modelowych przykładów takich czynów zaliczyć można chociażby potrącenie pieszego przez pojazd autonomiczny, czy błąd programu interpretującego wyniki badań pacjenta skutkujący błędną diagnozą, a w konsekwencji nieskutecznym leczeniem. Poza zakresem jej normowania pozostają natomiast kwestie odpowiedzialności na podstawie stosunków umownych, odpowiedzialności karnej, czy odpowiedzialności administracyjnej.

AILD – perspektywa czasowa

Omawiane przepisy, jakkolwiek ograniczone zakresowo, należy ocenić pozytywnie. Ich wprowadzenie powinno przyczynić się bowiem do wyeliminowania wielu wątpliwości, jakie mogą nasuwać się na gruncie aktualnego stanu prawnego w zakresie odpowiedzialności odszkodowawczej za szkody spowodowane działaniem sztucznej inteligencji, a tym samym do faktycznego ułatwienia uzyskiwania odszkodowań przez osoby poszkodowane. Należy jednak uzbroić się w cierpliwość, albowiem omawiane regulacje znajdują się nadal w fazie procesu legislacyjnego, co oznacza, że ich ostateczne przyjęcie oraz implementacja do krajowych porządków prawnych może potrwać nawet kilka kolejnych lat.

 

Artykuł ukazał się w Miesięczniku Automatyka, wydanie 6/2023. – 6/2023 / 2023 / Roczniki / Automatyka / Strona główna | AutomatykaOnline.pl

#AI #dyrektywa #odpowiedzialność #sztuczna inteligencja #UE

Chcesz być informowany o najnowszych wpisach na blogu?

  • - Podaj adres e-mail i otrzymuj informację o nowym wpisach na blogu SKP/IPblog prosto na Twoją skrzynkę
  • - Nie będziemy wysłać Ci spamu

Administratorem Twoich danych osobowych jest SKP Ślusarek Kubiak Pieczyk sp.k. z siedzibą w Warszawie, przy ul. Ks. Skorupki 5, 00-546 Warszawa.

Szanujemy Twoją prywatność dlatego przekazane nam dane nie będą przetwarzane i udostępniane poza SKP w innych celach niż ujęte w Regulaminie Serwisu. Szczegółowe postanowienia dotyczące naszego IP Bloga, w tym katalog Twoich uprawnień związanych z przetwarzaniem danych osobowych znajdziecie Państwo w Polityce Prywatności.