Przeczytaj więcej odsłon cyklu #LegalneCzwartki >>
Sztuczna inteligencja, w postaci takiej, jak z filmu „A.I. Artificial Intelligence” Stevena Spielberga z 2001 roku, czyli modernistyczno-cyfrowej wersji Pinokia, w niedługim czasie może stać się rzeczywistością. Co prawda maszyny nie będą jeszcze w stanie odczuwać ludzkich emocji, ale z pewnością jesteśmy świadkami początku podejmowania przez nie decyzji w wielu dziedzinach gospodarki, co w znaczący sposób wpłynie na automatyzację procesów decyzyjnych w każdej branży przemysłu.
I w tym miejscu rodzi się zasadnicze pytanie: co z odpowiedzialnością za podjęte bądź rekomendowane rozwiązania przez AI? Każda decyzja pociąga za sobą odpowiedzialność za jej rezultaty. Ale czy sztuczną inteligencję można pociągnąć do odpowiedzialności? Jeśli tak, to w jakim zakresie? A jeśli nie, to kto taką odpowiedzialność będzie ponosił? Niniejszy tekst ma na celu przybliżenie odpowiedzi na wyżej wskazane pytania.
Osobowość prawna AI
Rozważając tę kwestię, nie sposób instynktownie wyzbyć się wrażenia, że AI nie może ponosić odpowiedzialności. I na chwilę obecną to prawidłowa odpowiedź, ponieważ zgodnie z przepisami prawa zarówno międzynarodowego, wspólnotowego jak i krajowego, systemy komputerowe nie posiadają osobowości prawnej, a co za tym idzie, nie mogą być podmiotem praw i obowiązków oraz dokonywać czynności prawnych we własnym imieniu. Jeśli nie sztuczna inteligencja, to zatem kto? Tej odpowiedzi możemy doszukiwać się w dyrektywie ALID.
Dyrektywa ALID
Jednym z nielicznych, jeśli nie jedynym aktem prawnym na poziomie Unii Europejskiej, poruszającym kwestię odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję, jest dyrektywa ALID (Artificial Intelligence Liability Directive) mniej popularna, ale bezpośrednio związana z AI Act. Omawiana dyrektywa jest jednym z kluczowych elementów szerszej strategii Unii Europejskiej, polegającej na harmonizacji przepisów poruszających tematykę AI wewnątrz wspólnoty.
Zasadniczymi celami dyrektywy są:
- ustalenie odpowiedzialności w sytuacji powstania szkód spowodowanych przez AI. Ten akt prawny określa, kto ponosi odpowiedzialność (twórca systemów AI, użytkownicy czy też jeszcze inne podmioty);
- ochrona użytkowników oraz konsumentów, która zakłada, że osoby poszkodowane przez działanie sztucznej inteligencji mają możliwość dochodzenia swoich roszczeń na drodze sądowej;
- tworzenie przestrzeni dla innowacji. Przepisy dyrektywy mają na celu nieustanne wspieranie dalszego rozwoju systemów AI, jednocześnie tworząc odpowiednie mechanizmy ochronne;
- ujednolicenie przepisów na terenie całej wspólnoty i określenie zasad odpowiedzialności za działania systemów sztucznej inteligencji na terenie wszystkich państw Unii Europejskiej.
Kwestie procesowe zawarte w dyrektywie ALID
Komentowana dyrektywa zawiera również szereg ułatwień procesowych, pozwalających poszkodowanym działaniem systemów AI na dochodzenie swoich roszczeń. Jednym z kluczowych aspektów jest rozkład ciężaru dowodu w postępowaniu cywilnym. Zgodnie z ogólną zasadą prawa cywilnego zawartą w art. 6 Kodeksu Cywilnego: „Ciężar udowodnienia faktu spoczywa na osobie, która z faktu tego wywodzi skutki prawne”.
Oznacza to, że według zasad ogólnych, obowiązek wykazania szkody spoczywałby na poszkodowanym. Ustawodawca, biorąc pod uwagę specyfikę materii AI oraz chroniąc interes poszkodowanego, odwrócił ciężar dowodu w niniejszych postępowaniach, wiedząc, że w wielu przypadkach wykazanie szkody systemów komputerowych, do których należy sztuczna inteligencja, może być znacząco utrudnione albo całkowicie niemożliwe. Tym samym to twórcy takich systemów są zobowiązani do udowodnienia, że ich technologie działały w sposób zgodny z obowiązującymi normami i standardami bezpieczeństwa.
Kluczowymi punktami dotyczącymi ciężaru dowodu w dyrektywie ALID są:
- odwrócenie ciężaru dowodu – dyrektywa zakłada, że w przypadku zaawansowanych systemów AI (uczących się oraz automatycznych), jeżeli poszkodowany wysuwa swoje roszczenie, twierdząc, że doszło do szkody, to twórcy systemu sztucznej inteligencji mają obowiązek wykazać, że szkoda nastąpiła bez winy AI;
- domniemanie winy twórców systemów sztucznej inteligencji – zgodnie z treścią dyrektywy, w przypadku zaawansowanych systemów AI (podejmujących decyzje w sposób zautomatyzowany), istnieje domniemanie, że twórcy takich systemów ponoszą wszelką odpowiedzialność za szkodę wywołaną działaniem AI. Chyba że wykażą, że do wypadku doszło z powodu działania sił wyższych lub błędów, które były niemożliwe do przewidzenia;
- przeprowadzenie dowodów technicznych w postępowaniu – w związku ze specjalistyczną materią systemów komputerowych AI, możliwe będzie przeprowadzenie dowodu oraz analizy takich aspektów, jak kod źródłowy systemu AI oraz algorytmów w celu określenia ewentualnego szkodliwego działania sztucznej inteligencji;
- poszanowanie zasady równości stron – pomimo znacznych ułatwień procesowych, w związku z dochodzeniem roszczeń z tytułu szkody wyrządzonej przez sztuczną inteligencję, system sprawiedliwości musi uwzględniać sytuacje, w których może dochodzić do nieuczciwych prób wyłudzenia odszkodowania od twórców systemów AI.
Zgodnie z przedstawianą analizą jesteśmy świadkami kształtowania się nowych standardów prawnych w związku z rozwojem systemów AI. Natomiast, jak to często bywa, teoria nie zawsze znajduje odzwierciedlenie w praktyce. Już niebawem rozpoczną się pierwsze procesy sądowe z AI w roli głównej i wtedy przekonamy się, oby nie na własnej skórze, czy prawo jest po stronie człowieka, czy jednak systemów komputerowych.