W piśmiennictwie odnotowuje się kwestię trudności dowodowych przy ewentualnym dochodzeniu odszkodowania za wyrządzoną szkodę. Jak zwraca się uwagę w pismach Komisji Europejskiej, sztuczna inteligencja posiada cechy złożoności, autonomii i brak jej przejrzystości. To wszystko powodować może, że trudno będzie udowodnić na przykład winę sprawcy przy próbie dochodzenia odszkodowania. Można sobie bowiem wyobrazić, że wspomniana autonomia działania sztucznej inteligencji w pewnym zakresie może przekładać się na wyjście poza ramy zadanej komendy. Taka właściwość sztucznej inteligencji oddziałuje na zakres odpowiedzialności, którą można lub nie, przypisać podmiotowi naruszającemu czyjeś prawa. Warto w tym miejscu odnotować, że w przypadku odpowiedzialności na gruncie przepisów dotyczących własności intelektualnej, fakt zawinienia nie będzie odgrywał aż tak znaczącej roli, bowiem zaistnienie naruszenia jest niezależne od stopnia zawinienia.
Zwraca się również uwagę na to, że brak jednoznacznych przepisów na poziomie Unii Europejskiej spowodować może brak pewności stosowania prawa. Bowiem każde z państw członkowskich stosować będzie swoje dotychczasowe przepisy w zakresie ponoszenia odpowiedzialności za dane niepożądane działanie.
Zobacz również
Już teraz w literaturze przedmiotu wskazuje się, że jest możliwe kilka rozwiązań w zakresie ponoszenia takiej odpowiedzialności, poza klasycznymi przepisami dot. odpowiedzialności odszkodowawczej. A co do zaoferowania ma Unia Europejska? Otóż w 2022 roku Komisja Europejska przedstawiła wniosek zawierający projekt Dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji. Projektowane przepisy mają zaprowadzić jednolitość prawa i pewność jego stosowania. Obecnie jednak prace nad tą propozycją nadal trwają i jak na razie końca prac nie widać. A już teraz pojawiają się wątpliwości jak taka odpowiedzialność może się kształtować i co grozi użytkownikom sztucznej inteligencji za to, że efekt jej prac narusza czyjeś prawa, na przykład prawa własności intelektualnej.
Niniejszy artykuł jest próbą odpowiedzi na pytanie jakie są zasady odpowiedzialności za działanie sztucznej inteligencji oraz kto taką odpowiedzialność może ponieść, ze szczególnym uwzględnieniem prawa własności intelektualnej.
Odpowiedzialność na zasadzie przepisów kodeksu cywilnego
Z uwagi na fakt, że brak jest europejskich przepisów dotyczących sztucznej inteligencji w ogóle, tym bardziej odpowiedzialności za nią, do tej problematyki należy stosować dostępne obowiązujące obecnie regulacje prawne. Należy zwrócić uwagę na pojawiające się w branży prawniczej poglądy proponujące zastosowanie do problematyki odpowiedzialności za sztuczną inteligencję następujących przepisów – dotyczących odpowiedzialności za produkt niebezpieczny oraz stosowaną w ramach analogii odpowiedzialności jak za zwierzę.
Movember/Wąsopad: jak marki zachęcają do profilaktyki męskich nowotworów [PRZEGLĄD]
Odpowiedzialność jak za zwierzę
Kierując się intuicją, wydaje się, że uznać należy sztuczną inteligencję za narzędzie w rękach człowieka. To przecież właśnie człowiek kieruje sztuczną inteligencję tak, aby uzyskać konkretne efekty, pomimo jej autonomiczności. W związku z tym najbardziej zbliżoną odpowiedzialnością za działania sztucznej inteligencji jest odpowiedzialność jak za zwierzę. Przepisy statuują obowiązek naprawienia wyrządzonej przez zwierzę szkody niezależnie od tego, czy było pod nadzorem, czy też zabłąkało się lub uciekło. Kodeks Cywilny przewiduje w tym zakresie domniemanie winy, co oznacza, że to potencjalny podmiot naruszający musi wykazać, że nie ponosi winy za szkodę spowodowaną działaniem zwierzęcia. Ciężar dowodu w tym zakresie spoczywa zatem na potencjalnym podmiocie naruszającym. Tak samo byłoby w zakresie odpowiedzialności za sztuczną inteligencję, co oznacza, że odpowiedzialność ponosiłoby się nawet w przypadku starannego działania.
Słuchaj podcastu NowyMarketing
Odpowiedzialność za produkt niebezpieczny
Można zastanowić się, czy nie należy potraktować sztucznej inteligencji jako produkt niebezpieczny. Zgodnie z przepisami kodeksu cywilnego przez produkt rozumie się rzecz ruchomą, choćby została ona połączona z inną rzeczą oraz zwierzęta jak i energię elektryczną.
W tym przypadku jednak nie mówi się o winie, a o ryzyku, co oznacza, że wystarczy aby powstała szkoda i istniał związek przyczynowy pomiędzy szkodą, a działaniem, z którym to ustawodawca wiąże odpowiedzialność. A zatem przepis ten jest dalej idący, aniżeli ten dotyczący odpowiedzialności za zwierzę. Jednak, jak zwykło się przyjmować dobra intelektualne nie mogą być uznane za produkt niebezpieczny[1]. Oznacza to, że jedynie ucieleśnienie sztucznej inteligencji w przedmiocie fizycznym materializować może odpowiedzialność na zasadzie ww. przepisów.
Odpowiedzialność na podstawie prawa własności intelektualnej
Wątpliwości jakie pojawiają się przy stosowaniu sztucznej inteligencji w branży kreatywnej związane są właśnie z kwestią ponoszenia odpowiedzialności za efekty działania sztucznej inteligencji w przypadku, gdy naruszają one czyjeś prawa własności intelektualnej. W ramach przykładu możemy przyjąć, że dany twórca w ramach tworzenia kampanii reklamowej, posiłkując się sztuczną inteligencją, tworzy obraz, który, jak się potem okazuje, narusza czyjeś prawa autorskie. Co w takim przypadku z odpowiedzialnością ?
Otóż, jak powszechnie zwykło się przyjmować, za naruszenie autorskich praw majątkowych odpowiedzialność ponosi się, gdy dochodzi do nieuprawnionego korzystania z utworu, na przykład dojdzie do jego publikacji na stronie internetowej, bez zgody uprawnionego. Znów, podmiotem, który taką odpowiedzialność może ponieść jest tylko człowiek. Wychodząc od intuicyjnej tezy, że sztuczna inteligencja jest tylko narzędziem w rękach człowieka, odpowiedzialność ponosić będzie podmiot ją wykorzystujący. W końcu to człowiek czerpie korzyści z tak wytworzonego utworu przez sztuczną inteligencję.
I tak, uprawniony, którego autorskie prawa majątkowe zostały naruszone, może żądać od osoby, która naruszyła te prawa między innymi: zaniechania naruszania, usunięcia skutków naruszenia, naprawienia wyrządzonej szkody na zasadach ogólnych albo poprzez zapłatę sumy pieniężnej w wysokości odpowiadającej dwukrotności, a w przypadku gdy naruszenie jest zawinione – trzykrotności stosownego wynagrodzenia, które w chwili jego dochodzenia byłoby należne tytułem udzielenia przez uprawnionego zgody na korzystanie z utworu (z zastrzeżeniem wyroku Trybunału Konstytucyjnego z dnia 23 czerwca 2015 r. sygn. akt SK 32/14 (Dz.U. poz. 932)) lub wydania uzyskanych korzyści.
W toku procesu konieczne będzie wykazanie kilku istotnych okoliczności. Ciężar udowodnienia następujących okoliczności spoczywać będzie po stronie uprawnionego – że utwór istnieje, dana osoba jest uprawnionym oraz że doszło do naruszenia. Niekiedy należy przy tym wykazać na przykład zawinienie po stronie rzekomo naruszającej. Może to przysparzać trudności. Przy czym należy zaznaczyć, że wina wpływa jedynie na rozmiar odpowiedzialności, podczas gdy, w tym przypadku, sam fakt naruszenia jest od niej niezależny. Oznacza to, że podmiot naruszający może nie mieć ani woli ani świadomości, że narusza czyjeś prawa, a do naruszenia i tak dojdzie.
Już na pierwszy rzut oka widać, że problematyka odpowiedzialności za działania sztucznej inteligencji jest rozległa i wielowątkowa. Z jednej strony nie ma przepisów określających tę tematykę. Z drugiej, jak na razie nie ma dorobku orzeczniczego w tym zakresie. To wszystko sprawia, że trudno jest określić jakie przepisy najlepiej stosować, jak do tej kwestii podejdą sądy i w jakim kierunku podąży doktryna prawnicza.
PS Google wprowadza generator obrazów AI w wyszukiwarce
Gigant technologiczny coraz bardziej skłania się ku generatywnej sztucznej inteligencji. Nowa funkcja umożliwi tworzenie wizualizacji na podstawie tekstowych podpowiedzi. Oznacza to rozszerzenie procesu odkrywania poza to, co możemy znaleźć w istniejących wynikach wyszukiwania.
PS2 OpenAI pozwane przez Nowojorska Gildię Pisarzy. Sztuczna inteligencja wykorzystywana do treningu narzędzia ChatGPT
Szykuje się batalia pomiędzy sztuczną inteligencją a organizacją zrzeszającą amerykańskich pisarzy. Oskarża ona OpenAI o wykorzystywanie fragmentów książek do ulepszania systemu bez zgody twórców.