Dlaczego Parlament Europejski bierze AI „za rogi”
Sztuczna inteligencja już dawno przestała być mrzonką rodem z sci-fi i w szybkim tempie zaczyna wkraczać do co raz to kolejnych dziedzin naszego życia. Ponieważ AI można wbudować praktycznie do każdego produktu lub usługi, to też bez wątpienia palącą staje się potrzeba wprowadzenia przepisów regulujących zasady korzystania z tej potężnej technologii.
Unia Europejska zdała sobie sprawę, że jeżeli kwestie AI pozostawić samą sobie (czytaj: do uregulowania każdemu z krajów członkowskich) to zapewne zamiast spójnych regulacji powstanie mozaika potencjalnie rozbieżnych przepisów krajowych. Efekt? Niechybnie czekałyby nas duże utrudnienia w obrocie produktami i usługami wykorzystującymi AI. Dodatkowo liczne bariery prawne niekoniecznie muszą oznaczać skuteczną ochronę praw użytkowników tej technologii.
Zobacz również
-
#PrzeglądTygodnia [27.09-03.10.24]: suszonki września, przegląd kampanii na Pink October, alkohol w saszetkach znika z półek sklepowych
-
#PolecajkiNM cz. 26: Narodowe Archiwum Cyfrowe, strefa marki CeraVe i Foresight.edu
-
Pink October: jak marki zachęcają do badań profilaktycznych w kierunku raka piersi [PRZEGLĄD]
Dlatego Komisja Europejska zaprojektowała przepisy, które mają na celu „przekształcić Europę w globalne centrum wiarygodnej sztucznej inteligencji”. Za tym górnolotnym hasłem kryją się też jednak konkretne regulacje, które przede wszystkim mają na względzie ochronę bezpieczeństwa i praw podstawowych obywateli UE i przedsiębiorstw.
Taka jest właśnie geneza powstania projektu rozporządzenia Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji zwanego także „aktem w sprawie sztucznej inteligencji”. I chociaż projekt rozporządzenia nie posługuje się pojęciami „promocji” czy „reklamy” to pod lupę bierze m.in. „personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji”, a także parę innych narzędzi i technik wykorzystywanych w marketingu.
AI w marketingu przejrzyste jak RODO
Łatwo sobie wyobrazić jakie możliwości może otwierać reklama oparta o bardzo zaawansowaną sztuczną inteligencję. Potencjał wpływania na nasze decyzje przez AI jest ogromny, a możliwości te zapewne szybko wzrosną biorąc pod uwagę, że ta branża technologiczna jest najszybciej rozwijającą się na świecie.
Pink October: jak marki zachęcają do badań profilaktycznych w kierunku raka piersi [PRZEGLĄD]
Czy prawo dotrzyma kroku? Będzie musiało. Dlatego w rozporządzeniu przede wszystkim wzięto na celownik praktyki, które „wykazują znaczny potencjał manipulowania ludźmi” i które dodatkowo mogą spowodować u ludzi „szkodę psychiczną lub fizyczną”.
Słuchaj podcastu NowyMarketing
O co dokładnie się Unii rozchodzi? Przede wszystkim taki „potencjał do manipulowania ludźmi” mają wszelkie praktyki oparte na technikach podprogowych, które działają na podświadomość. Specjalnej ochronie przed agresywną reklamą opartą o AI będą też podlegać określone „słabsze grupy”, do których rozporządzenie zalicza dzieci lub osoby z niepełnosprawnościami.
Wymaga podkreślenia, że na tym etapie projektowany akt w sprawie sztucznej inteligencji skupia się na zagrożeniach najcięższego kalibru. Stąd też prawne „powiązanie” technik manipulacyjnych oraz wymogu, aby takie wykorzystanie AI potencjalnie mogło grozić nam szkodą psychiczną lub fizyczną. I bynajmniej „przy szkodzie psychicznej” nie rozchodzi się o to, że np.: konsument może być zirytowany działaniami promocyjno-reklamowymi opartymi o AI. Takie lżejsze przewinienia zostały zakwalifikowane jako „inne praktyki polegające na manipulacji lub wykorzystywaniu osób dorosłych, których stosowanie może być ułatwione przez systemy sztucznej inteligencji”.
Autorzy projektu rozporządzenia od razu sygnalizują, że na takie regulacje też przyjdzie czas, a odpowiednimi miejscami na ich wdrożenie to ustawy dotyczące ochrony danych, ochrony konsumentów i usług cyfrowych, a także … kodeksy branżowe.
Czy wiesz, że rozmawiasz z AI?
Akt wymaga od dostawców, aby systemy sztucznej inteligencji przeznaczone do wchodzenia w interakcję z osobami fizycznymi były przez nich projektowane i opracowywane w taki sposób, aby osoby te miały świadomość, że prowadzą interakcję z systemem sztucznej inteligencji.
Wyczerpujące informowanie użytkowników może być jednak zbędne, gdy z okoliczności i kontekst korzystania przez nich z systemu jednoznacznie wskazują na to, że mają do czynienia AI. Można jednak sobie wyobrazić, że marketingowi opartemu o AI będą towarzyszyć rozbudowane pouczenia i wszędobylskie „czekboksy” zapoczątkowane przez erę RODO.
Nie oznacza to jednak, że każdy przypadek wykorzystania sztucznej inteligencji w reklamie i promocji będzie natrafiał na takie same bariery prawne. Podobnie jak w RODO, gdzie istnieje kategoria danych wrażliwych, rozporządzenie w sprawie AI posługuje się „pojęciem systemów wysokiego ryzyka”. Dzięki takiemu rozróżnieniu wykorzystywanie tak podstawowych technologii jak chatboty będzie się wiązało z koniecznością spełnienia wyłącznie minimalnych obowiązków dotyczących stosowania AI.
Emocje w AI Marketingu
Seth Godin, marketingowy guru, w swoich książkach zwracał uwagę, że nie kupujemy tylko produktów, ale także emocje jakie wiążą się z ich używaniem. Nic więc dziwnego, że technologia rozpoznawania emocji przez AI stanowi fundament dla skutecznej implementacji sztucznej inteligencji do narzędzi marketingowych.
Nie umknęło to członkom Parlamentu Europejskiego, którzy chcą nałożyć na dostawców systemów rozpoznawania emocji obowiązek informowania osób fizycznych, wobec których systemy te są stosowane, o fakcie ich stosowania. Skoro konsument musi być świadom tego, że AI analizuje jego emocje to można też śmiało założyć, że osoby te otrzymają również uprawnienia typu „opt-out” pozwalające im na niewyrażenie zgody na „śledzenie” ich stanu emocjonalnego.
Musisz wiedzieć, że deepfake to fake
Akt w sprawie sztucznej inteligencji będzie miał zastosowanie także, gdy technologia ta będzie wykorzystywania do generowania obrazów, dźwięków lub treści wideo, które w znacznym stopniu przypominają autentyczne treści, lub do manipulowania takimi obrazami, dźwiękami lub treściami wideo.
Autorzy rozporządzenia uznali, że powinien istnieć obowiązek ujawniania, że dane treści wygenerowano za pomocą środków zautomatyzowanych w taki sposób, żeby łudząco przypominały istniejące osoby, obiekty, miejsca lub inne podmioty lub zdarzenia. Niedopuszczalną byłaby bowiem sytuacja, gdyby nieświadomy obiorca uznał zmanipulowane obrazy za autentyczne lub prawdziwe i na ich podstawie dokonywał swoich wyborów konsumenckich.
Karami pieniężnymi w zbuntowane AI
Jeżeli chodzi o unijne i krajowe prawodawstwo to dobrze już znanym trendem jest umieszczanie w aktach prawnych przepisów, które pozwalają nałożyć na sprawców naruszeń wysokie kary pieniężne.
Nie inaczej jest i z aktem w sprawie sztucznej inteligencji. Rozporządzenie nakłada na państwa członkowskie obowiązek wprowadzenia kar administracyjnych, które w założeniu mają być „skuteczne, proporcjonalne i odstraszające”.
A co to oznacza w praktyce?
Za najcięższe przewinienia związane z wykorzystaniem AI (np.: stosowanie w marketingu technik podprogowych wspomaganych przez sztuczną inteligencję) przedsiębiorcy zapłacą karę nawet do 30 000 000 EURO, a w przypadku prawdziwych międzynarodowych gigantów – do 6 % ich całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego.
Za „drobniejsze” przewinienia organ może naliczyć opłatę nawet do 20 000 000 EURO czy odpowiednio do 4 % całkowitego rocznego światowego obrotu ukaranego podmiotu z poprzedniego roku obrotowego.
Rozporządzenie przewiduje jednak pewną elastyczność w nakładaniu tych kar: w każdym indywidualnym przypadku uwzględnia się wszystkie istotne okoliczności danej sytuacji. Dlatego kara może ulec odpowiedniemu zmniejszeniu lub zwiększeniu w zależności od tego jak poważne było naruszenie przepisów dotyczący AI, ile trwało naruszenie, jakie są jego konsekwencje oraz czy sprawca był już uprzednio karany z to samo naruszenie.
Dobre praktyki w AI marketingu
W projekcie rozporządzenia znalazł się też zapis, który stanowi, że komisja i państwa członkowskie powinni zachęcać do tworzenia kodeksów postępowania sprzyjających dobrowolnemu stosowaniu rozwiązań technicznych dotyczących AI.
Tego typu kodeksy branżowe wyrastały jak grzyby po deszczu zaraz po wprowadzeniu RODO. Teraz Unia również stawia na samoregulację dużych segmentów rynku, w których sztuczna inteligencja będzie intensywnie wykorzystywana.
Jak wskazują autorzy projektu preferowanym modelem jest tworzenie twardych ram regulacyjnych wyłącznie dla systemów sztucznej inteligencji tzw. „wysokiego ryzyka”. To dla tych systemów tworzone będą szczegółowe wymogi dotyczące „danych, dokumentacji i identyfikowalności, dostarczania informacji i przejrzystości, nadzoru ze strony człowieka oraz solidności i dokładności”.
Od dostawców pozostałych systemów AI planowane jest egzekwowanie jedynie podstawowych wymogów oraz zachęcanie ich do dobrowolnego przyjęcia i wprowadzenia w swoich przedsiębiorstwie branżowych kodeksów postępowania.
Akt w sprawie sztucznej inteligencji można więc sprowadzić do tych trzech, kluczowych założeń: zwiększyć zaufanie ludzi do AI, zapewnić przedsiębiorcom pewność i stabilność prawa regulującego wykorzystywanie sztucznej inteligencji oraz zminimalizować potrzebę u państw członkowskich do podejmowania własnych działań regulacyjnych, co z kolei prowadziliby do fragmentacji rynku.
Czas pokaże czy Unii faktycznie uda się trudna sztuka uregulowania tej najważniejszej technologii światowej gospodarki cyfrowej.