#LegalneCzwartki: AI Act – pierwsza europejska próba regulacji prawnej AI

#LegalneCzwartki: AI Act – pierwsza europejska próba regulacji prawnej AI
Rozwój sztucznej inteligencji to jedna z najważniejszych zmian technologicznych XXI wieku, porównywalna z rewolucją przemysłową czy cyfryzacją sprzed kilku dekad. AI na naszych oczach przekształca sposób, w jaki funkcjonują ludzie, społeczeństwo oraz państwa.
O autorze
2 min czytania 2025-04-17

Przeczytaj więcej odsłon cyklu #LegalneCzwartki >>

Nowoczesne modele językowe – ChatGPT, Google Gemini, nasz rodzimy Bielik AI czy budzący coraz więcej kontrowersji DeepSeek zyskują na sile, a prawo staje w obliczu wyścigu, w którym nie ono ustala tempo. Regulacje dopiero starają się nadążyć, szukając ram dla technologii, która zdążyła już na stałe zagościć w naszej codzienności. Ale czy nadąża?

AI ACT – ochrona przed manipulacją

Po niemal trzech latach prac, w sierpniu 2024 r. Unia Europejska przyjęła Akt o AI – pierwsze rozporządzenie regulujące zagadnienia związane ze sztuczną inteligencją. Nowe przepisy będą wdrażane stopniowo. Polska, podobnie jak inne kraje członkowskie, zyskała czas na ich adaptację – pełna implementacja do naszego porządku prawnego potrwa do 2027 roku. Nowe regulacje będą wprowadzane stopniowo – część z nich zacznie obowiązywać po 6, 12, 24, a nawet 36 miesiącach.

Od lutego 2025 r. w Polsce obowiązuje już zakaz wdrażania najbardziej ryzykownych rozwiązań AI. Wprowadzono go w stosunku do ośmiu szczególnie niebezpiecznych obszarów. Są wśród nich m.in.: systemy manipulujące emocjami, profilujące ludzi, tworzące bazy rozpoznawania twarzy czy wykorzystujące zdalną identyfikację biometryczną. Nowe regulacje mają chronić użytkowników systemów komputerowych AI w szczególności przed nadużyciami technologii.

Co grozi za złamanie przepisów

Złamanie przepisów wynikających z AI Act wiąże się z poważnymi konsekwencjami, m.in. karami sięgającymi nawet do 35 milionów euro lub 7% globalnego rocznego przychodu firmy. UE jasno daje w ten sposób do zrozumienia, że nie będzie pobłażania dla nielegalnych działań. Dla wielu firm to jednak nie tylko kara finansowa – to ryzyko utraty reputacji, zaufania klientów i wstrzymania inwestycji.

Pytanie nie brzmi już, czy wdrożenie AI wymaga analizy prawnej, ale czy firmy zdążą ją przeprowadzić oraz dostosować swoje działania do obowiązujących norm i standardów bezpieczeństwa wynikających z nowo powstałych przepisów, zanim będzie za późno.

Wniosek: technologia nie zastąpi zdrowego rozsądku

Sztuczna inteligencja to potężne narzędzie – ale nadal tylko narzędzie. Odpowiedzialność za decyzje, które podejmujemy z jej pomocą, wciąż spoczywa na człowieku. Najlepiej obrazuje to historia nowojorskiego prawnika, który zaufał systemowi ChatGPT i przedłożył analizę prawną wykonaną przez sztuczną inteligencję podczas postępowania sądowego bez jej wcześniejszej weryfikacji. Jakie było jego zdziwienie, kiedy okazało się, że informacje zawarte we wspomnianej analizie są wynikiem tak zwanej halucynacji AI i zostały w pełni wymyślone przez sztuczną inteligencję.

Przedstawione zdarzenie to najlepsze przypomnienie o tym, że technologia nie zastąpi zdrowego rozsądku. W czasach, gdy AI może analizować dane szybciej, niż my zdążymy zadać pytanie, kluczowe staje się to, kto będzie pierwszy – odpowiedzialny człowiek czy niekontrolowany algorytm?

AI Act ma być remedium na zadyszkę regulacyjną – teraz piłka leży po stronie twórców technologii sztucznej inteligencji oraz jej użytkowników. To właściwy moment, by spokojnie przeanalizować, w jaki sposób AI działa w obrębie naszej organizacji i upewnić się, że jej rozwój idzie w parze z odpowiedzialnością.

PS #LegalneCzwartki: Kto zapłaci, gdy AI narozrabia? Odpowiedzialność za szkody spowodowane przez sztuczną inteligencję