Wśród wspomnianych błędów znajdują się m.in.: złożoność i surowość regulacji, trudne do wdrożenia przepisy, kontrowersyjne zasady dotyczące prawa autorskiego, nadmierne wymagania dotyczące ujawniania informacji stanowiące zagrożenie dla bezpieczeństwa publicznego i tajemnic handlowych, czy tworzenie nowych obowiązków dla dostawców modeli AI wykraczających poza to, co przewiduje AI Act.
W opinii Izby Kodeks w obecnej formie jest zbyt szczegółowy, niejasny i niepraktyczny, co może prowadzić do spowolnienia innowacji, zwłaszcza w przypadku małych i średnich przedsiębiorstw, a w konsekwencji jeszcze bardziej osłabić konkurencyjność UE w dziedzinie sztucznej inteligencji na arenie międzynarodowej.
Zobacz również
Jak wskazuje AI Chamber, największym problemem drugiego projektu Kodeksu jest jego nadmierna szczegółowość i tworzenie nowych obowiązków, które często wykraczają poza wymagania AI Act. Złożoność i surowość przepisów mogą zniechęcać firmy do rozwijania własnych modeli AI, zwłaszcza przez małe i średnie przedsiębiorstwa (MŚP), które mogą uznać koszty i wysiłek związany z przestrzeganiem tych regulacji za zbyt wysokie. Według Izby, już teraz AI Act i obciążenia, jakie nakłada na rozwój sztucznej inteligencji, stawiają UE w niekorzystnej sytuacji w „wyścigu sztucznej inteligencji”, zwłaszcza względem USA i Chin. Kodeksy postępowania, takie jak GPAI Code of Conduct, powinny ułatwiać zgodność z przepisami AI Act, aby Europa pozostała atrakcyjnym miejscem do tworzenia modeli AI i rozwiązań opartych na tej technologii.
– Zamiast wspierać dynamiczne i konkurencyjne środowisko dla rozwoju AI, UE ryzykuje stworzenie z Kodeksu „biurokratycznego potwora”. Chociaż w porównaniu z wcześniejszą wersją Kodeksu wprowadzono pewne usprawnienia, dokument w obecnym kształcie nadal nie spełnia swojego podstawowego celu. Z perspektywy europejskich przedsiębiorców wartość dodana Kodeksu jest znikoma, natomiast ciężar jego wdrożenia – zarówno finansowy, jak i administracyjny – może skutecznie zdusić innowacyjny zapał. – zaznacza Tomasz Snażyk, CEO AI Chamber.
Nadmiar regulacji dusi innowacje
Kodeks zawiera nadmiernie szczegółowe wskaźniki KPI (Key Performance Indicators), które są trudne do wdrożenia i niejednoznaczne. Na przykład wymagania dotyczące dokumentacji są obszerne, ale brakuje jasnego uzasadnienia ich konieczności. Wymaganie szczegółowych informacji o parametrach modeli AI i danych używanych do ich szkolenia może naruszać tajemnice handlowe i prawa własności intelektualnej, a także zagrażać bezpieczeństwu publicznemu i zniechęcać do tworzenia innowacji.
#NMPoleca: Jak piękny design zwiększa konwersję w e-commerce? Tips & Tricks od IdoSell
Chociaż celem Kodeksu jest transparentność, nadal istnieją obawy dotyczące poziomu szczegółowości publikowania parametrów modeli, takich jak: dane używane do szkolenia, testowania i walidacji, dane dot. zasobów obliczeniowych, czy raportowanie zużycia energii.
Słuchaj podcastu NowyMarketing
GPAI kontra AI Act i przepisy prawa autorskiego
Jak zaznacza AI Chamber, projekt Kodeksu wprowadza obowiązki, które nie są przewidziane w AI Act. Na przykład narzuca zbyt surowe wymagania dotyczące zgodności z prawami autorskimi zbiorów danych stron trzecich. Wymaganie, aby wewnętrzne zasady dotyczące praw autorskich były „zgodne ze zobowiązaniami Kodeksu”, jest problematyczne, ponieważ Kodeks nie powinien ograniczać swobody dostawców w zakresie niezależnej oceny prawa autorskiego UE. Roszczenie podejmowania przez twórców modeli AI „rozsądnych działań” w celu oceny zgodności z prawami autorskimi zbiorów danych stron trzecich wykracza poza zakres prawa UE.
Ponadto, jak podkreśla Izba, obowiązek stosowania polityk na każdym etapie rozwoju modelu jest zbyt szeroki i trudny do zrealizowania, a postulat monitorowania praw innych podmiotów jest niepraktyczny i ingeruje w umowy handlowe. Co więcej, wprowadzenie w Kodeksie dodatkowych przepisów o charakterze eksterytorialnym budzi poważne wątpliwości prawne.
Rozmiar modeli AI nie definiuje ryzyka
Zdaniem Izby, rozmiar modelu AI lub wysokość mocy niezbędnej do jego trenowania nie są dobrymi wskaźnikami do oceny rzeczywistego ryzyka, jakie stwarzają nowe technologie. Podczas gdy generalnie Izba popiera zwolnienie MŚP z przepisów nakazowych, ponieważ brakuje im zasobów do pełnego przestrzegania Kodeksu, czasami takie podejście może stworzyć lukę prawną, w której modele AI oferowane przez małe i średnie firmy mogłyby mieć niższe standardy bezpieczeństwa i stwarzać znaczne ryzyko nadużyć określonych w AI Act. Ustawa o sztucznej inteligencji ma na celu zapewnienie bezpieczeństwa wszystkich modeli sztucznej inteligencji, niezależnie od wielkości dostawcy, dlatego warto położyć większy nacisk na to, jakie jest rzeczywiste ryzyko złamania standardów bezpieczeństwa i jakie środki zostaną podjęte przez dostawcę modelu.
Kodeks opiera się też na przyszłych standardach, które nie zostały jeszcze zdefiniowane przez unijne AI Office. Tworzy to niepewność w kwestii konkretnych wymagań zgodności z ustawą o AI, co znacząco utrudnia planowanie i inwestowanie w rozwój modeli sztucznej inteligencji. Kodeks od samego początku powinien dawać rzeczywiste i konkretne wskazówki dotyczące zgodności z AI Act.