Unia Europejska przygotowuje się do zmiany w przyszłym miesiącu przełomowej ustawy o sztucznej inteligencji (ustawy o sztucznej inteligencji), aby doprecyzować zasady obowiązujące firmy działające w szybko rozwijającej się dziedzinie sztucznej inteligencji. Genna Virkkenen, europejska komisarz odpowiedzialna za suwerenność technologiczną, bezpieczeństwo i demokrację, wspomniała o tych „ukierunkowanych zmianach” podczas przemówienia na szczycie internetowym w Lizbonie.
Wprowadzana stopniowo w ciągu ostatniego roku ustawa o sztucznej inteligencji ma na celu uregulowanie narzędzi sztucznej inteligencji w oparciu o ich potencjalne ryzyko dla społeczeństwa. Chociaż chwalono go za swoje ambicje, spotkał się z krytyką ze strony dużych firm technologicznych, które twierdzą, że tłumi innowacje. Krytykę tę powtórzyły takie osobistości, jak były prezydent USA Donald Trump, który również narzekał, że prawo może utrudniać postęp w sztucznej inteligencji.
Kluczowa kwestia sporna zostanie zwrócona na światło dzienne latem przyszłego roku, kiedy znaczna część ustawy o sztucznej inteligencji wejdzie w życie w pełni. Pojawia się jednak zasadnicze wyzwanie: standardy techniczne niezbędne do skutecznego wdrożenia są wciąż w fazie opracowywania i nie oczekuje się, że zostaną ukończone w ciągu kolejnego roku.
Virkkenen podkreśliła tę lukę podczas swojego wtorkowego przemówienia na szczycie internetowym, podkreślając potrzebę „stworzenia pewności prawnej dla naszego przemysłu”. Zauważyła, że nadchodzące zmiany – które mają zostać formalnie wprowadzone 19 listopada – mają na celu przezwyciężenie tej niepewności i potwierdzenie zaangażowania UE na rzecz podstawowych zasad ustawy o sztucznej inteligencji.
Chociaż dokładny zakres tych zmian jest nadal owiany tajemnicą, istniejące projekty wskazują na potencjalne roczne opóźnienie. Może to oznaczać, że organy krajowe nie rozpoczną nakładania kar za nadużywanie sztucznej inteligencji do sierpnia 2027 r.
Nacisk na ten transfer pochodzi głównie od dużych europejskich firm. Na początku tego roku dyrektorzy generalni ponad czterdziestu firm, w tym gigantów technologicznych, takich jak ASML, Philips, Siemens i startup AI Mistral AI, wspólnie zwrócili się o dwuletnie odroczenie kluczowych obowiązków wynikających z ustawy o sztucznej inteligencji. Pomimo tej presji Komisja podkreśla, że nie ulegnie presji zewnętrznej, aby naruszyć terminy wdrożenia ustawy.
Kolejnym niuansem w tym sporze jest wypowiedź Komisarza Praw Człowieka Rady Europy Michaela O’Flarty’ego. W przemówieniu na Web Summit przestrzegł przed osłabianiem zabezpieczeń zawartych w ustawie AI Act, nawet jeśli podejmowane są wysiłki, aby ułatwić jej egzekwowanie. „Bądźmy bardzo ostrożni, aby nie wyrzucić kluczowych elementów ochrony” – nalegał, ostrzegając przed uginaniem się pod presją potężnych lobby technologicznych, które w stale rozwijającym się świecie sztucznej inteligencji mogą przedkładać komfort korporacyjny nad bezpieczeństwo publiczne.
Nadchodzące nowelizacje ustawy o sztucznej inteligencji stanowią dla UE delikatne balansowanie. Block dąży do utrzymania swojej pozycji lidera w odpowiedzialnym rozwoju sztucznej inteligencji, jednocześnie rozwiązując problemy branżowe i stawiając czoła złożonym wyzwaniom stawianym przez tę szybko rozwijającą się technologię.
