Przepisy miałyby zagwarantować, że sztuczna inteligencja opracowywana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami Unii. Nowe regulację mają dotyczyć kwestii: sprawowania nadzoru przez człowieka, bezpieczeństwa, prywatności, przejrzystości, niedyskryminacji oraz dobrostanu społecznego i środowiskowego.
Zakazane praktyki związane ze sztuczną inteligencją
Proponowane zasady wynikają z podejścia opartego na ryzyku. Ustanawiają obowiązki dla dostawców i tych, którzy wdrażają systemy SI, w zależności od poziomu ryzyka, jakie może generować dane zastosowanie SI. Zabronione byłyby, zatem systemy SI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi, takie jak te wykorzystywane do oceny społecznej (klasyfikowanie ludzi na podstawie ich zachowań społecznych lub cech osobistych). Posłowie rozszerzyli wykaz zakazanych praktyk o inwazyjne i dyskryminujące zastosowania sztucznej inteligencji, takie jak:
- Wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym.
- Wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej post-factum, z jednym wyjątkiem, dotyczącym ścigania poważnych przestępstw, z uprzednią autoryzacją sądu.
- Systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasa, pochodzenie etniczne, status obywatelski, religia, poglądy polityczne),
- Systemy prognozowania kryminologicznego (w oparciu o profilowanie, lokalizację lub wcześniejsze zachowania przestępcze).
- Systemy rozpoznawania emocji wykorzystywane w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych.
- Nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań telewizji przemysłowej do tworzenia baz danych rozpoznawania twarzy (naruszanie praw człowieka i prawa do prywatności).
Sztuczna inteligencja wysokiego ryzyka
Klasyfikacja zastosowań wysokiego ryzyka obejmuje takie systemy sztucznej inteligencji, które przynoszą znaczne szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Do wykazu systemów wysokiego ryzyka dodali systemy sztucznej inteligencji wykorzystywane do wpływania na wyborców i wyniki wyborów oraz systemy rekomendacji wykorzystywane przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników).
Obowiązki w zakresie sztucznej inteligencji ogólnego przeznaczenia
Dostawcy modeli generatywnych – nowego i szybko rozwijającego się rozwiązania w dziedzinie sztucznej inteligencji – musieliby oceniać i ograniczać potencjalne ryzyko (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności). Mieliby także rejestrować swoje modele w unijnej bazie danych przed ich wprowadzeniem na rynek Unii. Generatywne systemy sztucznej inteligencji, oparte na takich modelach, takie jak ChatGPT, musiałyby spełniać wymogi przejrzystości. Konieczne będzie ujawnianie, że treści wygenerowała sztuczna inteligencja (włącznie z pomocą w odróżnianiu tak zwanych głębokich fałszywych obrazów "deep fake" od prawdziwych) oraz wprowadzanie zabezpieczeń przed generowaniem nielegalnych treści. Trzeba będzie też publikować szczegółowe podsumowania danych chronionych prawem autorskim, które wykorzystano do szkolenia tych systemów.
Wspieranie innowacji i ochrona praw obywateli
Posłowie chcą jednocześnie pobudzać innowacje w zakresie sztucznej inteligencji i wspierać małe i średnie przedsiębiorstwa. Dlatego dodali wyjątki obejmujące badania naukowe i komponenty sztucznej inteligencji dostarczane na licencjach typu open source. Nowe prawo promuje rzeczywiste środowiska ustanowione przez władze publiczne, w których testuje się sztuczną inteligencję przed wdrożeniem.
Ponadto posłowie chcą, by obywatelom było łatwiej składać skargi dotyczące systemów SI. Powinni mieć też łatwiejszy dostęp do wyjaśnień dotyczących decyzji opartych na systemach SI wysokiego ryzyka, które mają znaczący wpływ na ich prawa podstawowe. Posłowie zreformowali również zakres zadań Rady ds. Sztucznej Inteligencji. Miałaby ona monitorować sposób wdrażania przepisów dotyczących sztucznej inteligencji.
Źródło: Parlament Europejski