Niektóre technologie sztucznej inteligencji (AI) istnieją już od ponad 50 lat, jednak zwłaszcza w ostatnich latach nastąpił ogromny postęp w tej dziedzinie. Sztuczna inteligencja jest obecna w naszym codziennym życiu, m.in. poprzez oprogramowanie (np. systemy rozpoznawania mowy i twarzy, wirtualni asystenci, wyszukiwarki internetowe) czy „ucieleśnioną” sztuczną inteligencję (np. roboty, Internet rzeczy, samochody autonomiczne). Sztuczna inteligencja daje nam ogromne możliwości w tak różnorodnych dziedzinach, jak transport, ochrona zdrowia czy produkcja przemysłowa. Ogromne korzyści płynące z zastosowania najnowszych technologii wiążą się jednak z szeregiem zagrożeń.

 

W odpowiedzi na wyzwania współczesności Unia Europejska zaproponowała nowe przepisy i działania, które mają przekształcić Europę w „globalne centrum wiarygodnej sztucznej inteligencji”. 21 kwietnia Komisja Europejska opublikowała długo zapowiadany projekt rozporządzenia w sprawie sztucznej inteligencji (Artificial Intelligence Act). Jak podkreśla Komisja, pierwsze w historii ramy prawne dotyczące sztucznej inteligencji mają na celu zagwarantowanie nie tylko bezpieczeństwa i praw podstawowych obywateli, ale także upowszechnienia AI i zwiększenia inwestycji w tej dziedzinie na terenie całej Unii Europejskiej. UE zamierza objąć pozycję lidera w dziedzinie opracowywania globalnych norm, które uczynią sztuczną inteligencję wiarygodną, etyczną i posiadającą określone standardy technologią. Skoordynowany plan zakłada zmiany w polityce i inwestycje na szczeblu państwa członkowskich.

 

Nowe ramy prawne będą obowiązywać podmioty publiczne i prywatne w Unii, ale także poza nią – w przypadku, gdy dany system sztucznej inteligencji ma być wprowadzony do obrotu w Unii lub jego stosowanie będzie miało wpływ na mieszkańców UE. Rozporządzenie znajdzie zastosowanie zarówno do dostawców AI, jak i jej użytkowników (z wyłączeniem korzystania z AI do celów prywatnych, niezawodowych). Projekt traktuje sztuczną inteligencję jako środek, a nie cel, w związku z czym nie reguluje kwestii samej technologii, kładąc zdecydowany nacisk na sposób jej wykorzystywania. Przepisy będą stosowane w oparciu o szeroką definicję sztucznej inteligencji, w związku z czym regulacja może znaleźć zastosowanie do systemów, które do tej pory nie były uznawane za systemy AI, a jedynie za systemy działające w podobny sposób.

 

Projekt przewiduje podejście oparte na analizie ryzyka, dzieląc systemy na cztery kategorie:

 

Niedopuszczalne ryzyko: systemy sztucznej inteligencji sprzeczne z prawami podstawowymi UE, wiążące się z wysokim poziomem zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw obywateli zostaną zakazane. Są to np. systemy lub aplikacje wykorzystujące przekaz podprogowy, systemy oceny punktowej obywateli przez rządy (social scoring) itd.

 

Wysokie ryzyko: systemy sztucznej inteligencji mogące w wysokim stopniu ingerować w życie obywateli, obejmujące technologię AI stosowaną np. w programach sortujących CV na potrzeby procedur rekrutacji, narzędziach służących zdalnej identyfikacji biometrycznej, ocenie zdolności kredytowej, ocenie wiarygodności dowodów w postępowaniach sądowych itd. Systemy wysokiego ryzyka będą dozwolone, jednak ich stosowanie będzie obwarowane rygorystycznymi wymogami, m.in. przed wprowadzeniem ich do obrotu, takimi jak np. odpowiednie systemy oceny i ograniczania ryzyka, prowadzenie szczegółowej dokumentacji, przekazywanie odpowiednich i jasnych informacji użytkownikom, odpowiedni nadzór przez człowieka w celu zminimalizowania ryzyka itd. Obowiązki nie skończą się jednak na producencie sytemu. Importerzy, dystrybutorzy oraz sami użytkownicy systemów wysokiego ryzyka będą zobowiązani do sprawdzenia prawidłowości ich wprowadzenia na rynek czy też monitorowania ich dalszej pracy.

 

Część dostawców systemów AI wysokiego ryzyka będzie mogła przeprowadzić samodzielną ocenę systemu pod kątem jego zgodności z rozporządzeniem. Potwierdzeniem tej oceny będzie deklaracja zgodności. Natomiast kluczowe systemy AI wysokiego ryzyka, takie jak wykorzystywane do zdalnej identyfikacji biometrycznej oraz w publicznych sieciach infrastruktury zostaną poddane niezależnej ocenie podmiotu trzeciego, będącego notyfikowaną jednostką, która wyda certyfikat ważny maksymalnie przez 5 lat. Systemy AI wysokiego ryzyka będą ewidencjonowane w specjalnej unijnej bazy danych.

 

Ograniczone ryzyko: systemy o niższym ryzyku, których stosowanie będzie wiązać się jedynie z obowiązkami informacyjnymi i wymogami w zakresie przejrzystości, np. wirtualni asystenci, tzw. chatboty (użytkownicy muszą mieć świadomość, że ich rozmówca to maszyna).

 

Minimalne ryzyko: do tej kategorii będą należeć wszystkie pozostałe systemy AI, obecnie stanowiące większość systemów stosowanych w UE (np. filtry spamu, automatyczne tłumaczenie tekstu). Ich opracowywanie i wykorzystywanie będzie odbywać się z zastrzeżeniem obowiązujących przepisów, bez nakładania dodatkowych obowiązków. Systemy minimalnego ryzyka pozostaną poza zakresem stosowania nowej regulacji, jednak ich dostawcy będą mogli dobrowolnie zdecydować się na stosowanie wymogów dotyczących wiarygodnej sztucznej inteligencji i zobowiązać się do przestrzegania dobrowolnych kodeksów postępowania.

 

Podmioty naruszające przepisy będą musiały liczyć się z konsekwencjami. Państwa członkowskie zostaną zobowiązane do ustanowienia skutecznych, proporcjonalnych i odstraszających kar, w tym finansowych, a także informowania o fakcie ich nałożenia Komisji. Projekt rozporządzenia określa maksymalne wysokości kar. Najwyższa – do 30 mln euro lub 6 % całkowitego rocznego światowego obrotu w poprzednim roku obrotowym (w zależności od tego, która wartość jest wyższa) będzie grozić w przypadku naruszeń polegających na stosowaniu zakazanych praktyk lub w przypadku nieprzestrzegania wymagań dotyczących przetwarzania danych.

 

Nadzór nad nowymi regulacjami mają prowadzić właściwe krajowe organy nadzoru rynku. Projekt przewiduje także powołanie nowego organu nadzorczego na szczeblu międzynarodowym – Europejskiej Rady ds. Sztucznej Inteligencji, w skład której będą wchodzić przedstawiciele krajowych organów nadzorczych oraz Europejski Inspektor Ochrony Danych. Rada ma stanowić oficjalny punkt kontaktowy, a także ośrodek gromadzący i popularyzujący wiedzę dot. sztucznej inteligencji oraz opracowujący normy w tej dziedzinie.

 

Jaki będzie dalszy los projektu? W najbliższym czasie zostanie poddany konsultacjom, a następnie Parlament Europejski i państwa członkowskie poprzez Radę zdecydują w ramach zwykłej procedury ustawodawczej czy zaakceptują wniosek ustawodawczy Komisji. W przypadku ostatecznego przyjęcia rozporządzenie będzie bezpośrednio stosowane w całej UE.