Unijny Akt w sprawie sztucznej inteligencji (AI Act) jest pierwszym na świecie, formalnym dokumentem zmierzającym do regulacji technologii AI. Jego głównym celem jest wspieranie rozwoju, wprowadzania na rynek i użytkowania AI w sposób, który jest zgodny z wartościami i prawami obywatelskimi UE, jednocześnie promując innowacje i konkurencyjność europejskiego sektora AI. Akt ten ma na celu stworzenie jednolitej ramy prawnej dla AI, która:
- Umożliwia bezpieczne i zaufane korzystanie z AI przez konsumentów i przedsiębiorstwa.
- Zapewnia ochronę zdrowia, bezpieczeństwa oraz podstawowych praw i wolności obywateli UE.
- Wspiera innowacje i rozwój technologiczny w dziedzinie AI.
Akt podkreśla potencjał AI w przynoszeniu korzyści społeczeństwu i gospodarce, ale również uwzględnia ryzyka związane z jej użytkowaniem. Przyjęcie podejścia zorientowanego na człowieka ma na celu zapewnienie, że systemy AI będą służyć dobru publicznemu, respektując prywatność i godność osobistą obywateli UE.
Spis treści:
Zakres stosowania Aktu
Akt w sprawie sztucznej inteligencji ma zastosowanie do szerokiego zakresu aktywności związanych z systemami AI, obejmujących ich rozwój, wprowadzenie na rynek, użytkowanie i eksploatację w Unii Europejskiej. Najważniejsze aspekty zakresu stosowania obejmują:
- Geograficzny zakres stosowania: Akt dotyczy wszystkich systemów AI wprowadzanych na rynek lub używanych w UE, niezależnie od miejsca ich rozwoju lub lokalizacji korporacyjnej dostawcy.
- Sektory objęte regulacją: Akt stosuje się do różnorodnych sektorów wykorzystujących AI, w tym zdrowia, transportu, finansów, bezpieczeństwa i edukacji, zapewniając jednocześnie elastyczność w przyszłej klasyfikacji systemów AI na podstawie ich wpływu na społeczeństwo i gospodarkę.
- Wyjątki: Akt wyłącza z zakresu stosowania niektóre zastosowania AI, w tym te wykorzystywane wyłącznie do celów wojskowych lub obronnych, jak również aktywności naukowo-badawcze związane z AI, prowadzone dla celów naukowych bez komercyjnego zastosowania.
Akt wyraźnie określa zakazane praktyki, uznając je za nieakceptowalne ze względu na ich potencjalnie szkodliwy wpływ na prawa obywatelskie i społeczeństwo. Zaliczają się do nich m.in. manipulowanie zachowaniami ludzi w sposób ukryty, punktacja społeczna i nieuzasadnione zastosowania rozpoznawania biometrycznego.
Zakres stosowania Aktu o Sztucznej Inteligencji jest zatem zaprojektowany tak, aby zrównoważyć potrzebę innowacji i rozwoju technologicznego z koniecznością ochrony praw i bezpieczeństwa obywateli UE.
Zakazane praktyki i wysokie ryzyko
Akt o Sztucznej Inteligencji wyraźnie zakazuje pewnych praktyk, uznając je za niezgodne z wartościami i prawami podstawowymi UE. Do zakazanych praktyk zaliczają się:
- Manipulacja zachowaniem: zakazane są systemy AI, które mogą manipulować ludźmi do podejmowania decyzji lub zachowań, które mogą im zaszkodzić, szczególnie jeśli działają one w sposób ukryty lub wykorzystują słabości psychologiczne osób.
- Punktacja społeczna: systemy AI wykorzystywane do oceny obywateli na podstawie ich zachowania lub osobistych cech w sposób, który może prowadzić do dyskryminacji lub niesprawiedliwego traktowania, są zakazane.
- Nadmierne monitorowanie: zakazane jest nadmierne wykorzystanie systemów AI do monitorowania i oceny ludzi, szczególnie w miejscach pracy, które mogłoby naruszać ich prawo do prywatności i godności.
Oprócz zakazanych praktyk, Akt wprowadza szczególne wymagania dla systemów AI uznanych za „wysokie ryzyko”. Systemy te muszą spełniać rygorystyczne standardy dotyczące jakości danych, przejrzystości działania, nadzoru nad systemem i bezpieczeństwa. Systemy AI o wysokim ryzyku to te, które mają znaczący wpływ na bezpieczeństwo, prawa podstawowe lub inne ważne interesy publiczne. Przykłady obejmują systemy używane w obszarze zdrowia, edukacji, zatrudnienia, finansów, a także systemy wchodzące w skład krytycznej infrastruktury.
Klasyfikacja systemu AI jako „wysokiego ryzyka” wymaga od jego dostawców przestrzegania szczegółowych regulacji, w tym prowadzenia rygorystycznych testów i ocen przed wprowadzeniem produktu na rynek, zapewnienia wysokiej jakości danych wykorzystywanych przez system i ustanowienia przejrzystych procedur dla użytkowników i osób trzecich dotkniętych działaniem systemu.
Wymagania dla systemów AI o wysokim ryzyku
Aby systemy AI o wysokim ryzyku mogły zostać wprowadzone na rynek lub używane w Unii Europejskiej, muszą one spełniać szereg ściśle określonych wymagań. Te wymagania mają na celu zapewnienie, że takie systemy działają w sposób bezpieczny, etyczny i zgodny z wartościami Unii Europejskiej oraz prawami podstawowymi. Oto kluczowe obszary tych wymagań:
- Dostawcy muszą zapewnić, że systemy AI korzystają z danych, które są odpowiedniej jakości. Oznacza to, że dane powinny być bezstronne, wolne od błędów i manipulacji, a także gromadzone i przetwarzane w sposób transparentny i zgodny z przepisami o ochronie danych.
- Wszystkie systemy AI o wysokim ryzyku muszą być właściwie udokumentowane. Dokumentacja ta powinna być dostępna dla użytkowników, organów nadzorczych i innych zainteresowanych stron, aby mogły one zrozumieć, jak system działa, jakie dane są przetwarzane i jakie mechanizmy zapewniają bezpieczeństwo i ochronę danych.
- Użytkownicy i osoby, na które mogą wpływać decyzje podejmowane przez systemy AI, muszą być informowani o tym, że interakcja ma miejsce z systemem AI. Muszą również mieć dostęp do informacji o logice stojącej za decyzjami systemu oraz o sposobie jego działania.
- W przypadku systemów AI o wysokim ryzyku wymagane jest, aby decyzje, które mogą mieć istotny wpływ na życie ludzi, były w odpowiednim stopniu poddawane nadzorowi ludzkiemu. Oznacza to, że procesy decyzyjne powinny być projektowane w sposób umożliwiający interwencję ludzką i umożliwiający odwrócenie decyzji, jeśli jest to konieczne.
- Systemy muszą być zaprojektowane w taki sposób, aby były odporne na ataki i manipulacje, a także aby chronić dane, z których korzystają.
Akt w sprawie sztucznej inteligencji – nadzór i egzekwowanie
Aby zapewnić przestrzeganie wymagań dotyczących systemów AI o wysokim ryzyku, Akt w sprawie sztucznej inteligencji ustanawia ramy nadzoru i egzekwowania, które obejmują:
- Organizacje nadzoru: państwa członkowskie mają obowiązek ustanowić lub wyznaczyć organy odpowiedzialne za nadzór nad systemami AI. Te organy mają za zadanie monitorować i oceniać zgodność systemów AI z wymaganiami Aktu.
- Procedury egzekwowania: w przypadku stwierdzenia naruszeń, organy nadzorcze mają uprawnienia do podejmowania działań, takich jak nakładanie sankcji, żądanie usunięcia naruszeń lub nawet zakazywanie niektórych systemów AI. Sankcje te mogą obejmować kary finansowe proporcjonalne do skali naruszenia.
- Współpracę międzynarodową: ze względu na globalny charakter rynku technologii AI, Akt przewiduje współpracę między organami nadzorczymi na poziomie międzynarodowym, aby wspierać wspólne standardy i praktyki dotyczące nadzoru nad AI.
- System zgłaszania i skarg: akt zakłada również utworzenie mechanizmów, które umożliwią użytkownikom i innym zainteresowanym stronom zgłaszanie potencjalnych naruszeń oraz składanie skarg na działanie systemów AI.
- Proponuje się utworzenie Europejskiej Rady ds. Sztucznej Inteligencji, której zadaniem byłoby koordynowanie działań nadzorczych na poziomie UE, promowanie wymiany najlepszych praktyk między państwami członkowskimi oraz doradzanie w kwestiach technicznych i etycznych związanych z AI.
Ramy te mają na celu zapewnienie, że systemy AI są wykorzystywane w sposób odpowiedzialny i etyczny.
Akt w sprawie sztucznej inteligencji (AI) UE ma na celu wdrażanie regulacji w sposób zróżnicowany, zależnie od poziomu ryzyka związanego z konkretnymi aplikacjami AI. To pozwala na bardziej elastyczne traktowanie innowacyjnych technologii o niższym ryzyku, jednocześnie zapewniając ścisłą kontrolę tam, gdzie ryzyko jest wysokie.
Współpraca międzynarodowa i dostosowanie do norm międzynarodowych
Globalny charakter przemysłu AI oraz przenikanie technologii przez granice krajowe wymaga międzynarodowej współpracy i harmonizacji regulacji. Akt w sprawie sztucznej inteligencji UE podkreśla znaczenie:
- Współpracy międzynarodowej
- Aktywnego uczestnictwa w międzynarodowych forach dyskusyjnych, takich jak G7, G20, UNESCO, oraz inicjatywach normatywnych, aby promować wartości i zasady UE dotyczące AI na świecie.
- Wzajemnego uznawania norm i certyfikatów, aby ułatwić dostęp europejskich produktów i usług AI do rynków globalnych oraz wspierać import innowacyjnych rozwiązań do UE.
- Dyplomacji technologicznej do promowania podejścia UE do regulacji AI, które równoważy innowacje z ochroną praw człowieka i etyką, jako modelu dla innych krajów i regionów.
Powyższy tekst oraz ilustracje zostały wygenerowane przy pomocy sztucznej inteligencji.
Pełną treść Aktu w sprawie sztucznej inteligencji można pobrać ze strony europarl.europa.eu
Poznaj narzędzia sztucznej inteligencji, wspierające projektowanie infrastruktury liniowej.