UE powołuje Europejski Urząd ds. Sztucznej Inteligencji – nowe obowiązki dla firm po wejściu w życie AI Act

UE powołuje Europejski Urząd ds. Sztucznej Inteligencji – nowe obowiązki dla firm po wejściu w życie AI Act

Komisja Europejska powołała Europejski Urząd ds. Sztucznej Inteligencji w ramach wdrożenia rozporządzenia o sztucznej inteligencji, znanego jako AI Act. Ogłoszenie podkreśla, że nowa instytucja ma koordynować stosowanie przepisów unijnych i ułatwiać współpracę między krajowymi organami nadzorczymi.

Powołanie urzędu wiąże się bezpośrednio z wejściem w życie AI Act i wprowadza nowe obowiązki raportowe i operacyjne dla dostawców oraz użytkowników systemów AI działających na rynku UE.

Co dokładnie ogłosiła Komisja Europejska?

Komisja ogłosiła utworzenie centralnego organu odpowiedzialnego za koordynację wdrażania AI Act na poziomie unijnym. W komunikacie wskazano, że urząd będzie wspierać współpracę między państwami członkowskimi i pomagać w ujednoliceniu interpretacji przepisów.

W ogłoszeniu zaznaczono, że zadania urzędu obejmą prowadzenie wspólnych procedur nadzoru oraz współpracę z innymi instytucjami UE w zakresie standardów technicznych i ocen zgodności.

Jakie zadania będzie mieć Europejski Urząd ds. Sztucznej Inteligencji?

Urząd ma pełnić rolę koordynacyjną między krajowymi organami nadzorczymi, ułatwiając wymianę informacji, wspólne kontrole oraz wydawanie wyjaśnień dotyczących stosowania AI Act.

Do zadań będzie też należeć utrzymanie i zarządzanie unijnymi rejestrami systemów AI o istotnym ryzyku oraz prowadzenie analiz ryzyka i sprawozdań mających wspierać nadzór rynkowy.

Ponadto urząd ma współpracować z organami standaryzacyjnymi i wspierać procesy oceny zgodności, w tym koordynować listę obowiązkowych wymogów technicznych i praktycznych wskazówek dla deweloperów i dostawców.

Kto i kiedy musi dostosować swoje systemy?

Obowiązki względem nowych przepisów dotyczą przede wszystkim dostawców i podmiotów wprowadzających systemy AI na rynek UE, a także podmiotów, które je eksploatują lub importują. Chronologia dostosowań zależy od faz wdrożenia AI Act oraz od klasyfikacji systemu jako niskiego bądź wysokiego ryzyka.

Nowe obowiązki dla dostawców high-risk AI

Dostawcy systemów uznanych za wysokiego ryzyka będą musieli przeprowadzić ocenę zgodności przed udostępnieniem produktu na rynku, przygotować techniczną dokumentację oraz wdrożyć system zarządzania ryzykiem. To oznacza konkretne wymagania dokumentacyjne i testowe, które muszą być gotowe przed komercyjnym udostępnieniem systemu.

Dodatkowo obowiązki obejmą wdrożenie mechanizmów nadzoru po wprowadzeniu produktu na rynek, prowadzenie rejestrów użytkowania oraz zapewnienie odpowiednich procedur umożliwiających kontrolę i nadzór nad działaniem systemu w warunkach rzeczywistych.

Co zmienia rejestr unijny i raportowanie incydentów?

Europejski rejestr ma gromadzić informacje o systemach AI sklasyfikowanych jako wysokiego ryzyka, co ma ułatwić organom nadzoru monitorowanie zgodności i identyfikowanie problemów powtarzających się między produktami i sektorami.

W praktyce dostawcy będą zobowiązani do zgłaszania poważnych incydentów związanych z bezpieczeństwem lub wpływem na prawa podstawowe do właściwych organów oraz do prowadzenia post-market monitoring mającego wykrywać i eliminować ryzyka po dopuszczeniu systemu do użytku.

Jak będzie wyglądać nadzór i egzekwowanie przepisów?

Nadzór wykonają krajowe organy odpowiedzialne za egzekwowanie AI Act, przy wsparciu nowego urzędu, który ma koordynować wspólne działania i wydawać wytyczne. Procedury nadzoru obejmują inspekcje, żądania uzupełniającej dokumentacji oraz współpracę transgraniczną między państwami członkowskimi.

Jak przygotować firmę do zmian?

Firmy powinny przeprowadzić inwentaryzację używanych i opracowywanych systemów AI i sklasyfikować je wobec kryteriów AI Act. Pierwszym krokiem jest identyfikacja systemów potencjalnie wysokiego ryzyka i priorytetyzacja działań zgodnych z wymogami dokumentacyjnymi i oceną zgodności.

Następnie należy wdrożyć procesy zarządzania ryzykiem i post-market monitoring, przypisać odpowiedzialności wewnątrz organizacji oraz przygotować techniczną dokumentację i procedury raportowe niezbędne przy ewentualnych inspekcjach.

W praktyce warto też rozważyć współpracę z jednostkami oceniającymi zgodność i doradcami prawnymi wyspecjalizowanymi w prawie technologicznym, aby zoptymalizować procesy zgodności i zmniejszyć ryzyko opóźnień przy wprowadzaniu rozwiązań na rynek UE.

Autor artykułu

Maciej

Redaktor w Newsy-ai.pl. Pisze o sztucznej inteligencji, nowych technologiach i przyszłości cyfrowego świata.

Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola wymagane są oznaczone *