Nasze najnowsze treści
Sprawdź co nowego w naszej firmie !
Autor: Bartosz Prorok
Unia Europejska wprowadziła Akt o Sztucznej Inteligencji (AI Act), który klasyfikuje systemy AI na podstawie ich potencjalnego wpływu na zdrowie, bezpieczeństwo i prawa podstawowe. Celem tego podejścia jest zapewnienie, że środki regulacyjne są proporcjonalne do ryzyka związanego z różłymi zastosowaniami AI.
Ryzyko niedopuszczalne
Systemy AI uznane za stwarzające ryzyko niedopuszczalne są zakazane na mocy AI Act. Do tej kategorii należą między innymi aplikacje, które manipulują ludzkim zachowaniem za pomocą technik podprogowych, wykorzystują zdalną biometryczną identyfikację w czasie rzeczywistym (np. rozpoznawanie twarzy) w przestrzeni publicznej bez odpowiednich zabezpieczeń, czy też implementują ocenę społeczną przez organy publiczne, prowadzącą do nieuzasadnionego i nieproporcjonalnego traktowania jednostek.
Wysokie ryzyko
Systemy AI sklasyfikowane jako wysokiego ryzyka mają istotny wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe. Podlegają one surowym wymogom, w tym zarządzaniu ryzykiem i kontroli jakości, zapewnieniu wysokiej jakości zbiorów danych w celu minimalizacji ryzyka i wyników dyskryminacyjnych, obowiązkowym ocenom zgodności przed wprowadzeniem na rynek oraz ciągłemu monitorowaniu i nadzorowi ludzkiego w całym cyklu życia systemu.
Ograniczone ryzyko
Systemy AI w tej kategorii podlegają określonym obowiązkom w zakresie przejrzystości, aby zapewnić świadome interakcje użytkowników. Wymogi obejmują informowanie użytkowników o tym, że wchodzą w interakcję z systemem AI, a także ujawnianie, gdy treści, takie jak deepfake'i, zostały wygenerowane lub zmodyfikowane przez AI.
Minimalne lub żadne ryzyko
Większość systemów AI należy do tej kategorii i uważa się, że stwarzają one minimalne lub żadne ryzyko. Systemy te mogą być rozwijane i używane bez dodatkowych obowiązków prawnych na mocy AI Act. Przykłady obejmują aplikacje takie jak gry wideo z obsługą AI czy filtry antyspamowe.
General purpose AI (GPAI) – odrębna kategoria ryzyka
Modele GPAI (ogólnego przeznaczenia) podlegają specyficznym wymaganiom regulacyjnym. Wszyscy dostawcy tych modeli muszą dostarczać dokumentację techniczną, instrukcje użytkowania, spełniać wymogi dyrektywy o prawach autorskich oraz publikować podsumowanie treści wykorzystanych do trenowania modeli. Dostawcy modeli GPAI na wolnych i otwartych licencjach muszą jedynie spełniać wymagania dotyczące praw autorskich oraz publikować podsumowanie danych treningowych, o ile nie stwarzają systemowego ryzyka. Jeśli jednak dany model GPAI – niezależnie od tego, czy jest otwarty czy zamknięty – stanowi systemowe ryzyko, dostawcy muszą dodatkowo przeprowadzać oceny modeli, testy odpornociowe (adversarial testing), monitorować i raportować poważne incydenty oraz zapewniać środki ochrony cyberbezpieczeństwa.
Podsumowanie
Podział na kategorie ryzyka pozwala lepiej dostosować regulacje do realnych zagrożeń. Nie każdy system AI wymaga ciężkiej artylerii prawnej – niektóre wystarczy oznaczyć, inne trzeba dokładnie kontrolować, a jeszcze inne całkowicie wykluczyć. To jak prowadzenie samochodu: w strefie zamieszkania trzeba zachować szczególną ostrożność, na autostradzie stosujemy konkretne zasady, a na drogach zamkniętych dla ruchu po prostu nie jeździmy. Taka elastyczność sprawia, że AI może się rozwijać, a my mamy pewność, że jest bezpieczna.