Skip to Content

Przepisy AI - czego się spodziewać?

19 marca 2025 przez
Przepisy AI - czego się spodziewać?
Maria Kobryn

Rozporządzenie w sprawie sztucznej inteligencji (AI Act) – nowe regulacje dotyczące sztucznej inteligencji

autor: Bartosz Prorok radca prawny Blueshell Legal

Sztuczna inteligencja coraz mocniej wpływa na nasze życie, a jej bezpieczny dla społeczeństwa rozwój wymaga odpowiednich regulacji prawnych. Unia Europejska przyjęła AI Act, czyli Rozporządzenie w sprawie sztucznej inteligencji, które określa zasady jej stosowania w różnych sektorach.

Czym jest AI Act?

AI Act to pierwsza na świecie kompleksowa regulacja prawna, która  określa zasady tworzenia i wykorzystywania systemów sztucznej inteligencji na poziomie unijnym. Jego celem jest zapewnienie, że systemy AI są bezpieczne, przejrzyste i zgodne z prawami podstawowymi. Rozporządzenie obejmuje zarówno dostawców, jak i użytkowników AI, nakładając na nich określone obowiązki.

Cel rozporządzenia

Główne założenia AI Act to:

1)    Ochrona praw podstawowych – wspieranie rozwoju, wykorzystywania i upowszechniania AI na rynku, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo oraz ochrona praw podstawowych, w tym demokracji, praworządności i ochrony środowiska, uznanych i chronionych przez prawo Unii.

2)    Podejście oparte na zarządzaniu ryzykiem – im większe ryzyko naruszenia podstawowych wartości na których oparty jest AI Act tym surowsze wymagania prawne nakładane na system.

3)    Promowanie innowacji – AI Act nie tylko reguluje sztuczną inteligencję, ale także wspiera jej rozwój. Przepisy promują innowacyjne i etyczne podejście do AI, zachęcając do badań, testowania oraz wdrażania nowych technologii w sposób zgodny z wartościami Unii Europejskiej. 

AI Act a zarządzanie ryzykiem

Filozofia AI Act oparta jest na zarządzaniu ryzykiem. Im wyższe ryzyko związane jest z danym systemem AI, tym większe wymogi nakładane są na ten system. Na podstawie AI Act możemy wyróżnić kilka poziomów ryzyka:

1)    Niedopuszczalne AI – np. systemy manipulacji podprogowej czy niekontrolowana biometryczna identyfikacja w przestrzeni publicznej.

2)    Wysokiego ryzyka – AI stosowane w sektorze medycznym, rekrutacji czy administracji publicznej, które podlega ścisłym regulacjom.

3)    Ograniczonego ryzyka – systemy AI wymagające przejrzystości, np. chatboty.

4)    Minimalnego ryzyka – większość systemów AI (np. rekomendacje filmów), które nie podlegają szczególnym regulacjom.

Szczególnym rodzajem systemów AI są systemy AI ogólnego przeznaczenia, na które AI Act nakłada szczególne obowiązki. 

Dzięki podejściu opartemu na zarządzaniu ryzykiem AI Act nie hamuje rozwoju technologii, lecz dostosowuje wymagania do realnego wpływu systemu na ludzi i społeczeństwo. Przynajmniej takie jest założenie. Dopiero zobaczymy, jaka będzie praktyka. 

Kiedy zaczynamy stosowanie AI Act?

AI Act zacznie obowiązywać stopniowo. Pierwsze przepisy wejdą w życie już 2 lutego 2025 roku, natomiast pełne wdrożenie wszystkich regulacji zakończy się w 2027 roku. Firmy i instytucje muszą więc już teraz przygotować się na nowe wymagania.

Podsumowanie

AI Act to krok w stronę bezpiecznej i etycznej sztucznej inteligencji. Nowe regulacje wprowadzają jasne (nie zawsze, ale to temat na odrębny artykuł) zasady dla firm i instytucji, kładąc nacisk na zarządzanie ryzykiem i ochronę użytkowników. Warto już teraz dostosować swoje działania do nadchodzących wymogów, by uniknąć ryzyka i zapewnić zgodność z przepisami.

Udostępnij ten artykuł
Tagi