Przejdź do zawartości
Blueshell Legal
  • Usługi
  • Aktualności
  • Nieruchomości za granicą
  • Sklep
    • E-booki i dokumenty
  • 0
  • Skontaktuj się z nami
Blueshell Legal
  • 0
    • Usługi
    • Aktualności
    • Nieruchomości za granicą
    • Sklep
      • E-booki i dokumenty
  • Skontaktuj się z nami
  • Wszystkie Blogi
  • Prawo i biznes
  • Ryzyka w AI Act
  • Ryzyka w AI Act

    AI Act klasyfikuje systemy AI na podstawie ich potencjalnego wpływu na zdrowie, bezpieczeństwo i prawa podstawowe. Celem tego podejścia jest zapewnienie, że środki regulacyjne są proporcjonalne do ryzyka związanego z różnymi zastosowaniami AI.
    14 października 2025 przez
    Bartosz Prorok

    Nasze najnowsze treści

    Sprawdź co nowego w naszej firmie !

    Zobacz wszystkie
    Dynamiczny fragment zostanie wyświetlony tutaj... Ten komunikat jest wyświetlany, ponieważ nie podano filtru i szablonu do użycia.

    Autor: Bartosz Prorok

    Unia Europejska wprowadziła Akt o Sztucznej Inteligencji (AI Act), który klasyfikuje systemy AI na podstawie ich potencjalnego wpływu na zdrowie, bezpieczeństwo i prawa podstawowe. Celem tego podejścia jest zapewnienie, że środki regulacyjne są proporcjonalne do ryzyka związanego z różłymi zastosowaniami AI.

    Ryzyko niedopuszczalne

    Systemy AI uznane za stwarzające ryzyko niedopuszczalne są zakazane na mocy AI Act. Do tej kategorii należą między innymi aplikacje, które manipulują ludzkim zachowaniem za pomocą technik podprogowych, wykorzystują zdalną biometryczną identyfikację w czasie rzeczywistym (np. rozpoznawanie twarzy) w przestrzeni publicznej bez odpowiednich zabezpieczeń, czy też implementują ocenę społeczną przez organy publiczne, prowadzącą do nieuzasadnionego i nieproporcjonalnego traktowania jednostek.

    Wysokie ryzyko

    Systemy AI sklasyfikowane jako wysokiego ryzyka mają istotny wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe. Podlegają one surowym wymogom, w tym zarządzaniu ryzykiem i kontroli jakości, zapewnieniu wysokiej jakości zbiorów danych w celu minimalizacji ryzyka i wyników dyskryminacyjnych, obowiązkowym ocenom zgodności przed wprowadzeniem na rynek oraz ciągłemu monitorowaniu i nadzorowi ludzkiego w całym cyklu życia systemu.

    Ograniczone ryzyko

    Systemy AI w tej kategorii podlegają określonym obowiązkom w zakresie przejrzystości, aby zapewnić świadome interakcje użytkowników. Wymogi obejmują informowanie użytkowników o tym, że wchodzą w interakcję z systemem AI, a także ujawnianie, gdy treści, takie jak deepfake'i, zostały wygenerowane lub zmodyfikowane przez AI.

    Minimalne lub żadne ryzyko

    Większość systemów AI należy do tej kategorii i uważa się, że stwarzają one minimalne lub żadne ryzyko. Systemy te mogą być rozwijane i używane bez dodatkowych obowiązków prawnych na mocy AI Act. Przykłady obejmują aplikacje takie jak gry wideo z obsługą AI czy filtry antyspamowe.

    General purpose AI (GPAI) – odrębna kategoria ryzyka

    Modele GPAI (ogólnego przeznaczenia) podlegają specyficznym wymaganiom regulacyjnym. Wszyscy dostawcy tych modeli muszą dostarczać dokumentację techniczną, instrukcje użytkowania, spełniać wymogi dyrektywy o prawach autorskich oraz publikować podsumowanie treści wykorzystanych do trenowania modeli. Dostawcy modeli GPAI na wolnych i otwartych licencjach muszą jedynie spełniać wymagania dotyczące praw autorskich oraz publikować podsumowanie danych treningowych, o ile nie stwarzają systemowego ryzyka. Jeśli jednak dany model GPAI – niezależnie od tego, czy jest otwarty czy zamknięty – stanowi systemowe ryzyko, dostawcy muszą dodatkowo przeprowadzać oceny modeli, testy odpornociowe (adversarial testing), monitorować i raportować poważne incydenty oraz zapewniać środki ochrony cyberbezpieczeństwa.

    Podsumowanie

    Podział na kategorie ryzyka pozwala lepiej dostosować regulacje do realnych zagrożeń. Nie każdy system AI wymaga ciężkiej artylerii prawnej – niektóre wystarczy oznaczyć, inne trzeba dokładnie kontrolować, a jeszcze inne całkowicie wykluczyć. To jak prowadzenie samochodu: w strefie zamieszkania trzeba zachować szczególną ostrożność, na autostradzie stosujemy konkretne zasady, a na drogach zamkniętych dla ruchu po prostu nie jeździmy. Taka elastyczność sprawia, że AI może się rozwijać, a my mamy pewność, że jest bezpieczna.

    w Prawo i biznes
    # AI Act prawo UE sztuczna inteligencja
    Udostępnij ten artykuł
    Tagi
    AI Act prawo UE sztuczna inteligencja
    Nasze blogi
    • Media, wydarzenia, aktualności
    • Nieruchomości za granicą
    • Prawo i biznes

    Czytaj następne
    Przepisy AI - czego się spodziewać?
    Copyright © Blueshell Legal sp. z o.o.
    Napędzany przez Odoo - Numer 1 Open Source eCommerce

    Używamy plików cookies aby zapewnić Ci lepsze wrażenia z użytkowania tej strony. Polityka Cookie

    Tylko najważniejsze Zgadzam się