Skip to Content

8 grzechów głównych AI

8 kwietnia 2025 przez
8 grzechów głównych AI
Maria Kobryn

Osiem grzechów głównych w AI, czyli zakazane praktyki według AI Act

autor: radca prawny Bartosz Prorok, Blueshell Legal 

Unia Europejska wprowadziła Akt o Sztucznej Inteligencji (AI Act), który klasyfikuje systemy AI na podstawie ich potencjalnego wpływu na zdrowie, bezpieczeństwo i prawa podstawowe. Tutaj pisałem o kategoriach ryzyka, jakie wprowadza AI Act. 

Dzisiaj słów kilka o niedopuszczalnym poziomie ryzyka, czyli praktykach niedozwolonych, z prostymi przykładami, które pozwolą lepiej zrozumieć, jakie systemy AI są zabronione.

1. Manipulowanie ludźmi poza ich świadomością

Zakazane jest stosowanie AI, która działa podprogowo, manipuluje, wprowadza w błąd, powodując zmianę zachowania osoby, której skutkiem mogłaby być poważna szkoda.

Wszystkie warunki, o których tu mowa muszą wystąpić łącznie. Uwaga: Szkoda nie musi powstać. Wystarczy istnienie ryzyka wyrządzenia szkody. 

Przykład: Aplikacja zdrowotna, która wykorzystuje psychologiczne triki, by użytkownik kupił drogie suplementy, których wcale nie potrzebuje.

2. Wykorzystywanie słabości ludzi

Zakazane jest używanie AI, która wykorzystuje wiek, niepełnosprawność lub trudną sytuację życiową ludzi, by wpływać na ich decyzje i narażać ich na szkodę. Ten punkt zwraca uwagę na zakaz wykorzystywania sytuacji, w jakiej znajduje się inna osoba, co może prowadzić do wyrządzenia jej szkody. 

Przykład: Bot kredytowy, który zachęca osoby starsze do zaciągania pożyczek na niekorzystnych warunkach.

3. Scoring społeczny

AI nie może być używana do oceny ludzi na podstawie ich zachowania, stylu życia czy przewidywanych cech, szczególnie jeśli prowadzi to do niesprawiedliwego traktowania.

Ale, nie każdy scoring jest zakazany. Jeżeli jest to scoring kredytowy bazujący np. na terminowości spłacania innego kredytu, to nie stanowi to praktyki zakazanej. Jeżeli do scoringu kredytowego będziemy używali przekonania polityczne klienta, to taki scoring jest zakazany. Pomijam w tym miejscu, że przetwarzanie takiej informacji jak przekonania polityczne naruszałoby również przepisy o ochronie danych osobowych.

Przykładem z życia są Chiny, które wdrożyły Social Credit System. System bierze pod uwagę takie rzeczy jak: historia spłat długów, decyzje sądowe, zachowanie w przestrzeni publicznej (np. jazda bez biletu), zachowanie w Internecie (np. rozpowszechnianie fake newsów), działania firm (np. łamanie prawa pracy). Na podstawie takich informacji, jak jazda bez biletu, obywatel może zostać pozbawiony jazdy pociągami dużych prędkości.

Koncept scoringu społecznego jest świetnie przedstawiony w serialu Black Mirror: Nosedive (Sezon 3 odcinek 1). Jeżeli jesteś ciekaw świata opartego na takim systemie, to zachęcam do obejrzenia. Daje do myślenia. 

Przykład: System, który odmawia wynajmu mieszkania osobie, bo z social mediów wynika, że prowadzi "zbyt imprezowy" tryb życia.

4. Profilowanie kryminalne

Zakazane jest przewidywanie, kto popełni przestępstwo wyłącznie na podstawie danych osobowych lub psychologicznych. 

Każdy powinien być oceniany na podstawie swojego rzeczywistego zachowania, a nie przewidywanego przez sztuczną inteligencję zachowania opartego wyłącznie na profilowaniu czy cechach osobowości.

Jeżeli widziałeś „Raport mniejszości” z Tomem Cruisem, to pewnie czujesz w czym jest problem. Jeżeli nie i jesteś ciekaw jak może wyglądać przyszłość w świecie, w którym ten zakaz nie istnieje, to polecam obejrzeć film. 😊

Zakaz nie ma zastosowania, jeżeli system AI jest wykorzystywany do wspierania ludzkiej oceny tego, czy Kowalski popełnił przestępstwo, która jest oparta na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z przestępstwem.

Przykład: System AI, który na podstawie testu 100 pytań, w tym kwestionariusza osobowego przesądza, że dana osoba w przyszłości popełni przestępstwo, co miałoby uzasadniać nałożenie na tą osobę monitoringu.

5. Nielegalne bazy twarzy

Nie wolno tworzyć baz danych do rozpoznawania twarzy na podstawie przypadkowych zdjęć z Internetu lub monitoringu. Ustawodawca chroni tym zakazem jedno z praw podstawowych, jakim jest prawo do prywatności.

Przykład: Firma zbierająca zdjęcia z Facebooka do trenowania systemu rozpoznawania twarzy.

6. Analiza emocji w szkole lub pracy

AI nie może być używana do analizowania emocji ludzi w pracy lub szkole, z wyjątkiem zastosowań medycznych lub związanych z bezpieczeństwem.

Przykład: Kamera w klasie ocenia, kto uważa na lekcji, a kto się nudzi.

7. Biometryczna kategoryzacja

Zakazana jest klasyfikacja ludzi na podstawie cech takich jak rasa, poglądy czy orientacja seksualna na bazie danych biometrycznych.

Przykładem z życia są ponownie Chiny i ich system nadzoru Sky Net, który monitoruje Ujgurów (mniejszość etniczna zamieszkująca głównie w zachodniej części Chin) w miejscach publicznych. 

Przykład: System AI, który przypisuje orientację seksualną na podstawie wyglądu twarzy.

8. Monitoring biometryczny w czasie rzeczywistym

Zakazane jest stosowanie kamer rozpoznających twarze w przestrzeni publicznej w czasie rzeczywistym przez organy ścigania, chyba, że jest to bezwzględnie konieczne do jednego z następujących celów:

a)    ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;

b)    zapobiegnięcia konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu i aktualnemu lub rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;

c)     lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do konkretnych przestępstw.

Przykład systemu zakazanego: Policja korzysta z kamer miejskich do automatycznego rozpoznawania twarzy wszystkich przechodniów bez wyraźnej podstawy prawnej.

 

Te zakazy mają jeden cel: chronić ludzi przed nadużyciami. Warto dodać, że AI Act zawiera wiele wyłączeń, tzn. istnieją sytuacje, w których AI Act nie ma zastosowania w UE w całości (np. na potrzeby obronności państwa). Poszczególne zakazy również zawierają szczegółowe wyjątki. W związku z tym, każdą sytuację użycia AI, nawet jeżeli mieści się w opisanych wyżej przykładach, należy przeanalizować. 

Sztuczna inteligencja daje ogromne możliwości, ale nie może być narzędziem do manipulacji, inwigilacji ani dyskryminacji. AI ma działać dla ludzi, nie przeciwko nim.


Udostępnij ten artykuł
Tagi