Rozporządzenie AI Act weszło w życie 1 sierpnia 2024 roku i ma na celu stworzenie ram prawnych dla rozwoju i użytkowania technologii AI w UE. Regulacja wprowadza podstawowe zasady dotyczące ochrony zdrowia, bezpieczeństwa oraz praw podstawowych użytkowników systemów AI. Nakłada także szereg wymogów na dostawców, importerów, dystrybutorów oraz użytkowników, którzy mają 24 miesiące na dostosowanie się do nich, licząc od daty wejścia w życie rozporządzenia. Jednak niektóre przepisy już obowiązują.

(Dalsza część artykułu pod materiałem wideo)


Zobacz film: AI – zastosowanie i możliwości dofinansowania

Wykorzystanie AI w biznesie niesie ze sobą zarówno korzyści, jak i wyzwania, które mogą przysparzać kłopotów przedsiębiorcom. O tym zagadnieniu, jak i o możliwości pozyskania dofinansowania na technologie AI rozmawiają Ireneusz Wochlik i Łukasz Kościjańczuk. Zapraszamy na film.


Dożyliśmy czasów, kiedy sztuczna inteligencja to nie tylko wymysł twórców powieści science fiction, ale nasza codzienna rzeczywistość, będąca coraz większym motorem napędzającym światową gospodarkę. Można powiedzieć, że jest to współczesny "kamień węgielny”, ale w sferze innowacji cyfrowych, który coraz szybciej przekształca kolejne branże gospodarki i znacząco zmienia nasze codzienne życie.

Jak AI zmienia gospodarkę

Jeszcze w 2024 r. rynek sztucznej inteligencji był wyceniany na 184 mld USD. W porównaniu do 2023 r. wycena wzrosła o prawie 50 mld USD. Szacuje się, że do 2030 r. rynek sztucznej inteligencji będzie warty prawie 827 mld USD[1].

Już teraz 77% firm deklaruje użycie narzędzi AI lub chociaż eksplorowanie ich funkcjonalności. Z kolei 83% zakłada, że AI w najbliższym czasie będzie ich kluczowym priorytetem rozwoju, z czego 63% respondentów zamierza wdrożyć rozwiązania AI w swoich działalnościach w ciągu najbliższych 3 lat[2]. Te statystyki i trendy malują żywy obraz powszechnego przyjęcia AI i jego ogromnego wpływu na gospodarkę.

Ochrona użytkowników

Co ciekawe, tylko 1/3 konsumentów jest świadoma użycia AI w swoim codziennym życiu, podczas gdy faktyczny odsetek użytkowników AI wynosi 77%[3]. Biorąc pod uwagę fakt, że tak mało osób jest świadomych kontaktu ze sztuczną inteligencją, a technologia ta może przynieść tak samo wiele dobrego, jak i złego, pierwsze światowe gospodarki podjęły się tworzenia regulacji prawnych mających chronić interesy użytkowników AI.

Na przód wysuwa się Unia Europejska, która stworzyła pierwszy kompleksowy akt w sprawie AI (tzw. AI Act dostępny pod poniższym adresem: LINK). AI Act jest rozporządzeniem (a więc regulacją obowiązującą bezpośrednio we wszystkich krajach członkowskich UE, bez konieczności dokonywania czynności transpozycyjnych), które zostało przyjęte 13 marca 2024 r. i weszło w życie zaledwie kilka miesięcy później, tj. 1 sierpnia 2024 r.

Jego celem jest stworzenie ram prawnych dla rozwoju i użytkowania technologii AI w UE. AI Act ma sprawić, że sztuczna inteligencja będzie bezpieczna, godna zaufania i zgodna z wartościami UE. Regulacja wprowadza podstawowe zasady dotyczące ochrony zdrowia, bezpieczeństwa oraz praw podstawowych użytkowników systemów AI. Dotyczy szerokiego kręgu podmiotów, w tym dostawców systemów AI, importerów oraz użytkowników systemów AI działających w Europejskim Obszarze Gospodarczym (EOG). Niemniej regulacje mają zastosowanie także do firm spoza EOG, które oferują usługi na terenie Europy.

Kategorie ryzyk AI

AI Act wprowadza kategoryzację systemów AI do kilku podstawowych obszarów.

  1. AI niedopuszczalnego ryzyka, np. systemy do social scoringu manipulujące zachowaniem czy wykorzystujące słabości użytkowników, systemy do zdalnej identyfikacji biometrycznej, systemy do oceny emocji, czy predykcji przestępczości.
  2. AI wysokiego ryzyka, np. systemy do biometrycznej identyfikacji i kategoryzacji osób, systemy do zarządzania infrastrukturą krytyczną, systemy oceny w edukacji czy rekrutacji i zarządzaniu pracownikami, systemy dostępu do usług publicznych, egzekwowania prawa czy zarządzania migracją i kontrolą graniczną.
  3. AI ograniczonego ryzyka, np. chatboty, automatyczne sugestie w wyszukiwarkach, aplikacje do rozrywki, systemy do analizy danych, generatory treści.
  4. AI minimalnego ryzyka, np. filtry spamowe, proste systemy rekomendacji, gry komputerowe z AI, systemy do analizy sentymentu, czy narzędzia do automatyzacji prostych zadań.

 

Obowiązki i zasady kontroli

W zależności od kategorii istnieją różne wymagania i zasady kontroli systemów AI. Od rygorystycznych w przypadku tych zaliczonych do wysokiego ryzyka, po minimalne w odniesieniu do systemów AI minimalnego ryzyka. Podstawowe obowiązki w zakresie powyższych systemów można podsumować następująco.

  1. AI niedopuszczalnego ryzyka: zakaz wprowadzania do użytku tego typu systemów.
  2. AI wysokiego ryzyka: konieczność spełnienia rygorystycznych wymagań dotyczących zarządzania ryzykiem, przejrzystości oraz ochrony danych osobowych.
  3. AI ograniczonego ryzyka: konieczność zapewnienia użytkownikom informacji o działaniu systemu oraz o tym, że korzystają z technologii AI.
  4. AI minimalnego ryzyka: stosowane bez dodatkowych wymogów prawnych, chociaż zaleca się przestrzeganie ogólnych zasad, takich jak zapewnienie przejrzystości i unikanie dyskryminacji.

Aby sprostać tym wymogom, AI Act nakłada szereg wymogów w szczególności na  dostawców, importerów, dystrybutorów, a także użytkowników systemów AI, w tym obowiązek przeprowadzania testów bezpieczeństwa oraz zapewnienia przejrzystości ich działania.

Które przepisy już obowiązują

Na dostosowanie się do większości wymogów rozporządzenie przewiduje 24 miesiące od daty wejścia w życie. Niemniej niektóre przepisy zaczęły już obowiązywać! Od wczoraj (tj. 2 lutego 2025 r.) nie można już używać i wprowadzać na rynek systemów szczególnie niebezpiecznych, czyli spełniających kryteria praktyk zakazanych. Można do nich zaliczyć systemy stosujące techniki podprogowe, manipulacyjne, wprowadzające w błąd, systemy scoringu społecznego czy systemy predykcji popełnienia przestępstwa.

Warto mieć się na baczności, bo kary za naruszenie powyższej zasady mogą być ogromne – nawet do 35 mln EUR lub 7% rocznego światowego obrotu. Mogą być wymierzone zarówno w osoby fizyczne, jak i osoby prawne. Co ważne, kary zaczną obowiązywać nieco później, bo od 2 sierpnia 2025 r. Warto więc przyjrzeć się wykorzystywanym systemom AI i zweryfikować, czy nie wpadają w kategorie zakazanych systemów AI, aby uniknąć potencjalnych kar.

Serdecznie zapraszamy do śledzenia naszego bloga, na którym regularnie będziemy publikować artykuły przybliżające Państwu specyfikę tej zupełnie nowej regulacji prawnej oraz  będziemy informować o kolejnych kluczowych terminach związanych z jej wdrożeniem. W artykułach nie pominiemy również polskiej legislacji, w ramach której już trwają prace nad ustawą dotyczącą kwestii systemów AI i wykonaniem niektórych obowiązków nałożonych na kraje członkowskie UE przez AI Act.

[1] Statista.com, Artificial Intelligence – Worldwide, https://www.statista.com/outlook/tmo/artificial-intelligence/worldwide.

[2] National University, 131 AI Statistics and Trends for 2025, https://www.nu.edu/blog/ai-statistics-trends/.

[3] National University, 131 AI Statistics and Trends for 2025, https://www.nu.edu/blog/ai-statistics-trends/.