Regulacje dotyczące prawa autorskiego i AI w UE, USA i Chinach
Sztuczna inteligencja (AI) rozwija się w zawrotnym tempie, zmieniając sposób, w jaki tworzymy, pracujemy i komunikujemy się. Jednocześnie stawia przed nami nowe wyzwania prawne – redefiniuje granice odpowiedzialności, własności intelektualnej i ochrony praw człowieka. W poniższym tekście przyglądam się regulacjom dotyczącym prawa autorskiego w szczególności w UE, USA i Chinach.
Różne podejścia do regulacji AI na świecie
W erze generatywnych modeli AI, które potrafią tworzyć teksty, obrazy czy muzykę na poziomie porównywalnym z ludzką kreatywnością, pojawiają się pytania, na które tradycyjne prawo nie ma jeszcze jednoznacznych odpowiedzi: Jak chronić prawa twórców, gdy autorstwo staje się niejednoznaczne? Czy prawa twórców mogą być zagwarantowane w świecie, gdzie algorytmy analizują dane na masową skalę?
Odpowiedzi na te pytania różnią się w zależności od regionu:
- Unia Europejska stawia na silną ochronę praw podstawowych, czego wyrazem jest m.in. AI Act,
- Stany Zjednoczone przyjmują bardziej rynkowe podejście, koncentrując się na wspieraniu innowacji i konkurencyjności, często pozostawiając kwestie etyczne i prawne sektorowi prywatnemu,
- Chiny rozwijają AI w ramach strategii państwowej, kładąc nacisk na kontrolę i wykorzystanie technologii dla celów społecznych i politycznych, przy ograniczonej ochronie praw jednostki.
Każde z tych państw (organizacji) buduje własne ramy prawne dotyczące AI. W zakresie prawa autorskiego niestety każde jest na zupełnie innym etapie rozwoju linii orzeczniczej. Unia Europejska jest tu najbardziej w tyle.
Świat kontra AI: Ramowa Konwencja Rady Europy
Pierwszym międzyrządowym standardem dotyczącym sztucznej inteligencji były Rekomendacje OECD w sprawie sztucznej inteligencji, które zostały opracowane na wniosek Komitetu w sprawie polityki gospodarki cyfrowej (CDEP) i zostały przyjęte przez Radę OECD w 2019 r. W ślad za OECD poszło UNESCO, które wydało w 2021 r. Rekomendacje w sprawie etyki AI.
Niemniej, na poziomie międzynarodowym najbardziej kluczowym dokumentem jest Ramowa Konwencja o sztucznej inteligencji, prawach człowieka, demokracji i praworządności, przyjęta przez Radę Europy w 2024 roku. To pierwszy prawnie wiążący instrument dotyczący AI.
Negocjacje tego aktu rozpoczęły się już we wrześniu 2022 r. pod auspicjami Komitetu ds. Sztucznej Inteligencji (CAI). Uczestniczyły w nich państwa członkowskie Rady Europy (m.in. Polska, Niemcy, Francja), partnerzy globalni (np. Australia, Argentyna, Peru) oraz obserwatorzy (USA, Kanada, Japonia, Izrael). W procesie brali udział także przedstawiciele społeczeństwa obywatelskiego, przemysłu i środowisk akademickich – łącznie 68 organizacji, w tym Google, Microsoft, Meta czy European AI Alliance.
Konwencja ma na celu zapewnienie, że działania związane z cyklem życia systemów AI będą zgodne z prawami człowieka, demokracją i praworządnością, jednocześnie wspierając innowacje.
Obowiązki dotyczą zarówno sektora publicznego, jak i prywatnego, który może stosować alternatywne środki zgodne z celami konwencji. Dokument przewiduje wyłączenia dla badań i rozwoju oraz bezpieczeństwa narodowego. Niestety, nie zawiera wytycznych dotyczących prawa autorskiego.
Perspektywa Europy: AI Act, TDM i pierwsze zapytanie do TSUE
Europa jako pierwsza podjęła próbę kompleksowego uregulowania aspektów prawnych związanych z AI.:
- w 2018 r. Komisja Europejska opublikowała Strategię AI dla Europy,
- w 2019 r. powstały Wytyczne etyczne dla godnej zaufania AI,
- w 2020 r. Komisja Europejska opublikowała Białą Księgę AI i rozpoczęła szerokie konsultacje społeczne i branżowe – to był początek ścieżki legislacyjnej, która doprowadziła do AI Act,
- w 2024 r. uchwalono AI Act – rozporządzenie nr 2024/1689 w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji [1] (AI Act).
AI Act to pierwsze na świecie kompleksowe ramy prawne dla AI. Jego głównym celem jest ochrona praw podstawowych obywateli UE – prywatności, godności, wolności wypowiedzi i niedyskryminacji. Dokument opiera się m.in. na zasadzie przejrzystości i informowania użytkowników o interakcji z systemem AI.
Prawo autorskie w AI Act
AI Act zawiera jedynie podstawowe odniesienia do prawa autorskiego. U podstaw całego AI Act leży oczywiście zasada przejrzystości, zgodnie z którą systemy AI rozwija się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję, a także należycie informując podmioty stosujące o zdolnościach i ograniczeniach tego systemu AI, a osoby, na które AI ma wpływ, o przysługujących im prawach.
Niemniej, kluczowe uzupełnieniem AI Act jest Dyrektywa z 2019 roku, nr 2019/790 w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym (Dyrektywa DSM)[2], szczególnie przepisy dotyczące text and data mining (TDM) – czyli procesu automatycznej analizy dużych zbiorów danych, niezbędnego do trenowania modeli AI. Dyrektywa wskazuje, że:
- instytucje badawcze mogą korzystać z TDM swobodnie (art. 3),
- podmioty komercyjne – tylko jeśli właściciel praw nie zastrzegł treści (art. 4).
Polska z opóźnieniem wdrożyła dyrektywę – nowelizacja ustawy o prawie autorskim (prawo autorskie) implementująca przepisy dotyczące TDM weszła w życie we wrześniu 2024 r (art. 6 ust. 1 pkt 22, art. 262, 263 prawa autorskiego).
Obecne zabezpieczenia dla twórców (procedura opt-out)
Biorąc pod uwagę, że AI Act nie zawiera żadnych innych przepisów odnoszących się do praw autorskich jego skuteczność w ochronie tych praw jest ograniczona. W szczególności brakuje jasnych zasad dotyczących ochrony prawno-autorskiej wyników działania systemów AI, odpowiedzialności za naruszenia oraz mechanizmów egzekwowania sprzeciwu twórców wobec wykorzystywania dzieł (tzw. procedury opt-out).
Niemniej, twórcy starają radzić sobie samodzielnie. Dla przykładu Stowarzyszenie Autorów ZAiKS w Polsce opublikowało instrukcje dla twórców dotyczące zabezpieczania utworów przed wykorzystaniem przez AI[3] oraz zastrzegło reprezentowane przez siebie prawa na potrzeby działań związanych z uczeniem systemów AI.
|
Prawa autorskie w obowiązkach dostawców GPAI
AI Act najszerzej odnosi się do praw autorskich przy szczególnych obowiązkach nałożonych na dostawców modeli AI ogólnego przeznaczenia (GPAI). Zobowiązania wobec dostawców GPAI są m.in. następujące.
- Zawarcie w dokumentacji technicznej informacji dotyczących danych treningowych, testowych i walidacyjnych użytych w modelu, w tym rodzaju i pochodzeniu tych danych oraz metod ich porządkowania itp.
- Wprowadzenie polityki zgodności z prawem autorskim i prawami pokrewnymi (w szczególności z myślą o identyfikacji i zastosowaniu się, w tym poprzez najnowocześniejsze technologie, do zastrzeżenia praw wyrażonego w art. 4 ust. 3 DSM).
- Podsumowanie treści wykorzystywanych do szkolenia modeli, w szczególności tekstu i danych chronionych prawem autorskim.
Dodatkowo w lipcu 2025 r. Komisja Europejska opublikowała Kodeks postępowania dla GPAI[4], który pomaga dostawcom spełniać wymagania AI Act. Kodeks jest dobrowolnym narzędziem opracowanym przez niezależnych ekspertów przy współudziale wielu zainteresowanych stron, mającym na celu pomoc dostawcom GPAI w wypełnianiu obowiązków wynikających z AI Act. Dostawcy GPAI, którzy dobrowolnie podpiszą ten kodeks, mogą wykazać, że przestrzegają AI Act, stosując się do jego postanowień.
Kodeks składa się z 3 rozdziałów.
- Rozdział dot. przejrzystości - prezentuje formularz dokumentacji modelu, który umożliwia dostawcom łatwe dokumentowanie informacji niezbędnych do wypełnienia obowiązku dotyczącego zapewnienie wystarczającej przejrzystości.
- Rozdział dot. praw autorskich - opisuje praktyczne rozwiązania pozwalające spełnić wymóg dotyczący wdrożenia polityki zgodnej z unijnym prawem autorskim.
- Rozdział dot. bezpieczeństwa i ochrony - przedstawia konkretne, najnowocześniejsze praktyki w zakresie zarządzania ryzykiem systemowym, tj. ryzykiem wynikającym z najbardziej zaawansowanych modeli (rozdział przeznaczony dla dostawców GPAI, które wiążą się z ryzykiem systemowym).
Sygnatariuszami są m.in. Google, OpenAI, Anthropic, IBM, Mistral AI. xAI podpisało tylko wybrane rozdziały. To oznacza, że będzie musiał zapewnić zgodność z pozostałymi wymogami stawianymi przez AI Act w drodze innych metod.
Niedoskonałości AI Act
Niestety, AI Act nie reguluje kwestii:
- ochrony wyników generowanych przez AI,
- odpowiedzialności za naruszenia praw autorskich,
- mechanizmów sprzeciwu twórców (opt-out).
Choć rozporządzenie obowiązuje bezpośrednio, państwa członkowskie muszą wdrożyć niektóre mechanizmy nadzoru i egzekwowania przepisów (m.in. nakładania kar).
W Polsce trwają prace nad Ustawą o systemach AI, która koncentruje się głównie na administracji, nie obejmując kwestii prawa autorskiego.
Głosy środowisk twórczych
Organizacje apelują o jasne uregulowanie kwestii praw autorskich w kontekście AI w wielu obszarach (w tym wskazanych powyżej). Dla przykładu, European Copyright Society apeluje o:
- doprecyzowanie przepisów prawa autorskiego w kontekście AI,
- wprowadzenie systemów wynagrodzeń dla twórców m.in. prawa do wynagrodzenia rezydualnego (ang. residual remuneration; zapewniającego twórcom stałe opłaty za ponowne wykorzystanie ich dzieł),
- lepsze powiązanie AI Act z DSM, tak aby zapewnić spójność i skuteczność ochrony praw autorskich w erze algorytmicznej twórczości, a także zapewnić transparentność precyzyjność przy stosowaniu wyjątków przy eksploatacji teksów i danych.
Pierwsze wyroki i sprawy sądowe
Sprawa Kneschke v. LAION (Hamburg, wrzesień 2024; sygn. 310 O 227/23)
Fotograf Robert Kneschke pozwał organizację LAION za wykorzystanie jego zdjęcia w zbiorze danych LAION-5B. Sąd uznał, że działanie mieściło się w ramach wyjątku TDM (§ 60d niemieckiej ustawy), ponieważ LAION działa jako organizacja badawcza. Wyrok wyznacza nowe granice legalnego wykorzystania chronionych treści w trenowaniu AI.
Sprawa Like Company v. Google (TSUE, kwiecień 2025, sygn. C-250/25) – pierwsze pytanie prejudycjalne do TUSE w zakresie AI
Węgierska spółka Like Company zarzuciła chatbotowi Gemini naruszenie praw autorskich poprzez reprodukcję jej artykułów. Sąd w Budapeszcie skierował sprawę do Trybunału Sprawiedliwości Unii Europejskiej (TSUE), pytając m.in. czy szkolenie i eksploatacja LLM oraz generowane odpowiedzi stanowią akty reprodukcji lub publicznego udostępniania w rozumieniu prawa UE. Jest to pierwsza sprawa, która została skierowana do TSUE.
Perspektywa USA - zalecenia rządowe, zasady human authorship i fair use
Stany Zjednoczone traktują sztuczną inteligencję jako kluczowy element swojej strategii globalnej dominacji technologicznej. To podejście widać również w sposobie kształtowania regulacji – szczególnie za rządów prezydenta Donalda Trumpa.
Od inicjatywy badawczej do deregulacji
Pierwsza krajowa ustawa dotycząca AI została uchwalona w 2020 roku, podczas pierwszej kadencji Trumpa. Ustawa o krajowej inicjatywie w zakresie sztucznej inteligencji nie miała na celu regulowania aspektów prawnych AI, lecz wspieranie badań i rozwoju w agencjach federalnych oraz wdrażanie AI w administracji publicznej. Jej głównym celem było umocnienie pozycji USA jako lidera technologicznego poprzez liberalne, rynkowe podejście.
Zmiana kierunku nastąpiła za prezydentury Joe Bidena.
- W październiku 2022 r. jego administracja opublikowała Projekt Karty Praw Sztucznej Inteligencji – niewiążący zbiór zasad etycznych dla systemów AI.
- Rok później, w październiku 2023 r., wydano rozporządzenie wykonawcze dotyczące „bezpiecznego, pewnego i godnego zaufania rozwoju AI”, które wyznaczało ramy działania dla ponad 50 agencji federalnych w obszarach takich jak bezpieczeństwo, prawa obywatelskie, prywatność czy konkurencyjność.
Rozporządzenie Bidena nie nakładało obowiązków na firmy, lecz opierało się na współpracy między agencjami i zaleceniach dla sektora prywatnego. Po powrocie Trumpa do władzy w styczniu 2025 r., dokument został uchylony. Zamiast niego, nowo mianowany prezydent podpisał nowe rozporządzenie wykonawcze dotyczące „usuwania barier dla amerykańskiej przewagi w dziedzinie AI”, które ma na celu eliminację przepisów uznanych za hamujące innowacje.
Projekt Karty Praw AI trafił do archiwum Białego Domu, choć inne akty z czasów Bidena – dotyczące np. infrastruktury AI czy cyberbezpieczeństwa – nadal obowiązują.
AI Action Plan 2025 – nowa strategia USA
W lipcu 2025 r. administracja Trumpa ogłosiła AI Action Plan – kompleksowy program wspierający innowacje, rozwój infrastruktury oraz kształtowanie międzynarodowych standardów AI. Plan zakłada m.in.:
- usuwanie barier regulacyjnych,
- przegląd i eliminację przepisów ograniczających swobodę działania firm,
- ochronę wartości konstytucyjnych (np. wolności słowa),
- przeciwdziałanie ideologicznemu uprzedzeniu w systemach AI,
- wsparcie dla otwartych modeli AI (open-source i open-weight).
W ramach AI Action Plan, prezydent Trump podpisał trzy rozporządzenia, w tym jedno zakazujące administracji rządowej korzystania z „woke AI” – systemów promujących ideologiczny aktywizm, narracje DEI (diversity, equity, inclusion) czy „przekłamujących historię” na rzecz politycznej poprawności.
Legislacja stanowa
Równolegle do działań federalnych, w 2025 roku wszystkie 50 stanów przedstawiły własne projekty ustaw dotyczących AI. Już 38 z nich przyjęło lub uchwaliło około 100 aktów prawnych – m.in. Colorado AI Act czy kalifornijski zbiór przepisów dotyczących AI (w tym: „the Transparency in Frontier Artificial Intelligence Act”, „the Companion Chatbot law”). W tym materiale skupiamy się jednak wyłącznie na legislacji krajowej[5].
Prawo autorskie w USA a AI
Na poziomie federalnym (krajowym) nie istnieją konkretne przepisy regulujące prawa autorskie w kontekście AI. W marcu 2023 r. Urząd ds. Praw Autorskich (Copyright Office) opublikował wytyczne dotyczące rejestracji dzieł zawierających materiał wygenerowany przez AI. Kluczowe założenie wytycznych, to „liczy się stopień, w jakim człowiek sprawował twórczą kontrolę nad ekspresją dzieła”.
Oznacza ono, że jeśli AI samodzielnie określa elementy ekspresyjne, wygenerowany materiał nie jest dziełem autorstwa człowieka. Ochrona prawna przysługuje jedynie za ludzki wkład, np. kreatywne modyfikacje lub aranżacje materiału wygenerowanego przez AI, a autorzy muszą zidentyfikować i zrzec się praw do części utworu wygenerowanej przez AI.
Od lipca 2024 r., w poszczególnych częściach, Urząd rozpoczął publikację raportu „Prawa autorskie i sztuczna inteligencja”, w którym podkreślono, że:
- samo podanie promptu nie zapewnia wystarczającej kontroli twórczej,
- podpowiedzi są traktowane jako niechronione idee,
- użytkownicy AI nie są automatycznie autorami wygenerowanych treści.
Mimo to, Urząd zarejestrował już setki dzieł, w których wykorzystano materiały wygenerowane przez AI, w zakresie w jakim rejestracja obejmowała wyłącznie wkład człowieka[6].
Fair use – fundament amerykańskiego podejścia
W kontekście trenowania modeli AI, kluczową rolę w Stanach Zjednoczonych odgrywa zasada fair use, pozwalająca na ograniczone wykorzystanie chronionych dzieł bez zgody właściciela praw, np. w celach edukacyjnych (niezarobkowych), badawczych czy krytycznych.
To właśnie na tej podstawie wiele firm technologicznych szkoli generatywne modele AI na ogromnych zbiorach danych, w tym treściach objętych prawem autorskim, bowiem niektórzy prawnicy argumentują, że wykorzystywanie utworów chronionych prawem autorskim do trenowania systemów AI stanowi dozwolony użytek, a zatem nie narusza praw autorskich.
Przy ocenie jest dla nich kluczowe sprawdzenie, czy:
- cel i charakter wykorzystania, w tym czy takie wykorzystanie ma charakter komercyjny, czy też służy celom edukacyjnym o charakterze niezarobkowym,
- jaki jest charakter dzieła chronionego prawem autorskim,
- jaka jest ilość i istotność wykorzystanej części w odniesieniu do całości chronionego prawem autorskim utworu, oraz
- wpływ wykorzystania na potencjalny rynek lub wartość chronionego utworu[7].
Sąd Najwyższy Stanów Zjednoczonych stwierdził , że dozwolony użytek jest doktryną „elastyczną”, a „jej zastosowanie może się różnić w zależności od kontekstu”[8].
Choć podejście to sprzyja innowacjom, budzi kontrowersje, zwłaszcza wśród twórców, którzy nie mają wpływu na wykorzystanie swoich prac. Brak jednoznacznych regulacji sprawia (w tym w zakresie opt-outu), że system amerykański pozostaje niedoregulowany, a równowaga między interesem publicznym, a ochroną twórców wciąż wymaga dopracowania.
Przełomowe wyroki
Bartz v. Anthropic (październik 2025) – największa ugoda w zakresie praw autorskich w historii
Sąd federalny w Kalifornii uznał, że trenowanie modelu Claude AI na legalnie nabytych książkach mieści się w granicach dozwolonego użytku, ponieważ ma charakter transformacyjny. Jednocześnie sąd zaznaczył, że wykorzystywanie pirackich materiałów, nawet w celach rozwojowych, jest niedopuszczalne.
Anthropic zaproponował ugodę w wysokości 1,5 mld USD dla autorów książek, czyli ok. 3 000 USD za każdą z 465 tys. pozycji. Wstępna zgoda na ugodę została już wyrażona przez sędziego prowadzącego sprawę, który uznał ugodę za „sprawiedliwą, rozsądną i adekwatną”[9].
Kadrey v. Meta (listopad 2024)
Sąd uznał, że Meta dopuściła się dozwolonego użytku, szkoląc AI na książkach pobranych z pirackich źródeł. Kluczowe było stwierdzenie, że wykorzystanie utworów pirackich w tej konkretnej sprawie nie powoduje szkody rynkowej, służy nowemu celowi, może być traktowane jako dzieło pochodne.
Który kierunek wybrać?
Orzeczenia sądowe w USA mają ograniczony zakres i są silnie zależne od okoliczności konkretnej sprawy. W maju 2025 r., w ramach prepublikacji kolejnej części raportu „Prawa autorskie i sztuczna inteligencja” Urząd ds. Praw Autorskich stwierdził, że: „Nie można przesądzać o wynikach postępowań sądowych. Niektóre sposoby wykorzystania utworów chronionych do szkolenia AI będą kwalifikować się jako dozwolony użytek, a inne nie.”
Urząd prowadzi szeroko zakrojone konsultacje publiczne, których celem jest wypracowanie spójnych wytycznych dotyczących ochrony twórczości w erze generatywnej AI.
Chiny – państwo na pierwszym planie
Chiny jako jedno z pierwszych państw rozpoczęły intensywne prace nad regulacjami dotyczącymi sztucznej inteligencji. Już w 2017 roku opublikowano Plan rozwoju AI nowej generacji, który zakładał:
- do 2020 r. – dostosowanie się do globalnych standardów,
- do 2025 r. – osiągnięcie przełomu technologicznego i społecznego,
- do 2030 r. – objęcie pozycji światowego lidera w dziedzinie AI.
Chiński system prawny opiera się na silnym nadzorze państwowym, obowiązku rejestracji algorytmów, kontroli danych treningowych, czy obowiązku oznaczania treści generowanych przez AI.
Władze stawiają na bezpieczeństwo narodowe, stabilność społeczną i zgodność z wartościami socjalistycznymi, co skutkuje cenzurą i ograniczeniami twórczymi. Jednocześnie AI traktowana jest jako strategiczny sektor gospodarki, co rodzi napięcie między innowacyjnością a kontrolą.
Rozproszone regulacje i kluczowe akty prawne
Chińskie przepisy dotyczące AI są rozproszone. Nie istnieje jeden kompleksowy akt prawny. W tym momencie do najważniejszych regulacji dotyczących tematyki AI należą[10]:
- Interim Measures for the Management of Generative Artificial Intelligence Services (Środki tymczasowe dotyczące usług generatywnej AI, obowiązujące od sierpnia 2023 r.) – nakładające obowiązki na dostawców AI, m.in. w zakresie zgodności algorytmów, treści AI, danych treningowych i ochrony praw autorskich.
- Measures for Labeling of AI-Generated / Synthetic Content (Administracyjne środki/zasady znakowania tzw. AI Generated Content, obowiązujące od września 2025 r.)
- Trzy normy krajowe z kwietnia 2025 r. (wchodzące w życie w listopadzie 2025 r.) dotyczące: bezpieczeństwa adnotacji danych, bezpieczeństwa danych przed szkoleniem i dostrajaniem, bezpieczeństwa usług generatywnej AI.
Do istotnych aktów prawnych istotnych z perspektywy tworzenia i stosowania modeli i systemów AI należą m.in.[11]:
- Ustawa o cyberbezpieczeństwie (2017),
- Przepisy o głębokiej syntezie (2023),
- Przepisy o rekomendacjach algorytmicznych (2023),
- Środki etyczne dla nauki i technologii (2023),
- Rozporządzenie w sprawie zarządzania bezpieczeństwem danych sieciowych - NDSM (2025).
Na poziomie lokalnym wprowadzono także m.in. przepisy wspierające rozwój AI w Szanghaju, Shenzhen, Fujian i Zhejiang.
Chiny opracowały również wiele norm branżowych w obszarze AI, np.:
- Kodeks etyki AI (2021),
- Wytyczne dla AI w medycynie (2021–2022),
- Zasady testowania pojazdów autonomicznych (2021),
- Wytyczne dla sektora finansowego (2018–2023).
Czy prawo autorskie w ogóle obowiązuje w Chinach?
Chiny konsekwentnie wzmacniają regulacje dotyczące AI, a jednym z kluczowych obszarów stała się w ostatnim czasie ochrona praw autorskich. Wspomniane Środki tymczasowe dotyczące usług generatywnej AI (ang. Interim Measures for the Management of Generative Artificial Intelligence Services), wprowadzają szczegółowe wymogi wobec dostawców systemów generatywnej AI – od sposobu szkolenia modeli po zarządzanie wygenerowanymi treściami[12].
Przede wszystkim dane wykorzystywane do trenowania modeli – niezależnie od tego, czy są to teksty, obrazy, dźwięki czy materiały wideo – muszą pochodzić z legalnych źródeł i nie mogą naruszać praw autorskich innych podmiotów. W praktyce oznacza to, że firmy rozwijające AI są zobowiązane do weryfikacji pochodzenia danych, uzyskania stosownych uprawnień do wykorzystywania dzieła lub wyeliminowania nielegalnych materiałów z zestawów treningowych.
Równie istotny jest obowiązek zarządzania wygenerowanymi treściami. Dostawcy zostali prawnie uznani za „producentów treści sieciowych”, co czyni ich współodpowiedzialnymi za materiały generowane przez modele i systemy AI. Wobec tego są oni zobowiązani do wprowadzenia procedur moderacji i reagowania w przypadku naruszeń – np. usuwania lub blokowania treści będących nieautoryzowanymi kopiami utworów chronionych.
Kolejnym filarem regulacji jest umowa usługowa z użytkownikiem. Ma ona jasno określać zasady korzystania z systemu AI, odpowiedzialność stron oraz dopuszczalne sposoby wykorzystania generowanych treści. W kontekście prawa autorskiego jest to kluczowe, ponieważ dokument ten musi precyzować, jakie dane użytkownik może wprowadzać oraz kto odpowiada za ewentualne naruszenia.
Dodatkowo na dostawców nakładany jest obowiązek przejrzystości i dokumentowania źródeł danych szkoleniowych. Dostawcy muszą być w stanie wykazać przed organami nadzoru pochodzenie danych, sposób ich przetwarzania i stosowane metody etykietowania (labelingu). Pozwala to regulatorom weryfikować, czy modele nie są trenowane na materiałach chronionych prawem autorskim.
Wreszcie, przepisy przypominają, że systemy AI muszą działać w zgodzie z całym obowiązującym w Chinach prawem własności intelektualnej. Oznacza to, że regulacja AI nie stanowi „tarczy ochronnej” dla dostawców – obowiązuje pełne respektowanie chińskiego prawa autorskiego i przepisów o danych.
Dodatkowo, od września 2025 r. zaczną obowiązywać „Labeling Rules for AI-Generated and Synthetic Content”, które wprowadzają obowiązek oznaczania treści generowanych przez AI (AIGC – AI Generate Content) zarówno wizualnie, jak i w metadanych[13]. Choć celem jest przede wszystkim transparentność i bezpieczeństwo informacji, regulacja ta ma również znaczenie dla ochrony praw autorskich – pozwala bowiem łatwiej identyfikować źródło treści, śledzić ich pochodzenie i egzekwować odpowiedzialność za naruszenia.
Obecnie toczą się również dalsze zaawansowane dyskusje publiczne na temat:
- własności treści generowanych przez AI,
- praktyki oznaczania takich treści,
- podziału tantiem przez organizacje zbiorowego zarządzania,
- zakazu wykorzystywania chronionych materiałów bez zgody,
- wyłączenia ochrony dla treści generowanych bez udziału człowieka.
Orzecznictwo sądowe – wkład człowieka kluczowy
Chińskie sądy rozpatrywały wiele spraw dotyczących AI. Kluczowe wyroki to m.in.:
- Feilin vs. Baidu (2019) – sąd uznał, że raport wygenerowany przez AI, ale z istotnym wkładem człowieka (obejmującym redakcję tekstu i opracowanie grafik), podlega ochronie prawa autorskiego,
- Tencent vs. Yingxun (2019) – ochrona prawa autorskiego została przyznana zespołowi, który stworzył program AI, generujący następczo raporty, uznając ich kreatywność. Sąd wskazał, że wyjątkowy poziom oryginalności wygenerowanego tekstu powstał dzięki kreatywności zespołu, który stworzył odpowiedni program,
- Li vs. Liu (2023) – obraz wygenerowany przez AI został uznany za chroniony przez prawo autorskie, dzięki aktywnemu udziałowi człowieka (150 promptów).
- Feng vs. Dongshan Company (2025) – sąd odmówił ochrony treści wygenerowanej przez AI, uznając, że proces twórczy był zbyt nieprzewidywalny i niekontrolowany oraz za mało udokumentowany.
Ten ostatni wyrok może oznaczać zmianę podejścia sądów chińskich, które jednak przez lata przyznawały w wielu przypadkach ochronę prawno-autorską treściom generowanym przez AI. Może to jednak oznaczać, że sądy chińskie zaczną bardziej rygorystycznie oceniać, kiedy wkład człowieka jest wystarczający do uznania utworu za chroniony.
Czy twórcy mają się czego obawiać?
Wprowadzane regulacje dotyczące AI pokazują, że wszystkie państwa stają przed tym samym wyzwaniem - jak rozwijać AI w sposób bezpieczny, etyczny i zgodny z prawami człowieka.
Każdy z omówionych wyżej systemów krajowych ma swoje mocne strony. UE stawia na ochronę wartości i praw podstawowych, USA wspiera innowacyjność i elastyczność, a Chiny konsekwentnie budują ramy prawne w oparciu o interes państwowy i bezpieczeństwo społeczne. Jednak żaden z tych modeli nie jest jeszcze kompletny i wymaga doregulowania wraz z dalszym rozwojem AI.
Wskazane w artykule środki ochrony wprowadzane przez poszczególne państwa pozostawiają wiele kwestii otwartych, zwłaszcza w zakresie praw autorskich, odpowiedzialności za decyzje AI oraz ochrony twórczości generowanej przez algorytmy. Wciąż brakuje spójnych definicji, jasnych mechanizmów egzekwowania prawa i globalnych standardów.
Międzynarodowe uregulowanie kwestii związanych AI, takich jak wspólne definicje lub wprowadzenie globalnych standardów dla podmiotów korzystających z istniejących już utworów mogłyby w znacznym stopniu pomóc wyregulować rynek międzynarodowy AI, który jest niesłychanie zglobalizowany i zapewnić szerszą ochronę dla autorów. Jest to jednak mało prawdopodobne, głównie ze względów politycznych., a także kulturowych, czy społecznych.
Warto aby działania ukierunkowane na ustanowienie globalnych standardów w zakresie prawa AI i praw autorskich do wytworów AI zostały czym prędzej ustalone. Legislacja zdecydowanie nie nadąża w tej kwestii za rozwojem AI. Z perspektywy technologicznej sztuczna inteligencja zmienia się z miesiąca na miesiąc (przetwarzając coraz większe bazy danych). Na wyroki i akty prawne dalej czekamy miesiącami a nawet latami.
Źródła
[1] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Tekst mający znaczenie dla EOG).
[2] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE (Tekst mający znaczenie dla EOG).
[3] ZAIKS, Instrukcje opt-out, https://zaiks.org.pl/ai?utm_source=chatgpt.com.
[4] European Commision, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai, lipiec 2025 r.
[5] NCSL, Artificial Intelligence 2025 Legislation, https://www.ncsl.org/technology-and-communication/artificial-intelligence-2025-legislation, lipiec 2025 r.
[6] Copyright.gov, Copyright and Artificial Intelligence, https://www.copyright.gov/ai/
[7] Ibidem.
[8] Congress, Generative Artificial Intelligence and Copyright Law, https://www.congress.gov/crs-product/LSB10922, lipiec 2025 r.
[9] Princeton University, Press statement on the proposed Bartz v. Anthropic class action suit settlement, https://press.princeton.edu/news/bartz-v-anthropic?srsltid=AfmBOooF6p2GmpZx8ARHEawLz6n0u7nDbUXOCKZCvZGxRov01Qrb3qwq, październik 2025
[10] White & Case, AI Watch: Global regulatory tracker – China, https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-china, maj 2025.
[11] Asia Business Law Journal, Shape of China’s AI regulations and prospects, https://law.asia/china-ai-regulations-legislation-compliance-future-prospects/, marzec 2025 r.
[12] Cooley, China Issues Measures on Generative Artificial Intelligence Services, https://cdp.cooley.com/china-issues-measures-on-generative-artificial-intelligence-services/?utm_source=chatgpt.com, sierpień 2023.
[13] PPC Land, China implements mandatory AI content labeling standards effective September, https://ppc.land/china-implements-mandatory-ai-content-labeling-standards-effective-september/?utm_source=chatgpt.com, wrzesień 2025 r.
Posłuchaj