AI Act a branża video – co musisz wiedzieć jako twórca lub marketer
AI Act to pierwsza w Unii Europejskiej ustawa, która jasno określa, jak można (i jak nie można) korzystać ze sztucznej inteligencji. Wejdzie w życie 1 sierpnia 2024 roku i będzie obowiązywać każdego, kto wykorzystuje AI w tworzeniu treści – także w branży video.
W skrócie: jeśli tworzysz wideo z pomocą AI, montujesz, personalizujesz reklamy lub korzystasz z deepfake’ów – ta regulacja Cię dotyczy.
W tym artykule wyjaśniamy:
jakie są poziomy ryzyka według AI Act,
które zastosowania AI w video są legalne, a które zakazane,
jakie obowiązki mają twórcy, marketerzy i agencje.
Czym właściwie jest AI Act?
To nowe prawo Unii Europejskiej, które określa, jak powinno się projektować i używać narzędzi sztucznej inteligencji – tak, by były bezpieczne, przejrzyste i nie naruszały praw ludzi. Dla branży kreatywnej, zwłaszcza video, oznacza to konkretne wymagania.
Pełny tekst ustawy znajdziesz tutaj:
👉 https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Jak AI Act dzieli systemy AI?
Unia wprowadza cztery poziomy ryzyka. Od poziomu zależy, co wolno, a co nie – i jakie obowiązki masz jako twórca czy marketer.
1. Zakazane (nieakceptowalne ryzyko)
Niektóre zastosowania AI są całkowicie zabronione. To m.in.:
rozpoznawanie twarzy w czasie rzeczywistym na ulicy (chyba że robi to policja z nakazem),
deepfake’i, które nie są oznaczone i mogą wprowadzać w błąd (np. polityczne),
AI wykrywająca emocje w szkołach lub firmach,
manipulacja percepcją dzieci w kampaniach reklamowych.
Co to znaczy dla branży video?
Nie możesz tworzyć nieoznaczonych deepfake’ów, podszywać się pod ludzi, manipulować emocjami dzieci lub korzystać z biometrii bez jasnej zgody.
2. Wysokie ryzyko
Tu chodzi o systemy, które mogą wpływać na czyjeś życie lub prawa – np.:
AI analizujące kandydatów na podstawie nagrań wideo (np. mimika, ton głosu),
systemy oceniające studentów w kursach online,
monitoring pracowników oparty na analizie obrazu.
Twoje obowiązki:
Jeśli używasz takiej AI – musisz prowadzić dokumentację, wdrożyć testy, zapewnić nadzór człowieka i zgłosić system do rejestru UE.
3. Ograniczone ryzyko
To popularne narzędzia, które nie decydują o człowieku, ale mogą wpływać na jego decyzje. Przykłady:
chatboty video,
AI-prezenterzy lub głosy lektorskie,
personalizowane reklamy video,
deepfake’i oznaczone jako sztuczne.
Wymagania?
Musisz wyraźnie poinformować użytkownika, że dana treść została wygenerowana przez AI. Bez prób ukrycia tego.
4. Minimalne ryzyko
To narzędzia, które nie wymagają żadnych formalności. Na przykład:
AI do montażu wideo,
automatyczne napisy i tłumaczenia,
algorytmy rekomendujące treści (np. Shorts, TikTok, reelsy).
Co to oznacza w praktyce?
Jeśli tworzysz video:
Oznaczaj wszystkie treści wygenerowane przez AI – nawet jeśli tylko głos czy twarz.
Nie używaj nieoznaczonych deepfake’ów – to może być nielegalne.
Jeśli Twoje narzędzie analizuje ludzi (np. rekrutacja), przygotuj dokumentację i sprawdź zgodność z przepisami.
Jeśli robisz marketing video:
Upewnij się, że kampanie są zgodne z prawem – zwłaszcza te kierowane do dzieci.
Pracuj tylko z narzędziami, które są zgodne z AI Act (czyli oferują przejrzystość, dokumentację i oznaczenia).
Jeśli jesteś agencją lub domem produkcyjnym:
Zapytaj dostawców narzędzi AI, czy ich rozwiązania są zgodne z AI Act.
Edukuj klientów – to Ty odpowiadasz za legalność tego, co publikujecie.
Przygotuj zespół na ewentualne audyty lub pytania klientów.
Przykłady zastosowań AI w video według poziomu ryzyka:
Zastosowanie | Poziom ryzyka | Co musisz zrobić |
---|---|---|
Deepfake z politykiem bez oznaczenia | Zakazane | Nie wolno |
Analiza nagrania kandydata w rekrutacji | Wysokie | Dokumentacja, nadzór |
AI-prezenter w reklamie | Ograniczone | Jasne oznaczenie |
Montaż video przez AI | Minimalne | Brak wymogów |
Jak się przygotować?
Sprawdź, gdzie w Twoim procesie twórczym korzystasz z AI.
Oceń, do której kategorii należy dane narzędzie.
Jeśli trzeba – oznacz treści, zbierz dokumentację lub zmień narzędzie.
Wybieraj sprawdzonych dostawców, którzy znają przepisy.
Ustal wewnętrzne zasady pracy z AI – zanim ktoś zapyta o zgodność z prawem.
Podsumowanie
AI Act to nie tylko nowy obowiązek, ale też nowy standard.
Reguluje to, co do tej pory często robiono „na własną rękę” – czyli korzystanie z AI w tworzeniu treści.
Dla branży video oznacza to konieczność większej odpowiedzialności, przejrzystości i czasem prostych działań – jak dodanie oznaczenia „wygenerowane przez AI”.
Lepiej wdrożyć te zasady teraz, niż ryzykować później. To inwestycja w zaufanie odbiorców i klientów.