Unijny akt w sprawie sztucznej inteligencji (AI Act) może okazać się poważnym wyzwaniem dla przedsiębiorców

02.08.2024 / Artykuły / Własność intelektualna

Dnia 12 lipca 2024 roku w Dzienniku Urzędowym Unii Europejskiej zostało opublikowane Rozporządzenie z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2114 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji).

Unijny akt w sprawie sztucznej inteligencji jest pierwszym na świecie kompleksowym zbiorem przepisów regulujących sztuczną inteligencję. Jego celem jest ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji.

 

Czym są systemy AI?

System AI oznacza system maszynowy, zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne. W konsekwencji jest to każdy system, który w jakikolwiek sposób wykorzystuje rozwiązania sztucznej inteligencji.

 

Kogo dotyczy AI Act?

AI Act zakłada wprowadzenie nowych obowiązków w szczególności dla następujących podmiotów:

  • dostawców systemów AI,
  • podmiotów stosujących systemy AI,
  • importerów i dystrybutorów systemów AI,
  • producentów, którzy wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI opatrzony ich nazwą handlową lub znakiem towarowym,
  • upoważnionych przedstawicieli dostawców niemających siedziby w Unii,
  • osób, na które AI ma wpływ.

 

Ryzyko

AI Act wprowadza klasyfikacje systemów sztucznej inteligencji ze względu na poziom ryzyka związany z danym rodzajem ich zastosowania. Przypisanie ich do określonej grupy jest kluczowe, ponieważ wiąże się z różnymi rygorami regulacyjnymi. Im wyższy poziom ryzyka, tym więcej przewidziano obowiązków związanych z wprowadzaniem i stosowaniem AI. Wobec powyższego, wyróżnia się następujące rodzaje ryzyka:

  • Nieakceptowalne, obejmujące w szczególności stosowanie technik podprogowych, scoring społeczny prowadzący do krzywdzącego lub niekorzystnego traktowania niektórych osób lub grup osób, rozpoznawanie emocji w miejscu pracy i w placówkach edukacyjnych (chyba że ze względów medycznych lub bezpieczeństwa), kategoryzację biometryczną osób w oparciu o dane biometryczne w celu ustalania ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych lub orientacji seksualnej. Stosowanie systemów AI, które stwarzają niedopuszczalne ryzyko jest zakazane;
  • Wysokie, obejmujące między innymi systemy AI przeznaczone do wykorzystywania do celów rekrutacji lub wyboru osób fizycznych oraz do podejmowania decyzji wpływających na warunki stosunków pracy, decyzji o awansie lub rozwiązaniu stosunku pracy, przydzielania zadań w oparciu o indywidualne zachowanie lub cechy osobowości oraz do monitorowania lub oceny wydajności osób pozostających w takich stosunkach. Może to dotyczyć także niektórych systemów wymienionych w obszarach: biometrii, kształcenia i szkolenia zawodowego, dostępu do podstawowych usług prywatnych oraz podstawowych usług i świadczeń publicznych. Systemy AI wysokiego ryzyka będą podlegać ścisłym regulacjom;
  • Ograniczone lub minimalne obejmuje większość stosowanych systemów AI. Działanie tych systemów najczęściej nie będzie ograniczone czy też obarczone dodatkowymi obowiązkam W przypadku niektórych systemów AI wprowadzono wymogi w zakresie przejrzystości. Ma to na przykład miejsce w przypadkach, gdy istnieje wyraźne ryzyko manipulacji. Ryzyko to obejmuje systemy takie jak chatboty, filtry antyspamowe, aplikacje z którymi związana jest obsługa sztucznej inteligencji.

 

Co będzie ważne?

  • Kompetencje – zapewnienie, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się obsługą i użytkowaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być użytkowane;
  • Informowanie – w tym:
  • informowanie dostawców (a także importerów lub dystrybutorów oraz odpowiednie organy nadzoru rynku) w przypadku poważnych incydentów,
  • informowanie osób fizycznych o tym, że jest w odniesieniu do nich wykorzystywany system AI wysokiego ryzyka,
  • informowanie przedstawicieli pracowników i pracowników, których to dotyczy, że będą objęci działaniem systemu AI wysokiego ryzyka w miejscu pracy,
  • informowanie, że treści (obrazy, treści audio lub wideo stanowiące treści deepfake) zostały sztucznie wygenerowane lub poddane manipulacji;
  • Środki techniczne i organizacyjne – w tym:
  • podejmowanie odpowiednich środków technicznych i organizacyjnych przez podmioty stosujące systemy AI wysokiego ryzyka, aby zapewnić, że użytkują takie systemy zgodnie z dołączoną do nich instrukcją obsługi,
  • wprowadzanie odpowiednich i skutecznych środków cyberbezpieczeństwa w celu ochrony bezpieczeństwa i poufności uzyskanych informacji i danych oraz usuwanie zgromadzonych danych,
  • wdrożenie procedur testowania, badania i walidacji,
  • postępowania wyjaśniające dotyczące poważnych incydentów i systemów sztucznej inteligencji,
  • zapewnienie odpowiednich warunków do przetwarzania szczególnych kategorii danych osobowych;
  • Współpraca z odpowiednimi organami.

 

Kary

Brak wywiązania się z obowiązków nałożonych przez AI Act przez odpowiednie podmioty będzie skutkował odpowiedzialnością finansową. Kary te mogą wynosić:

  • do 35 000 000 euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 7 % jego całkowitego rocznego światowego obrotu w przypadku nieprzestrzegania zakazu praktyk nieakceptowalnych,
  • do 15 000 000 euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 3 % jego całkowitego rocznego światowego obrotu w przypadku naruszeń obowiązków wynikających z AI Act.

Przewidziane kary muszą być skuteczne, proporcjonalne i odstraszające

 

Od kiedy?

Rozporządzenie będzie w pełni obowiązywać po dwóch latach od daty wejścia w życie, z tym, że część przepisów zacznie obowiązywać wcześniej. Zakazy związane z niektórymi sposobami stosowania AI będą obowiązywać już po 6 miesiącach, a przepisy, między innymi takie jak obowiązki dostawców modeli AI ogólnego przeznaczenia, część przepisów dotyczących kar, będą wdrażane po roku. Natomiast dłuższy termin (36 miesięcy od dnia wejścia w życie) dotyczy zasad klasyfikacji systemów AI wysokiego ryzyka i odpowiadających im obowiązków.

 

Jak się przygotować?

Unijny AI Act przewiduje nowe obowiązki w szczególności dla podmiotów opracowujących systemy sztucznej inteligencji lub zlecających ich opracowanie, jak również dla tych, które stosują, importują lub dystrybuują sztuczną inteligencję. W celu odpowiedniego przygotowania się do realizacji obowiązków wynikających z AI Act proponujemy:

  • Określenie, które systemy AI są lub będą w użyciu oraz ich klasyfikacja;
  • Weryfikacja, czy używane systemy AI spełniają odpowiednie zasady i są wykorzystywane do odpowiednich celów;
  • Dostosowanie wykorzystywanych systemów do obowiązków związanych z systemami AI o określonym poziomie ryzyka;
  • Ocena ryzyka związanego z użyciem AI, szczególnie w systemach o wysokim ryzyku;
  • Przygotowanie nowych oraz ocena zgodności istniejących procedur z AI Act, w tym wprowadzenie mechanizmów monitorowania i audytu systemów AI;
  • Szkolenie pracowników, w celu zapewnienia odpowiedniego poziomu kompetencji personelu,
  • Przygotowanie niezbędnej dokumentacji;
  • Opracowanie planu monitorowania systemów i przechowywania dzienników.

Autor publikacji

Maja Morawska

Aplikant adwokacki

Chcesz być na bieżąco?

Zapisz się do naszego newslettera






    Powiązane

    18.10.2024 / Artykuły

    Weszła w życie unijna Dyrektywa NIS 2. Sprawdź, co powinieneś wiedzieć!

    Powrót na górę