Ułatwienia dostępu

Polska ustawa o sztucznej inteligencji – gdzie jesteśmy i co nas czeka?

Jeśli Twoja organizacja korzysta z AI – np. do komunikacji, analizy danych czy kontaktu z darczyńcami – warto śledzić zmiany w prawie. Aktualnie trwają prace nad polską ustawą, w której będą zawarte konkretne obowiązki związane ze sztuczną inteligencją.

Unijne ramy prawne – AI Act

13 czerwca 2024 r. Parlament Europejski przyjął rozporządzenie w sprawie sztucznej inteligencji (AI Act). Dlatego Polska pracuje teraz nad własną ustawą, która określi, jak stosować te przepisy u nas.

Rozporządzenie – jako akt prawa unijnego – obowiązuje bezpośrednio we wszystkich państwach członkowskich. Jednak w wielu miejscach przewiduje ono konieczność doprecyzowania i stworzenia struktur krajowych (np. organów nadzoru, procedur kontroli, systemów wsparcia innowacji).

AI Act wprowadza m.in.:

  • Katalog systemów AI zakazanych (np. manipulujących ludzkim zachowaniem czy wykorzystujących dane biometryczne w czasie rzeczywistym),
  • Wymogi dla systemów wysokiego ryzyka (takie, które mogą w istotny sposób wpływać na życie ludzi albo wiążą się z dużą odpowiedzialnością, np. AI używana w rekrutacji pracowników),
  • Obowiązki transparentności – musisz jasno zaznaczać, że dana treść została stworzona przy pomocy sztucznej inteligencji (np. tekst, grafika, nagranie wideo czy audio),
  • Odpowiedzialność za wdrożenie systemów ogólnego przeznaczenia, to znaczy że dostawca odpowiada za to, jaki model wypuszcza na rynek, a Ty jako biznes czy organizacja – za to, jak go wdrażasz i wykorzystujesz.

Polska ustawa – stan prac

AI Act pozostawia państwom członkowskim pewną swobodę w zakresie sposobu jego stosowania i nadzorowania. AI Act wyznacza reguły korzystania z AI w całej UE, a polska ustawa ma opisać, jak Polska będzie te reguły wdrażać i kontrolować w praktyce.

Oznacza to, że UE określa ogólne zasady, ale nie wszystkie szczegóły wdrożenia.

Polska musi stosować przepisy AI Act, bo jest to rozporządzenie UE obowiązujące bezpośrednio, ale może sama zdecydować, jak zorganizuje nadzór i jakie procedury wprowadzi. Stąd ustawa krajowa – określa, kto i w jaki sposób kontroluje AI w Polsce oraz jak będą egzekwowane przepisy.

Dlatego Ministerstwo Cyfryzacji przygotowuje Ustawę o systemach sztucznej inteligencji, która ma określić krajowe procedury i instytucje odpowiedzialne za egzekwowanie przepisów unijnych.

Pierwsza wersja projektu ustawy została utworzona 16 października 2024 roku przez Ministerstwo Cyfryzacji. Niedawno, projekt został pozytywnie rozpatrzony przez Komitet do Spraw Europejskich. Czeka nas jednak, jeszcze długa droga zanim projekt trafi do Sejmu.

Projekt przewiduje m.in.:

  • Powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (centralnego organu nadzoru).
  • Komisja będzie wydawać zezwolenia, przyjmować zgłoszenia o incydentach, rozpatrywać skargi, prowadzić kontrole i nakładać kary pieniężne.
  • Dodatkowy nadzór nad systemami sztucznej inteligencji używanymi w ściganiu przestępstw, kontroli granicznej i w wymiarze sprawiedliwości będzie sprawował Prezes UODO.
  • Od decyzji w sprawie administracyjnej kary pieniężnej będzie można odwołać się do Sądu Ochrony Konkurencji i Konsumentów.

Wyzwania praktyczne

Brak uchwalenia krajowej ustawy nie zwalnia organizacji ani biznesu z obowiązku stosowania AI Act, bo to rozporządzenie UE obowiązuje bezpośrednio. Oznacza to jedynie, że część szczegółowych procedur i zasad nadzoru w Polsce jest jeszcze niejasna, np. nadzór nad systemami wysokiego ryzyka czy procedury nakładania kar.

W praktyce oznacza to m.in.:

  • Organizacje już teraz muszą uważać na systemy wysokiego ryzyka, prowadzić dokumentację i oceny ryzyka,
  • Powinny wprowadzać procedury transparentności, np. oznaczać treści tworzone przez AI,
  • Brak krajowej ustawy zwiększa ryzyko niepewności, więc lepiej przygotować się wcześniej, niż czekać na szczegóły,
  • Zgodność z RODO, jeśli systemy AI przetwarzają dane osobowe, organizacje muszą pamiętać o zasadach ochrony danych, przeprowadzać oceny ryzyka.

Co dalej?

Organizacje pozarządowe i przedsiębiorcy korzystający z AI powinni już teraz śledzić postępy prac nad ustawą i przygotowywać się do nadchodzących obowiązków. Chodzi m.in. o dokumentację, procedury, ocenę ryzyka oraz oznaczanie treści tworzonych przez AI. Wczesne przygotowanie ułatwi zgodność z przepisami, bo egzekwowanie unijnych regulacji jest tylko kwestią czasu, a krajowe przepisy doprecyzują jedynie sposób ich stosowania.

Chcesz wprowadzić AI do Twojej fundacji?

Masz jakieś pytania dotyczące konkretnych narzędzi AI lub ich zgodności z RODO? Pamiętaj, że ochrona danych osobowych to dynamiczny proces, który wymaga ciągłej edukacji i uwagi.

Jeśli potrzebujesz wsparcia przy tworzeniu regulaminu korzystania ze sztucznej inteligencji lub przeszkolenia zespołu – zapraszam do kontaktu sara.ferenc@legalden.pl

Co możemy dla Ciebie zrobić:

  • Sprawdzimy, jakich systemów AI używacie i jakie niosą ryzyko
  • Podpowiemy, jak działać zgodnie z AI Act i RODO
  • Przygotujemy procedury i dokumenty, których potrzebujesz w korzystaniu z AI
  • Przeszkolimy Twój zespół w tym jak korzystać z AI zgodnie z zasadami

  • Doświadczenie zawodowe zdobywała w kancelariach specjalizujących się zarówno w obsłudze prawnej podmiotów gospodarczych, jak osób fizycznych. Na co dzień zajmuje się bieżącą obsługą prawną organizacji pozarządowych (NGO), co pozwala jej łączyć pracę zawodową z pasją do działań społecznych. Od zawsze stara się angażować w różnorodne inicjatywy społeczne, mające na celu ochronę praw człowieka oraz promocję równości i sprawiedliwości społecznej. Największe doświadczenie posiada w prowadzeniu spraw karnych. Wiedzę w tym obszarze dodatkowo uzyskała dzięki ukończeniu studiów podyplomowych z zakresu prawa karnego gospodarczego (UW). Prywatnie posiada psa oraz dwa koty. W wolnym czasie uczy się języka hiszpańskiego oraz podejmuje różne aktywności fizyczne.

    Prawo organizacji pozarządowych | prawo karne

Zobacz inne