Unijne rozporządzenie w sprawie sztucznej inteligencji, zwane AI Act, ma jeden główny cel: stworzyć jasne zasady dla rozwoju i używania AI. Chodzi o to, żeby sztuczna inteligencja była bezpieczna, etyczna i zgodna z prawami człowieka.
Chociaż przepisy są często kojarzone z firmami technologicznymi, prawo to ma również realne znaczenie dla organizacji pozarządowych. A zwłaszcza tych, które aktywnie korzystają z technologii AI w swojej codziennej pracy.
Podział na kategorie ryzyka i związane z tym obowiązki
AI Act dzieli systemy sztucznej inteligencji na różne grupy, w zależności od tego, jak duże stwarzają ryzyko.
- Ryzyko niedopuszczalne: To systemy AI, których używanie jest całkowicie zakazane. Chodzi o te, które manipulują ludzkim zachowaniem lub służą do „punktowania” obywateli na podstawie ich zachowania w życiu codziennym (tzw. „scoring społeczny”).
- Wysokie ryzyko: To systemy, które mają duży wpływ na życie ludzi. Przykładem jest AI używana w rekrutacji do pracy, edukacji, ocenie zdolności kredytowej czy w sprawach migracyjnych. Jeśli organizacja pozarządowa (NGO) używa takiego systemu (na przykład do wyboru wolontariuszy czy oceny wniosków o pomoc), musi spełnić szereg ważnych wymagań:
- Zarządzanie ryzykiem: Muszą być wdrożone procesy do oceny i minimalizowania potencjalnych ryzyk.
- Dokumentacja: Należy prowadzić dokładne zapisy, które pokazują, jak system działa i że jest zgodny z przepisami.
- Nadzór ludzki: To człowiek musi weryfikować i kontrolować decyzje, które podejmuje AI.
- Transparentność: Użytkownicy muszą być jasno informowani o tym działaniu AI.
- Audyty: System powinien być regularnie sprawdzany i oceniany.
- Ograniczone ryzyko: Są to narzędzia takie jak chatboty czy generatory obrazów, które nie stwarzają dużego zagrożenia. W ich przypadku główna zasada to przejrzystość. Musisz po prostu poinformować użytkownika, że ma do czynienia ze sztuczną inteligencją. Dzięki temu ludzie wiedzą, z czym mają do czynienia, a Ty budujesz zaufanie.
- Minimalne ryzyko: Większość narzędzi AI, jak proste filtry antyspamowe, czy Grammarly należy do tej grupy. Nie podlegają one żadnym dodatkowym, specjalnym zasadom.
Wewnętrzne polityki i szkolenia
Aby dostosować się do wymogów AI Act i działać etycznie, NGO już teraz powinny:
- Opracować wewnętrzne polityki: Stworzyć Regulamin korzystania ze sztucznej inteligencji, określający zasady i cele wykorzystania tych narzędzi w organizacji.
- Przeprowadzić audyty: Regularnie sprawdzać, czy narzędzia AI są używane zgodnie z prawem w organizacji pozarządowej oraz czy są zgodne z przepisami RODO.
- Szkolić – nie tylko pracowników!: Zapewnić pracownikom, współpracownikom i wolontariuszom odpowiednią wiedzę i umiejętności w zakresie AI (tzw. AI Literacy), aby mogli świadomie i odpowiedzialnie korzystać z nowych narzędzi.
Przeczytaj także: https://legalden.pl/ai-dane-i-prawa-autorskie-jak-zabezpieczyc-umowy-z-podwykonawcami-i-wolontariuszami/
Transparentność w rozmowach z AI
W przypadku rozmów z chatbotami, kluczowe jest informowanie użytkowników, że nie rozmawiają z człowiekiem, lecz ze sztuczną inteligencją.
Użytkownik ma prawo wiedzieć, z kim lub czym rozmawia. Ta wiedza pozwala mu podjąć świadomą decyzję o tym, jak prowadzić rozmowę i jakie informacje udostępniać.
w przypadku, gdy chatbot prowadzi bezpośrednią interakcję z użytkownikiem i dla odbiorcy nie jest to oczywiste to konieczne jest poinformowanie go o tym, że rozmawia z treściami generowanymi przez AI. Jest to prosta zasada, która ma ogromne znaczenie dla etycznego i odpowiedzialnego korzystania z technologii.
Obowiązek oznaczania treści wygenerowanych przez Sztuczną Inteligencję
Od 2 sierpnia 2026 r. zaczyna obowiązywać wymóg oznaczania treści sztucznie generowanych lub zmanipulowanych przez AI.
Od tego momentu musisz poinformować swoich odbiorców, że dany tekst, grafika, nagranie dźwiękowe czy wideo zostały wygenerowane przez AI, jeśli:
- wyglądają jak prawdziwe,
- mogą wprowadzać odbiorców w błąd,
- i mogą zostać uznane za czyjąś wypowiedź.
A także, gdy AI tworzy deepfake lub zmienia oryginalną treść w taki sposób, że jej sens, znaczenie lub odbiór zostają istotnie przekształcone,
AI generuje tekst w celu informowania społeczeństwa o sprawach leżących w interesie publicznym.
Ochrona danych
Przy wprowadzaniu danych osobowych do narzędzi AI, bardzo ważne jest przestrzeganie przepisów związanych z ochroną danych osobowych.
Organizacje, które używają AI, muszą mieć pewność, że ich systemy chronią prywatność użytkowników i nie naruszają ich praw. To oznacza, że muszą wdrożyć odpowiednie zabezpieczenia. I przede wszystkim pamiętać o podstawowych zasadach przetwarzania danych – minimalizacji danych, celowości, ograniczenia przechowywania.
Więcej na ten temat przeczytasz: https://legalden.pl/ai-a-dane-osobowe-dlaczego-organizacje-pozarzadowe-szczegolnie-powinny-uwazac-na-to-jak-korzystaja-z-ai/
Odpowiedzialność i kary pieniężne
Naruszenia przepisów AI Act mogą wiązać się z wysokimi karami finansowymi, chociaż ich wysokość jest różna w zależności od skali naruszenia i statusu podmiotu. Dla NGO kluczowe jest jednak nie tylko unikanie kar, ale także dbałość o reputację i zaufanie, które są podstawą ich działania. Brak odpowiedzialnego podejścia do AI może prowadzić do utraty wiarygodności w oczach darczyńców i beneficjentów.
Podsumowując, choć AI Act nie jest skierowany bezpośrednio do sektora non-profit, nakłada na niego konkretne obowiązki, niezależnie od tego jakich systemów czy narzędzi używana organizacja pozarządowa.
Nawet w przypadku prostszych narzędzi kluczowe stają się transparentność, etyka i wewnętrzne procedury, które pozwalają na bezpieczne i odpowiedzialne wdrażanie technologii.
Jeśli potrzebujesz wsparcia przy tworzeniu Regulaminu Korzystania ze Sztucznej Inteligencji lub przeszkolenia zespołu – zapraszam do kontaktu sara.ferenc@legalden.pl