Ułatwienia dostępu

AI, dane i prawa autorskie: jak zabezpieczyć umowy z podwykonawcami i wolontariuszami

Sztuczna inteligencja coraz częściej wkracza do naszego życia, a tym samym do naszej organizacji. Ważne, aby pamiętać, że jeśli dopuszczamy jej stosowanie, powinniśmy także zastanowić się, na jakiej zasadzie mogą z niej korzystać inne osoby.

Jeśli współpracujesz z podwykonawcami, wolontariuszami czy innymi osobami, które wykonują zadania dla Twojej organizacji, warto zadbać o odpowiednie zabezpieczenia w umowach i wytycznych współpracy. Podpisana umowa daje Ci formalne potwierdzenie ustaleń, dlatego dobrze jest zawrzeć w niej zapisy regulujące kwestie bezpieczeństwa i odpowiedzialności związane ze sztuczną inteligencją.

Poniżej znajdziesz nasze rekomendacje, które mogą Ci pomóc przygotować umowę, która będzie odpowiednio zabezpieczać prawa Twojej fundacji lub stowarzyszenia.

Określenie w umowie dopuszczalnych narzędzi

Zacznijmy od tego, że wprowadzając narzędzia AI, powinniśmy je zweryfikować pod kątem ich bezpieczeństwa i zasad działania, a te określone są zazwyczaj w regulaminach i politykach dostawcy danego narzędzia. Dlatego też dobrą praktyką jest określenie, jakie narzędzia są dopuszczalne do użycia przez podwykonawców, wolontariuszy, a także inne osoby z nami współpracujące. Możemy wskazać, że zabronione jest wykorzystanie darmowych wersji i zobowiązać do korzystania z komercyjnych rozwiązań, które gwarantują lepszy poziom bezpieczeństwa. W umowie można też zobowiązać osoby współpracujące, do właściwej konfiguracji narzędzi w celu zapewnienia maksymalnego bezpieczeństwa – możemy przedstawić wytyczne w tej sprawie.

 Dane osobowe

Jeśli podmioty, z którymi współpracujemy, będą wykorzystywać dane osobowe, które im przekażemy, powinniśmy jasno określić zasady, na jakich będzie się to odbywać. Z tego względu kluczowe jest dopuszczenie tylko tych narzędzi, które gwarantują należytą ochronę danych, w szczególności nie trenują swoich modeli na danych osobowych, a także takich, które np. pozwalają na wyłączenie funkcji zapisu rozmów. W pierwszej kolejności możliwość przetwarzania danych przez podmioty, z którymi współpracujemy, powinna być zgodna z zasadami dotyczącymi ochrony przetwarzania danych w naszej organizacji. Warto wprowadzić rozwiązania dające nam np. możliwość weryfikacji, w jaki sposób i w jakich narzędziach AI dane są przetwarzane.

Prawa autorskie

Obecnie kwestia tego czy do wytworów sztucznej inteligencji przysługują prawa autorskie, nie jest jednoznaczna. Prawa autorskie przysługują osobie fizycznej, która stworzyła dany utwór. W przypadku AI dochodzi do sytuacji, w której to algorytmy „wytwarzają” utwór.

Dlatego jeśli zależy nam na przeniesieniu praw autorskich na naszą organizację, powinniśmy mieć pewność, że takie prawa przysługują osobie, która wykonała dla nas prace. W przypadku współpracy z grafikami, np. przy tworzeniu logo, możemy wyłączyć możliwość korzystania z systemów AI. Wynika to z właśnie z faktu, że obecnie treści wygenerowane przez sztuczną inteligencję co do zasady nie podlegają ochronie prawnoautorskiej, a więc prawa takie nie mogą zostać skutecznie przeniesione na zamawiającego. Być może w przyszłości się to zmieni, obecnie jednak „prawo autorskie nie nadążyło za rozwojem AI”.

Kontrola

Jeśli chcemy sobie zapewnić mechanizmy, które pozwolą nam mieć realny wpływ na to jak podmioty, z którymi współpracujemy, korzystają z narzędzi AI, to możemy zagwarantować sobie prawo kontroli używanych narzędzi, np. poprzez obowiązek uzyskania akceptacji możliwości wykorzystania danego narzędzia czy prawo do żądania złożenia wyjaśnień. Dobrym rozwiązaniem jest nałożenie na współpracowników obowiązku informowania o incydentach związanych z bezpieczeństwem, np. pracy w nieautoryzowanej wersji narzędzia. Warto określić procedury zgłaszania takich sytuacji oraz zobowiązać podmioty do informowania nas, co zostało stworzone przy użyciu AI. Możemy także całkowicie zakazać korzystania z AI, jeśli zależy nam, żeby prace wykonał w całości „człowiek”.

Weryfikacja

Kolejnym zaleceniem, w mojej ocenie jednym z ważniejszych, jest obowiązek weryfikacji rezultatów pracy przygotowanej przy użyciu AI przez człowieka. Niezależnie od dopuszczenia takich narzędzi, powinna istnieć kontrola jakości i poprawności treści. W końcu odpowiedzialność za stworzone treści ponosić będzie podmiot współpracujący, a nie AI. Jeśli zależy nam na zabezpieczeniu interesów organizacji, to w umowach z podwykonawcami, możemy jasno zaznaczyć, że nawet jeśli dopuścimy możliwość wykorzystania AI, to oni ponoszą odpowiedzialność za rezultat wykonanych prac.

Szkolenia dla zespołów

Dobrą praktyką, szczególnie w sytuacji w jakiej, wykorzystanie AI, będzie powszechne, jest zobowiązanie do tego, aby zespoły naszych kontrahentów/podwykonawców były szkolone z zasad korzystania z AI. Podnoszenie świadomości może znacząco wpłynąć na bezpieczeństwo w zakresie korzystania z narzędzi.

Zasady działają w dwie strony

Pamiętaj jednak, że te wymagania mogą działać w dwie strony. Nie tylko Ty możesz żądać od współpracowników procedur związanych ze sztuczną inteligencją. To może dotyczyć także Ciebie. Sprawdź, czy Twoja organizacja na pewno może korzystać z rozwiązań AI we wszystkich projektach i w jakim zakresie. Być może umowy, które już podpisaliście, do czegoś Was zobowiązują.

Umowy i wytyczne współpracy powinny jasno regulować: dopuszczone narzędzia, sposób ich konfiguracji, zakaz lub sposób wprowadzania danych osobowych i poufnych, obowiązek zgłaszania incydentów, odpowiedzialność za szkody, zasady dotyczące praw autorskich, kontrolę i weryfikację treści oraz szkolenia zespołów. Takie podejście pozwala ograniczyć ryzyka i zapewnić bezpieczeństwo zarówno prawne, jak i organizacyjne.

Chcesz wprowadzić AI do Twojej fundacji?

Jeśli potrzebujesz podpowiedzi, w jaki sposób w Twojej organizacji wdrożyć sztuczną inteligencję zgodnie z prawem, możemy Ci w tym pomóc.

  • Sprawdzimy, jakich systemów AI używacie i jakie niosą ryzyko
  • Podpowiemy, jak działać zgodnie z AI Act i RODO
  • Przygotujemy procedury i dokumenty, których potrzebujesz w korzystaniu z AI
  • Przeszkolimy Twój zespół w tym jak korzystać z AI zgodnie z zasadami

Wypełnij formularz i napisz, na czym Ci zależy, a my odezwiemy się Ciebie w ciągu 24 godzin i opowiemy o możliwościach naszej współpracy.

  • Radca prawny od zawsze zaangażowana w życie NGO. W kancelarii zajmuje się umowami, regulaminami, a także ochroną danych osobowych i bieżącym doradztwem prawnym, ze szczególnym uwzględnieniem fundacji korporacyjnych. Posiada duże doświadczenie we wdrażaniu Standardów Ochrony Małoletnich. Podczas studiów aktywnie udzielała się w organizacjach pozarządowych i wolontariatach, dlatego też dobrze rozumie problemy trzeciego sektora. Absolwentka Uniwersytetu Marii Curie-Skłodowskiej w Lublinie oraz studiów podyplomowych z zakresu prawa nowych technologii (INP PAN), Cyber Science (Uniwersytet Śląski). Prywatnie mama dwójki maluchów, która stara pogodzić się te dwa światy. Lubi jazdę na rolkach, festiwale muzyczne i kocha Półwysep Helski.

    RODO | fundacje korporacyjne

Zobacz inne