Ułatwienia dostępu

AI i ochrona danych osobowych [case study]

Agencja marketingowa, z którą pracujemy od kilku lat, planowała rozpocząć korzystanie z systemów sztucznej inteligencji.

Największym wyzwaniem było:
• jak korzystać z AI zgodnie z RODO,
• jak uniknąć ryzyka naruszenia ochrony danych osobowych (np. podczas trenowania modeli),
• jak przygotować procedury i regulaminy wewnętrzne, które pozwolą pracownikom bezpiecznie używać narzędzi AI.

Co przygotowaliśmy

  • Przygotowaliśmy listę zasad, jakimi agencja powinna się kierować przy korzystaniu z systemów AI, ze szczególnym uwzględnieniem ochrony danych osobowych, przetwarzania danych w oparciu o przesłankę prawnie uzasadnionego interesu oraz wymogów dotyczących pseudonimizacji i anonimizacji.
  • Stworzyliśmy wytyczne do wewnętrznej polityki korzystania z narzędzi AI, określające zasady i ograniczenia wprowadzania danych.
  • Przeprowadziliśmy ocenę skutków dla ochrony danych w zakresie korzystania z systemów AI.
  • Przeprowadziliśmy test równowagi interesu w zakresie powoływania się na przesłankę prawnie uzasadnionego interesu jako podstawę przetwarzania danych osobowych w systemach AI.

Polityka AI pozwala ujednolicić praktyki w całej organizacji i chronić przed nieświadomym naruszeniem prawa przez pracowników. Ocena skutków była konieczna, aby zidentyfikować ryzyka związane z przekazywaniem danych osobowych do systemów AI.

Przeprowadzenie testu równowagi interesu pozwoliło wykazać, że interes agencji jest uzasadniony i nie narusza praw i wolności osób, których dane dotyczą.

Co udało się osiągnąć dzięki naszej współpracy?

Agencja może bezpiecznie wdrożyć narzędzia AI do analizy danych i automatyzacji kampanii. Wspólnie zminimalizowaliśmy ryzyko naruszenia przepisów RODO. Zespół zyskał wiedzę i narzędzia do efektywnego korzystania z AI.

Organizacja stworzyła fundament pod dalsze wdrożenia AI – z gotowym frameworkiem prawnym i organizacyjnym.

Dzięki procedurom, które wspólnie wdrożyliśmy, agencja może mniej czasu przeznaczać na przygotowanie kampanii marketingowych, bo bezpiecznie i w przemyślany sposób korzysta z narzędzi AI. Dodatkowo firma wzmocniła swoją wiarygodność rynkową, pokazując, że inwestuje w innowacje zgodnie z regulacjami prawnymi.

Przy projekcie pracowały: Sara Ferenc i Natalia Kolbus

Słowniczek

RODO – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE, potocznie nazywane RODO. 

Test równowagi interesu – ocena czy interes organizacji, która chce przetwarzać dane osobowe jest uzasadniony. Innymi słowy, nie jest mniej ważny niż prawa i wolności osoby, której dane dotyczą. Jest wymagany wtedy, kiedy przetwarzane są dane osobowe na podstawie tzw. prawnie uzasadnionego interesu (art. 6 ust. 1 lit. f RODO).

Ocena skutków dla ochrony danych – proces, podczas którego sprawdzane jest czy występuje ryzyko naruszenia praw osób, których dane są przetwarzane i jakie środki trzeba wdrożyć, aby te ryzyka zminimalizować.

Potrzebujesz naszej pomocy we wdrożeniu narzędzi AI zgodnie z prawem? Zostaw nam wiadomość – odezwiemy się w ciągu 24 godzin.

  • Doświadczenie zawodowe zdobywała w kancelariach specjalizujących się zarówno w obsłudze prawnej podmiotów gospodarczych, jak osób fizycznych. Na co dzień zajmuje się bieżącą obsługą prawną organizacji pozarządowych (NGO), co pozwala jej łączyć pracę zawodową z pasją do działań społecznych. Od zawsze stara się angażować w różnorodne inicjatywy społeczne, mające na celu ochronę praw człowieka oraz promocję równości i sprawiedliwości społecznej. Największe doświadczenie posiada w prowadzeniu spraw karnych. Wiedzę w tym obszarze dodatkowo uzyskała dzięki ukończeniu studiów podyplomowych z zakresu prawa karnego gospodarczego (UW). Prywatnie posiada psa oraz dwa koty. W wolnym czasie uczy się języka hiszpańskiego oraz podejmuje różne aktywności fizyczne.

    Prawo organizacji pozarządowych | prawo karne

Zobacz inne