Sztuczna inteligencja nie jest neutralna. W praktyce może zarówno wzmacniać inkluzywność, jak i utrwalać istniejące nierówności. Kluczowe pytanie brzmi nie czy korzystać z AI, lecz jak robić to w sposób odpowiedzialny i zgodny z prawem.
Systemy sztucznej inteligencji uczą się na danych. Jeśli dane są niepełne, niereprezentatywne lub obciążone historycznymi uprzedzeniami, algorytm powiela te schematy. W efekcie AI może dyskryminować osoby nawet jeśli intencją organizacji było jedynie „usprawnienie” procesu decyzyjnego.
Z perspektywy inkluzywności szczególnie problematyczne są obszary, w których decyzje podejmowane z pomocą AI mają realny wpływ na sytuację życiową człowieka, takie jak edukacja, rekrutacja, czy dostęp do świadczeń.
Inkluzywność wchodzi do prawa nowych technologii
Unijny Akt o sztucznej inteligencji (AI Act) wprowadza system regulacji oparty na poziomach ryzyka. Narzędzia wykorzystywane w rekrutacji, selekcji kandydatów, ocenie pracowników czy zarządzaniu personelem zostały zakwalifikowane jako systemy wysokiego ryzyka.
Dla organizacji korzystających z takich rozwiązań oznacza to konkretne obowiązki:
- Zapewnienie nadzoru człowieka nad działaniem systemu – decyzje nie mogą być w pełni automatyczne,
- Transparentność – organizacja musi wiedzieć, jak działa system AI i jakie ryzyka się z nim wiążą, a dodatkowo musi informować użytkowników o jej stosowaniu,
- Zakaz stosowania systemów prowadzących do dyskryminacji,
- Obowiązek korzystania z danych możliwie reprezentatywnych i wolnych od uprzedzeń,
- Obowiązek szkoleń pracowników korzystających z systemów AI.
Brak wiedzy o tym, jak działa narzędzie dostarczone przez zewnętrznego dostawcę, nie zwalnia z odpowiedzialności.
Rekrutacja i „cicha dyskryminacja”
Jednym z najczęstszych zastosowań AI są systemy ATS analizujące CV kandydatów. Choć mają one przyspieszać proces rekrutacji, mogą prowadzić do tzw. cichej dyskryminacji. Na przykład automatycznego odrzucania osób z przerwami w zatrudnieniu.
Przykład Amazona, który zrezygnował z algorytmu faworyzującego mężczyzn, pokazuje, że nawet zaawansowane technologicznie rozwiązania mogą utrwalać nierówności, jeśli są trenowane na nieodpowiednich danych.
AI jako narzędzie wspierające inkluzywność
Jednocześnie sztuczna inteligencja może realnie zwiększać dostępność i wyrównywać szanse. Narzędzia do dyktowania tekstu, automatyczne napisy czy aplikacje opisujące otoczenie wspierają osoby z niepełnosprawnościami, neuroatypowością czy innymi barierami. W tym ujęciu AI staje się nie zagrożeniem, lecz narzędziem realizacji prawa do równego udziału w życiu społecznym i zawodowym.
Gdzie kończy się prawo, a zaczyna etyka
Prawo, w tym także AI Act, wyznacza minimum. Nie odpowiada jednak na wszystkie kwestie związane z inkluzywnością. Nie reguluje kultury organizacyjnej, języka komunikacji ani tego, czy organizacja testuje swoje narzędzia pod kątem realnych skutków dla różnych grup użytkowników.
Dlatego odpowiedzialne korzystanie z AI wymaga czegoś więcej niż formalnej zgodności z przepisami. Wymaga refleksji nad tym, kogo technologia może wykluczać, i świadomych decyzji organizacyjnych.
Inkluzywność w AI to proces
Inkluzywność w kontekście sztucznej inteligencji to proces ciągłego monitorowania, zadawania pytań i wprowadzania rozwiązań. Organizacje, które traktują AI wyłącznie jako narzędzie optymalizacji, ryzykują naruszenie prawa i utratę zaufania. Te, które widzą w niej także odpowiedzialność społeczną, mogą realnie wykorzystać jej potencjał do budowania bardziej dostępnych i sprawiedliwych struktur.
Masz pytania? Pisz do nas – sara.ferenc@legalden.pl – pomożemy Ci lepiej zrozumieć Twoje prawa!