Sztuczna inteligencja coraz częściej wspiera działy HR, zaczynając od selekcji CV, przez analizę kompetencji, aż po rekomendowanie kandydatów do zatrudnienia. Jednak wraz z wejściem w życie AI Act pojawia się istotna zmiana: narzędzia sztucznej inteligencji wykorzystywane w rekrutacji została uznana za tzw. systemy AI wysokiego ryzyka.
Dla pracodawców oznacza to nie tylko nowe obowiązki prawne, ale też konieczność dokładnego sprawdzenia, jak wykorzystywane są narzędzia oparte na AI w procesach HR.
Dlaczego AI w rekrutacji jest uznawana za system wysokiego ryzyka?
AI Act wprowadza klasyfikację systemów sztucznej inteligencji według poziomu ryzyka. Do kategorii wysokiego ryzyka zaliczono m.in. systemy wykorzystywane do rekrutacji i zarządzania pracownikami. Chodzi w szczególności o narzędzia, które:
- selekcjonują lub filtrują kandydatów (np. automatyczne odrzucanie CV),
- analizują kandydatów podczas rekrutacji (np. ocena nagrań wideo, analiza mimiki lub głosu),
- rankingują kandydatów lub rekomendują ich do zatrudnienia,
- oceniają pracowników lub wpływają na decyzje dotyczące awansu, wynagrodzenia czy rozwiązania umowy.
Unijny prawodawca uznał, że takie systemy mogą bezpośrednio wpływać na dostęp do pracy i rozwój zawodowy, dlatego wymagają szczególnej kontroli.
Checklista dla działu HR
Jeżeli narzędzie AI spełnia kryteria systemu wysokiego ryzyka, pojawia się szereg obowiązków -zarówno po stronie dostawcy systemu, jak i organizacji, która z niego korzysta. Najważniejsze wymagania obejmują:
- Wysoka jakość danych treningowych
Narzędzia muszą być trenowane na reprezentatywnych danych, aby uniknąć tzw. biasu (uprzedzeń). Ma to ograniczyć ryzyko dyskryminacji kandydatów np. ze względu na płeć, wiek czy pochodzenie.Zapytaj dostawcę o jakość danych, na których trenowano model. Jeśli narzędzie do selekcji programistów trenowano wyłącznie na CV mężczyzn, istnieje niemal pewność, że będzie dyskryminować kobiety. Jako użytkownik systemu, musisz mieć pewność, że dostawca minimalizuje ryzyko stronniczości.
- Nadzór człowieka (Human-in-the-loop)
Algorytm nie może samodzielnie „odrzucać” kandydata bez możliwości weryfikacji tej decyzji przez człowieka. Rekruter musi rozumieć, jak system działa i mieć realny wpływ na ostateczny wynik.
- Przejrzystość wobec kandydata i pracowników
Kandydat ma prawo wiedzieć, że w procesie rekrutacji uczestniczy AI. Twoje klauzule informacyjne muszą zostać zaktualizowane o informacje na temat wykorzystania systemów wysokiego ryzyka i tego jakie parametry są oceniane.
- Zarządzanie ryzykiem
System AI musi być zaprojektowany tak, aby minimalizować ryzyko dyskryminacji lub błędnych decyzji. W praktyce oznacza to konieczność regularnej analizy wpływu systemu na proces rekrutacyjny.
- Monitorowanie działania systemu
Organizacja korzystająca z systemu musi monitorować jego działanie i reagować, jeśli pojawią się błędy lub niepożądane efekty (np. system zacznie systematycznie odrzucać określoną grupę kandydatów).
AI w HR – technologia, która wymaga odpowiedzialności
Sztuczna inteligencja może znacząco usprawnić procesy rekrutacyjne – przyspieszyć selekcję kandydatów czy ułatwić analizę dużej liczby aplikacji. Jednocześnie jednak wpływa na jedną z najważniejszych decyzji w życiu zawodowym: dostęp do pracy. Wdrażanie AI Act w HR to przejście od fascynacji do ery odpowiedzialnej technologii. Współpraca HR z działem prawnym i IT stanie się codziennością przy wyborze nowych technologii.
Co grozi za niedopełnienie obowiązków?
Kary za naruszenie przepisów AI Act są progresywne i mogą sięgać nawet 3% globalnego obrotu lub do 15 mln euro (w zależności od tego, która kwota jest wyższa) za nieprzestrzeganie przepisów systemów wysokiego ryzyka.
Masz pytania? Pisz do nas – sara.ferenc@legalden.pl – pomożemy Ci lepiej zrozumieć Twoje prawa!