Artykuły eksperckie

Czy rekrutacja z wykorzystaniem AI jest legalna?

⟨⟨ Powrót
Łukasz Kulicki

Łukasz Kulicki

RADCA PRAWNY

Radca prawny w Kancelarii After Legal specjalizującej się w obsłudze prawnej firm z sektora IT, nowych technologii i branży internetowej, a także podmiotów przechodzących transformację cyfrową. Specjalizuje się w negocjowaniu umów IT, w szczególności umów wdrożeniowych, umów na usługi IT (w tym chmurowych) i umów body leasingowych. Zajmuje się także doradztwem prawnym z zakresu ochrony danych osobowych (RODO), prawa e-commerce i własności intelektualnej.

Masz pytania do autora?
e-mail: kancelaria@afterlegal.pl
tel. +48 500 436 703

Opublikowano:

Sztuczna inteligencja jest dzisiaj wykorzystywana w wielu branżach, także w zarządzaniu zasobami ludzkimi. Automatyzacja powtarzalnych procesów i wsparcie algorytmów uczenia maszynowego w wyborze idealnych kandydatów na dane stanowisko może być doskonałym narzędziem dla dużych organizacji, które potrzebują szybko znaleźć specjalistów. Wdrożenie AI w procesy HR nakłada jednak pewne ograniczenia i stwarza ryzyka, o których trzeba pamiętać. Jak zapewnić legalność rekrutacji z wykorzystaniem AI?

Czego dowiesz się z tego artykułu:

  • Sztuczna inteligencja jest coraz częściej wykorzystywana do przeprowadzania rekrutacji.
  • Wykorzystanie AI do procesów HR wymaga zapewnienia zgodności działań z obowiązującym prawem, przede wszystkim zaś przepisami RODO, kodeksem pracy i rozporządzeniem AI Act.
  • Wdrażając nowoczesne technologie w organizacji, warto korzystać z usług kancelarii prawnej, która przeprowadzi audyt compliance.

W jaki sposób sztuczna inteligencja wspiera proces rekrutacji?

Algorytmy sztucznej inteligencji są masowo wykorzystywane, aby wspierać procesy rekruterów – to już się dzieje! Dzięki temu można znacznie szybciej i trafniej wytypować kandydata na wybrane stanowisko, ograniczając jednocześnie ryzyko uprzedzeń. Obecnie działy odpowiedzialne za wyszukiwanie talentów korzystają ze sztucznej inteligencji, aby:

  • zidentyfikować osoby, których kwalifikacje odpowiadają wymaganiom stawianym na danym stanowisku,
  • wyselekcjonować najlepszych kandydatów spośród początkowego grona,
  • skoordynować rozmowy kwalifikacyjne,
  • na bieżąco monitorować talent pool, czyli bazy potencjalnych kandydatów do pracy.

Naturalnie, aby sieć neuronowa była w stanie wysnuwać logiczne wnioski, musi otrzymać wartościowe dane wejściowe, ale także powinna być wytrenowana na zasobach odpowiadających oczekiwaniom co do precyzji i kompletności właściwych dla danego celu.

Sprawdź również: Jak stworzyć firmową politykę AI, która zabezpieczy interesy pracodawcy?

Jakie ryzyka stwarza wykorzystanie sztucznej inteligencji w rekrutacji?

Zaimplementowanie AI w procesach biznesowych pozwala szybko i efektywnie analizować ogromne zbiory danych. Nie jest to jednak działanie wolne od ryzyka z punktu widzenia obowiązujących przepisów. O czym powinna pamiętać firma, zanim wyłoży niemałe środki na nowoczesne technologie?

Sztuczna inteligencja w rekrutacji a RODO

Pierwsze wyzwania w legalnym stosowaniu sztucznej inteligencji stwarza rozporządzenie RODO, które reguluje kwestie związane z przetwarzaniem danych osobowych. Przede wszystkim klauzula informacyjna dotycząca przetwarzania danych osobowych tworzona na podstawie art. 13 rozporządzenia powinna zawierać wskazanie wprost, że dane kandydata będą przetwarzane przez sztuczną inteligencję.

Należy pamiętać, że przetwarzanie danych osobowych przez AI, pomimo tego, że mówimy o sztucznej inteligencji, nadal jest dokonywane przez algorytm komputerowy, a ten ze swojej istoty jest zautomatyzowany. Oznacza to, że osoba, której dane dotyczą, musi mieć zagwarantowane prawo do odmowy oceny jej CV wyłącznie przez AI, stosownie do brzmienia art. 22 RODO. Dobrym pomysłem jest zamieszczenie w ogłoszeniu o pracę specjalnego checkboxa, który zawiera wyraźną i dobrowolną zgodę na zautomatyzowane przetwarzanie danych osobowych.

To jeszcze nie wszystko. Administrator danych, którym będzie pracodawca lub agencja rekrutacyjna ma obowiązek zapewnić bezpieczeństwo przetwarzania danych osobowych. Przede wszystkim chodzi o ich anonimizację lub szyfrowanie i zarządzanie dostępem tak, aby informacje nie dostały się w niepowołane ręce. Zachowanie standardów RODO ma szczególnie duże znaczenie, kiedy dane są przechowywane na serwerach znajdujących się na obszarze państw trzecich (np. USA), poza terytorium EU i EOG. Trzeba też pamiętać, że niekiedy komplet dokumentów rekrutacyjnych obejmuje również dane wrażliwe, których przetwarzanie jest szczególnie silnie chronione.

Po stronie administratora danych osobowych leży, aby zadbać o należyte odizolowanie danych kandydatów do pracy od środowiska AI. Fakt, że sztuczna inteligencja otrzymuje komplet danych wejściowych, nie oznacza jeszcze, że te same dane mogą zostać następnie wykorzystane jako zbiory treningowe dla modelu.

Sprawdź również: Audyt zgodności z RODO – jak go przeprowadzić?

Sztuczna inteligencja w rekrutacji a AI Act

Systemy sztucznej inteligencji, których zadaniem jest zatrudnianie, zarządzanie pracownikami i dostęp do samozatrudnienia są kwalifikowane jako AI wysokiego ryzyka w świetle przepisów rozporządzenia AI Act zgodnie z art. 6 ust. 2 aktu wykonawczego i załącznika nr III.

W praktyce oznacza to, że dostawca systemu powinien zapewnić compliance w zakresie wymogów, jakie unijny ustawodawca stawia systemom AI wysokiego ryzyka. Tych wymagań jest dosyć sporo, a wśród najważniejszych należy wymienić:

  • opracowanie systemu zarządzania ryzykiem,
  • zapewnienie, że modeli AI są uczone z wykorzystaniem danych treningowych, walidacyjnych i testowych spełniających kryteria jakości,
  • sporządzenie kompleksowej dokumentacji technicznej dla systemu AI, a także jej aktualizacja,
  • konieczność zaimplementowania rejestratora zdarzeń,
  • obowiązek zapewnienia przejrzystości systemu, czyli możliwości ustalenia przez operatora, dlaczego system podjął taką, a nie inną decyzję,
  • wdrożenie mechanizmu nadzoru ze strony człowieka,
  • zapewnienie zapewnienia przez algorytmy AI odpowiedniego poziomu dokładności, solidności i cyberbezpieczeństwa.

Naruszenie któregokolwiek z powyższych warunków może powodować, że korzystanie z AI będzie naruszało przepisy rozporządzenia. Decydując o wyborze dostawcy systemu, pracodawca lub agencja zajmująca się naborem pracowników powinni upewnić się, że zapewnia on spójność infrastruktury z wymaganiami formalnymi.

Sztuczna inteligencja w rekrutacji a przepisy prawa pracy

Korzystanie z zautomatyzowanych algorytmów rodzi ryzyko naruszenia norm praw pracy, a dokładniej, przepisów o dyskryminacji. Dla przypomnienia warto wskazać, że – zgodnie z art. 113 k.p. – w zatrudnieniu niedopuszczalna jakakolwiek dyskryminacja, bezpośrednia lub pośrednia, w szczególności ze względu na płeć, wiek, niepełnosprawność, rasę, religię, narodowość, przekonania polityczne, przynależność związkową, pochodzenie etniczne, wyznanie, orientację seksualną, zatrudnienie na czas określony lub nieokreślony, zatrudnienie w pełnym lub w niepełnym wymiarze czasu pracy.

Łatwo wyobrazić sobie sytuację, kiedy AI będzie automatycznie odrzucało aplikacje kobiet na stanowiska techniczne, CV osób starszych lub tych, które mają specjalne potrzeby. Aby uniknąć tego rodzaju problemów, należy w odpowiedni sposób zoptymalizować model AI. To zadanie należy już do dostawcy usługi, ale pracodawca lub agencja rekrutacyjna powinni zadbać o odpowiednie zastrzeżenia w umowie o współpracę.

Jak zapewnić bezpieczeństwo korzystania z narzędzi AI w organizacji?

Decydując się na korzystanie z AI, trzeba pamiętać o przestrzeganiu kilku zasad, które zapewnią legalność takiego rozwiązania. Przede wszystkim warto regularnie audytować algorytm. W tym celu można zapoznać się z dokumentację techniczną produktu oraz wynikami podejmowanych przez niego działań. Dobrze jest też manualnie weryfikować niektóre z wyników wygenerowanych przez AI.

W przypadku systemów, które przeprowadzają ocenę kandydatów na dużą skalę, administrator danych powinien zadbać o ocenę skutków dla ochrony danych. DPIA składa się z opisu operacji przetwarzania danych, oceny ryzyka i wdrożenia ewentualnych środków zaradczych. Ocena powinna zakończyć się opracowaniem raportu.

Należy zadbać, aby nad całym procesem kontrolę sprawował człowiek, który jest w stanie ocenić rzetelność działania systemów. W tym celu trzeba regularnie szkolić zespoły HR, aby umiejętnie korzystały z nowoczesnych technologii.

Sprawdź również: Procedura korzystania z narzędzi AI w firmie. Jak ją opracować?

Czy Twoja firma może powierzyć proces rekrutacji zewnętrznej firmie, która wykorzystuje do tego narzędzia AI?

Jest to możliwe, ale należy zadbać o odpowiednie skonstruowanie umowy o współpracę, m.in. poprzez zawarcie umowy powierzenia przetwarzania danych oraz wytyczenie granic korzystania ze sztucznej inteligencji. Ważne, aby firma zajmująca się HR-em złożyła oświadczenia dotyczące jakości pozyskanego modelu AI i jego zgodności z prawem.

Obsługa prawna projektów AI – Doradztwo prawne AI – Kancelaria After Legal

Obszar nowych technologii nie ma przed nami tajemnic, dlatego naszym klientom oferujemy kompleksową obsługę prawną projektów AI, która w realny sposób przyczyni się do poprawy wyników biznesowych. Dzięki naszemu wsparciu możesz skupić się na tworzeniu rozwiązań implementujących nowe technologie oparte na AI w organizacji. Jeśli potrzebujesz pomocy we wdrożeniu sztucznej inteligencji w firmie, możemy Ci w tym pomóc. Dla naszych klientów:

  • przeprowadzamy audyty wewnętrzne w zakresie RODO, AI, HR,
  • pomagamy zaimplementować nowoczesne technologie w sposób zgodny z prawem,
  • szkolimy pracowników i kadrę zarządzającą,
  • świadczymy kompleksową obsługę prawną firmowych projektów wdrożeń AI.