Rozwiązania oparte na sztucznej inteligencji rewolucjonizują dziś obszar zarządzania zasobami ludzkimi. Specjaliści HR mają dziś do dyspozycji m.in. narzędzia automatyzujące procesy rekrutacyjne oraz rozwiązania pomagające w ocenie efektywności pracowników i w skutecznym zarządzaniu talentami. Jednak pomimo licznych korzyści, jakie przynosi AI, stosowanie algorytmów sztucznej inteligencji w obszarze HR nie jest wolne od licznych dylematów etycznych. Z jakimi wątpliwościami o charakterze etycznym może wiązać się wykorzystywanie sztucznej inteligencji w procesach HR-owych? Jak skutecznie je wyeliminować? Odpowiedzi na te pytania znajdziesz w artykule.

w jaki sposób algorytmy sztucznej inteligencji wspierają HR?

Według danych Society for Human Resource Management nawet 88% firm na całym świecie wykorzystuje jakąkolwiek formę sztucznej inteligencji, by wspierać swoje działania HR-owe – m.in. w zakresie rekrutacji, ewaluacji pracowników czy onboardingu. Narzędzia AI pomagają skrócić czas potrzebny na zapełnienie wakatu, wspierają rekruterów w szybszym przygotowywaniu ofert pracy i analizowaniu kandydatur czy w podejmowaniu decyzji o dalszym rozwoju pracowników w organizacji. 

Jest to możliwe przede wszystkim dlatego, że algorytmy sztucznej inteligencji są w stanie w krótkim czasie przetworzyć i przeanalizować dużą ilość danych. W przypadku rekrutacji są to m.in. nadesłane CV i listy motywacyjne, wyniki testów, historię zatrudnienia czy dane udostępniane przez kandydatów w mediach społecznościowych, o ile kandydat zgodził się na ich przekazanie. Na podstawie tych informacji mogą automatycznie ocenić dopasowanie kandydatów do stanowisk, przewidzieć ich potencjalny sukces w firmie czy sprawdzić ich zgodność z kulturą organizacyjną. Dzięki temu – jak czytamy w raporcie Randstad „Rynek pracy i AI. Powód do obaw czy szansa?” – specjaliści HR mogą uwolnić się od niektórych żmudnych prac i tym samym zwiększyć swoją efektywność oraz skupić się na najważniejszych zadaniach.

Jednak wprowadzając rozwiązania AI do procesów HR  w firmie i korzystając z nich na co dzień, warto myśleć nie tylko o tym, w jaki sposób sztuczna inteligencja może pomóc zwiększać efektywność pracy. Równie ważną perspektywą, na jaką trzeba obecnie zwrócić uwagę, jest etyka wykorzystywania AI w obszarze HR.

sektor IT, sztuczna inteligencja
sektor IT, sztuczna inteligencja

z jakimi dylematami etycznymi może wiązać się wykorzystywanie sztucznej inteligencji w obszarze HR?

powielanie uprzedzeń

Jednym z najważniejszych dylematów, jakie wiążą się z wykorzystaniem AI w HR jest powielanie uprzedzeń. Modele sztucznej inteligencji są bowiem trenowane na dostarczonych im danych historycznych. A takie dane mogą zawierać ukryte uprzedzenia – na przykład dotyczące płci, rasy czy wieku, a nawet poglądów politycznych. Taki stan rzeczy budzi wiele słusznych obaw. Jeśli dane użyte do trenowania sztucznej inteligencji wykorzystywanej w rekrutacji nie są wolne od uprzedzeń, algorytmy mogą nieświadomie preferować kandydatów o określonym pochodzeniu, wykształceniu czy płci – i właśnie ich rekomendować na określone stanowiska, prowadząc do tworzenia i utrwalania nierówności w miejscu pracy oraz ograniczenia różnorodności.

Przykładowo: w sytuacji, w której system AI służący do rekrutacji był trenowany na danych, w których dominowali mężczyźni na określonych stanowiskach, może niekorzystnie oceniać kandydatki aplikujące na te same pozycje w firmie i częściej odrzucać ich kandydatury.

brak transparentności

Kolejny dylemat etyczny związany z obecnością AI w procesach HR dotyczy transparentności decyzji podejmowanych przez algorytmy oraz trudności w zrozumieniu, w jaki sposób sztuczna inteligencja dokonuje wyborów.

Algorytmy AI, przeprowadzając procesy decyzyjne, zazwyczaj opierają się na złożonych modelach danych, które nie zawsze są łatwe do zrozumienia i zinterpretowania przez ludzi. To oznacza, że zarówno pracownicy, jak i kandydaci mogą nie wiedzieć, na podstawie jakich dokładnie kryteriów dokonano selekcji lub podjęto decyzję – na przykład w procesie rekrutacyjnym lub w kwestii awansu. Co dzieje się, gdy sposób podejmowania decyzji w obszarze zatrudnienia nie jest jasny, przejrzysty i możliwy do wytłumaczenia? Osoby, których te decyzje dotyczą, mogą czuć się potraktowane niesprawiedliwie i stracić zaufanie do danego pracodawcy.

Jak zauważają eksperci McKinsey, brak transparentności utrudnia także weryfikację, czy AI wspiera firmowe procesy w sposób zgodny z obowiązującymi przepisami prawa, polityką różnorodności i wartościami organizacji.

prywatność danych

Użycie AI w obszarze HR wymaga gromadzenia, przechowywania i analizowania dużych ilości danych osobowych pracowników i kandydatów. Zbieranie i analizowanie tych danych przez systemy AI rodzi ważne pytania dotyczące etyczności ich przetwarzania i bezpieczeństwa: czy dane są przetwarzane zgodnie z obowiązującymi przepisami o ochronie danych osobowych oraz z zasadami bezpieczeństwa obowiązującymi w firmie? Czy są odpowiednio chronione przed wyciekiem lub nieautoryzowanym dostępem? Czy wszystkie osoby, których dotyczą dane, wyraziły zgodę na ich przetwarzanie?

jak wyeliminować nieetyczność z procesów HR prowadzonych z wykorzystaniem AI?

Biorąc pod uwagę wszystkie wspomniane wyżej dylematy, jednym z głównych wyzwań, z którym muszą zmierzyć się dziś firmy stosujące narzędzia oparte na sztucznej inteligencji w obszarze HR, jest wyeliminowanie nieetyczności z tych procesów. W jaki sposób mogą to zrobić? Oto pięć rozwiązań, które warto wdrożyć:

minimalizacja stronniczości algorytmów wykorzystywanych w HR

By znacznie zmniejszyć ryzyko, że decyzje podejmowane przez AI będą oparte na uprzedzeniach, przede wszystkim trzeba przyjrzeć się danym, które są używane do trenowania sztucznej inteligencji wykorzystywanej w procesach HR. Warto upewnić się, że są to dane różnorodne i reprezentatywne. Właśnie dlatego rekomendujemy wprowadzenie do zespołu specjalistów, którzy zadbają o ten ważny aspekt pracy z narzędziami AI. Szczególnie ważna będzie tutaj rola kuratora danych – specjalisty odpowiedzialnego za selekcję danych używanych do treningu pod kątem eliminacji uprzedzeń. Warto także podjąć współpracę z audytorami AI, którzy będą przeprowadzać regularne przeglądy algorytmów pod kątem stronniczości i wskazywać pojawiające się problemy. A także z ekspertami dziedzinowymi, którzy pomogą projektować i wdrażać systemy AI wolne od dyskryminacji.

połączenie ludzkich kompetencji z możliwościami AI

Następnym sposobem na to, aby zmniejszyć liczbę błędów wynikających z uprzedzeń, jest zmiana podejścia do roli, jaką powinno pełnić AI w dziale HR. Sztuczna inteligencja powinna być traktowana jako wsparcie w podejmowaniu decyzji HR-owych, a nie całkowicie zastępować w nich ludzi. Włączenie czynnika ludzkiego do takiego procesu decyzyjnego sprawi, że wszelkie niuanse i konteksty, które mogły umknąć algorytmom, będą wzięte pod uwagę.

zwiększenie wyjaśnialności i transparentności AI

Kolejnym ważnym celem, do którego powinny dążyć firmy wykorzystujące sztuczną inteligencję w HR, jest lepsze rozumienie decyzji podejmowanych przez AI oraz klarowne wyjaśnienie ich wszystkim zainteresowanym stronom. Jak wspomnieliśmy wyżej, niejasny sposób podejmowania decyzji – zwłaszcza tych dotyczących rekrutacji czy rozwoju pracowników w organizacji – negatywnie wpływa na employer branding organizacji. Właśnie dlatego firmy powinny otwarcie komunikować, w jaki sposób i dlaczego używają AI w swoich procesach HR. Taka komunikacja powinna wyjaśniać metody, dzięki którym trenowane są algorytmy, pokazywać, jakie dane są do tego celu wykorzystywane oraz jakie kryteria są brane pod uwagę. Klarowność w każdym z tych obszarów pomoże budować zaufanie i zwiększać przejrzystość procesów HR-owych.

Male standing in front of a screen and pointing at data
Male standing in front of a screen and pointing at data

edukowanie i szkolenie pracowników

Co więcej, pracownicy odpowiedzialni za wprowadzanie narzędzi AI do obszaru HR oraz korzystający z nich w codziennej pracy powinni być odpowiednio przeszkoleni w zakresie etycznych aspektów wykorzystywania tego rodzaju technologii w procesach HR-owych. Powinni wiedzieć, jak rozpoznawać stronniczość w decyzjach podejmowanych przez AI oraz jak odpowiedzialnie pracować z danymi, które są przetwarzane przez tego rodzaju narzędzia. 

stworzenie uniwersalnych rynkowych standardów etycznego wykorzystywania AI w HR

Równocześnie warto współpracować z innymi przedsiębiorstwami, organizacjami i ośrodkami akademickimi, by dzielić się najlepszymi praktykami wykorzystywania AI w obszarze HR. Na podstawie wymiany doświadczeń firmy z danej branży mogą tworzyć oraz rozwijać wspólne, spójne standardy etyczne stosowania sztucznej inteligencji w zarządzaniu zasobami ludzkimi.

Dobrym przykładem inicjatywy pomagającej w ustanowieniu branżowych zasad i standardów wykorzystywania AI w HR jest unijny projekt Fairness and Intersectional NonDiscrimination in Human Recommendation (FINDHR), którego częścią jest Randstad. W ramach projektu pracujemy m.in. nad nowymi sposobami pomiaru stronniczości algorytmów wykorzystywanych w branży rekrutacyjnej.

pobierz raport, by dowiedzieć się więcej

Choć nowe narzędzia oferują bardzo obiecujące możliwości stosowania AI w obszarze HR, warto, by ich wykorzystanie w firmie było wolne od etycznych kontrowersji. Dbając o przejrzystość i różnorodność danych dostarczanych algorytmom i w odpowiedzialnie korzystając z tego rodzaju narzędzi, firmy mogą zmniejszyć ryzyko nieetycznego użycia AI w obszarze HR i w pełni wykorzystać jej potencjał w budowaniu sprawiedliwego, bardziej inkluzywnego rynku pracy. 

Po więcej informacji na temat etycznego użycia AI w rekrutacji i zarządzaniu zatrudnieniem zapraszamy do lektury naszego najnowszego raportu „Rynek pracy i AI. Powód do obaw czy szansa?”.

o autorze
randstad polska
randstad polska

Zespół Randstad Polska

lider branży hr

bądź na bieżąco z najnowszymi wiadomościami, trendami i raportami dotyczącymi rekrutacji i rynku pracy.

zapisz się