Przejdź do treści
HR & People Operations

EU AI Act i HR - co jest teraz obowiazkowe

EU AI Act klasyfikuje procesy HR jako wysokie ryzyko. Monitoring biasu, Human Oversight, transparentnosc i dokumentacja sa obowiazkowe. Co musza zrobic dyrektorzy HR.

Bert Gogolin
Bert Gogolin
CEO i założyciel 6 min czytania

EU AI Act i HR: dlaczego to jest istotne

EU AI Act (Rozporzadzenie (UE) 2024/1689) obowiazuje od sierpnia 2024. Reguluje systemy AI wedlug ich ryzyka. Dla dzialow HR klasyfikacja jest jednoznaczna: systemy AI stosowane do podejmowania decyzji dotyczacych osob fizycznych w kontekscie zatrudnienia sa systemami wysokiego ryzyka (Zalacznik III, punkt 4).

Dotyczy to nie tylko automatycznego oprogramowania rekrutacyjnego. Dotyczy kazdego zastosowania AI majacego wplyw na decyzje personalne: screening kandydatow, ocena wynikow, propozycje wynagrodzen, rekomendacje awansow, planowanie zmian z optymalizacja AI, automatyczne generowanie referencji.

Obowiazki dla systemow wysokiego ryzyka obowiazuja od sierpnia 2026. To daje firmom jeszcze czas na przygotowanie, ale decyzje architektoniczne musza byc podejmowane teraz.

Czego EU AI Act konkretnie wymaga

Dla systemow AI wysokiego ryzyka w obszarze HR EU AI Act wymaga:

System zarzadzania ryzykiem (Art. 9): Ciagle zarzadzanie ryzykiem przez caly cykl zycia systemu AI. Identyfikacja ryzyk, ocena, srodki zaradcze, przeglad. To nie jest jednorazowa analiza, lecz ciagly proces.

Jakosc danych (Art. 10): Dane treningowe, walidacyjne i testowe musza byc istotne, reprezentatywne, wolne od bledow i kompletne. Dla HR oznacza to: jesli agent jest trenowany na historycznych decyzjach personalnych, dane te musza byc sprawdzone pod katem biasu. Historyczna dyskryminacja w danych bedzie inaczej reprodukowana przez system AI.

Dokumentacja techniczna (Art. 11): Pelna dokumentacja systemu AI przed uruchomieniem. Cel, sposob dzialania, wskazniki wydajnosci, ograniczenia, ryzyka. Dokumentacja musi byc aktualizowana.

Przechowywanie logow (Art. 12): Automatyczne protokolowanie wszystkich zdarzen przez caly okres zycia systemu. W kontekscie HR: kazda decyzja, kazda rekomendacja, kazda eskalacja.

Human Oversight (Art. 14): Nadzor ludzki musi byc zagwarantowany. Czlowiek musi rozumiec mozliwosci i ograniczenia systemu, byc w stanie interpretowac wyniki i miec mozliwosc interwencji lub wylaczenia systemu.

Monitoring biasu: EU AI Act wymaga, aby systemy wysokiego ryzyka byly monitorowane pod katem uprzedzen. Dla decyzji HR oznacza to: analiza statystyczna wszystkich decyzji agentow. Czy okreslone grupy sa systematycznie traktowane inaczej?

Transparentnosc (Art. 13): Osoby, ktorych decyzje dotycza, musza byc informowane o stosowaniu systemow AI.

Co to oznacza dla architektury

Wymagania EU AI Act to nie srodki organizacyjne. To wymagania architektoniczne. System AI, ktory ma spelnic te wymagania po fakcie, musi byc gruntownie przebudowany.

Decision Layer: Decision Layer rozklada kazdy proces HR na pojedyncze kroki decyzyjne i definiuje dla kazdego kroku: czlowiek, zestaw regul lub AI. Rules Engine implementuje wersjonowane zestawy regul. Confidence Routing zapewnia ocene ryzyka. Mechanizm Human-in-the-Loop gwarantuje nadzor ludzki. Audit Trail spelnia obowiazek przechowywania logow.

Monitoring biasu: Przez Decision Layer wszystkie decyzje agentow sa analizowane statystycznie. Odchylenia od oczekiwanych rozkladow sa wykrywane i eskalowane. To nie jest reczny proces przegladu, lecz automatyczny monitoring.

Portal Audytora: Dokumentacja techniczna i dowody sa dostepne w Portalu Audytora w kazdej chwili. Audytorzy - wewnetrzni i zewnetrzni - widza status na zywo wszystkich kontroli.

Harmonogram: co musi sie teraz wydarzyc

Natychmiast: Inwentaryzacja wszystkich systemow AI w obszarze HR. Rowniez tych, ktore nie sa oznaczone jako “AI”: algorytmy scoringowe w oprogramowaniu rekrutacyjnym, planowanie zmian oparte na AI, automatyczne generowanie tekstow.

Do Q3 2026: Wdrozenie systemu zarzadzania ryzykiem. Podjecie decyzji architektonicznych. Implementacja infrastruktury governance.

Od sierpnia 2026: Systemy wysokiego ryzyka musza w pelni spelniac wymagania EU AI Act.

W Polsce EU AI Act obowiazuje bezposrednio jako rozporzadzenie UE, bez potrzeby implementacji do prawa krajowego. Dodatkowo Kodeks Pracy i Ustawa o radach pracownikow (2006) daja Radzie Zakladowej prawo do informacji i konsultacji przy wdrazaniu systemow technicznych wplywajacych na warunki pracy. Zwiazki zawodowe moga negocjowac warunki wdrozenia AI w porozumieniach zakladowych. Decision Layer adresuje oba bloki wymagan - EU AI Act i polskie prawo do konsultacji - w jednej architekturze.

Firmy, ktore teraz wdrazaja agentow AI do procesow HR, powinny od poczatku projektowac architekture zgodna z EU AI Act. Retrospektywna zgodnosc jest technicznie mozliwa, ale znacznie bardziej pracochlonna i kosztowna.

Wiecej na ten temat: EU AI Act Readiness

Wiecej o agentach AI w HR i ich zgodnosci z polskimi przepisami.

Umow spotkanie - Pokazemy, jak Twoje systemy AI w HR moga byc zgodne z EU AI Act.

EU AI Act HR Compliance Wysokie ryzyko Human Oversight Monitoring biasu
Udostępnij artykuł

Najczęściej zadawane pytania

Jakie procesy HR podlegaja EU AI Act?

Wszystkie procesy HR, w ktorych AI jest stosowana do podejmowania decyzji dotyczacych osob fizycznych: rekrutacja, screening kandydatow, ocena wynikow, awanse, wynagrodzenia, zwolnienia. Sa one klasyfikowane jako systemy AI wysokiego ryzyka wg EU AI Act.

Co firmy musza zrobic wg EU AI Act dla AI w HR?

Wdrozyc system zarzadzania ryzykiem, zapewnic jakosc danych, stworzyc dokumentacje techniczna, przechowywac logi, zagwarantowac Human Oversight, prowadzic monitoring biasu i zapewnic transparentnosc wobec osob, ktorych decyzje dotycza.

Od kiedy obowiazuja te wymogi?

Zakazy obowiazuja od lutego 2025. Obowiazki dla systemow wysokiego ryzyka obowiazuja od sierpnia 2026. Firmy stosujace AI w procesach HR musza byc zgodne z przepisami do tego terminu.

Jaki proces powinien obsługiwać Twój pierwszy agent?

Porozmawiaj z nami o konkretnym przypadku użycia.

Zarezerwuj rozmowę