Etické otázky využití umělé inteligence v personalistice

Vydáno: 23 minut čtení

Personalistika se ocitá na křižovatce mezi technologickým pokrokem a etickou odpovědností. Jak zajistit, aby umělá inteligence pomáhala, ale nepoškozovala uchazeče o zaměstnání, zaměstnance ani samotnou organizaci? Článek se zaměřuje na klíčové etické otázky využití umělé inteligence v personalistice – od předsudků v algoritmech přes ochranu osobních údajů až po transparentnost rozhodování. Představeny jsou praktické etické zásady, nástroje pro posouzení důvěryhodné umělé inteligence a reálné možnosti tento druh nástroje využít. Navíc, v kontextu prvního právního rámce pro umělou inteligenci v Evropě přináší článek i přehled o tom, které HR nástroje umělé inteligence jsou považovány za vysoce rizikové a které jsou dokonce zcela zakázány.

Etické otázky využití umělé inteligence v personalistice
Ing.
Lenka
Farkačová
Ph.D.
Umělá inteligence, v poslední době pak generativní umělá inteligence je nejen běžným pracovním nástrojem, ale prakticky i neodmyslitelnou součástí mnohé lidské práce a lidského konání. Samotné umělé inteligenci se nelze vyhnout, ostatně je součástí řady aplikací či programů v našich počítačích (Outlook a filtrování spamu, antivirové programy, prohlížeče jako Chrome apod.) či v chytrých telefonech (autokorekce, hlasoví asistenti, rozpoznávání obličeje, ...). V některých případech tak uživatelé využívají umělé inteligence doslova nevědomě.
Na druhé straně zde stojí vědomé rozhodnutí zaměstnavatelů a jejich zástupců pro cílenou integraci umělé inteligence do praxe v oblasti lidských zdrojů. Například:
*
Prověřování uchazečů o zaměstnávání:
Využití platforem pro videohovory s umělou inteligencí, která zjednodušuje náborový proces tím, že s kandidáty vede automatizované strukturované pohovory.
*
Substituce
práce lidského náboráře:
Využití virtuálního náboru s umělou inteligencí, který firmám pomáhá automatizovat celý jejich náborový proces. Od prvního kontaktu až po vyhodnocení shody uchazeče s představami zaměstnavatele. Přičemž nástroj je navržen tak, aby přemýšlel a choval se jako lidský náborář.
*
Práce s daty:
Využití platforem, které automatizují proces získávání strukturovaných dat z nestrukturovaných dokumentů, jako jsou životopisy, e-maily či motivační dopisy apod.
Při vhodné implementaci těchto nástrojů dochází nejen k významnému snížení nákladů na jednotlivé personální procesy, zaměstnavatel může profitovat z celkového zvýšení efektivnosti. Zároveň ale tyto postupy vzbuzují oprávněnou obavu o některé etické aspekty využívání těchto nároků.
Nejde jen o to využívat tzv.
důvěryhodnou umělou inteligenci
tak, jak ji vymezuje odborná skupina pro umělou inteligenci zřízená Evropskou komisí (2019), ale i o to
umělou inteligenci využívat gramotně, což v praxi znamená například umět si správně formulovat dotazy/prompty, ověřovat odpovědi a používat ji jako doplněk, a ne jako náhradu lidského úsudku.
Přičemž připomeňme, že důvěryhodnou umělou inteligenci vymezuje Evropská komise jako nástroj, který splňuje tři složky, které by měly být dodrženy v průběhu celého životního cyklu systému:
a)
měla by být
legální
, tj. respektovat veškeré platné právní a správní předpisy,
b)
měla by být
etická
, tj. zajišťovat dodržování etických zásad,
c)
měla by být
robustní, a to z technického i sociálního hlediska
, jelikož i dobře míněné systémy umělé inteligence mohou způsobit neúmyslnou újmu.
Právě apel na etickou složku aktuálně získává na důležitosti.
Pojmy etika a morálka na pracovišti i v personalistice
Ještě před představením klíčových etických otázek při využívání umělé inteligence je vhodné zastavit se u krátkého vylíče
ní zdánlivě jednotně chápaných pojmů etika a morálka
.
Napříč oficiálními dokumenty Evropské unie a logicky pak i řady zaměstnavatelů převládají terminologická ukotvení jako „etické využívání umělé inteligence“, případně „etika umělé inteligence“. Tento trend je patrný i v případě odborných recenzovaných studií. Kupříkladu renomovaná databáze IDEAS/RePEc pro vyhledávací klíčová slova „ethical AI“ nabízí 1 307 výsledků, odborných recenzovaných článků a studií. Naproti tomu pod vyhledáním klíčových slov „moral AI“ nabízí pouze 202 výsledků.
Jak je tedy obecně chápána etika či etické chování?
Etika je ve své podstatě teorie, která lidem říká, co je správné a proč. Etické chování je pak takové chování, které je v souladu s těmito pravidly, a ta jsou často formulována i ve formálních dokumentech, jako jsou etické kodexy. Právě v nich se zaměstnanci mohou dočíst, jaké chování a jednání vůči kolegům, ale i dodavatelům či klientům je úhlem pohledu zaměstnavatele to správné.
Úskalím těchto pravidel je pak neodmyslitelně jejich nestálost.
Etické chování je totiž chápáno jako aktuálně společensky akceptovatelné chování a jak i z nedávné historie víme, některé dříve přijatelné chování je soudobým normativem chápáno jako zcela nepřípustné. Někteří odborníci na poli umělé inteligence, například česká výzkumnice a archeoložka umělé inteligence Sara Polak, na riziko této proměnlivosti upozorňují a zdůrazňují větší apel na morální využívání umělé inteligence. Morálka,
morální nastavení člověka
je něco, co nemůže nastavit etická komise firmy ani Evropské unie. Morální nastavení člověka je opřeno o jeho hodnoty, jedná se o přímé nastavení. Etika tak na morálku prakticky navazuje, protože právě etika zdůvodňuje morální principy, a právě toto zdůvodnění může být někdy sporné.
Příklad:
Rozdíl mezi etikou a morálkou v personalistice
Morálka
– Osobní přesvědčení personalisty: „
Je špatné lhát uchazečům o práci.
Etika
– Profesní standardy: „
Personalista musí poskytovat pravdivé informace o pracovních podmínkách, protože klamání uchazečů je neetické a může poškodit jak firmu, tak kandidáta
.“
Konkrétní situace:
Personalista si je vědom, že firma má vysokou fluktuaci a zjednodušeně řečeno „špatnou“ firemní kulturu.
Morálně tedy cítí
, že by měl být k uchazečům upřímný a upozornit je na problémy.
Eticky je však vázán
loajalitou k firmě, ale zároveň nesmí záměrně lhát. Může tedy použít neutrální formulaci jako „
Někteří zaměstnanci vnímají firemní kulturu jako dynamickou a plnou výzev
“ místo přímého přiznání, že je toxická.
Morálka je tedy osobní pocit správného jednání, zatímco etika je soubor pravidel a standardů, které řídí rozhodování v rámci profese.
Je tedy možné, že slovo morálka lépe reflektuje problémy, se kterými se zaměstnavatelé, ale i státy potýkají při využívání umělé inteligence. Avšak v rámci výše uvedeného mezinárodního konsensu bude i v tomto článku pracováno s pojmem etické otázky, nikoliv otázky morální.
Klíčové etické problémy při využití umělé inteligence v personalistice a jejich řešení
Na základě analýzy nástrojů umělé inteligence využitelné v personalistice, stejně tak jako na základě praktických ukázek z praxe zaměstnavatelů, lze vyvodit tři klíčové etické oblasti, které je potřeba nepřehlížet. Jedná se o oblast předsudků a diskriminace, ochrany soukromí a dat a v neposlední řadě se jedná o problematiku transparentnosti a vysvětlitelnosti.
Předsudky a diskriminace
Systémy umělé inteligence mohou udržovat stávající předsudky, a to nejen pokud jsou vyškoleny na základě neobjektivních údajů.
V praxi je skutečnost využívání například chatbotů pro nábor zaměstnanců patrná, ale může vést k nespravedlivým postupům při přijímání zaměstnanců a k diskriminaci.
Například bylo zjištěno, že náborový nástroj umělé inteligence společnosti Amazon byl zaujatý vůči ženám, protože byl vyškolen na základě životopisů, které byly společnosti předloženy v průběhu deseti let a které většinou pocházely od mužů (Dastin, 2018). Tato zaujatost vedla k tomu, že systém umělé inteligence upřednostňoval mužské kandidáty před stejně kvalifikovanými kandidátkami, čímž udržoval genderovou nerovnost. Ovšem Amazon nebyl jediný, kdo tento problém zaznamenal. Druhým příkladem může být autorský kolektiv Rao, S. a Zhao, T., který publikoval v roce 2025 studii s názvem „Ethical AI in HR: A Case Study of Tech Hiring“, která se zaměřovala na používané modely strojového učení k vyhodnocení, zda při rozhodování o náboru existuje genderová nebo věková zaujatost. Na základě zkoumání rozsáhlého souboru dat z IT průmyslu zahrnujícího více než 70 000 uchazečů byl zjištěn obdobný eticky sporný moment. Bylo zjištěno, že uchazečky dosahují dle výstupů umělé inteligence nižší pravděpodobnost úspěchu v procesu náboru v porovnání s uchazeči muži.
Je vhodné pamatovat na to, že
pokud shromážděné údaje nedostatečně reprezentují určitou rasu nebo pohlaví, výsledný systém je při svém fungování nevyhnutelně přehlédne nebo s nimi bude zacházet nerovně v kontextu ostatních skupin
. V procesu přijímání zaměstnanců mohou nedostatečné údaje vyloučit historicky nedostatečně zastoupené skupiny. Zároveň, například při posuzování úspěšnosti potenciálních zaměstnanců na základě stávajících zaměstnanců se udržuje předpojatost vůči kandidátům, kteří se podobají těm, kteří jsou již zaměstnáni.
Takovéto případy zdůrazňují zásadní význam používání různorodých a reprezentativních souborů dat pro trénování modelů umělé inteligence.
Nutné je ovšem podotknout, že obecně se nejedná o nově detekovaný problém. Obdobné výzvy ve využití rozhodnutí umělé inteligence na základě dat a následné řešení automatického poškození menšinových skupin (ať už na základě rasy, věku apod.) byly již v roce 2016 řešeny v návaznosti na využití umělé inteligence při predikci rizikového chování vězňů. Ve stejném roce byl pak řešen i případ „rasistické umělé inteligence“ při hodnocení kandidátek v soutěži krásy.
Navzdory tomu, že je tato tendence umělé inteligence známá již téměř dekádu let, řešení v podobě úpravy nástroje umělé inteligence není tak jednoduché. Jak uvedl Andrea Renda, ředitel výzkumu bruselského CEPS: „
Co dělá problém téměř neřešitelným, je to, že nic takového jako neutrální algoritmus neexistuje
“.
Pro zaměstnavatele z toho vyplývají
tři doporučení:
1.
Organizace by měly zajistit, aby jejich data zahrnovala co možná nejširší škálu demografických skupin, aby nedocházelo k posilování stávajících předsudků.
2.
Zajistit pravidelné audity a aktualizace tréninkových dat, které jsou rovněž nezbytné k identifikaci a nápravě předsudků, jakmile se objeví.
3.
Nenechávat finální rozhodnutí v rukou nástrojů umělé inteligence. Odpovědnost v oblasti personálních otázek by měla být stále v rukou personalistů či manažerů.
Ochrana soukromí a údajů
Většina nástrojů umělé inteligence v personalistice je z logiky věci vystavěna na datech o současných, ale i minulých zaměstnancích a kandidátech. V návaznosti na to pak nakládání s osobními údaji pomocí systémů umělé inteligence vyvolává značné obavy o ochranu soukromí výše zmíněných skupin. Přičemž jsou tyto obavy
relevantní
. Podle zprávy Identity Theft Resource Center (2020) došlo v první polovině roku 2020 k 1 108 únikům dat, přičemž značná část se týkala dat zaměstnanců.
Pro zaměstnavatele z toho vyplývá
následující doporučení
, jež je vlastně v souladu s postupy, které již řada firem implementovala do svých procesů v návaznosti na soulad s předpisy na ochranu údajů, jako je obecné nařízení o ochraně osobních údajů (GDPR).
V obecnější rovině je pro ochranu soukromí zaměstnanců zásadní implementace robustních opatření na ochranu údajů. Tato opatření zahrnují šifrování, anonymizaci a přísné kontroly přístupu, aby se zabránilo neoprávněnému přístupu k citlivým datům zaměstnanců. Organizace by také měly zajistit transparentnost informováním zaměstnanců o tom, jak jsou jejich data shromažďována, ukládána a používána.
Pro praxi lze také doporučit:
1.
Nevkládat osobní údaje do nezabezpečených nástrojů umělé inteligence
, zejména těch, které mohou data využívat k trénování svých modelů. Ač se toto doporučení může jevit jako velice elementární, existují i případy, kdy si personalisté, ve snaze zefektivnit práci, nahrají například excel dokument s daty zaměstnanců do ChatuGPT a následně spolupracují s ChatemGPT při tvorbě reportů apod. Přesně tato chvíle je moment, kdy mohou být data zaměstnanců ohrožena.
2.
Využívat firemní nástroje umělé inteligence
, které zajišťují vyšší úroveň zabezpečení a kontrolu nad daty.
Transparentnost a vysvětlitelnost
Proč se algoritmus rozhodl, jak se rozhodl? Jak to, že nástroj umělé inteligence vyhodnotil kandidáta A jako vhodnějšího než kandidáta B? Proč přesně byl kandidát C vyřazen z výběrového řízení již na základě předloženého CV? Proč se HR chatbot rozhodl doporučit stávajícímu zaměstnanci právě tento postup řešení jeho problému? To je jen krátký výčet otázek, který vlastně vhodně ilustruje oblast a
problematiku vysvětlitelné umělé inteligence.
V obecné rovině se tedy vysvětlitelná umělá inteligence týká konceptu navrhování a vývoje systémů umělé inteligence a modelů strojového učení způsobem, který lidem umožňuje pochopit a interpretovat jejich rozhodnutí, chování a předpovědi. Cílem je učinit systémy umělé inteligence transparentnějšími a odpovědnějšími a řešit problém „black box“ (černé skříňky, která se zachová určitým způsobem na základě neznámých proměnných). Ano, nástroje a modely umělé inteligence pro využití v personalistice vždy vychází z dat a informací, ať již v podobě dat o zaměstnancích a kandidátech, či interních materiálů, jako jsou pracovní postupy, popisy pracovních míst, směrnice apod., ovšem ani tak není rozhodně jednoduché vysvětlit návaznost vstupních dat na finální rozhodnutí.
Příčina je jednoznačná, matematika za rozhodnutím může být tak složitá, že ji zkrátka nelze dohledat
.
Nejedná se přitom o neprůhlednost algoritmů, jen tyto algoritmy jsou natolik robustní, že je s nimi pro lidský mozek extrémně náročné jakkoliv nakládat.
Přičemž vysvětlitelnost je klíčová hned z několika důvodů, například:
*
Pokud rozhodnutí není vysvětlitelné, pak to může mít negativní dopad na
úroveň důvěry v zaměstnavatele.
*
Rozhodnutí v oblasti, jako jsou nábor, povýšení, odměňování, mohou mít významný dopad na životy a kariéry jednotlivců, ale nejen to, vysvětlitelnost postupů, například v oblasti odměňování, je po zaměstnavatelích doslova
vyžadováno současně platnou legislativou či směrnicemi [
například v případě odměňování se jedná o směrnici Evropského parlamentu a Rady (EU) 2023/970] apod.
Zásadní je pro zaměstnavatele přijmout fakt, že odpovědnost (etická, ale i právní) za jakékoliv personální rozhodnutí je na bedrech zaměstnavatele/firmy, nikoliv umělé inteligence.
To znamená, že i když umělá inteligence může být užitečným nástrojem pro analýzu dat, predikci výkonnosti nebo automatizaci náborových procesů, nelze na ni přenášet finální odpovědnost za přijatá rozhodnutí.
Důležitým krokem je nastavení jasných pravidel pro využití umělé inteligence v personalistice, včetně definování její role a limitů. Zaměstnavatel by měl pravidelně kontrolovat algoritmy a výstupy umělé inteligence, aby zabránil například diskriminačním vzorcům nebo chybným doporučením. Klíčové je také informovat zaměstnance a kandidáty o tom, jak AI ovlivňuje personální procesy, a zajistit, že mají možnost požádat o lidské přezkoumání rozhodnutí. V konečném důsledku by umělá inteligence měla sloužit jako podpůrný nástroj pro efektivnější a objektivnější rozhodování, nikoli jako náhrada lidského úsudku a odpovědnosti, a to ve všech personálních procesech.
Etické zásady využívání umělé inteligence a možnosti jejich reálného dodržení
Potřeba etického a zodpovědného využívání umělé inteligence, ať už ze stran firem, vlády, či dalších institucí, je potřebou přesahující hranice České republiky. Výzvy ve využívání umělé inteligence jsou prakticky celosvětové. V roce 2019 tak přišla Odborná skupina na vysoké úrovni pro umělou inteligenci s pracovním výstupem svého snažení, který pojmenovala
Etické pokyny pro zajištění důvěryhodnosti umělé inteligence
. Tento dokument byl vydán pod záštitou Evropské komise a mimo jiné představil i pilotní verzi tzv. Hodnotícího seznamu pro důvěryhodnou umělou inteligenci. Tento seznam se vztahuje zejména na systémy umělé inteligence, které přímo komunikují s uživateli, a je určen především vývojářům a
provozovatelům systémů umělé inteligence (bez ohledu na to, zda jsou vyvinuty interně, nebo pořízeny u třetích stran)
.
Jinými slovy, do této oblasti spadá i rozhodnutí o implementaci chatbotů do komunikace se zaměstnanci, uchazeči o zaměstnání apod., a to ať již si firma vytvoří vlastní nástroje, nebo si je zakoupí od dodavatele.
Hodnotící seznam pro důvěryhodnou umělou inteligenci
Výše uvedený dokument představil pilotní verzi Hodnotícího seznamu pro důvěryhodnou umělou inteligenci. Následně, v průběhu druhé poloviny roku 2019 testovalo tento hodnotící seznam více než 350 organizací. Právě ty následně zaslaly zpětnou vazbu, na jejímž základě byl vytvořen finální seznam
Assessment List for Trustworthy Artificial Intelligence (ALTAI)
publikovaný v roce 2020. Praktickým
cílem tohoto nástroje je poskytnout podnikům příležitost, aby samy mohly posoudit důvěryhodnost svých systémů umělé inteligence.
Dle tohoto dokumentu, který je volně k dispozici online (přímý URL odkaz naleznete v seznamu zdrojů), by měl být koncept důvěryhodné umělé inteligence hodnocen na základě sedmi klíčových požadavků:
*
lidská činnost a dohled,
*
technická odolnost a bezpečnost,
*
soukromí a správa dat,
*
transparentnost,
*
rozmanitost, nediskriminace a spravedlnost,
*
životní prostředí a společenský blahobyt a
*
odpovědnost.
Pro každou tuto oblast je vymezen seznam otázek, který by organizace měla být schopná zodpovědět, a to týmem zainteresovaných zaměstnanců z organizace, případně i pomocí dalších zainteresovaných stran (například dodavatelů nástroje umělé inteligence).
V praxi se jedná o velice užitečný nástroj, který vlastně demonstruje komplexnost implementace umělé inteligence například do vnitropodnikových procesů. Na druhou stranu ona komplexnost nástrojů pak vede i k tomu, že na některé otázky hodnotícího seznamu může být, nejen pro malé a střední firmy, prakticky nemožné plně odpovědět.
Mezi tyto otázky patří například:
Dokážete zpětně vysledovat, který model nebo pravidla umělé inteligence vedly k rozhodnutím nebo doporučením systému umělé inteligence?
Jak již bylo uvedeno výše, zodpovědět tuto otázku není snadné a často to ani není v reálných silách člověka. I sami autoři tohoto seznamu jsou si vědomi faktu, že
nároky na zodpovězení některých otázek přesahují potenciální míru znalostí umělé inteligence zástupců organizace, která tento nástroj využije pro sebeevaluaci.
Lze tak říci, že tento hodnotící seznam lze spíše v praxi využít jako edukační materiál, skrze který lze v praxi organizace otevřít diskuzi o využití umělé inteligence.
Akt o umělé inteligenci – první právní rámec pro umělou inteligenci a jeho přínosy
V kontextu využití umělé inteligence v personalistice je vhodné zmínit i akt o umělé inteligenci (tedy nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. června 2024). Cílem pravidel je podpořit důvěryhodnou umělou inteligenci v Evropě. Akt o umělé inteligenci stanovuje jasný soubor pravidel založených na rizicích pro vývojáře a provozovatele umělé inteligence, pokud jde o konkrétní použití umělé inteligence.
Akt o umělé inteligenci by měl zajistit, aby Evropané mohli důvěřovat tomu, co umělá inteligence nabízí. Zatímco většina systémů umělé inteligence představuje omezené riziko a může přispět k řešení mnoha výzev, některé systémy umělé inteligence vytvářejí rizika, která je nutná řešit, viz ty, které jsou v článku výše zmiňovány (například není možné zjistit, proč systém umělé inteligence učinil rozhodnutí nebo předpověď a přijal konkrétní opatření, v návaznosti na to může být obtížné posoudit, zda byl někdo nespravedlivě znevýhodněn, například v rozhodnutí o přijetí na volnou pracovní pozici).
Akt o umělé inteligenci definuje
čtyři úrovně rizika
:
Zdroj: nařízení Evropského parlamentu a Rady (EU) 2024/1689
Pro oblast personalistiky je vhodné zdůraznit, co které úrovně rizika zahrnují (níže jsou tak zdůrazněny jen ty oblasti, které jsou
relevantní
pro personální činnost).
Do úrovně
nepřijatelného rizika
jsou zahrnuty všechny systémy umělé inteligence považované za jasnou hrozbu pro bezpečnost, živobytí a práva lidí. Tyto systémy jsou zakázány.
Akt o umělé inteligenci konkrétně zakazuje například rozpoznávání emocí na pracovištích
.
Druhý nejvyšší stupeň rizika je tzv.
vysoké riziko
. Tyto systémy ale již nejsou zakázány, avšak
vysoce rizikové systémy umělé inteligence
podléhají
přísným povinnostem
předtím, než mohou být uvedeny na trh (systémy posuzování rizik, protokolování činnosti s cílem zajistit sledovatelnost výsledků apod.). Mezi tyto vysoce rizikové případy použití patří mimo jiné
nástroje umělé inteligence pro zaměstnávání, řízení pracovníků a přístup k samostatné výdělečné činnosti (např. software pro třídění životopisů pro nábor pracovníků).
Specifická úroveň rizika je tzv. riziko transparentnosti.
Akt o umělé inteligenci zavádí zvláštní povinnosti zveřejňování informací s cílem zajistit dostatečné úrovně informovanosti jednotlivců. Například při používání systémů umělé inteligence, jako jsou chatboti, by lidé měli být upozorněni na to, že komunikují se strojem.
Nejnižší úroveň je pak minimální nebo žádné riziko
. Akt o umělé inteligenci nezavádí pravidla pro umělou inteligenci, se kterými se pojí minimální nebo žádná rizika (jedná se například o spamové filtry).
Aby byla zajištěna bezpečná a důvěryhodná umělá inteligence, zavádí akt o umělé inteligenci pravidla pro poskytovatele těchto modelů. Pravidla aktu o umělé inteligenci týkající se univerzální umělé inteligence vstoupí v platnost v srpnu 2025.
Celkově lze říci, že zavedení těchto opatření je dalším krokem k vytvoření prostředí, ve kterém mohou organizace a obzvláště pak malé a střední podniky bezpečně a efektivně integrovat nástroje umělé inteligence do svých personálních procesů.
Akt tak má potenciál přinést větší jistotu při využívání umělé inteligence v personalistice
.
Role personalistů při využívání nástrojů umělé inteligence v rámci HR procesů
Ač legislativní rámec, stejně jako doporučení pro organizace implementující umělou inteligenci, mohou přinést organizacím značnou stabilitu a jistotu, významným faktorem je při implementaci umělé inteligence lidský faktor. Konkrétně pak ochota zainteresovaných jedinců, personalistů, manažerů, ale i vedení rozšiřovat své znalosti v oblasti využívání nástrojů umělé inteligence.
Bez aktivního přístupu lidí, kteří s umělou inteligencí pracují, zůstane i ten nejpokročilejší systém pouze nevyužitým potenciálem
. Personalisté dnes čelí dvojí výzvě,
nejenže
musejí pochopit možnosti a limity nástrojů umělé inteligence v oblasti náboru, talent managementu či vzdělávání zaměstnanců, ale zároveň se musí stát ambasadory změny, tedy těmi, kdo propojují technologii s lidskou zkušeností.
Zavedení nástrojů umělé inteligence do personální praxe neznamená jednorázový projekt, ale dlouhodobou transformaci. Personalisté, kteří se pravidelně vzdělávají, testují nové nástroje a hledají etické hranice jejich využití, budou těmi, kdo firmu posune kupředu. Je třeba si osvojit nejen technické dovednosti, ale i schopnost kritického myšlení – umět správně formulovat otázky, analyzovat doporučení umělé inteligence, a především je zasadit do kontextu firemní kultury. K tomu všemu je potřeba nástroje umělé inteligence chápat jako partnery, nikoliv jako náhradu, například náboráře.
V řadě organizací stále panují obavy, že umělá inteligence nahradí lidskou práci. Realita je však jiná. Organizace, které dokážou najít správnou rovnováhu mezi automatizací a lidským přístupem, získají náskok.
Úspěšná integrace umělé inteligence v personalistice není jen o softwaru – je o
kultuře otevřenosti k inovacím, odvaze učit se novému a schopnosti vidět umělou inteligenci jako nástroj, který podporuje lidské rozhodování, nikoliv ho nahrazuje
. A právě zde hraje lidský faktor zásadní roli.
Seznam zdrojů
*
DASTIN, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. Dostupné z: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G.
*
High-Level Expert Group on Artificial Intelligence (AI HLEG).
THE ASSESSMENT LIST FOR TRUSTWORTHY ARTIFICIAL INTELLIGENCE (ALTAI) for self assessment
. Online. 2020. ISBN 978-92-76-20008-6. Dostupné z: https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment.
*
Identity Theft Resource Center. (2020). 2020 Data breach report. Dostupné z: https://www.idtheftcenter.org/post/2020-data-breach-report
*
Odborná skupina na vysoké úrovni pro umělou inteligenci. ETICKÉ POKYNY PRO ZAJIŠTĚNÍ DŮVĚRYHODNOSTI UI. Brusel: Evropská komise, 2019.
*
RAO, S. & ZHAO, T. (2025). Ethical AI in HR: A Case Study of Tech Hiring.
Journal of Computer Information Systems
, 1–18. https://doi.org/10.1080/08874417.2024.2446954.
*
RENDA, A.
Artificial Intelligence
. Brussels. Centre for European Policy Studies (CEPS), 2019. ISBN 978-94-6138-716-5.
Právní předpisy citované ve článku:
(předpisy jsou citovány vždy ve znění pozdějších předpisů, pokud není výslovně uvedeno jinak)
*
Nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci).
*
Směrnice Evropského parlamentu a Rady (EU) 2023/970 ze dne 10. května 2023, kterou se posiluje uplatňování zásady stejné odměny mužů a žen za stejnou práci nebo práci stejné hodnoty prostřednictvím transparentnosti odměňování a mechanismů prosazování.

Související dokumenty

Související pracovní situace

Délka pracovní doby (obecně)
Délka pracovní doby při dvousměnném pracovním režimu
Nerovnoměrné rozvržení pracovní doby
Noční práce vs. práce v noci
Rovnoměrné rozvržení pracovní doby
Rozvrh pracovní doby, pracovní týden a povinnosti zaměstnavatele
Sjednání kratší pracovní doby
Směna a její maximální délka
Úprava pracovní doby (zvláštní pracovní podmínky)
Doprovod do zdravotnického zařízení
Pohřeb spoluzaměstnance
Úmrtí blízké osoby
Určení daňové rezidence
Omezení práce přesčas a možnost zákazu inspekcí práce
Zkrácení stanovené týdenní pracovní doby
Nařízení práce přesčas
Práce přesčas při kontu pracovní doby
Délka pracovní doby při vícesměnném a nepřetržitém pracovním režimu
Určení daňové rezidence dle zákona o daních z příjmů – rezident
Určení daňové rezidence dle zákona o daních z příjmů – nerezident

Související články

Jak vytvořit a uplatňovat etický kodex organizace
Odměňování zaměstnanců
Zásady úspěšné řídicí komunikace
Diskriminace na pracovišti
Pre-employment background screening
Příčiny, prevence a řešení konfliktů v práci
Nařízené testování zaměstnanců z pohledu GDPR
Personální marketing - využití marketingových principů v personalistice
Stejná odměna za stejnou práci nebo práci stejné hodnoty podruhé
Sledování zaměstnanců a právo na ochranu soukromí
Zpracování fotografií zaměstnanců v souladu s GDPR
Klíč pro úspěšnou implementaci personálního informačního systému
Mentální zdraví zaměstnanců
Výpověď z pracovního poměru a ochrana odborového funkcionáře
Osobní údaje v elektronické podobě a GDPR
Ochrana osobních údajů zaměstnanců od A (přes GDPR) do Z
Srovnání právní úpravy kolektivních smluv a kolektivních dohod, 1. část
Změny zákona o pedagogických pracovnících
Vlastní systém hodnocení složitosti, odpovědnosti a namáhavosti prací

Související otázky a odpovědi

Dvě odborové organizace
Uchovávání dokumentů - archivační lhůty
Archivace HR dokladů
Externí vedoucí pracovník
Kamerový systém na pracovišti a GDPR
Uchování kopií dokladů
Pracovní smlouvy uzavřené na různou dobu u jednoho zaměstnavatele
Skartace a archivace z hlediska GDPR
Práce na dohodu o provedení práce a zaměstnanecké benefity
Povinnosti odborové organizace vůči zaměstnavateli
Mimořádná odměna k dohodě o provedení činnosti
Výběrové řízení kvůli zaměstnání zaměstnankyně na mateřské dovolené
Zaměstnanecký benefit - rybářský lístek
Součinnost zaměstnavatele s insolvenčním správcem
GDPR
Poskytování osobních údajů zaměstnanců zákazníkům
Mzdové dokumenty - kopie nebo posílání emailem
Archivace pracovních smluv
Bezplatný asistenční program pro zaměstnance
Jmenování na dobu určitou