
Technologická revoluce v současné době vedla společnosti k integraci nástrojů pro umělou inteligenci (AI) v různých oborech, včetně správy práce. Použití nástrojů AI, jako je Chatgpt, v procesech tak jemných jako propuštění, což je nej drastičtější rozhodnutí, které společnost, která vyžaduje vyhynutí pracovního vztahu, však vyvolává důležité právní a etické výzvy.
Nedávný rozsudek Nejvyššího soudu v Katalánsku ze dne 16. října 2024 (rec. 2759/2024), který zneplatněl propuštění pro nedostatek ospravedlnění dopisy napsaného prostřednictvím použití samotného soudu, „takto -vyvolané“ umělé inteligence (AI), vyvolalo několik otázek této technologie v rozhodování o práci.
V tomto článku zkoumám právní důsledky těchto rozhodnutí ve světle španělského a evropského regulačního rámce, se zvláštním odkazem na evropské nařízení o umělé inteligenci, z pohledu rizika a jejich prevence s řadou opatření a dobrých obchodních praktik, které musí být přijato při použití těchto technologických nástrojů v oblasti pracovních vztahů.
The aforementioned Judgment of the TSJ Catalonia, determined that a disciplinary offense of voluntary and continuous decrease in the normal or agreed work performance was generically imputed to the worker, indicating false data or not applicable to the labor relationship of the worker, “which invites us to think that a letter of dismissal of another company has been copied, the Internet model has been lowered, or its writing has been entrusted to the writing of artificial intelligence.”
Soud uvedl, že dopis postrádal přiměřený základ a nesplnil formální požadavky potřebné k oznámení o propuštění, jak je stanoveno v článku 55 statutu pracovníků. Tento předpis vyžaduje, aby v případě propuštění musí zaměstnavatel písemně informovat příčiny, které odůvodňují rozhodnutí, což je zásadní požadavek nejen pro původ smluvního zániku, ale také zaručit základní práva pracovníka.
V tomto případě nedostatek jasnosti a zahrnutí chybných údajů do dopisu o propuštění, o čemž svědčí soud, že kromě toho, že je „jednoduše nepřekonatelný“, neexistoval žádný důvod k ukončení pracovní smlouvy pracovníka, za předpokladu, že společnost za předpokladu, že by to nebylo velmi drahé, méně než rok “, méně než rok, za předpokladu, že by se za předpokladu, že by to bylo velmi drahé.
Rozhodnutím byla neplatnost propuštění v důsledku nemoci, protože pracovník měl několik dočasných procesů postižení odvozených z jeho vystavení oxidu křemičitému prachu ve společnosti, protože pouze 4 dny po posledním IT procesu byl propuštěn pracovník, který byl propuštěn, a postihl porušení základního práva, aby netrpěl diskriminaci.
Nepruha tohoto typu obchodních rozhodnutí posiluje zásadu, že propuštění, koncipované jako nej drastičtější rozhodnutí, které ukončí pracovní vztah, by mělo být vždy založeno na zvláště odůvodněných důvodech, zejména pokud jsou v sázce záruka ochrany základních práv pracujících lidí.
Použití nástrojů AI, jako je Chatgpt, v procesech tak jemné jako propuštění, což je nej drastičtějším rozhodnutím, které společnost, která zahrnuje vyhynutí pracovního vztahu, navrhuje, může přijmout důležité právní a etické výzvy, může přijmout, může přijmout
Dehumanizace AI
Není to poprvé, kdy použití AI a automatizovaná rozhodnutí založená na jejich chybách nebo „halucinacích“ zahrnovala události pro svého uživatele. Například například Ibrahim Diallo byl propuštěn AI americké společnosti, kde pracoval, protože jeho nadřízený v počítačovém systému nehlásil obnovení pracovní smlouvy, kterému AI pochopila, že již byl zablokován veškerý přístup k uvedenému pracovníkovi pro zařízení společnosti.
Pokud jde o regulaci a normativní omezení při používání AI na pracovišti, regulace (EU) 2024/1689 o umělé inteligenci vytváří přísný regulační rámec pro použití systémů AI v Evropské unii. Tato regulace klasifikuje aplikace AI na různých úrovních rizika a stanoví specifické požadavky na systémy s vysokým rizikem, zejména na pracovišti, které by mohly mít významné důsledky pro lidská práva pracovních osob.
Konkrétně se systémy AI, které se používají mimo jiné, v oblasti smluvního a výběru personálu pro rozhodování, které ovlivňují podmínky pracovních vztahů, propagace a ukončení (nebo vyhynutí) pracovních vztahů, jsou konkrétně zvažovány s vysokým rizikem.
RIA, ve vztahu k používání těchto systémů v oblasti řízení práce, považovala vysoké riziko, stanoví zásady transparentnosti lidské transparentnosti, kontroly a dohledu, hodnocení dopadů a prevence rizika v oblasti lidských práv, ochrana osobních údajů a diskriminační zkreslení, které jsou při provádění systémů AI v oblasti řízení lidských zdrojů vysoce relevantní.
Zejména použití AI při řízení a provádění obchodních rozhodnutí bez předchozího dohledu nad lidmi se může chovat významná rizika související s diskriminací. Například rozsudek Národního soudu z 10. května 2021 (rec. 105/2021) tedy v případě uplatnění algoritmu pro registraci pracovního dne tedy uvedl, že okolnost, že by algoritmus nedovolil, aby se zaregistroval pauzami, aby provedl fyziologické potřeby, porušuje důvody pracovního pracovníka.
Tato případná absence lidského dohledu v procesu propuštění, kromě toho, že je neslučitelný s novými právními požadavky RIA, může vést k nepřípustnosti nebo v určitých případech k neplatnosti obchodního rozhodnutí, protože nezohledňují situace předmětu proti ochraně proti propuštění nebo jakékoli jiné disciplinární sankci, pokud dojde k nesplnění uvedené rozhodnutí.
Zatímco používání nástrojů, jako je CHATGPT, může přispět k vypracování propuštěných dopisů, musí být lidská bytost přijata konečná rozhodnutí o vystřelení pracovníka, což zajišťuje dodržování právních parametrů a požadavků na odůvodnění.
Psaní a automatizované provádění propuštění může postrádat nezbytné objasnění k řešení každého konkrétního případu, což může vést k nedostatku přiměřeného odůvodnění, pokud jde o propuštění pracovníka, a také používat nepřiměřené komunikační kanály, které mohou vést k nepřístupnosti propuštění.
Ve stejných směrech rozsudek vrchního soudného soudce v Katalánsku ze dne 10. dubna 2024 (rec. 5516/2023) popsal nepřípustné propuštění, které bylo sděleno signatem, protože si všiml, že pracovník byl přijatelný, že byl ve správně přijato, že všichni pracovníci byli řádně přijati, že všichni pracovníci byli řádně přijati. Udělali by to tak.
Doporučení pro zmírnění rizik
Pro zmírnění těchto rizik spojených s používáním AI při rozhodování -v oblasti pracovních vztahů jsou navrženy následující dobré postupy:
- 1. Lidský dohled: Je nezbytné, aby byl jakýkoli dopis o propuštění generovaný AI přezkoumán a schválen řádně vyškoleným personálem, a to jak v pracovním právu, tak v AI, což zaručilo, že splňuje zákonné požadavky a splňuje potřeby procesu.
- 2. Školení, senzibilizace a gramotnost v AI: Je důležité školit personál lidských zdrojů o používání nástrojů AI a zdůraznit potřebu účinné komunikace a zvážení emocionálního dopadu na pracovníka a zaručit, že personál, který je odpovědný za používání systémů AI, má dostatečnou úroveň gramotnosti ve věcech AI v souladu s tím, co je v RIA vyžadováno.
- 3. vyčerpávající validace obsahu AI: Přezkum obsahu generovaného AI musí být podrobně prováděn, aby se zajistilo, že všechna předpisy budou splněna a zachovávají pracovní práva pracovních osob.
- 4. Hodnocení dopadu a pravidelné audity: Proveďte předchozí posouzení dopadů na základní práva a provádějí pravidelné audity v procesech, kde se IA používá k ověření dodržování předpisů, a také identifikovat a reagovat na možné diskriminační zkreslení.
- 5. Dokumentace a transparentnost: Udržujte jasný záznam všech rozhodnutí o propuštění, včetně procesu ospravedlnění a důvodů, které vedly k rozhodnutí, prokázat soulad se zákonem a zaručit transparentnost procesu.
- 6. Interní politiky pro odpovědné použití: Příprava interních politik o používání AI v pracovním prostředí, regulaci limitů a podmínek pro odpovědné, transparentní a sladěné s cíli firem.
Použití AI při řízení pracovních vztahů, a zejména pokud jde o propuštění, zvyšuje významné výzvy, které je třeba řešit na základě předchozí analýzy a normativní přizpůsobení, které zajišťují dodržování národních a evropských předpisů týkajících se AI s cílem zabránit nebo zmírnit rizika odvozená z možného porušení základních práv pracovních osob.
Společnosti, které se rozhodnou začlenit nástroje AI do svých procesů řízení pracovních vztahů, musí tak učinit způsobem, který zaručuje práva pracovníků a spravedlnosti, jsou udržovány v pracovních vztazích. Pouze tímto způsobem může být umělá inteligence integrována efektivně a zodpovědná na pracovišti, což zlepšuje účinnost, aniž by podkopalo zásady, které řídí bezpečná práce a lidská důstojnost.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com