Sicuramente, usa l’intelligenza artificiale al lavoro, ma fai attenzione alle spinose questioni legali che possono sorgere www.singaporelawwatch.sg
A seconda di come la tecnologia viene sfruttata sul posto di lavoro, l’intelligenza artificiale potrebbe dar luogo a una miriade di insidie legali per gli ignari.
“L’intelligenza artificiale probabilmente porterà alla fine del mondo”, ha proclamato Sam Altman. Questa è una previsione audace e catastrofica, proveniente dalla forza trainante di OpenAI e della sua creazione innovativa, ChatGPT.
I suoi sentimenti sono ampiamente ripresi da Geoffrey Hinton, ampiamente considerato il padrino dell’intelligenza artificiale (AI), che ha affermato di essere preoccupato per il “rischio esistenziale” di ciò che accade quando l’intelligenza artificiale diventa più intelligente degli umani.
Anche se non è ancora chiaro se stiamo vivendo la fine dei tempi, non si può negare che l’intelligenza artificiale stia avendo un impatto trasformativo sul nostro modo di lavorare.
Man mano che l’intelligenza artificiale continua a svilupparsi e – osiamo dire – a diventare più intelligente, rimodellerà inevitabilmente le basi del modo in cui le aziende conducono gli affari e gestiscono la propria forza lavoro. A seconda di come viene sfruttata la tecnologia, ciò potrebbe dar luogo a una miriade di insidie legali per gli ignari. In questo commento evidenzio, in modo non esaustivo, tre questioni legali di cui datori di lavoro e dipendenti dovrebbero essere consapevoli.
Dilemma giuridico 1: chi si assume la responsabilità (legale) delle decisioni prese dall’IA?
Uno degli effetti più immediati dell’intelligenza artificiale sul posto di lavoro è il suo ruolo nell’automazione e nell’ottimizzazione dei processi.
Strumenti basati sull’intelligenza artificiale come WebHR, Workable e Talkpush hanno già iniziato a semplificare numerosi processi delle risorse umane (HR), dall’acquisizione e onboarding dei talenti alla gestione delle buste paga e alle valutazioni delle prestazioni.
Questa maggiore efficienza porta a una riduzione degli oneri amministrativi, consentendo ai professionisti delle risorse umane di concentrarsi su compiti più strategici, come lo sviluppo della forza lavoro, le esigenze aziendali e il benessere dei dipendenti.
Tuttavia, ciò solleva anche importanti considerazioni giuridiche. Man mano che i processi diventano automatizzati, la questione della proprietà e della responsabilità del processo decisionale diventa più sfumata.
Nel contesto dell’acquisizione di talenti, in particolare, l’uso di software per automatizzare lo screening dei CV e l’abbinamento dei candidati riduce drasticamente il tempo che i reclutatori devono dedicare alla vagliatura dei curriculum. Tuttavia, l’uso di algoritmi di intelligenza artificiale potrebbe portare a risultati perversi se avesse l’effetto involontario di amplificare i pregiudizi, ad esempio favorendo le persone con determinati accenti o caratteristiche facciali.
Nel caso in cui pensiate che ciò sia inverosimile, nell’ottobre 2019, i ricercatori hanno scoperto che un algoritmo utilizzato su più di 200 milioni di persone negli ospedali statunitensi per prevedere quali pazienti avrebbero probabilmente bisogno di cure mediche aggiuntive favoriva fortemente i pazienti bianchi rispetto a quelli neri. Sebbene la razza in sé non fosse una variabile utilizzata nell’algoritmo, lo era un’altra variabile altamente correlata alla razza, ovvero lo storico dei costi sanitari.
Chi è responsabile se un algoritmo di intelligenza artificiale prende una decisione di assunzione discriminatoria?
Non è irragionevole prevedere che i responsabili delle assunzioni puntino il dito contro i professionisti delle risorse umane, che probabilmente attribuiranno la responsabilità ai colleghi dei servizi aziendali responsabili del software, che a loro volta probabilmente sposteranno la colpa sui criteri di assunzione forniti loro dal responsabile delle assunzioni in primo luogo.
È quindi necessario stabilire linee guida e regolamenti chiari per affrontare tali preoccupazioni etiche e garantire il rispetto delle leggi antidiscriminazione, come il prossimo Workplace Fairness Act di Singapore.
Dilemma giuridico 2: a che punto diventa problematico per i datori di lavoro raccogliere dati per la sorveglianza?
La capacità dell’intelligenza artificiale di elaborare e analizzare grandi quantità di dati sta rivoluzionando le pratiche esistenti sul posto di lavoro.
L’analisi predittiva può aiutare le organizzazioni a prendere decisioni informate sulla pianificazione della forza lavoro, identificare potenziali aree di preoccupazione e migliorare il coinvolgimento dei dipendenti. Gli algoritmi di intelligenza artificiale possono segnalare le tendenze relative al turnover dei dipendenti, alla soddisfazione e alle prestazioni sul posto di lavoro, consentendo ai datori di lavoro di adottare misure proattive per affrontare i problemi prima che si intensifichino.