<img height="1" width="1" style="display:none;" alt="" src="https://px.ads.linkedin.com/collect/?pid=1221369&amp;fmt=gif">

CORPORATE SOCIAL RESPONSIBILITY: ANCHE L’INTELLIGENZA ARTIFICIALE HA IMPLICAZIONI ETICHE IN AZIENDA

intelligenza artificiale e etica

In Europa si torna a parlare di Intelligenza Artificiale. Lo scorso Aprile, infatti, la Commissione Europea ha pubblicato una nuova proposta di regolamento il cui obiettivo è stabilire norme armonizzate in materia di Intelligenza Artificiale. Un vero e proprio quadro giuridico per lo sviluppo, la commercializzazione e l’uso dell’AI.

La recente proposta va ad affiancarsi ad altre iniziative già messe in campo sia a livello di Stati Membri dell’Unione sia di respiro ancor più internazionale, come il Codice Etico varato dalla Commissione Europea e il Global Partnership on Artificial Intelligence a cui hanno aderito 15 Paesi in tutto il mondo.

 

È evidente come il tema sia in cima all’agenda politica e per più di un motivo. Le implicazioni economiche sono sicuramente tra le più rilevanti. Lo sviluppo di sistemi che operano con tecnologie evolute e Intelligenza Artificiale porta con sé opportunità di business non trascurabili. Proprio la Commissione Europea, per altro, ha già previsto di investire almeno un miliardo di euro all’anno nel mercato dell’AI e ulteriori risorse potrebbero arrivare anche dai nuovi piani per la ripresa post pandemia.

 

Il mercato, però, ha bisogno di essere regolamentato anche per poter gestire e circoscrivere i rischi correlati all’utilizzo di algoritmi nei settori industriali e nei servizi più disparati. Ed è proprio qui che si inserisce la responsabilità sociale delle istituzioni e delle aziende nei confronti di tutti i cittadini. Ed è qui che emerge in primo piano la questione etica legata allo sviluppo dell’Intelligenza Artificiale.

 

GLI OBIETTIVI DEL NUOVO REGOLAMENTO EUROPEO

L’evoluzione della tecnologia, la diffusione di sistemi che operano con AI e le implicazioni sociali ed economiche che questo comporta hanno reso necessario dunque un ripensamento delle norme e l’introduzione di un regolamento adatto anche a classificare le soluzioni per indice di rischio: per poterlo gestire e monitorare da un lato e per certificare l’affidabilità dei sistemi dall’altro.

 

A questo proposito, gli obiettivi che persegue la Commissione Europea sono molto precisi:

 

  1. Assicurare che i sistemi di Intelligenza Artificiale immessi sul mercato dell'Unione e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell'Unione
  2. Assicurare la certezza del diritto per facilitare gli investimenti e l'innovazione nell'intelligenza artificiale
  3. Migliorare la governance e l'applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di Intelligenza Artificiale
  4. Facilitare lo sviluppo di un mercato unico per applicazioni di Intelligenze Artificiali lecite, sicure e affidabili nonché prevenire la frammentazione del mercato

 

LA QUESTIONE ETICA

La proposta del nuovo regolamento europeo contribuisce anche al raggiungimento di un obiettivo prioritario per l'Unione, ovvero quello di presentarsi come leader mondiale nello sviluppo di sistemi alimentati da Intelligenza Artificiale che sia sicura, affidabile ed etica.

La proposta stabilisce una solida metodologia per la gestione dei rischi impiegata per definire i sistemi di AI ad alto rischio, ovvero che pongono rischi significativi per la salute e la sicurezza o per i diritti fondamentali delle persone

Questi sistemi dovranno rispettare una serie di requisiti obbligatori orizzontali per un'IA affidabile nonché seguire le procedure di valutazione della conformità prima di poter essere immessi sul mercato dell'Unione Europea. Anche i fornitori e gli utenti saranno sottoposti a obblighi prevedibili, proporzionati e chiari, con l'obiettivo di garantire la sicurezza e il rispetto della normativa vigente che tutela i diritti fondamentali durante l'intero ciclo di vita dei sistemi di AI. 

 

L’INTELLIGENZA ARTIFICIALE NEL RECRUITING

Da tempo il settore delle Risorse Umane guarda con interesse e attenzione alle possibilità di applicare l’Intelligenza Artificiale all’efficientamento e all’ottimizzazione dei processi di selezione. Non stupisce quindi, che un intero paragrafo della proposta di regolamento UE sia dedicata proprio alla selezione. 

 

Nello specifico, si evidenzia come anche i sistemi di Intelligenza Artificiale utilizzati 

 

«nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo, in particolare per l'assunzione e la selezione delle persone, per l'adozione di decisioni in materia di promozione e cessazione del rapporto di lavoro, nonché per l'assegnazione dei compiti, per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro, dovrebbero essere classificati come sistemi ad alto rischio, in quanto tali sistemi possono avere un impatto significativo sul futuro di tali persone in termini di future prospettive di carriera e sostentamento»

 

Il rischio da scongiurare è che durante tutto il processo di selezione, così come per la valutazione e la promozione delle persone, l’AI possa perpetuare modelli storici di discriminazione. Non ultimo, le tecnologie utilizzate per monitorare le prestazioni e il comportamento di candidati e collaboratori potrebbero incidere sui loro diritti in materia di protezione dei dati e vita privata.

 

L’applicazione dell’Intelligenza Artificiale ai processi di selezione deve rispettare anche i vincoli del GDPR

 

Vuoi iniziare ad applicare tecnologiche evolute in modo etico ai tuoi processi di selezione? Contattaci!

 

Parliamo del tuo progetto di selezione?