
In un periodo storico come quello che ognuno di noi ha vissuto, hanno trovato ampio margine di gioco e terreno fecondo per il proprio ampliamento i sistemi di intelligenza artificiale. Questi ultimi, nell’ultimo anno, stanno pian piano facendo il loro ingresso anche in settori che, quanto meno a prima vista, parrebbero decisamente in contrasto con la natura robotica.
Ne è un esempio il “Caso Replika: Always here to listen and talk. Always on your side”, un esperimento nato per fornire un amico virtuale da istruire mediante il continuo dialogo; tale esperimento ha come intento quello di colmare la solitudine, il vuoto e la mancanza di un supporto umano sentiti da parte di tante persone, ancor di più nell’anno particolare appena trascorso.
Il meccanismo sotteso è quello del natural language processing (NlP), ossia un’intelligenza artificiale imperniata su un’analitica di tipo prescrittivo, istruita mediante complessi algoritmi e machine learning in maniera tale da consentirle di esaminare, sulla base di determinati fattori, quali azioni intraprendere in maniera autonoma per adattarsi ai cambiamenti.
Alla luce di questo possiamo affermare che, l’intelligenza artificiale sia l’ultima frontiera della “rivoluzione digitale”.
I capisaldi dell’IA sono: la filosofia, la matematica, l’economia, le neuroscienze, la psicologia, l’informatica, la teoria del controllo e cibernetica, la linguistica1.
L’IA si occupa della comprensione (obiettivo scientifico) e di riproduzione (obiettivo ingegneristico) del comportamento intelligente. Essa si propone di riprodurre il pensiero e l’azione dell’uomo. È quindi necessario, così come lo è per l’uomo, che ne siano regolate le condotte da un punto di vista giuridico ed etico.
Anche se in molti temono il rischio di un prossimo braccio di ferro tra l’uomo e le tecnologie intelligenti, vari sono i vantaggi che spingono a usare l’intelligenza artificiale. Negli ultimi tempi, infatti, l’automazione riguarda anche attività più “sensibili” e “creative”, catalogate come tipicamente umane. Ad esempio, in campo bancario, aziendale, medico, giuridico e artistico gli strumenti di intelligenza artificiale riescono a emulare i “colleghi umani” e a fare qualcosa (molto) in più, grazie ai big data.
Per garantire un’intelligenza artificiale più affidabile (trustworthy) e antropocentrica (human centric), l’Unione Europea2 ha pubblicato il codice etico europeo per l’intelligenza artificiale3. È opportuno fare un riferimento a quella che è la strategia europea (linee guida dell’8 aprile 20194), la quale pone l’essere umano al centro dello sviluppo dell’Intelligenza artificiale, con lo scopo di creare fiducia nell’intelligenza artificiale antropocentrica. Sono sette requisiti fondamentali5 da rispettare:
1. Intervento e sorveglianza umana
- Robustezza tecnica e sicurezza
- Riservatezza e governance dei dati
- Trasparenza
- Diversità, non discriminazione ed equità
- Benessere sociale e ambientale
- Responsabilità intesa anche come accountability.
Inoltre, alla base, l’intelligenza artificiale dovrebbe:
- rispettare la legge;
- osservare i principi etici;
- dimostrare robustezza.
L’Unione Europea vuole ampliare il suo codice etico anche oltre i suoi confini al fine di sviluppare un approccio etico all’intelligenza artificiale sempre più globale.
Nel dicembre del 2018 la Commissione Europea per l’efficienza della Giustizia (CEPEJ) 6 ha adottato la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, essa è basata su 5 principi:
- Rispetto dei diritti fondamentali: i sistemi di intelligenza artificiale devono essere compatibili con i diritti fondamentali.
- Non discriminazione: ovvero, prevenire, già in fase di progettazione dei sistemi di IA, possibili scelte discriminatorie
- Qualità e sicurezza: nel senso di usare fonti certificate e dati tangibili in ordine al trattamento di decisioni e dati giudiziari
- Trasparenza imparzialità ed equità: ovvero, rendere le metodiche di trattamento dei dati accessibili e comprensibili, autorizzare altresì verifiche esterne
- Controllo da parte dell’utilizzatore: consapevolezza e controllo delle proprie scelte per chi usa i sistemi di IA.
L’intelligenza artificiale sta guidando a nuovi approcci giuridici nell’ambito del diritto di proprietà intellettuale; ad esempio, la scoperta di un nuovo farmaco o l’elaborazione di una nuova melodia musicale attraverso gli algoritmi di assimilazione automatica significa anche chiedersi chi sia il “padre” delle nuove invenzioni.
Un binomio vincente risultano essere oggi le Risorse Umane e l’intelligenza artificiale. Concetto sempre più presente nella nostra quotidianità, l’intelligenza artificiale sta producendo ingenti cambiamenti significativi ad ogni tipo di attività. Non fanno eccezione le risorse umane, con compiti sia di tipo transazionale, quindi attività di ‘core HR’, sia da aspetti di tipo trasformazionale, come ad esempio l’elaborazione di progetti volti a trattenere e formare i dipendenti all’interno della stessa azienda, chiamate oggi più di ieri a farsi leader dei grandi mutamenti in atto.
Tuttavia, è importante evidenziare che le attività non possono essere completamente automatizzate dalla tecnologia. Esistono compiti che richiedono l’intervento dei recruiter, come per esempio nella fase finale di un colloquio, dov’è inderogabile il fattore umano. L’IA deve, quindi, essere vista come un’alleata e non come una minaccia al proprio operato poiché solo adottando questa tipologia di approccio e includendo il concetto di digital transformation, i responsabili di settore potranno afferrare pienamente quest’opportunità e focalizzarsi sulla gestione dei propri talenti e sugli obiettivi aziendali.
Alla luce dell’analisi appena fatta, sarebbe auspicabile, invece di sfidarci a braccio di ferro, provare a prenderci per mano e abbracciare il cambiamento, grazie a una maggiore consapevolezza.
2 https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
3 Commissione Europea, Orientamenti etici sull’intelligenza artificiale: proseguono i lavori della Commissione, comunicato stampa, 8 aprile 2019, http://europa.eu/rapid/press-release_IP-19-1893_it.htm
4 Commissione Europea, Building Trust in Human-Centric Artificial Intelligence, comunicazione, 8 aprile 2019 COM (2019) 168 final
5https://maurovarottoblog.com/2019/04/12/i-sette-orientamenti-etici-dellue-per-lo-sviluppo-di-unintelligenza-artificiale-antropocentrica/
6 COMMISSIONE EUROPEA PER L’EFFICIENZA DELLA GIUSTIZIA
(CEPEJ), Carta etica europea sull’utilizzo dell’intelligenza artificiale nei
sistemi giudiziari e negli ambiti connessi, Strasburgo, 3.12.2018, https://rm.coe.int/carta-
etica-europea-sull-utilizzo-dell-intelligenza-artificiale-neisi/1680993348
Dott.ssa Cristina Mungo
BeGov Calabria