Chi Siamo

Servizi

Executive Reputation

Consulenza

Strumenti

News

Contatti

La nuova frontiera dell’intelligenza artificiale è l’etica

Reputation Blog

La nuova frontiera dell’intelligenza artificiale è l’etica

Ogni giorno, senza neanche rendercene conto, deleghiamo molte decisioni a una macchina. Pensate alla guida autonoma, ai sistemi di sicurezza, alla domotica. Ogni giorno, senza rendercene conto, subiamo molte decisioni prese da una macchina che modificano il corso della nostra percezione e perfino della nostra vita. Le notizie che vediamo scorrere sui social network (preselezionate dal social sulla base dei nostri comportamenti passati), la musica che ascoltiamo da una playlist predefinita, un mutuo negato dalla banca sulla base di un algoritmo che valuta i buoni e i cattivi pagatori. Le decisioni implicano sempre una scelta tra alternative, le ragioni alla base di questa scelta implicano sempre un approccio etico. In sostanza, fare la cosa giusta.

INSEGNARE L’ETICA ALLE MACCHINE

Da anni, tra le questioni più urgenti per chi si occupa di intelligenza artificiale c’è quella di insegnare l’etica alle macchine affinché gli algoritmi non prendano decisioni discriminatorie o moralmente riprovevoli. Per esempio, tornando agli esempi citatati, negare un mutuo su basi etniche o di genere o, nel caso di un’auto a guida autonoma, imporle di finire fuori strada invece di investire qualcuno. Siamo nell’era delle macchine che correggono altre macchine. Insegnare loro a prendere decisioni, a discernere da sole il bene dal male in determinate situazioni implica infatti che, proprio come gli esseri umani, le macchine possano commettere degli errori. E che abbiano bisogno di essere corrette prima ancora di compiere l’errore.

I SISTEMI CORRETTIVI E L’INTELLIGENZA ARTIFICIALE

Pochi giorni fa un siciliano che vive a Vienna si è visto recapitare dall’app ufficiale di McDonald’s questo messaggio: «Hey mafioso, try our new bacon della Casa now. Bella Italia!» e, indignato, ha subito protestato contro l’azienda sollevando il caso sui media. McDonald’s si è scusata spiegando che si è trattato di un errore di traduzione dalla parola tedesca mamfen che significa goloso. Per evitare o ridurre al minimo questi errori, i cosidetti bias degli algoritmi, l’intelligenza artificiale sta lavorando su sistemi correttivisoftware capaci di correggere altri software, anzi di indicare loro la strada eticamente più corretta prima che commettano un clamoroso sbaglio.

AUTO APPRENDIMENTO E RISCHI

Oggi lo scenario fantascientifico descritto nel 2001 da Steven Spielberg in A.I. – Intelligenza artificiale fa quasi sorridere, sembra preistoria. La questione etica nell’intelligenza artificiale è un enorme problema e, a ben vedere, è essa stessa soggetta a un gigantesco bias. Infatti, è proprio la caratteristica più apprezzata nei sistemi di intelligenza artificiale, ovvero la capacità di imparare da soli, la causa principale della difficoltà di controllarli. È rimasto impresso nella memoria di molti, il caso nel 2017 dei due robot che, durante un esperimento di Facebook, hanno iniziato a parlare tra loro una lingua incomprensibile per gli umani. La cosa destò talmente tanta inquietudine che i ricercatori decisero di sospendere l’esperimento. Si scoprì poi che il fenomeno era dovuto semplicemente a un errore di programmazione, a causa del quale le macchine riuscirono a modificare la lingua inglese per semplificare la comunicazione tra loro.

I SOFTWARE NON BASTANO A GARANTIRE CHE LE SCELTE SIANO CORRETTE

Anche se la spiegazione alla stranezza dell’evento era tecnicamente piuttosto semplice e descriveva un meccanismo già osservato in passato dagli addetti ai lavori, in quell’occasione nella comunità scientifica si levarono alcune voci per sottolineare che la robotica, per quanto sia una enorme opportunità, costituisce anche un pericolo, proprio per le sue implicazioni etiche e sociali, e trascurare questo aspetto equivale a mettere la testa sotto la sabbia. Software e tool da soli non bastano a garantire che le scelte compiute dalle macchine siano sempre eticamente corrette.

LA CREAZIONE DI UN ECOSISTEMA INFORMATIVO PIÙ ETICO

Se insegnare alle macchine a comportarsi eticamente appare ancora piuttosto problematico, d’altro canto utilizzare l’intelligenza artificiale per rendere più etico un ambiente o un ecosistema informativo, come per esempio un social network, sembra una strada più percorribile, per quanto complessa. Il Financial Times, per esempio, ha introdotto programmi automatici per avvertire i giornalisti quando non rispettano la parità di genere e quando negli articoli il punto di vista femminile è inferiore rispetto a quello maschile. Instagram sta sperimentando un sistema automatico per scoraggiare il cyberbullismo: quando il potenziale bullo, identificato dall’algoritmo, sta per postare un commento offensivo il social network gli invia una notifica con l’obiettivo di dissuaderlo dal pubblicarlo. Se il bullo decide di perseverare nella sua azione lesiva, l’algoritmo isolerà i suoi post in modo che vengano ignorati. Anche questo sistema non è ovviamente esente da errori, anzi.

L’ADDESTRAMENTO DELL’ALGORITMO

Per addestrare l’algoritmo a essere sempre più preciso ed efficace nell’identificazione del soggetto violento, Instagram chiede una mano agli utenti che possono segnalare i casi in cui l’algoritmo sbaglia. Attenzione perché anche in questo ultimo passaggio, l’errore è dietro l’angolo. Come abbiamo già visto accadere con le fake news su Facebook, il sistema di segnalazione affidato agli utenti, inesperti e non informati su tutto, può risultare ugualmente fallace. Come se ne esce quindi?

L’IDENTIFICAZIONE DELLE FAKE NEWS

C’è una terza via per utilizzare l’intelligenza artificiale in modo etico. Per quanto riguarda contenuti lesividiffamatori o fake news possono essere progettati sistemi di identificazione, analisi e contrasto diretto che supportino l’azione imprescindibile di professionisti ed esperti. Per il ministero della Salute abbiamo sviluppato un sistema denominato Fake Content Mitigation per l’identificazione su tutto il web e il contrasto diretto alle fake news sui vaccini. L’algoritmo lavora attraverso un modello concettuale e semantico strutturato per riconoscere questi contenuti su tutta la Rete, cristallizza la prova online attraverso un tool di web forensics che ne attesta il valore legale e viene in fine certificata da un comitato di esperti del ministero. Certificati alla mano, viene strutturato un piano di moral suasion e richieste di rimozione dei contenuti fake direttamente ai canali che le hanno pubblicate. Questo processo può essere applicato a qualunque settore (pensiamo a tutte le fake news che circolano in campo alimentare o in politica) e mostra che serve un approccio integrato, che faccia lavorare insieme tecnologia ed esperienza specialistica sui temi. La questione etica della tecnologia non può essere risolta solo attraverso la tecnologia. Né solo attraverso la prospettiva antropologicafilosofica sociologica. È necessaria una convergenza multidisciplinare di saperi.