Etica e Intelligenza Artificiale, l'Europa come pioniere globale

di Francesca Rossi



Come definito dai nostri principi di Fiducia e Trasparenza, in IBM abbiamo da sempre chiaro che il ruolo di leadership si deve basare sulla dimostrazione di un utilizzo responsabile delle nuove tecnologie che sviluppiamo e generiamo. Per questo motivo siamo forti sostenitori dell'attività che l'UE sta dedicando allo sviluppo di Linee guida che definiscono il Codice etico per un'Intelligenza artificiale affidabile, attualmente in fase di completamento. Queste Linee guida hanno lo scopo di consolidare la posizione dell'Europa come pioniere globale per l'intelligenza artificiale sviluppata e utilizzata in modo responsabile ed etico.

Ho il privilegio di fare parte del gruppo di esperti su AI (AI HLEG) selezionato dalla Commissione Europea e incaricato di sviluppare raccomandazioni in materia di etica, politica e investimenti che riguardano l'Intelligenza Artificiale in Europa. L'attività in corso riguarda tutti e tre i settori. Dalla scorsa estate lavoriamo sulle linee guida che definiscono il codice etico. Abbiamo elencato i componenti che rappresentano un prerequisito essenziale per un'Intelligenza Artificiale affidabile e abbiamo considerato i modi più efficaci per renderla operativa. Abbiamo, inoltre, definito i due componenti per un'AI affidabile, secondo cui: (1) deve rispettare i diritti fondamentali, le norme applicabili e i principi e valori di base, garantendo una “finalità etica” e (2) deve disporre di una base tecnica solida e affidabile in quanto, anche con le migliori intenzioni, una mancanza di competenza tecnologica potrebbe causare danni non intenzionali.

Il processo dell'UE applicato per sviluppare queste linee guida è assolutamente consultativo. Non un semplice ruolo di osservazione e consulenza occasionale del processo di progettazione della Commissione Europea, ma al gruppo di esperti è stato assegnato un ruolo di concreta partecipazione alla redazione di ogni sezione del testo. In una seconda fase di consultazione, la bozza delle linee guida è stata sottoposta al feedback da parte dell'EU AI Alliance, un ampio forum all'interno del quale chiunque che abbia interesse verso una discussione aperta in materia di sviluppo dell'Intelligenza Artificiale possa richiedere e fornire commenti.

L'UE ha anche assicurato un approccio multidisciplinare: il gruppo di esperti e l'AI Alliance riflettono i diversi background e le diverse prospettive che riguardano i molti campi accademici, i settori e le associazioni in tema di diritti umani e dei consumatori. L'Intelligenza Artificiale non rappresenta più il dominio esclusivo di ricercatori tecnologici, ma coinvolge anche filosofi, psicologi, sociologi, economisti, ecc. Per permettere all'Intelligenza Artificiale di essere sempre più "umano-centrica" e vantaggiosa per un numero più alto possibile di persone, sono essenziali discussioni multidisciplinari sulle sue implicazioni nella sfera sociale.

La scelta di puntare sull'Intelligenza Artificiale affidabile è strettamente allineata con l'approccio di IBM che punta a promuovere e mettere a disposizione una tecnologia di cui ci si possa fidare, e a condividere progettazione, sviluppo e utilizzo in linea con valori di trasparenza e responsabilità. Abbiamo, inoltre, deciso di partire dai diritti fondamentali, associandoli ai principi e valori di base, per poi utilizzare tali principi e valori per definire i requisiti di un'Intelligenza Artificiale affidabile.

Le linee guida riconoscono che non esiste una soluzione universale per le questioni etiche che riguardano l'Intelligenza Artificiale. Situazioni diverse possono sollevare sfide differenti – la versione finale delle linee guida finali conterrà anche una lista di specifici domini di applicazione, dimostrando come le line guida possano essere applicate in diversi contesti di Intelligenza Artificiale.

Durante il processo di sviluppo, ho condiviso il progetto di trasformazione del codice etico da teoria a realtà, cioè dalla ricerca a prodotti e servizi concreti. Per esempio, la bozza delle linee guida prende in considerazione il principio di giustizia e lealtà. Lo scorso anno, IBM ha sviluppato il toolkit AI Fairness 360 mettendolo a disposizione della comunità open source. Il toolkit comprende un elenco di nuovi algoritmi, codici e tutorial in grado di offrire ad accademici, ricercatori e data scientist strumenti e conoscenze per integrare la rilevazione e mitigare i bias in quanto formano e utilizzano modelli di apprendimento automatico. Anche la spiegabilità è un elemento cruciale per creare un’AI affidabile. Lo scorso anno, IBM ha presentato funzionalità di Fiducia e Trasparenza per l'Intelligenza Artificiale su Cloud che forniscono visibilità su come l’AI prende decisioni e offre raccomandazioni per mitigare eventuali bias potenzialmente dannosi.

Infine, una buona Governance dell'AI è un elemento chiave delle linee guida. IBM attua procedure per assicurare che le decisioni aziendali riflettano i nostri valori. Abbiamo definito un meccanismo interno per coordinare e sincronizzare le iniziative che riguardano il codice etico dell’AI in tutte le divisioni della società.

Stiamo ora per affrontare la fase finale – forse la più impegnativa – che riguarda la realizzazione concreta delle linee guida. I commenti sulla bozza provengono da una ampia comunità attraverso la AI Alliance. Attendo con entusiasmo di vedere quali interessanti prospettive emergeranno da questi commenti per rafforzare ulteriormente gli elementi chiave come i processi di valutazione per l'Intelligenza Artificiale affidabile. Nel corso dei prossimi mesi, io e i miei colleghi del gruppo di esperti (AI HLEG) collaboreremo con la Commissione Europea per introdurre linee guida finali che abbiano una visione ambiziosa, pragmatica e d'impatto.

In considerazione di un recente studio dell'IBM Institute for Business Value realizzato su 5.000 manager di livello C che ha mostrato che il 60% di loro ha difficoltà ad attuare l'Intelligenza Artificiale a causa di problemi relativi a fiducia e compliance, le linee guida rappresentano una risposta importante. Credo fermamente che sistemi di Intelligenza Artificiale affidabili e inclusivi sono e saranno i sistemi più competitivi e di successo sul mercato.

29 gennaio 2019

Francesca Rossi, AI Ethics Global Leader IBM Research. @frossi_t



#in300sec: Maurizio Decollanz intervista Francesca Rossi sui temi dell'etica per l'Intelligenza Artificiale e la responsabilità nell'individuare e prevenire i bias'

Visit us on LinkedIn