Lunedì, 19 Novembre 2018

Doppia sfida per controllare l’intelligenza artificiale

Doppia sfida per controllare l'intelligenza artificiale, che si prepara a trasformare completamente la vita quotidiana: da un lato bisogna proteggere i dati personali, dall'altro si deve evitare che le nuove tecnologie condizionino in modo negativo il comportamento umano. Per questo è importante stabilire fin da ora delle regole etiche. A lanciare l'iniziativa, sulla rivista Science, sono gli italiani Mariarosaria Taddeo e Luciano Floridi, che lavorano in Gran Bretagna, nell'università di Oxford.

"L'intelligenza artificiale si compone di algoritmi in grado di imparare e di dati che vengono usati per farli funzionare. Questi sistemi si comportano come se fossero intelligenti, ma non hanno le capacità cognitive degli esseri umani", ha detto all'ANSA Taddeo, che si è trasferita a Oxford dopo la laurea all'università di Bari e il dottorato a Padova. Di conseguenza le sfide etiche da affrontare sono molteplici: dalla protezione dei dati all'attribuzione delle responsabilità nei casi in cui l'intelligenza artificiale commetta errori o ci siano malfunzionamenti.

E' infatti utilizzata "in contesti sempre più numerosi, dall'analisi delle immagini per la biomedicina all'industria del divertimento, quindi diversi usi richiedono regolamentazioni diverse". Inoltre bisogna tener conto "dei diversi valori culturali e morali dei Paesi in cui è utilizzata". Per esempio, se l'intelligenza artificiale è usata in ambito medico, ha detto l'esperta, "dobbiamo essere sicuri che supporti ma non sostituisca le competenze umane". Inoltre, poiché questa tecnologia sta diventando sempre più una presenza invisibile nella vita quotidiana e rischia di influenzare ciò che pensiamo o facciamo, "emergono nuove sfide etiche e la protezione dell'autodeterminazione umana è fra le più rilevanti".

A esempio "il caso Cambridge Analytica, offre chiari esempi del potenziale dell'intelligenza artificiale per catturare le preferenze e le caratteristiche degli utenti e quindi plasmare il loro comportamento". Un eventuale quadro etico dovrebbe ispirarsi anche al principio di giustizia: "l'intelligenza artificiale non dovrebbe essere mai usata per favorire forme di discriminazione, come il caso dell'algoritmo Compas, che negli Usa ha discriminato afro-americani e ispanici nelle concessioni della libertà condizionale". In tutto il mondo stanno emergendo iniziative che cominciano ad affrontare queste sfide etiche, fra queste due documenti dell'Ue, la roadmap AI4People e la Dichiarazione di cooperazione sull'intelligenza artificiale, "che stanno compiendo passi decisivi per identificare i rischi, ma anche per evidenziare il potenziale per il bene individuale e comune".

Per uno dei pionieri della Roboetica, Gianmarco Veruggio, del Consiglio Nazionale delle Ricerche (Cnr-Ieiit) il punto critico è anche "la capacità della popolazione di comprendere i problemi e creare un contesto favorevole alla creazione e applicazione di leggi e regolamenti" perché "senza un'etica condivisa dai personaggi chiave del processo (politica, finanza, industria, tecnologia) sarà impossibile tenere sotto controllo le infinite criticità di questa rivoluzione".

© Riproduzione riservata

X
ACCEDI

Accedi con il tuo account Facebook

Login con

Login con Facebook
  • Seguici su
X