Questo sito contribuisce all’audience di Quotidiano Nazionale

Futuro tra etica e intelligenza artificiale. Le regole Ue: sia incentrata sull’uomo

Con il contributo dell'Unione Europea

La sede del Parlamento europeo a Strasburgo

Concorrenza e privacy, sostegno all’innovazione e tutela dei diritti umani: l’Europa è alla ricerca di un delicato equilibrio su uno dei più complessi dossier in discussione: le regole per governare lo sviluppo e le applicazioni dell'Intelligenza artificiale (IA). Duplice obiettivo del regolamento Artificial Intelligence Act, proposto dalla Commissione europea ad aprile dello scorso anno ed ora all'esame del Parlamento europeo, è di dare slancio agli investimenti in ricerca e sviluppo e di garantire allo stesso tempo un uso centrato sulla salvaguardia dei diritti fondamentali
L ’approvazione finale è prevista per l’autunno del 2023. E mentre Cina e Usa corrono sul terreno tecnologico l'Ue è stretta tra le pressioni delle imprese, specie le Big Tech (che vorrebbero allentare le maglie della normativa perché, sostengono, soffocherebbe l’innovazione) e la spinta delle Ong per una maggiore tutela dei cittadini.
Il testo, che prevede una serie di divieti, obblighi e deroghe a seconda del grado di rischio che comportano le tecnologie dell’IA, dovrà passare anche al vaglio del Consiglio dell’Ue ed essere poi al centro di trattative con il Pe: un percorso che si preannuncia in salita.
Non ne fa mistero il relatore del provvedimento all'Eurocamera, Brando Benifei (Pd-S&D), che parla di «differenze significative» tra i due co-legislatori, specialmente sulla questione spinosa dell’esenzione della sicurezza nazionale dal campo di applicazione del regolamento. «Molto dipenderà dal nuovo governo tedesco», commenta l’europarlamentare sottolineando «la sensibilità dell’opinione pubblica in Germania rispetto alla questione della privacy».
Altra questione spinosa è quella relativa ai sistemi di identificazione biometrica, come il riconoscimento facciale. «Il testo ne prevede il divieto, ma con eccezioni troppo ampie», spiega Benifei. Che tuttavia si mostra scettico, viste le posizioni provenienti dal Consiglio, sulla possibilità di giungere ad un divieto totale, come richiesto a gran voce dalle Ong che vedono in alcune pratiche, come il riconoscimento delle emozioni, un inaccettabile rischio per i diritti fondamentali.
«Occorre intervenire anche sulla definizione delle modalità per immettere nel mercato interno le tecnologie IA ad alto rischio», aggiunge l’eurodeputato dem, che auspica l’estensione di «controlli ex ante effettuati da enti terzi» per «limitare gli effetti discriminatori» degli algoritmi.
Per Benifei, infine, la discussione del testo passa anche per il coinvolgimento delle parti sociali, tenuto conto dell’impatto che l’uso dell’IA può avere sul mondo del lavoro. «Basti pensare - spiega l’eurodeputato - alle tecnologie invasive che vengono già impiegate per controllare i lavoratori. Bisognerebbe piuttosto riflettere su come l’IA può rafforzare la sicurezza sul lavoro. Perché la tecnologia deve essere al servizio dell’uomo e non il contrario».

Caricamento commenti

Commenta la notizia