
Il rapporto tra umanesimo e intelligenza artificiale e le responsabilità che ci competono nel governare questo cambiamento epocale, è un tema che oggi più che mai si pone al centro del dibattito globale.
L’idea di creare esseri artificiali dotati di intelligenza risale a miti antichissimi. Già i Greci raccontavano la storia di Pigmalione, lo scultore che, innamoratosi della statua perfetta di Galatea, pregò con tanta intensità da commuovere la dea Afrodite, la quale infuse alla statua il dono della vita.
Oggi questo mito si fa realtà. L’intelligenza artificiale rappresenta senza dubbio una delle innovazioni più dirompenti della nostra epoca: realtà complessa, fatta di luci e ombre, una sorta di croce e delizia che richiede di essere gestita con responsabilità e consapevolezza.
Di fronte a questa svolta, emerge una domanda cruciale: quali sono i confini tra l’uomo e la macchina? La riflessione non può che prendere le mosse dalla formazione di cui siamo figli: la cultura umanista, che pone l’uomo al centro dell’universo. Siamo gli eredi di una visione che si sviluppa lungo le linee della cultura greca, giudaica e cristiana, convergenti nell’idea che l’uomo sia mensura rerum.
Tuttavia, declinare l’umanesimo in epoca moderna, significa fare i conti con le nuove discipline scientifiche e riflettere sul nuovo ruolo dell’uomo in una società sempre più tecnologizzata.
Infatti, l’umanesimo contemporaneo appare segnato da una contraddizione di fondo: come può l’uomo mantenere un ruolo centrale se lo sviluppo tecnologico è spesso concepito in sua sostituzione? La nostra eredità culturale ci insegna a considerare l’essere umano un fine, non un mezzo. Per questo, è fondamentale che l’IA sia progettata e utilizzata nell’ambito di un “umanesimo digitale”, in cui la tecnologia arricchisca l’esperienza umana senza sostituirla.
Gli aspetti positivi dell’intelligenza artificiale sono ormai ben noti: la capacità di automatizzare i processi con conseguente aumento della produttività e una riduzione dei tempi; la diminuzione degli errori umani; la semplificazione nell’accesso ai dati; la personalizzazione dell’esperienza in rete dell’utente; la rivoluzione dell’assistenza alle persone con disabilità tramite tecnologie come la domotica.
Ma è indubbio che l’IA porti con sé anche delle criticità. Tra i principali rischi c’è la perdita di posti di lavoro che richiede una risposta concreta nella riqualificazione del personale, in termini di formazione e aggiornamento continuo.
Ci sono poi i cosiddetti bias di incertezza, cioè i pregiudizi che possono influenzare in modo distorto il comportamento dell’IA, derivante da dati imparziali, da errori nei modelli di apprendimento o dalle scelte fatte dagli sviluppatori durante la progettazione dell’algoritmo.
Con l’esplosione delle tecnologie che raccolgono e processano dati, inoltre, il tema della privacy torna ad essere prioritario, sollevando interrogativi sulla protezione delle informazioni personali e sulla necessità di normative più robuste per garantire la sicurezza dei cittadini in un contesto digitale sempre più complesso. D’altronde, recenti episodi di accesso illecito ai dati personali evidenziano i rischi per la la protezione delle informazioni sensibili, minando la fiducia nelle tecnologie emergenti.
Non solo. Gli episodi di black box dimostrano che chi utilizza una macchina intelligente non ne ha sempre il pieno controllo, poiché le tecnologie spesso operano come un misterioso sistema chiuso, con meccanismi interni sconosciuti che rendono difficile identificare e correggere errori o bias.
Diviene poi fondamentale riflettere sull’impiego dell’intelligenza artificiale in ambito medico, soprattutto per quanto riguarda la responsabilità legata agli errori nelle diagnosi e nelle terapie. La necessità di individuare chi debba rispondere degli sbagli causati dall’IA diventa cruciale, soprattutto quando non è chiaro chi detenga effettivamente il controllo delle macchine e dei sistemi che le alimentano.
In questo contesto, il diritto assume un ruolo centrale. È essenziale adottare leggi che stabiliscano limiti all’IA, assicurando trasparenza, sicurezza ed equità.
L’Europa ha risposto prontamente a questa sfida. Già nel 2018, il Cepej (Comitato per l’efficienza dei sistemi giuridici della Commissione europea) aveva elaborato un codice etico per l’utilizzo dell’IA nei sistemi giudiziari. Il 1° agosto 2024 è stato adottato il Regolamento europeo sull’IA, un passo decisivo per stabilire un quadro normativo chiaro, che abbia il potenziale di diventare uno standard globale.
Sia il Regolamento europeo sull’IA che il codice etico del Cepej ribadiscono l’importanza di rispettare i diritti fondamentali e le normative europee, in particolare il Regolamento generale sulla protezione dei dati (RGPD). A sua volta l’Italia ha tempestivamente adottato un disegno di legge per allineare la propria normativa interna con quella europea.
L’IA è un argomento in continua evoluzione e solo un confronto continuo tra gli esponenti della politica, della cultura e degli enti economici può generare soluzioni condivise per affrontare questo cambiamento epocale. Sebbene l’IA venga discussa ampiamente e in ogni dove, non è ancora pienamente metabolizzata; c’è ancora bisogno di approfondimenti e scambi interdisciplinari per addivenire ad una gestione efficace e sicura di uno strumento che non si faccia padrone.
*Presidente Fondazione Iniziativa Europa

Scopri di più nell’edizione digitale
Per leggere tutto acquista il quotidiano o scarica la versione digitale.

Caricamento commenti
Commenta la notizia