Soprattutto a partire dall’introduzione di ChatGPT esattamente due anni fa, il 30 novembre 2022, l’intelligenza artificiale (IA) è repentinamente divenuta un fattore ricorrente nelle nostre vite, la stampa quotidiana e periodica e i social network sono zeppi di notizie, talora sensazionali, talaltra fantasiose, sul tema, fioccano gli incontri scientifici e i dibattiti parascientifici, se ne parla sovente sia a casa sia a scuola sia negli spazi professionali, ovvero praticamente in ogni luogo e quasi in ogni istante. Pertanto, dal momento iniziale nel quale istantaneamente suscitava novità, curiosità e sorpresa, quasi per contrappasso, trattare di AI è divenuto qualcosa di usuale, banale, ripetitivo. Eppure, a ben vedere ci rendiamo agevolmente conto di essere appena all’inizio di un processo evolutivo di diffusione di una nuova tecnologia che non sarà né breve, né semplice e neppure senza conseguenze. Infatti, non siamo di fronte a una nuova tecnologia, per così dire «quasi inerte», come quelle la cui introduzione si è susseguita negli ultimi due secoli (motore a vapore, elettricità, acciaio, computer), che erano facilmente progettabili e controllabili dall’operatore umano. Siamo di fronte a una tecnologia che non è soltanto un «oggetto tecnologico», ma un vero e proprio «agente». Secondo Mustafa Suleyman, CEO di Microsoft AI e co-fondatore e direttore dell’IA di DeepMind, gli agenti IA sono da considerare delle nuove specie capaci di riprodursi, di generare prole feconda per generazioni successive, delle nuove specie digitali, con le quali l’umanità ha appena iniziato a interagire e a confrontarsi. Per tale motivo, si tratta di specie digitali di natura trasformativa, la cui interazione è potenzialmente foriera di cambiamenti profondi anche per l’essere umano, per la nostra specie. Come diceva Carl Gustav Jung: «L’incontro di due personalità è come il contatto di due sostanze chimiche: si produce una reazione così che entrambe ne saranno trasformate». Nella fattispecie stiamo parlando di interazione con delle «personalità artificiali» che hanno in seno la potenziale trasformazione epocale della specie umana. Ne consegue che - per evitare conseguenze inattese e perniciose dovute a una sua diffusione selvaggia e incontrollata in un contesto di mercato non disciplinato - occorre, sin da subito, ragionare su com’è possibile gestire, governare e regolare l’uso dell’IA. D’altronde, le regole e le norme esistenti, proprio perché ideate e implementate nel mondo pre-IA, nel quale essa non era ancora presente, appaiono sempre più inadatte e inadeguate ad affrontare la miriade di nuove prove che l’introduzione dell’IA comporta e comporterà. Inoltre, per i suoi caratteri pervasivi ed esponenziali, facilmente suscettibili di superare i confini nazionali, la regolazione dell’IA non può avvenire, come sempre accaduto nel caso dell’introduzione di nuove tecnologie del passato, esclusivamente a livello di singoli stati nazionali, ma deve aver luogo a livello sovrannazionale e, almeno potenzialmente, mondiale. Se si eccettua la produzione, a cavallo fra il 2023 e 2024, di un paio di dichiarazioni di principio sui rischi dell’uso dell’IA a margine di altrettanti vertici straordinari fra capi di stato e di governo di alcune nazioni (fra cui quello sulla sicurezza dell’IA promosso dall’ex primo ministro britannico Rishi Sunak tenutosi ai primi di novembre 2023 a Bletchley Park nei pressi di Londra), poco o nulla è stato sinora fatto in tale direzione. In mancanza dello sviluppo di un’accentuata sensibilità in tal senso proveniente dalle sponde nordamericane e cinesi, l’Unione Europea (UE) ha recentemente preso l’iniziativa, facendosi carico di procedere secondo il principio dell’«avanguardia regolativa». L’UE ha così introdotto l’«AI Act», ossia il primo frame di regolazione teso ad affrontare i rischi dell’IA nella prospettiva di un pacchetto più ampio di misure a sostegno della promozione dell’utilizzo affidabile dell’IA. Il regolamento dell’Unione Europea (UE 2024/1689) del 13 giugno 2024, in vigore dal 1° agosto 2024, stabilisce un insieme di regole idonee a indicare agli operatori un perimetro di prerogative chiare e di obblighi definiti che concernono l’utilizzo dell’IA. Al contempo, tale regolamento è teso a ridurre i costi amministrativi e finanziari a carico delle imprese e, in particolare, delle piccole e medie imprese, che tradizionalmente innervano il tessuto economico-produttivo e distributivo europeo. Infatti i costi di mercato legati all’introduzione dell’IA nelle imprese sono di norma alquanto elevati e come tali poco e per nulla allineati alle capacità economico-finanziarie delle imprese di dimensione ridotta. Tale quadro regolatorio promuove l’utilizzo affidabile dell’IA garantendo che tali sistemi rispettino i diritti fondamentali degli individui e delle imprese, la sicurezza e i principi etici e affrontando i rischi derivanti dall’introduzione di modelli di IA alquanto potenti e di notevole impatto. Per tale via, esso intende rafforzare, in tutto il perimetro dell’UE, gli investimenti e l’innovazione nell’IA. Auspichiamo che l’applicazione di questo regolamento, com’è peraltro nelle intenzioni dei suoi estensori, possa essere la solida base per garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti e tracciabili, non discriminatori e rispettosi dell’ambiente in modo tale da agevolare a plasmare il futuro digitale dell’Europa e della specie umana. *Presidente Corso di Laurea Magistrale in Economia e Management Università LUMSA