L'intelligenza artificiale (AI) sta rivoluzionando il panorama economico globale, con impatti significativi sulla competitività delle aziende e le strategie dei governi.
A livello sistemico, l’AI è un asset strategico per la crescita economica, la sicurezza nazionale e la proiezione geopolitica. Gli Stati, in particolare, puntano a integrare tecnologie intelligenti nei loro settori chiave - sanità, energia, trasporti e difesa – per rafforzare la competitività nazionale e creare un ambiente favorevole all’innovazione. Questo scenario ha alimentato una competizione globale serrata, soprattutto da quando la Generative AI ha dimostrato, a fine 2022, tutta la sua forza trasformativa.
A causa del suo impatto dirompente nei confronti dell’economia e della società, l’intelligenza artificiale richiede una regolamentazione che vada oltre le (legittime) preoccupazioni legate all’automazione e alle ricadute sul mercato del lavoro.
A differenza delle tecnologie tradizionali, la capacità di autoapprendimento porta l’AI a operare in modo sempre più autonomo, rendendo complesso il controllo delle sue azioni. Questo, unito a una certa opacità decisionale (black box), solleva importanti interrogativi su responsabilità, trasparenza e fiducia, soprattutto nei settori più critici.
Inoltre, la diffusione dell’AI generativa ha evidenziato come essa possa ereditare e amplificare i bias presenti nei dati di addestramento dei modelli sottostanti, dando luogo a decisioni discutibili e talvolta discriminatorie. Questo fenomeno è al centro del dibattito sull’etica dell’AI.
Le implicazioni in tema di sicurezza e privacy sono altrettanto centrali, con particolare attenzione alla protezione e alla sovranità dei dati. Quali informazioni vengono utilizzate per il training dei modelli? Sono state raccolte in modo lecito e compliant con le normative in essere (es, GDPR)? Sono state anonimizzate? Inoltre, cosa succede ai dati che gli utenti inseriscono come prompt? Dove e come vengono conservati, analizzati o utilizzati? La mancanza di trasparenza su questi aspetti può compromettere la privacy degli individui, con il rischio di un utilizzo improprio o non autorizzato delle informazioni personali.
Se l’esigenza di regole chiare e condivise è innegabile, è altrettanto importante evitare che una regolamentazione rigida possa frenare l'innovazione e la competitività interna.
In un mercato che – pur in presenza di non poche eccezioni – si presenta come globalizzato, imporre limiti stringenti allo sviluppo e all'implementazione di nuove tecnologie potrebbe avere effetti controproducenti, penalizzando le organizzazioni che operano in contesti più regolamentati e favorendo i concorrenti che godono di maggiore libertà. La sfida, quindi, è trovare un equilibrio tra la necessità di proteggere i diritti e i valori fondamentali e l'esigenza di promuovere l'innovazione e la crescita economica.
Considerando la natura interconnessa del mondo contemporaneo, trovare questo punto di equilibrio non è banale. Sebbene ogni area del pianeta adotti approcci normativi differenti, lo sviluppo delle reti rende l'AI fruibile (salvo blocchi specifici come quello di ChatGPT all’epoca e di DeepSeek ora) in ogni parte del mondo, alimentando ulteriori sfide.
Si crea dunque un terreno fertile per una competizione normativa, dove i singoli Stati e unità sovranazionali puntano ad attrarre investimenti e talenti attraverso regolamentazioni più o meno permissive; in altri termini, si è sviluppata nel tempo una vera e propria corsa all’AI, nella quale la regolamentazione è uno strumento strategico per ottenere un vantaggio competitivo sistemico.
Data la natura globale dell’AI, sarebbe sensato promuovere una cooperazione internazionale per armonizzare le normative e definire standard condivisi. Tuttavia, l'attuale scenario geopolitico, caratterizzato da relazioni non sempre facili tra i principali attori (Stati Uniti, Cina ed Europa), sembra spingere verso un mosaico di regole difficili da gestire e certamente privo di una governance globale condivisa. Al contrario, negli ultimi anni il tema della Guerra Fredda (AI) tra USA e Cina è emerso più volte in ambito giornalistico, con dibattiti accesi su come le due potenze stiano cercando di dominare il settore.
Il panorama normativo globale è tutt'altro che uniforme, con approcci diversi e spesso contrastanti tra le varie aree del pianeta. Inoltre, va considerato che, accanto alle normative specificamente dedicate all'AI (es, AI Act), esiste un corpus normativo vastissimo che, pur non essendo stato concepito per questo tema, si applica a pieno titolo. L’esempio da manuale è il GDPR europeo.
Gli Stati Uniti, patria di molte delle aziende leader nel settore dell'AI, hanno adottato finora un approccio alla regolamentazione dell'IA piuttosto decentralizzato, intervenendo raramente a livello federale (es CHIPS and Science Act). Tuttavia, la situazione è in continua evoluzione e, secondo l’Organization for Economic Co-operation and Development (OECD), negli Stati Uniti sono attualmente presenti ben 82 policy relative allo sviluppo e l’impiego di AI.
Diversi Stati americani hanno iniziato a legiferare in proposito. Tra i casi più significativi, spicca la California con il California AI Accountability Act, e il Colorado, che ha recentemente approvato un AI Act, la prima legislazione completa sull’intelligenza artificiale, che entrerà in vigore nel 2026. Questa stabilisce limiti specifici per i sviluppatori e distributori di sistemi di AI, con un focus particolare sui settori ad alto rischio.
L'Unione Europea ha un obiettivo ambizioso: creare un quadro normativo armonizzato e coerente che promuova un'AI affidabile, efficiente, responsabile e rispettosa dei diritti dei cittadini. L'AI Act, entrato in vigore il 1° agosto 2024, è lo strumento con cui raggiungere questo obiettivo.
Il regolamento si basa su un approccio risk-based, che classifica i sistemi di AI in base al livello di rischio che presentano per i diritti e la sicurezza delle persone. Sono previsti 4 livelli di rischio, valutati sulla base di fattori specifici, da cui dipendono gli obblighi imposti ai fornitori di sistemi di AI (inclusi i modelli general purpose) che operano nel mercato unico europeo.
Questo approccio, nelle intenzioni del legislatore, intende trovare un equilibrio tra la protezione dei diritti e la sicurezza dei cittadini, da un lato, e la necessità di non ostacolare l'innovazione e la competitività nel settore, dall'altro. In questo modo, i sistemi AI ad alto rischio sono soggetti a obblighi rigorosi in termini di governance dei dati, gestione dei rischi e requisiti tecnici, mentre per quelli a rischio più limitato vengono previsti vincoli meno stringenti, come obblighi di trasparenza e informazione, senza imporre complicazioni tecniche eccessive. Questo consente di stimolare l'innovazione, pur mantenendo elevati standard di sicurezza e protezione.
L'AI Act è entrato in vigore nella seconda parte del 2024, accompagnato da una roadmap che prevede tappe di implementazione specifiche. A partire dallo scorso 2 febbraio 2025, con l’introduzione delle normative relative agli utilizzi proibiti di AI, il percorso proseguirà fino al 2 agosto 2027.
È notizia recente il lancio del modello R1 di DeepSeek, un LLM in grado di scuotere un mercato fino a quel momento dominato da aziende americane come OpenAI, Google e Anthropic. DeepSeek si distingue per l'approccio open-source e per un’architettura che richiede risorse computazionali inferiori rispetto ai modelli concorrenti. Ciò ha evidenziato la crescente autonomia della Cina nel settore dell'intelligenza artificiale.
Il piano di sviluppo cinese in materia di AI è molto ambizioso, al punto da voler diventare il principale centro di innovazione entro il 2030. Per raggiungere questo obiettivo, il governo ha attivato una serie di policy e di regolamenti volti a controllare lo sviluppo, la crescita e l'implementazione dell'AI, mantenendo un approccio centralizzato. Tuttavia, il modello normativo cinese si distingue per essere articolato in più fasi, nelle quali i regolamenti vengono introdotti progressivamente ed evolvono in una legislazione sempre più olistica.
Tra le normative più significative, meritano una menzione particolare quelle relative alla gestione degli algoritmi (AI), nonché l’Interim Measures for the Management of Generative Artificial Intelligence Services, entrato in vigore il 15 agosto 2023. Questa normativa mira a monitorare e regolamentare l'uso dell'AI generativa, ponendo un'enfasi particolare sulla gestione dei rischi legati ai contenuti dannosi.
L’Unione Europea, in particolare, si muove in un contesto di inevitabile complessità: il suo modello richiede di bilanciare esigenze normative, interessi economici e visioni strategiche spesso diverse (se non divergenti) tra gli Stati membri. La spinta verso centralizzazione e sinergia, già evidente in altri ambiti del digitale – come il progetto ViDA, volto a uniformare la fatturazione elettronica a livello europeo – riflette la volontà del legislatore di limitare la frammentazione interna, che ostacola l’innovazione e offre ai competitor globali un vantaggio competitivo enorme.
Apparentemente, l’AI Act rafforza il primato dell’Europa nella regolamentazione dell’intelligenza artificiale senza consolidarne il ruolo di motore dell’innovazione globale. Tuttavia, più che un freno, questa normativa rappresenta il riconoscimento della necessità di un framework comune, essenziale proprio per competere con chi è partito prima e con maggiore slancio nella corsa alla governance globale dell’AI.
Come qualsiasi regolamentazione, potrà essere imperfetta, ma il vero ostacolo finora non è stato (più di tanto) normativo, bensì la mancanza di una strategia politica chiara e di investimenti adeguati. Con l’eccezione di Mistral AI, la startup francese che è riuscita a sviluppare un LLM tra i più performanti al mondo, l’Europa ha faticato a ritagliarsi un ruolo di primo piano nel settore, penalizzata da finanziamenti non all’altezza dei colossi d’oltreoceano. Il progetto Stargate americano, da 500 miliardi di dollari, ne è la dimostrazione tangibile.
Un segnale positivo in questa direzione è però arrivato dal recente AI Action Summit di Parigi, che ha mostrato un’Europa pronta a giocare un ruolo di primo piano. Tra gli annunci più significativi, spiccano InvestAI, un fondo da 200 miliardi di dollari dedicato allo sviluppo dell’AI, e la contestuale realizzazione di quattro giga-fabbriche per potenziare la capacità computazionale dell’Unione. La Francia, dal canto suo, ha ulteriormente rilanciato con un piano di investimenti da 109 miliardi di euro, che fa da contraltare – tenuto conto delle proporzioni tra le rispettive economie – al progetto Stargate.
Resta da vedere se questo slancio politico ed economico si tradurrà in risultati concreti, capaci di colmare il divario con i leader di oggi. Perché l’Europa non ha solo l’opportunità di essere leader nella governance dell’AI: ora la possibilità, e la responsabilità, di diventarlo anche nello sviluppo tecnologico.