Finanza

I modelli di IA: lo spazio dell’ Europa tra Cina e Stati Uniti

Il dibattito sull’intelligenza artificiale (IA) si fa sempre più ampio e denso di spunti di riflessione. Da un lato, si sottolineano le infinite possibilità che la IA può aprire in tutti i settori, dall’industria alla finanza, dalla sanità all’intrattenimento, sfruttando la capacità di immagazzinare ed elaborare un’enorme massa di dati. Impressionante è la velocità con cui le nuove tecnologie impattano sulla società e sulla vita delle persone. Dall’altro lato, più aumentano lo sviluppo e la diffusione delle nuove tecnologie, più si moltiplicano i dubbi sui rischi della IA e sulle conseguenze del suo utilizzo.

La domanda fondamentale che ci si pone è se la IA possa risolvere ogni problema o se esista un limite al suo utilizzo. La risposta più condivisibile è che, se nella soluzione di un problema concreto la IA, quando sviluppata correttamente, può rappresentare uno strumento estremamente efficace, tuttavia le scelte “a monte” non potranno mai essere fatte da essa. Questo vale soprattutto per la politica tout court e per la politica economica in particolare. Scelte come le leggi sul fine vita o che impattano, attraverso la politica fiscale, sulla distribuzione del reddito non possono essere risolte da un algoritmo. Ma chi decide le scelte “a monte”?

Qui la risposta non è univoca. Se siamo in un regime di democrazia liberale, le decisioni “a monte” saranno prese dalla maggioranza dei cittadini attraverso i loro rappresentanti legittimamente eletti, nel rispetto delle regole da tutti accettate e dei diritti delle minoranze. Se non siamo in un sistema liberaldemocratico, il decisore “superiore” assume le vesti del “grande fratello”, o, usando una terminologia filosofica, del Leviatano, che prende le sembianze o dello Stato etico oppure del Potere economico. Nella realtà odierna il primo tipo di decisore “superiore” è rappresentato dall’approccio alla IA del governo cinese, mentre il secondo è sempre più incarnato dall’approccio americano (nonostante la lunga tradizione liberaldemocratica degli USA). La Cina si è dotata di regole stringenti per lo sviluppo della IA, gli Stati Uniti rifiutano ogni tipo di controllo. Vediamo più nel dettaglio i due sistemi.

La normativa cinese impone per legge vincoli etici ai modelli di IA, che devono innanzitutto salvaguardare la cultura e la politica cinesi, rispettando i valori del socialismo. In quest’ottica la normativa cinese ha stabilito in modo preciso obblighi, responsabilità, diritti e sanzioni per le aziende coinvolte nello sviluppo e nell’utilizzo dei programmi di IA, che devono sottostare alla supervisione della Cyberspace Administration of China (CAC) nonché al rispetto della complessa legislazione in materia. La CAC regolamenta la produzione di prodotti e servizi di IA generativa attraverso il controllo dei processi di progettazione dell’algoritmo, la selezione dei dati, la generazione e ottimizzazione del modello, la valutazione d’impatto sulla sicurezza. Norme precise attengono al rispetto dei diritti di proprietà intellettuale, impedendo l’attuazione di pratiche di concorrenza sleale. Il sistema cinese prevede inoltre un controllo incrociato tra chi fornisce i prodotti/servizi di IA e gli utenti. Da una parte, infatti, i servizi di IA richiedono agli utenti di fornire informazioni personali per verificarne la reale identità e i comportamenti, immagazzinando così una enorme quantità di dati sensibili. Dall’altra, gli utenti possono segnalare alle autorità competenti i prodotti/servizi di IA che non soddisfano i requisiti normativi.

L’obiettivo del governo cinese è duplice: controllare le proprie Big Tech nel timore che gli sfuggano di mano, come in passato è accaduto (vedi Alibaba), e contemporaneamente attaccare in maniera aggressiva il mercato mondiale. In questa fase sta prevalendo il secondo obiettivo, come dimostra un recente incontro di Xi Jinping con gli imprenditori dell’hi-tech. I risultati si stanno vedendo con il grande successo internazionale di DeepSeek, la startup cinese di IA, nei confronti dei concorrenti americani.

L’approccio americano alla IA può essere ben descritto dal Manifesto dei Tecno-ottimisti, pubblicato nell’ottobre 2023 da Marc Andreessen e fondato sulla cieca fiducia nel progresso tecnologico. Un paragrafo del Manifesto si intitola Becoming Technological Supermen. In un altro punto si inneggia apertamente alla IA: We believe Artificial Intelligence is our alchemy, our Philosopher’s Stone – we are literally making sand think (“stiamo letteralmente facendo pensare la sabbia”). Posizioni di questo genere sono state espresse all’AI Summit Action di Parigi del 10-11 febbraio scorso dal Vicepresidente americano J.D. Vance, che si è scagliato contro le regolamentazioni eccessive, invocando piena libertà di sviluppo delle nuove tecnologie.

In questo contesto, uno dei primi atti della Presidenza Trump è stato quello di revocare l’ordine esecutivo di Biden del 30 ottobre 2023 sulla regolamentazione della IA, eliminando tutte le restrizioni previste a tutela della sicurezza, della privacy, del copyright, della trasparenza, in quanto “ostacoli all’innovazione americana”. La revoca del provvedimento di Biden ha una validità di sei mesi e di fatto introduce un vuoto normativo che le Big Tech possono sfruttare per adottare modelli di comportamento molto aggressivi. I primi risultati si sono già visti con i licenziamenti disposti da Meta nei confronti dei fact-checker, i verificatori della veridicità delle informazioni.

Contemporaneamente Trump ha costituito un Consiglio scientifico di esperti del settore che entro sei mesi dovrà definire le linee guida per lo sviluppo di tecnologie IA “libere da preconcetti ideologici”. Inoltre la Casa Bianca ha eliminato il sostegno federale per la costruzione di centri di ricerca pubblici dedicati alla IA, anch’esso previsto dall’ordine esecutivo di Biden. In alternativa il neo presidente americano ha lanciato una raccolta di fondi del settore privato destinati alla IA per circa 500 miliardi di dollari, una cifra dieci volte superiore alle risorse attualmente impegnate.

L’Europa, partita in ritardo nella corsa alla IA, sta nel mezzo tra USA e Cina, perseguendo una terza via. L’approccio della UE, fondato sull’IA Act del 13 giugno 2024, si può sintetizzare nella formula Keep Humans in the Loop, “mantenere gli umani al centro del processo”. Questo significa “promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile, garantendo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente”. Fondamentale da questo punto di vista è il ruolo della sorveglianza umana sui sistemi di IA durante il periodo in cui sono in uso.

Questi principi sono stati ribaditi dal summit internazionale di Parigi del 10-11 febbraio, lanciato da Macron. Il comunicato finale afferma che occorre “garantire che la IA sia aperta a tutti, inclusiva, trasparente, etica, sicura e affidabile, nel rispetto dei quadri internazionali”, evitando concentrazioni di mercato. Il comunicato è stato sottoscritto da sessanta Paesi, tra cui la Cina, ma non da Stati Uniti e Gran Bretagna.

Nella stessa sede Ursula von der Leyen ha annunciato che la UE intende investire 200 miliardi di euro nella IA per un grande partenariato pubblico-privato, coinvolgendo i maggiori gruppi industriali europei, come Airbus, Mercedes, Siemens, Stellantis. Non è una cifra enorme, se paragonata a quella messa in campo dagli USA, ma sufficiente per partire con progetti comuni. E’ infatti necessario che in questo campo i Paesi europei creino delle infrastrutture di ricerca sovranazionali in grado di fare massa critica e competere con americani e cinesi.

La sfida della IA è solo agli inizi. L’Europa per non essere sovrastata da americani e cinesi deve recuperare in fretta il terreno perduto e saper giocare al meglio le proprie carte. In tal senso non basta una regolamentazione ben fatta, capace di contemperare la libertà di innovazione con il rispetto delle regole. Occorre che l’Europa si muova concretamente, sviluppando progetti comuni e offrendo prodotti/servizi che permettano l’interazione critica tra ricercatori e utenti. E’ questo il vero significato del principio Keep Humans in the Loop: consentire anche agli utenti di verificare, interagire con gli esperti. Per fare ciò è necessario valorizzare di più l’intelligenza umana, specialmente quella dei giovani, migliorando la capacità di discernimento. Come ha scritto Maurizio Ferrera sulla Lettura del Corriere della Sera del 9 febbraio scorso, “vanno accresciute sia la conoscenza di ciò che si usa, sia la contezza dell’utile e del dannoso. E’ necessario raffinare il pensiero critico, la capacità di giudizio e l’immaginazione, lo sviluppo e l’esercizio del senso del giusto e dell’ingiusto, del vero e del falso. Cioè le fondamenta di quel logos che ci rende davvero umani, a dispetto dei nostri limiti computazionali”. Entra qui in gioco il sistema educativo e formativo. Come sostenuto sia nel volume Università addio. La crisi del sapere umanistico in Italia di G. Belardelli, E. Galli Della Loggia, L. Perla (ed. Rubbettino) sia in un articolo sul Menabò del 30 gennaio 2025 (P. Carnazza, Il ritorno a un’economia umanistica: è ancora possibile?), la formazione umanistica può essere di grande aiuto in questo. Vanno sviluppati insieme lo spirito critico e la coscienza etica, come ci ha insegnato un grande maestro della filosofia: Immanuel Kant.