Antonio Baldassarra guarda ora l’AI come uno che ha già vissuto una rivoluzione tech in passato. Quella del cloud. È uno sguardo prospettico utile. Serve a immaginare quale forma l’intelligenza artificiale dovrà assumere per chi, come noi italiani, questa tecnologia non la crea a livello fondativo.
Il fondatore di Seeweb, provider italiano di cloud, ricorda il clima che c’era nel 2010. Gli anni in cui il cloud sembrava ancora una scommessa e non l’infrastruttura invisibile su cui ora gira quasi tutto il digitale, intelligenza artificiale inclusa. «Siamo davanti a un salto tecnologico che segnerà i prossimi dieci, vent’anni, esattamente come è successo allora», dice. La differenza è che oggi, sull’intelligenza artificiale, secondo lui si sta correndo nella direzione sbagliata.
La storia anche qui è maestra. Seeweb, la sua creatura, nasce nel 1995 come provider internet quando la connessione era ancora il fischio del modem e il web un territorio per pionieri. Prima isp, poi hosting nel 1998, quindi il cloud nel 2009: «Siamo stati tra i primi italiani a farlo, copiando Aws e GoGrid, che all’epoca erano i pionieri americani». È una storia di infrastruttura, di server e datacenter costruiti pezzo dopo pezzo mentre la rete cresceva intorno.
L’AI entra in questa traiettoria quasi di lato. Baldassarra inizia a osservare OpenAI già nel 2020, quando ChatGpt ancora non esiste e il nome circola soprattutto tra addetti ai lavori (il debutto mondiale di Chatgpt sarà a fine 2022). Seeweb prova a lanciare un servizio per usare gpu nel cloud “as a service”, ma il progetto non decolla. «L’abbiamo ripreso solo di recente», racconta, «insieme a un prodotto da inference provider che usa modelli open e modelli custom». Non si tratta solo di affittare potenza di calcolo: l’idea è offrire alle aziende uno strato applicativo in cui far girare modelli adattati ai loro dati, non ai dati di tutti.
Il vero spazio di valore, per imprese come la sua e più in generale per chi gioca in Europa, non è provare a inseguire i colossi sui modelli generalisti, quelli “per tutto e per tutti”. Qui c’è il punto chiave per Baldassarra. Bisogna costruire tante “Private AI”, intelligenze artificiali private e verticali, cucite su domini specifici: medicina, pharma, biotech, scienze sociali. «È molto difficile competere sui modelli generalisti» in Europa e Italia, ammette. «Ma in certi settori, soprattutto pharma, biotech e medtech, dove la confidenzialità è cruciale, modelli verticalizzati sul microcosmo di un’azienda possono fare la differenza».
Lui se li immagina così: sistemi addestrati su tutti i documenti interni di un’azienda, con una cura maniacale della qualità del dato, con un perimetro ben definito e, di conseguenza, un margine di errore molto più contenuto. Nella drug discovery, ad esempio, una AI privata che lavora su basi dati proprietarie e integrata con motori Rag documentali potrebbe ridurre sensibilmente i tempi per individuare i candidati farmaco più promettenti. Un assistente che conosce a fondo il linguaggio, le regole e la memoria di casa.
Questa idea di AI “di casa” Seeweb la sta già sperimentando al proprio interno, in un ambito molto più prosaico: il trouble ticketing. Il sistema legge le richieste di assistenza dei clienti, aiuta a formulare una risposta adeguata, spesso più chiara e meglio scritta di quella di un tecnico, e allo stesso tempo restituisce un’indicazione sul sentiment della conversazione. Il tecnico non vede solo il contenuto, ma anche una sorta di termometro emotivo: il cliente è irritato? Per cosa, esattamente? C’è qualcosa da aggiustare nel tono, nel modo di spiegare le cose?
Baldassarra pensava che strumenti del genere servissero soprattutto a “tirare su” i meno bravi, quelli con più difficoltà a scrivere o a comunicare. «Credevo che li avrebbero aiutati molto», ammette. «Poi mi sono accorto che mi sbagliavo: funzionano meglio con chi è già competente, perché sa validare il risultato. L’AI dà una marcia in più a chi ha già i fondamentali, non li regala a chi non li ha».
Di contro, Baldassarra guarda con sospetto agli investimenti miliardari annunciati un po’ ovunque in Europa per costruire infrastrutture dedicate all’AI. Parla di tecnologia “fluida”, tanto lato hardware quanto lato software, e di piani industriali che si spingono troppo in là nel tempo. «Vedo investimenti da “fantastiliardi” con orizzonti più che decennali», dice. «Nel frattempo l’AI sta cambiando a una velocità tale che rischiamo di costruire cattedrali nel deserto».
La metafora che usa è quella delle palazzine degli anni cinquanta. «Oggi si ragiona sull’AI come si ragionava sulle palazzine allora. Abbiamo preso un abbaglio clamoroso: ci ritroveremo con mega investimenti senza futuro, ammesso che vengano davvero realizzati. Un datacenter richiede anni per essere attivato e ammortizzato, e in quegli anni la tecnologia va avanti». Le previsioni secondo cui in Italia si passerebbe, in dieci anni, da mezzo gigawatt a cinque gigawatt dedicati alla nuova ondata di datacenter, con fatturati moltiplicati per dieci o venti, gli sembrano poco credibili. «Nella storia non è mai successo nulla del genere, soprattutto se consideriamo che, se la domanda di energia esplode, è probabile che aumenti anche il prezzo».
Per lui avrebbe più senso concentrare gli sforzi su due fronti: ricerca su algoritmi più efficienti e sperimentazione su tecnologie hardware alternative. «Siamo in una fase di grande inefficienza», ribadisce. «Usiamo ancora la stessa logica di silicon gate di trent’anni fa, quella inventata da Faggin. Esistono tecnologie molto più promettenti, come i memristor o certe giunzioni in silicio con air gap, che finora non convenivano perché troppo costose. Ora potrebbe avere senso investirci».
Idem per gli algoritmi ora usati. Il transformer di Google resta l’architettura di riferimento, ma esperimenti come quelli cinesi di DeepSeek mostrano che c’è tanto margine per rendere i modelli più leggeri, meno affamati di energia, più adattabili. «Fra dieci anni non credo che useremo la stessa energia e la stessa quantità di metri quadri di oggi», dice. «Nella storia della tecnologia non è mai successo che si restasse fermi. Magari serviranno meno chip, meno spazio, forse una parte rilevante dell’intelligenza si sposterà ai margini della rete, sull’edge».
In questo scenario Baldassarra vede un ruolo anche per un campione europeo sui modelli di base. Cita Mistral come l’unico che, forse, ha qualche chance di competere con i grandi player americani e cinesi. Non immagina un’Europa piena di mini-OpenAI, ognuna chiusa nel proprio recinto, ma piuttosto una convergenza di forze intorno a pochi progetti robusti, mentre il vero valore per operatori come Seeweb si gioca più vicino alle aziende, sulle implementazioni concrete, sulle Private AI.
Bisognerà vedere quanto questa visione attecchirà da noi. «Vedo un problema enorme nella domanda domestica», dice. «È una domanda strana, orientata quasi solo verso soluzioni generiche: Copilot, ChatGpt e simili. Tutto, compresa la normativa, ci descrive come utenti della rivoluzione AI, non come attori». In altre parole, l’Italia – e in parte l’Europa – rischiano di abituarsi all’idea di consumare tecnologia altrui, di “prendere in abbonamento” intelligenza artificiale sviluppata altrove, invece di costruirne una propria, almeno in alcuni segmenti.
C’è un’immaturità di fondo nella nostra domanda di AI. Il dato emerge anche dall’ultimo EIB Group Investment Survey 2025 (circa 13 mila imprese intervistate nell’Ue), della Banca europea per gli investimenti. Solo il 20% delle imprese italiane dichiara un uso sistematico di strumenti di AI generativa, contro il 37% della media Ue. Va meglio per l’uso dell’AI intesa in modo più ampio, con big data analytics, dove quindi pesa di più l’AI tradizionale (non generativa)
Per Baldassarra la strada diversa passa appunto da uno scatto di maturità, verso ciò che serve davvero alla nostra economia. Meno usi generalisti, più progetti concreti di AI private dentro le imprese.
La partita ora è corale. Servono attori tech come Seeweb che aiutino a modellare l’AI sulle esigenze reali delle aziende nostrane; ma anche è necessario che queste ultime siano recettive: per andare oltre le mode superficiali e integrare davvero l’AI nei processi.
— Di Alessandro Longo, Giornalista