▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...
InnovationCity

AI: meglio proprietaria oppure "open"?

Chi pensa all'AI pensa ai servizi "chiusi" dei grandi nomi come OpenAI. Ma il futuro prossimo potrebbe essere molto diverso.

Intelligenza Artificiale

Quando si parla dello sviluppo dell’AI, e della AI Generativa in particolare, di solito si fa implicito riferimento a una forma “chiusa” di Intelligenza Artificiale, ossia una forma in cui gli utenti, i ricercatori e il pubblico in generale sanno poco o niente di come sono stati sviluppati i modelli di AI, dei dettagli “interni” del loro funzionamento, dei loro cosiddetti “pesi” (i parametri delle reti neurali che si possono modificare per ottimizzare il comportamento di un dato modello dopo il suo addestramento iniziale). I modelli chiusi sono quindi sostanzialmente modelli proprietari: si possono usare solo per come sono messi a disposizione o implementati da chi li ha sviluppati in prima battuta.

Il modello “chiuso” non è l’unico possibile. Come è già accaduto per il software in generale, esiste anche un modello “open” nello sviluppo degli algoritmi di AI. Chi li crea li cede in open source, rendendone liberamente disponibili tutti i dettagli – il codice, i pesi, i dati dell’addestramento di base - in modo che altri possano studiarli, adattarli alle proprie esigenze, creare soluzioni specifiche.

Il parallelo tra “open AI” e open source vale anche nella percezione che il mercato ha, quantomeno in prevalenza, del valore delle soluzioni aperte rispetto a quelle proprietarie. Le seconde sono considerate migliori, banalmente perché se così non fosse non si spiegherebbero le decine di miliardi di dollari, e in prospettiva le centinaia, che grandi nomi dell’IT stanno spendendo per sviluppare le loro tecnologie “chiuse”. In parte questo ragionamento è vero, ma l’esperienza del software open source lascia intravedere dinamiche anche diverse.

È indubbio che al momento i modelli proprietari vadano per la maggiore e siano più convincenti per chi investe nelle aziende di AI. Vendere un prodotto “chiuso” dovrebbe – almeno l’idea è questa - garantire un certo lock-in dei clienti iniziali e dovrebbe anche portare più fatturato e più margini. Questo è essenziale per convincere i grandi investitori a finanziare ulteriori sviluppi tecnologici, e gli investimenti “massivi” sono indispensabili perché tutti i grandi nomi dell’AI stanno letteralmente bruciando fondi trimestre dopo trimestre per supportare le infrastrutture IT necessarie a sviluppare ed addestrare i modelli AI di riferimento.

Questo modello di sviluppo può reggere a lungo? Secondo diversi osservatori, probabilmente no. L’errore starebbe nell’approccio a forza bruta – spendere miliardi per far crescere le infrastrutture con l’obiettivo di fatturare miliardi – che gli hyperscaler, e le aziende che ambiscono ad esserlo, seguono perché è quello che le fa vincere nel mercato cloud. La differenza è, per i critici, che nel mondo AI le spese infrastrutturali sono troppo elevate per essere sostenibili. Oltretutto, per attirare clienti serve convincerli che i modelli proprietari sono nettamente migliori degli altri, tanto da giustificarne il costo. E questo non è necessariamente vero, già oggi e soprattutto a medio termine.

Prestazioni allineate

L’opinione di molti osservatori tecnici è che le performance dei principali modelli di GenAI (i large Language Model) chiusi e quelle dei modelli aperti siano ormai molto vicine. Orientativamente, siamo nell’ordine del 5% di differenza se si considerano i modelli migliori. Non solo: i modelli più “piccoli” – gli Small Language Model, chiusi o aperti – pensati per applicazioni specifiche si stanno dimostrando efficaci quanto i grandi LLM, ma costano molto meno sia nella parte di addestramento sia in quella di utilizzo.

In questi giorni ha poi fatto notizia il caso di DeepSeek, azienda cinese che ha sviluppato e messo a disposizione alcuni LLM che sono in grado di rivaleggiare in performance con quelli di OpenAI e di altri grandi nomi USA, ma che sarebbero stati addestrati con un costo di meno di dieci milioni di dollari a fronte dei miliardi propagandati dalle aziende americane. Questa novità ha avuto effetti anche sulla quotazione di aziende come Nvidia, Microsoft e Meta, che hanno tutte perso qualche punto percentuale nella quotazione delle loro azioni.

L’impressione, in generale, è che i modelli di GenAI chiusi che hanno per ora fatto il mercato abbiano davanti una sorta di “finestra di opportunità” molto più stretta di quanto pensassero le varie OpenAI, Microsoft, Amazon e compagnia. C’è cioè poco tempo per conquistare finanziamenti e utenti grazie a una superiorità tecnologica in parte reale e in parte presunta. Non a caso, diversi grandi nomi dell’AI “chiusa” non puntano più sulla sola idea di LLM e di foundational model ma su concetti più evoluti, come - oggi in prima fila - la “agentic AI”.

Questo scenario apre più opportunità alla AI open source, in particolare quando si tratta di SLM. Anche qui non a caso, diversi grandi investitori hanno cominciato a puntare sui modelli open source e non solo su quelli chiusi. Quindi ad attirare fondi non sono solo nomi come OpenAI, Anthropic e Cohere – paladine del closed source – ma anche su aziende private come xAI o MistralAI. Senza contare che grandi nomi come Meta, Nvidia, IBM e Alibaba hanno già rilasciato modelli di rilievo più o meno open source.

Ciò che resta sempre poco chiaro è il modo in cui una piattaforma aperta – in questo caso di AI, ma abbiamo visto lo stesso dubbio anche nell’open source – possa restare accessibile e allo stesso tempo sviluppare un business sostenibile. Il generale l’approccio seguito oggi da chi parte dall’AI “open” è quello di circondare un nucleo open source liberamente disponibile con tool aggiuntivi e servizi mirati, soprattutto per la personalizzazione e la verticalizzazione del modello di partenza. La domanda di questi servizi è ancora limitata in questa fase del mercato, se si escludono ambiti molto specifici come il Finance o la “sovereign AI” governativa, quindi il business sviluppato dalla open AI resta ancora limitato rispetto alle soluzioni proprietarie. Ma il futuro è tutto da scoprire.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
Rimani sempre aggiornato, seguici su Google News! Seguici

Related news

Ultime Notizie

A KEY 2026 Siemens presenta le nuove soluzioni per infrastrutture energetiche più resilienti e sicure

Nello spazio espositivo, un quadro elettrico di nuova generazione con tecnologia SENTRON consente il monitoraggio dei consumi dello stand in tempo reale, affiancato dalla suite IoT Electrification X per la gestione avanzata dei dati energetici su larga scala. In evidenza anche tecnologie per la protezione e l’automazione delle reti, il portfolio blue GIS SF6-free per una media tensione più sostenibile e le soluzioni di ricarica elettrica Sicharge, a supporto della mobilità a zero emissioni.

04-03-2026

Il ruolo della finanza nella nuova fase delle rinnovabili

Ernesto Chiorazzi, membro del CdA di Banca Italiana per l’Ambiente e per l’Energia (BIAE), interverrà a KEY 2026, il 5 marzo nel panel dedicato a EPC e finanza per portare l'attenzione su temi oggi centrali per investitori e imprese: bancabilità dei progetti, aumento del rischio merchant, leva finanziaria e nuovi modelli di investimento capital-light.

04-03-2026

Trinasolar svela le serie Vertex S+ G3 e Vertex N G3 al KEY Energy Expo

La serie Vertex N G3 amplia il portafoglio verso applicazioni ad altissima potenza, offrendo fino a 760 W e un’efficienza fino al 24,8%.

04-03-2026

ABB mostra a KEY-The Energy Transition Expo 2026 l'innovazione e le competenze a servizio dell'elettrificazione del futuro

Oltre a presentare il proprio portafoglio di soluzioni per l'elettrificazione per edifici, infrastrutture e industria sono in programma 6 training tecnici ripetuti nei tre giorni di fiera, con 65 posti disponibili per ciascun corso. Le sessioni, guidate da 10 esperti ABB, sono dedicate a installatori, progettisti e impiantisti.

04-03-2026

Notizie più lette

1 Innovation Meetup: a Roma le nuove sfide dell'Open Innovation

Dopo Milano, il nuovo format approda nella Capitale il 5 marzo 2026 con l’obiettivo di connettere startup e imprese grazie a talk, business matching e collaborazioni operative.

2 Seb, proprietario dei marchi Moulinex, Tefal e Rowenta annuncia una drastica riduzione occupazionale

L'azienda ha annunciato un taglio di 2.100 posti di lavoro tra area UE ed extra UE.

3 Smog a Milano, per ripulire l'aria arrivano i maxi impianti pubblicitari green

Milano, come viene evidenziato dal monitoraggio della European Environment Agency (EEA) è tra le 5 città europee con i livelli più alti di inquinamento atmosferico. Un contributo attivo alla riduzione del problema arriva dai nuovi grandi impianti pubblicitari trasformati in delle vere 'isole verdi diffuse' di depurazione dell’aria, grazie all’impiego della tecnologia fotocatalitica messa a punto da REair.

4 TIM, successo per il primo test in Italia di comunicazioni quantum-safe tra due Data Center del Gruppo telefonico

Il test, su infrastruttura di rete in esercizio, validando in un contesto operativo reale l'impiego della distribuzione quantistica delle chiavi crittografiche (Quantum Key Distribution) per la cifratura dei flussi dati, è stato realizzato con la collaborazione di Cisco.

Iscriviti alla nostra newsletter

Join our mailing list to get weekly updates delivered to your inbox.

Iscriviti alla newsletter

www.innovationcity.it - 8.5.0 - 4.6.4