Capgemini lancia un Large Language Model specifico per il protein engineering e pensato per velocizzare il design di nuove proteine
Dal laboratorio di biotecnologia che Capgemini ha creato nella sua sede britannica arriva una novità interessante nel campo della ingegneria proteica: una nuova metodologia per il protein engineering che usa un Large Language Model specializzato - un protein Large Language Model (pLLM) - per prevedere le varianti proteiche più efficaci.
Capgemini spiega che questo nuovo approccio può accelerare la ricerca e "promuovere innovazioni scientifiche fondamentali" in settori quali la Sanità, l'agricoltura e le scienze ambientali. Questo perché il pLLM ridurrebbe di oltre il 99% i dati necessari per la progettazione delle sequenze proteiche, abbassando decisamente il tempo e le risorse necessari nelle attività di ricerca e lo sviluppo. Inoltre, potrebbe aprire la strada a casi d'uso che prima non erano realizzabili.
Il fatto che grazie al nuovo pLLM i ricercatori abbiano bisogno di meno dati di partenza per il loro lavoro è molto importante, spiega Capgemini. La nuova metodologia rende infatti possibili scoperte scientifiche con set di dati significativamente più piccoli, il che consente alle organizzazioni di innovare anche in scenari dove le risorse a disposizione sono limitate.

La metodologia presentata da Capgemini è stata sviluppata da Cambridge Consultants, il braccio "deep tech" di tutto il Gruppo Capgemini, ed è stata già applicata ad alcuni casi d'uso importanti per dimostrarne l'efficacia. Ad esempio, l'approccio è stato usato per potenziare l'enzima cutinasi, aumentando del 60% la sua capacità di degradare la plastica PET. Questo sviluppo può aiutare a raggiungere vari obiettivi di sostenibilità e contribuire a ridurre i costi operativi associati alla gestione dei rifiuti.
In un altro test, Capgemini ha usato la GenAI per ridurre il numero di esperimenti necessari a identificare varianti potenziate della proteina fluorescente verde (Green Fluorescent Protein - GFP) che viene spesso usata in esperimenti e tecniche di biologia molecolare. I test di Capgemini hanno avuto bisogno di solo 43 data point invece di migliaia, e hanno portato a una variante con un livello di luminosità sette volte superiore a quello della proteina naturale.
Tasferendo questa esperienza positiva in altri ambiti, secondo Capgemini, l'utilizzo della GenAI può ridurre in modo significativo il tempo e le risorse tipicamente necessari per i test sperimentali, in diversi campi che spaziano dalla scoperta di nuovi farmaci al miglioramento degli strumenti diagnostici.
Concepita come la "Driver's Car", la nuova SU7, disponibile in tre versioni, introduce aggiornamenti profondi nella sicurezza, nella dinamica di guida e nella connettività, puntando a diventare il nuovo punto di riferimento per le berline di lusso di segmento C.
01-04-2026
Approvati i criteri per la seconda edizione della misura regionale: l'obiettivo è sostenere partenariati tra imprese e centri di ricerca per progetti ad alto valore tecnologico.
01-04-2026
Piece è già operativa a livello internazionale, e opera in conformità alla normativa europea, con il nulla osta da parte di Consob. Piece offre accesso a titoli tokenizzati riferiti a specifici immobili a reddito.
01-04-2026
Per Nino Cartabellotta, presidente della Fondazione Gimbe, un'autorità quando si parla di sanità in Italia, il Fse 2.0 rischia di essere inefficace visto che è ancora incompleto in diverse regioni e solo il 44% dei cittadini ha espresso il consenso alla consultazione del Fse da parte di medici e operatori del Servizio sanitario nazionale.
01-04-2026
Con l’obiettivo di sviluppare soluzioni tecnologiche e digitali avanzate a supporto della ricerca e dell’innovazione potenziate dall’Intelligenza Artificiale, il nuovo ecosistema si articola in due sedi: una a Torino, in prossimità del Politecnico e una presso l’headquarter di TXT a Milano. Due poli che, per storia e vocazione industriale, rappresentano un riferimento per l’innovazione tecnologica in Italia.
L’architettura evidenzia come i processori quantistici possono lavorare insieme a GPU e CPU, nei sistemi on-premise, nei centri di ricerca e in cloud, per affrontare sfide scientifiche che nessun singolo approccio informatico può risolvere da solo.
L'osservatorio HeyLight rivela che la spesa media per i corsi sfiora i 1.350 euro, con un ruolo sempre più centrale del Buy Now Pay Later per rendere accessibili percorsi di alta qualità e certificazioni internazionali.
Un esperimento condotto in collaborazione con i principali centri di ricerca americani dimostra che i processori quantistici possono ora riprodurre dati di laboratorio reali, superando i limiti della simulazione classica.