Accordi con il CAISI americano e l'AISI britannico per testare i modelli di frontiera e mitigare i rischi per la sicurezza nazionale e la salute pubblica.
Autore: Redazione InnovationCity
Microsoft ha annunciato una collaborazione senza precedenti con il Center for AI Standards and Innovation (CAISI) negli Stati Uniti e l'AI Security Institute (AISI) nel Regno Unito. L'obiettivo di questa partnership è far progredire la scienza della valutazione dell'intelligenza artificiale, rendendo i test più rigorosi, sistematici e trasparenti. Natasha Crampton, Chief Responsible AI Officer di Microsoft, ha sottolineato come la gestione dei rischi su larga scala - come gli attacchi informatici potenziati dall'IA o le minacce alla sicurezza nazionale - non possa essere un compito affidato solo alle aziende private, ma richieda le competenze scientifiche e tecniche uniche detenute dalle istituzioni governative.
La collaborazione si muove su due fronti geografici e metodologici distinti ma complementari:
Negli Stati Uniti: insieme al NIST e al CAISI, Microsoft lavorerà sul miglioramento delle valutazioni avversarie. L'approccio è paragonabile allo stress-test dei sistemi di sicurezza di un'auto: si cercheranno di indurre comportamenti inaspettati e modalità di guasto nei modelli per garantirne la robustezza in scenari critici. Verranno co-sviluppati framework condivisi, dataset e flussi di lavoro per rendere le valutazioni riproducibili e sistematiche.
Nel Regno Unito: la partnership con l'AISI si concentrerà sulla sicurezza dei modelli di frontiera, studiando l'efficacia dei salvaguardie esistenti. Un pilastro fondamentale sarà la ricerca sulla resilienza sociale, analizzando come i sistemi di IA conversazionale interagiscono con gli utenti in contesti sensibili e potenzialmente vulnerabili.
Questi accordi non sono isolati, ma fanno parte di una strategia globale che coinvolge anche il Frontier Model Forum (FMF) e l'organizzazione non-profit MLCommons. Microsoft sta infatti lavorando per espandere strumenti di benchmark come AILuminate affinché supportino contesti multilingue e multiculturali, collaborando con istituti in India, Giappone, Corea e Singapore. L'obiettivo finale è trasformare la ricerca teorica in soluzioni pratiche: le lezioni apprese da queste collaborazioni governative verranno applicate direttamente nel design e nel dispiegamento dei prodotti commerciali, garantendo che il progresso tecnologico sia sempre accompagnato da sistemi di difesa proporzionati e certificati a livello internazionale.