▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...
InnovationCity

Il principale motore della produttività degli sviluppatori nel 2024? L'intelligenza artificiale

Markus Eisele, Developer Strategist di Red Hat, descrive come l'AI entrerà nel mondo gli sviluppatori nel prossimo futuro e ne migliorerà la produttività

Intelligenza Artificiale

Guardare al futuro è sempre difficile perché le cose spesso vanno diversamente rispetto a quanto sia logicamente prevedibile. Tuttavia, non c’è bisogno di possedere particolari arti divinatorie per prevedere un aumento dell’utilizzo dell'intelligenza artificiale nel corso del 2024. Già negli ultimi dodici mesi, strumenti come ChatGPT e soluzioni simili per la creazione di immagini, video e testi sono diventati praticamente mainstream. Continueranno a prendere ulteriormente piede nel lavoro quotidiano di sviluppatori e amministratori, perché le possibilità di applicazione sono molteplici.

Ciò che molti dimenticano, tuttavia, è che gli algoritmi di apprendimento automatico e gli strumenti di IA sono essi stessi applicazioni che attraversano un ciclo di vita molto simile a quello dei software tradizionali. Anche le applicazioni di IA devono essere sviluppate, testate, distribuite, controllate e monitorate, in un processo che si chiama MLOps (Machine Learning Operations). Una sfida che il settore IT dovrà affrontare nel prossimo anno è quella di coniugare il ciclo di vita del software con quello dell’intelligenza artificiale. Non è facile, perché le applicazioni di apprendimento automatico sono progetti di data science scritti principalmente in Python e in altri linguaggi di programmazione influenzati dalla matematica: una sfida per gli sviluppatori che normalmente lavorano con Java, C#, PHP o JavaScript. Tuttavia, piattaforme come Red Hat OpenShift AI si stanno preparando a risolvere il “problema MLOps” con appositi Jupyter Notbook, flussi di lavoro di distribuzione Kubeflow e strumenti simili.

Ma in che modo AI generativa e modelli linguistici di grandi dimensioni (LLM) faciliteranno la vita degli sviluppatori e influiranno sulla produttività dei team di programmazione e admin? Ecco cinque diversi esempi:

1. Linguaggio naturale al posto di codice complesso: Chiunque abbia utilizzato l’IA generativa conosce la sua capacità di comprendere anche questioni complesse e di fornire risposte adeguate alle domande. Naturalmente, questo funziona ottimamente anche quando si tratta di programmazione. Sempre più ambienti di sviluppo riceveranno assistenti di codifica in grado di elaborare il linguaggio naturale (Natural Language Processing). Inizialmente, questi assistenti digitali non saranno ancora in grado di scrivere autonomamente programmi molto complessi senza una grande quantità di input aggiuntivi, ma gli strumenti di IA sono già in grado di implementare alcune funzioni di base. L’intelligenza artificiale potrebbe anche rendere il funzionamento di strumenti di automazione informatica come Ansible ancora più semplice e intuitivo, aumentando così la produttività degli sviluppatori.

2. Più sicurezza con l’intelligenza artificiale: La democratizzazione delle competenze di programmazione ha anche i suoi lati negativi. Con l’aiuto dei moderni assistenti di codifica, anche i non esperti possono ora scrivere facilmente malware. Tuttavia, nel prossimo anno gli sviluppatori utilizzeranno sempre di più strumenti di intelligenza artificiale per proteggere le loro applicazioni, cercando vulnerabilità e rischi nel codice sorgente. Anche gli amministratori addestreranno algoritmi e modelli linguistici di grandi dimensioni adatti al pentesting dei sistemi e delle applicazioni che gestiscono.

3. Analisi del codice semplificata: Tutti gli sviluppatori conoscono la frustrazione che si prova quando un’applicazione recentemente creata presenta degli errori. A questo punto inizia la fase di analisi e ricerca che spesso presenta la stessa complessità di trovare un ago in un pagliaio. In futuro, l’intelligenza artificiale renderà questo lavoro molto più semplice. Modelli linguistici di grandi dimensioni, opportunamente addestrati, possono non solo rilevare errori di battitura e parentesi mancanti nel codice, ma anche riconoscere errori logici e istruzioni inadeguate. L’ideale è abbinarli alle specifiche aziendali.

4. Modernizzazione delle applicazioni: Più un’intelligenza artificiale è addestrata e più dati comparativi sono disponibili per l’algoritmo, più attività impegnative può svolgere. Nel prossimo anno, gli strumenti potrebbero già essere in grado di analizzare il modello di dominio di un’applicazione monolitica. Non appena ciò avverrà, l’intelligenza artificiale sarà in grado di scomporre il monolite in microservizi. La creazione di API che consentono a questi ultimi di comunicare tra loro e l’impacchettamento in container è un esercizio piuttosto semplice per gli sviluppatori: ciò è particolarmente vantaggioso per le aziende che desiderano trasferire le loro applicazioni legacy su una infrastruttura cloud o Kubernetes moderna. I primi modelli sono già disponibili.

5. L’intelligenza artificiale spiega il codice agli esseri umani: Se l’intelligenza artificiale è in grado di comprendere il codice può spiegarlo logicamente agli esseri umani utilizzando un modello linguistico corrispondente. Nel prossimo anno, gli sviluppatori potranno utilizzare strumenti con questa capacità per creare automaticamente la documentazione delle applicazioni o addirittura far inserire all’intelligenza artificiale dei commenti nei punti critici del codice sorgente. La documentazione e i commenti delle applicazioni sono sempre stati un punto dolente per molti sviluppatori perché richiedono tempo prezioso che sarebbe preferibile dedicare alla programmazione.

Il 2024 sarà l’anno dell’applicazione estesa dell’intelligenza artificiale. Da un lato, gli sviluppatori avranno accesso a un’ampia gamma di nuovi strumenti che li supporteranno con funzionalità IA, facilitandone il lavoro quotidiano e aumentandone la produttività. Allo stesso tempo, gli amministratori dovranno occuparsi dello sviluppo e del funzionamento di strumenti e modelli di intelligenza artificiale e della gestione del loro ciclo di vita: compito non facile, che può essere reso più efficace con l’utilizzo di piattaforme avanzate.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
Rimani sempre aggiornato, seguici su Google News! Seguici

Related news

Ultime Notizie

CALL4INNOVIT 2026: startup e PMI italiane in volo verso la Silicon Valley

Aperte le candidature per il programma di accelerazione a San Francisco dedicato ai settori Clean e Green Tech: c'è tempo fino al 29 maggio per puntare al mercato globale.

06-05-2026

MIND Innovation Week 2026: alle radici del futuro e dell'ingegno umano

Al via la quarta edizione del festival diffuso che trasforma il distretto di Milano in un laboratorio a cielo aperto tra tecnologia e centralità delle persone.

06-05-2026

Oltre la linea del campo, ciò che i tifosi non vedono sul campo da tennis

Mentre uno dei tornei di tennis più importanti d’Europa prende il via a Roma, gli occhi dei tifosi italiani sono su Jasmine Paolini, che dovrà difendere il titolo vinto lo scorso anno. Tuttavia, il vero impegno dietro le sue performance si nasconde spesso dietro le telecamere, emergendo solo analizzando gli allenamenti e gli sforzi fisici legati agli spostamenti tra fusi orari per competere nei tornei più prestigiosi.

05-05-2026

Robo-sharing: con il contributo tecnologico del Politecnico di Milano, Auriga mette a punto un progetto pilota di mobilità condivisa ibrida

Auriga ha esplorato l'impatto della guida autonoma sul modello operativo del car sharing, integrando la tecnologia del Politecnico di Milano all’interno della piattaforma digitale di vehicle sharing B2-Ride, sviluppata da Auriga e già utilizzata dalla controllata Pikyrent. Il robo-sharing si configura come un modello ibrido tra car sharing e robo-taxi, in cui la guida autonoma non sostituisce l’utente, ma interviene nelle fasi operative per migliorarne l’efficienza e la qualità del servizio.

05-05-2026

Notizie più lette

1 L’aviazione del futuro si ispira ai fratelli Wright: il progetto sostenibile di Kingston University e RBF Morph

Una ricerca pionieristica punta a rivoluzionare l'aerodinamica civile attraverso ali flessibili capaci di adattarsi in volo, riducendo drasticamente consumi ed emissioni.

2 Guida autonoma in Italia: benefici per 6,1 miliardi di euro entro il 2050

Secondo l'Osservatorio Connected Vehicle & Mobility del Politecnico di Milano, la diffusione di Robotaxi e Robosharing rivoluzionerà la sicurezza e le abitudini degli italiani, eliminando 900.000 auto dalle città.

3 Se il mondo vivesse come gli italiani, il 3 maggio avremmo esaurito le risorse del Pianeta dell'intero 2026

Come denuncia il WWF, questa domenica è il Country Overshoot Day italiano, come anche dichiara il Global Footprint Network. In soli 123 giorni abbiamo già esaurito il “budget ecologico” dell’intero anno. Da lunedì 4 maggio in poi vivremo in deficit ecologico. Nel 2025 la data di Overshoot era stata il 6 maggio, questo significa che la nostra impronta ecologica complessiva sta continuando a peggiorare.

4 Suzano vende 12,7 milioni di tonnellate di polpa di legno per la prima volta nella storia dell'azienda

Suzano (B3: SUZB3 | NYSE: SUZ) , il produttore di polpa di legno più grande al mondo, annuncia i risultati del primo trimestre 2026 (1Q26), raggiungendo un nuovo record nelle vendite di polpa di legn...

Iscriviti alla nostra newsletter

Join our mailing list to get weekly updates delivered to your inbox.

Iscriviti alla newsletter

www.innovationcity.it - 8.5.0 - 4.6.4