Intelligenza artificiale, utile o pericolosa? Il dubbio amletico che preoccupa l’Italia

Il 43% delle aziende italiane ha implementato l’AI per il rilevamento e la prevenzione delle violazioni, ma il 62% si aspetta di subire minacce abilitate da questa tecnologia, con malware alimentato da AI indicato come preoccupazione principale (44%)

Autore: Redazione InnovationCity

Secondo uno studio di CyberArk, la continua ascesa dell’intelligenza artificiale si rivela un’arma a doppio taglio per i team di security, che si stanno preparando a un afflusso di nuove minacce informatiche abilitate proprio da questa tecnologia, nonostante sia ampiamente utilizzata anche per rafforzare le difese aziendali.

Il report evidenzia come il 43% delle aziende italiane abbia implementato l’intelligenza artificiale per il rilevamento e la prevenzione delle violazioni, il 53% per incrementare flessibilità e automazione e il 27% per colmare, almeno parzialmente, le lacune causate dalla carenza di talenti e competenze nel settore della cybersecurity.

Tuttavia, la crescente diffusione degli strumenti di GenAI sta anche aprendo un nuovo vaso di pandora di vulnerabilità, causando ulteriori preoccupazioni tra i responsabili della sicurezza. La ricerca di CyberArk indica che il 62% prevede che le minacce abilitate dall’intelligenza artificiale avranno un impatto negativo sulla propria azienda, con una prevalenza del malware (44%), seguito da phishing e codice generato dall’AI (41%) e poisoning del set di dati alimentato da intelligenza artificiale/effetto avversario.

I malintenzionati stanno già utilizzando GenAI per creare email apparentemente legittime da sfruttare nelle proprie campagne di phishing o addirittura per generare malware che aggirino l’autenticazione del riconoscimento facciale o eludano il rilevamento. ChatGPT può infatti essere usata per generare codice pericoloso e creare malware polimorfo altamente elusivo per la maggior parte delle soluzioni di protezione.

I team che si occupano di sicurezza devono agire con estrema cautela nei confronti dell’AI, e bilanciare i suoi indubbi vantaggi con i notevoli rischi a essa collegati non è un compito semplice,” afferma Paolo Lossa, Country Sales Director di CyberArk Italia. “La sicurezza IT deve concentrarsi sempre più sulle persone e non solo sulla tecnologia, anche se entrambi gli elementi restano necessari. Promuovere una forte cultura della cybersecurity richiede uno sforzo da parte di tutti. Il management ha la responsabilità di definire tono, pratiche e processi che aiutino a identificare e affrontare i comportamenti a rischio e guidare la collaborazione. Allo stesso tempo, deve responsabilizzare i dipendenti con una formazione continua e un potenziamento positivo che dia fiducia, modifichi atteggiamenti e abitudini e contribuisca a creare aziende più resilienti.”


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.