▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...
InnovationCity

: "La sovranità digitale come scelta strategica" La sovranità secondo Aruba.it

Sicurezza su ChatGPT: c’è la necessità di una nuova forma mentis

Non è solo una perfetta mail di phishing o un falso dialogo con l’amministratore delegato, i rischi dell’AI generativa sono ancora più gravi.

Intelligenza Artificiale

Parlare di sicurezza su ChatGPT e, in generale, su qualsiasi modello LLM e di AI generativa non è affar semplice. I rischi che si corrono nel suo utilizzo sono diversi, con implicazioni sui dati aziendali, sull’economia, sulla politica, sulla morale, sull’etica e sulla vita stessa degli individui. In generale non si tratta di nuovi rischi ma, piuttosto, della facilità con cui si creano gli attacchi e dell’amplificazione nella propagazione.

Ho letto recentemente un paper in cui si raccontava come fosse possibile fare prompt injection e aggirare filtri e controlli integrati in ChatGPT per ottenere le risposte volute”. Chi dialoga con noi sulla sicurezza su ChatGPT è Giovanni Vigna, italiano trapiantato da 25 anni negli Stati Uniti, Senior Director of Threat Intelligence della Business Unit Security in VMware, in cui entrò due anni fa dopo l’acquisizione della sua società di sicurezza Lastine.Vigna è anche professore universitario e riconosciuto internazionalmente come un guru della cybersecurity. Il manager ha pubblicato un articolo abbastanza inquietante sulla sicurezza di ChatGPT. Partiamo da questo per capire se e come un giorno potremmo immaginare un’intelligenza artificiale generativa sicura, etica e oggettiva.

Come si sa, ChatGPT è una variante di GPT (Generative Pre-trained Transformer), un LLM, un modello conversazionale artificiale in cui, a fronte di un prompt, una richiesta inserita nell’interfaccia con un linguaggio naturale, genera una risposta, anch’essa in linguaggio naturale, attraverso le sue reti neurali (intelligenza artificiale, modalità deep learning). Il modello considera la probabilità che a una parola ne segua un’altra, è in grado di tener conto del contesto, ha “studiato” attingendo da immense quantità di dati e informazioni provenienti da fonti predefinite e studia ancora, ovvero impara anche dagli input che gli forniscono gli utenti durante l’utilizzo.

Pronto? Sono il tuo capo, mi fai un bonifico?

Nel suo blog post, Vigna riassume in che modo può essere pericoloso ChatGPT. Si può generare una conversazione realistica da utilizzare a scopi di phishing, inducendo le vittime a fornire informazioni sensibili o eseguire azioni (come fare clic su un link dannoso). ChatGPT può essere utilizzato per impersonare un individuo in un attacco di social engineering (anche in una conversazione vocale), convincendo le vittime a divulgare informazioni sensibili o eseguire azioni non corrette. Infine, ChatGPT può essere utilizzato per generare grandi quantità di messaggi spam, intasando i canali di comunicazione o diffondendo disinformazione, per esempio durante una campagna elettorale.

Vigna, infine, produce alcuni esempi di cosa può generare ChatGPT effettivamente preoccupanti. Ma questa è solo la punta dell’iceberg. “È possibile immaginare promozioni, accordi, informazioni o consigli da parte di interlocutori di cui ci si fida – osserva Vigna -, far crollare (è già successo) la Borsa, spostare le preferenze politiche con un bombardamento di fake news o notizie mirate. Il problema vero è che il costo in termini di risorse, di applicazioni o di codice per scatenare un “attacco” con ChatGPT è veramente basso e accessibile a chiunque, ma la diffusione è molto più massiccia e veloce rispetto a un equivalente “umano”.

Ciò che costa è la creazione del modello e il suo training ma, una volta che il sistema autoapprende con l’utilizzo, è solo questione di tempo (di utilizzo). “Allo stesso modo, è complesso intervenire con un controllo automatico in fase di training, i dati che girano sono troppi”. Inoltre, c’è anche un altro tipo di pericolo da considerare: “spesso è difficile capire perché ChatGPT risponde in un certo modo, perché le risposte dipendono inevitabilmente da come è costruito il modello, da come è stato educato e dalle fonti che consulta”.

Nascono “allucinazioni” allora: “raccontami qualcosa del filosofo Giovanni Tornatore” e ChatGPT risponde, perché deve dare una risposta, senza preoccuparsi di chiedersi prima di tutto se è mai esistito un filosofo di nome Giovanni Tornatore, d’altronde lo dice il mio interlocutore, sarà vero. E poi ci sono le questioni etiche, le discriminazioni, in generale risposte che non sono oggettive, o “giuste”.

Un approccio Zero Trust a ChatGPT

C’è una speranza, allora? “Dobbiamo costruirci, e inculcare negli studenti, una nuova forma mentis – prosegue Vigna – educarci a essere scettici nei confronti delle intelligenze artificiali, avere una diffidenza di base, un approccio Zero Trust. Imparare a formarsi un pensiero critico e a distinguere la fonte competente. Educarci all’autorevolezza, qualcosa che non ci è mai stata insegnato”.

Vendor e Istituzioni, inoltre, devono affrontare la questione con grande responsabilità. Vedo e seguo con interesse la direzione presa dalla Comunità Europea in merito. Abbiamo il diritto di sapere sempre se stiamo interagendo con un’intelligenza artificiale e, magari, qualcosa di più”.

Vigna pensa ai vendor e alla loro responsabilità. Il campo in cui ci si muove è sempre lo stesso: quando finisce il diritto a proteggere le idee, gli algoritmi, i dati e le fonti e inizia il dovere di comunicare con trasparenza come è educato un modello, che fonti utilizza e in che modo si possono considerare sicuri i dati che noi utenti forniamo interagendo con il prompt?

Per questo, conclude Vigna “si può pensare a creare sistemi di interazione più sofisticati che raccolgano e analizzino informazioni che circolano liberamente in Rete. Raccogliere informazioni pubbliche da valutare in ottica predittiva, costruire validi sistemi di indagine sui contenuti e modelli di transizione dal linguaggio naturale al codice applicativo per estrarre solo dati oggettivi utilizzabili da un sistema automatizzato”. Considerare delle architetture alternative, che già esistono, magari open source, capaci di generare conoscenza dal basso di fonti autonome e diffuse.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
Rimani sempre aggiornato, seguici su Google News! Seguici

Related news

Ultime Notizie

Trattato sull'alto mare. Mentre lo storico trattato diventa legge internazionale, il WWF Italia esorta il governo italiano a ratificare quanto prima il testo

Il trattato fornisce un meccanismo giuridicamente vincolante che consente la designazione di reti di aree marine protette (AMP) in acque internazionali, un passo essenziale verso il raggiungimento dell'obiettivo globale di proteggere il 30% degli oceani entro il 2030. Attualmente poco più dell'1% dell'alto mare è protetto. Il ruolo ambiguo dell'Italia.

16-01-2026

Wine Tech Challenge, innovazione e tecnologie per la filiera del vino

Il programma di open innovation, avviato da Eatable Adventures nell'ambito delle attività del Verona Agrifood Innovation Hub, ha come scopo selezionare le startup più promettenti del settore, pronte a rispondere alle sfide del settore con soluzioni tecnologiche concrete lungo l’intera filiera del vino.

16-01-2026

Parma Calcio e BWT consolidano un modello di eccellenza e accoglienza plastic-free

Best Water Technology ha realizzato un sistema integrato che include 18 colonnine per l’erogazione di acqua ad atleti e staff presso il Mutti Training Center e il Centro Sportivo di Noceto. Questo intervento ha portato un risparmio di 70.000 bottiglie di plastica monouso all’anno, corrispondenti a circa  2,1 tonnellate di CO₂ non immesse nell'atmosfera, considerando solo la produzione, con il trasporto e lo smaltimento si stimano fino a 2,7 tonnellate di CO₂ risparmiata all’anno.

16-01-2026

Leonardo, shopping nel mercato USA. Acquistata EEC per crescere nel settore Meteo

Firmato un accordo per l'acquisizione di Enterprise Electronics Corporation (EEC), società statunitense specializzata nello sviluppo, produzione e manutenzione di strumenti radar meteorologici e stazioni di ricezione satellitare per la meteorologia, l'idrologia, la ricerca e l'aviazione, sia nel settore militare che civile.

16-01-2026

Notizie più lette

1 Allevamenti intensivi in Emilia Romagna: nuova denuncia di Greenpeace a tutela degli animali, dei consumatori, e dei lavoratori del settore

Secondo Greenpeace il sistema degli allevamenti intensivi punta solo a massimizzare la produzione ad ogni costo senza alcun riguardo per la tutela delle risorse naturali, per la salute pubblica e, come dimostra questa nuova inchiesta, per il benessere animale.

2 L'AI contro le aziende furbette del green, ma in Italia la tecnologia non è adottata. I commenti di IAP e Codacons

Gli esperti legali “L’intelligenza artificiale è efficace per intercettare green claim scorretti". Il Codacons: “massima severità e multe milionarie per combattere fenomeno greenwashing”.

3 IntelligEarth: la startup della Sapienza di Roma tra i protagonisti del CES 2026

IntelligEarth è una startup innovativa fondata nel 2023 come iniziativa accademica dell’Università Sapienza di Roma.

4 Age Verification, parte il progetto pilota di BAT Italia per la verifica dell'età tramite scansione facciale

Il servizio di Age Verification di Yoti, basato sulla scansione facciale, consentirà a BAT di rafforzare ulteriormente le politiche di vendita responsabile dei prodotti a base di nicotina, con l'obiettivo di impedirne l'acquisto ai minori. La fase di test del progetto è già partita in 119 pop-up store, distribuiti su tutto il territorio nazionale. La piattaforma assicura la privacy: pur effettuando la scansione facciale, non salva foto e non identifica l'utente.

Iscriviti alla nostra newsletter

Join our mailing list to get weekly updates delivered to your inbox.

Iscriviti alla newsletter

www.innovationcity.it - 8.3.23 - 4.6.4