Wired Next Fest 2023: 'Il Garante ha agito con urgenza contro ChatGPT? No, eravamo già in ritardo'

E' quanto afferma Guido Scorza, componente del Collegio del Garante per la protezione dei dati personali che rimarca l'importanza dell'intervento dell'Authority e sottolinea come sia stato il successo del tool a generare una reazione forte.

Autore: Redazione InnovationCity

Al Wired Next Fest di Rovereto, terminato domenica 7 maggio, Guido Scorza, componente del Collegio del Garante per la protezione dei dati personali, in merito allo stop di ChatGPT ha affermato: “Intervenire a valle dell’istruttoria ordinaria sarebbe stato ancora più tardivo, noi siamo comunque arrivati tardi ma dall'altra parte abbiamo trovato un interlocutore collaborativo”. Un parere franco e netto sull'approccio dell'Authority italiana che aveva chiesto alla società guidata da Sam Altman, Open AI, di regolarizzare la propria posizione in tema di trattamento dei dati. Di contro, il servizio era stato spento e solo da poco è tornato disponibile.

Il provvedimento del Garante ha sollevato reazioni fortissime e creato un intenso dibattito, segnato da una polarizzazione forse manichea: conservazione contro progresso, Italia contro resto del mondo, libertà contro chiusura. Il tema, molto più complesso, chiamava in causa le modalità con cui gli algoritmi vengono allenati e la stessa mission di un chatbot come quello di Open AI.

Nessuna sorpresa in un certo senso per Scorza, ospite a Rovereto a Wired Next Fest 2023, perché “per ogni decisione che assumi, più sei pioniere, più metti in conto che non tutti siano d’accordo. La grande onda di scontento sembra essersi abbassata, anche alla luce del ripristino del servizio e Scorza ha sottolineato come la situazione sia significativamente diversa: "Il problema che abbiamo visto si discute ovunque in Europa con tutte le autorità; la certezza è che l’IA appartiene al futuro ma deve essere regolamentata e deve rispettare le regole anche se non sono completamente in linea con le esigenze degli utenti”.

La reazione degli utenti è stata viscerale, elevando il modello di linguaggio generativo ad altezze di necessità pari a tool molto più consolidati e presenti nell'immaginario pubblico, come i social. Ma paradossalmente, ha spiegato Scorza, è stato proprio il successo di Open AI e del suo chatbot a far riflettere il Garante. “Il rischio che abbiamo visto è di fatto il rischio che quella tecnologia dettasse le regole con standard de facto. Intervenire a valle dell’istruttoria ordinaria sarebbe stato ancora più tardivo, noi siamo comunque arrivati tardi ma dall'altra parte abbiamo trovato un interlocutore collaborativo, che ha detto “Dialoghiamo e proviamo a mettere a posto le cose”. Ho visto anche da parte loro un genuino smarrimento rispetto al successo di pubblico”.Il componente del Collegio del Garante riconosce che potevano essere usate misure di impatto inferiore ma...:" E' vero anche il contrario, chi fa innovazione può fermarsi un attimo, interloquire con gli stakeholders e chiedersi come farlo bene”. La vicenda non è ancora terminata: l'autorità ha infatti riconosciuto “i passi in avanti compiuti per coniugare il progresso tecnologico con il rispetto dei diritti delle persone” ma attende altri impegni come gli sviluppi sul fronte verifica dell'età e una campagna di comunicazione. Più complicata, e non di pertinenza in sé del Garante, la mission di ChatGPT che, percepito dal pubblico come universale problem solver, in realtà non è un surrogato di Wikipedia ma uno strumento per elaborare contenuti. Non spetta insomma al tool una verifica sulla realtà delle cose e sulla giustezza delle informazioni erogate.

“Gli utenti non lo sanno - afferma Scorza - Ma sappiamo come funziona con le tecnologie, le usi per come ritieni che ti servano. Loro (Open AI, ndr) dicono: non è il nostro obiettivo, sulle info sbagliate si può fare richiesta e cancellarle del tutto. Ma c’è tantissimo lavoro da fare”. Se ChatGTP è, al momento, la madre di tutti gli interventi italiani sul campo, è chiaro che nasceranno altri strumenti e che c'è bisogno di linee comuni a livello continentale. La visione è chiara: “Io spero che si parli a una (Open AI) per parlare a tutti, se domani ci troveremo di fronte ad altro caso agiremo con strumenti nostri. Credo che questo giro della regolamentazione europea sia più illuminato, più spostato sui principi che sulle regole di dettaglio.

Ma gli strumenti del Garante saranno sempre al passo dell'evoluzione dell'IA? O è la stessa authority a dover evolvere? “La risposta è Si, il Garante deve cambiare e crescere. Non è solo fatto quantitativo ma anche un problema qualitativo. Tutte le autorità nascono intorno a un nucleo forte di giuristi. Ci servono tecnologi, ne abbiamo dentro ma non bastano. Ma non sono metamorfosi che fai dall’oggi al domani”.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.