: "La sovranità digitale come scelta strategica" La sovranità secondo Aruba.it
Una ricerca svolta tra Genova e gli Stati Uniti ha dimostrato che l’essere umano percepisce un robot collaboratore come parte del proprio corpo “esteso”.
Un gruppo di ricerca dell’Istituto Italiano di Tecnologia (IIT) a Genova e della Brown University negli Stati Uniti ha dimostrato che l’essere umano percepisce la mano di un robot umanoide come parte del proprio schema corporeo, se con quel robot ha svolto un compito in collaborazione, come tagliare una saponetta. Lo studio, pubblicato sulla rivista iScience, può aiutare a migliorare la progettazione di robot impiegati a stretto contatto con l’essere umano, quale per esempio nella riabilitazione motoria.
La ricerca, guidata da Alessandra Sciutti, Principal Investigator dell’Unità CONTACT all’IIT di Genova, in collaborazione con Joo-Hyun Song, professoressa alla Brown University, ha permesso di indagare se alcuni meccanismi inconsci dell’essere umano, presenti quando si interagisce con un’altra persona, possono comparire anche di fronte a un robot umanoide.
Il personale di ricerca ha investigato un processo cognitivo, noto come near-hand effect (effetto della mano vicina), per cui la vicinanza della mano a un oggetto modifica l’attenzione visiva della persona, preparandola all’utilizzo dell’oggetto. Inoltre, ha basato lo studio sulla capacità del cervello umano di creare uno schema corporeo esteso, in cui anche gli oggetti possono essere integrati, per muoversi nello spazio circostante in modo più efficiente.
Tramite un processo inconscio e grazie a stimoli esterni, lo schema corporeo costruito dal nostro cervello è importante per evitare ostacoli o afferrare oggetti senza guardarli. In tale schema, possono essere integrati oggetti di uso comune, purché utili a svolgere un compito, come accade per esempio a un tennista con la propria racchetta usata tutti i giorni. Lo schema corporeo è in continua evoluzione e il gruppo di ricerca guidato da Sciutti ha indagato se un robot possa diventarne parte.
Giulia Scorza Azzarà, dottoranda di IIT e prima responsabile di questo studio, ha messo a punto e analizzato i risultati degli esperimenti che prevedevano un’attività congiunta tra persone e il robot umanoide iCub. L’attività consisteva nel taglio di una saponetta tramite un cavo d’acciaio tirato in modo alternato dalla persona e dal suo partner robotico.
Per verificare l’integrazione della mano robotica nello schema corporeo, i ricercatori hanno quantificato prima l’effetto della mano vicina, il near-hand effect, con un test visivo chiamato Posner. Il test sfida i partecipanti a indicare il più velocemente possibile con una tastiera su quale lato dello schermo compare un’immagine, mentre la loro attenzione è influenzata da un oggetto posizionato proprio accanto allo schermo.
Analizzando i dati di 30 persone, è emerso che la risposta visiva è più rapida quando l’oggetto usato per sviare l’attenzione è la mano del robot, dimostrando che viene percepita come “mano vicina”. Inoltre, gli esperimenti di controllo hanno mostrato che l’effetto si manifesta solo nelle persone che hanno collaborato con iCub nel taglio della saponetta.
Lo studio dei movimenti compiuti dal robot ha permesso un’analisi dei fattori fisici che modificano l’intensità del near-hand effect. Per esempio, se la mano del robot compie movimenti ampi e coordinati con l’essere umano, l’effetto della vicinanza è più marcato e maggiore è l’integrazione della mano di iCub nello schema corporeo della persona. Allo stesso modo, anche la vicinanza tra la mano artificiale e la persona contribuisce ad aumentare il senso di integrazione: più il robot riesce a entrare nello spazio personale dell’umano durante il compito, maggiore è l’intensità del near-hand effect.
Il gruppo di ricerca ha infine valutato, con dei questionari successivi all’attività congiunta, come i partecipanti percepissero il robot. L’intensità dell’effetto cognitivo è tanto più elevata quanto più i partecipanti ritengono il robot un partner competente e piacevole; anche attribuire al robot tratti umani e la capacità di provare emozioni accresce l’efficacia dell’integrazione della mano nello schema corporeo. Condivisione ed empatia sono essenziali per rinforzare i legami cognitivi con iCub.
Con quasi 112.000 inalatori smaltiti in tre anni, il progetto pilota contribuisce alla riduzione delle emissioni indirette e sostiene la transizione verso la nuova piattaforma pMDI a basso impatto ambientale del Gruppo Chiesi
14-01-2026
Con l’attivazione del nuovo impianto di teleriscaldamento, Alpac dismette le sue vecchie caldaie e risparmia 71,31 tonnellate di CO2 l’anno. Un’azione concreta che migliora l’efficienza energetica dell’azienda, tutela l’ambiente e rafforza il legame tra impresa e territorio.
14-01-2026
Sotto la lente dell'Autority, i prezzi dei beni alimentari che in quattro anni hanno registrato un incremento del 24,9%, superiore di quasi 8 punti percentuali rispetto all'indice dell'inflazione generale, pari al 17,3 percento.
14-01-2026
Secondo Greenpeace il sistema degli allevamenti intensivi punta solo a massimizzare la produzione ad ogni costo senza alcun riguardo per la tutela delle risorse naturali, per la salute pubblica e, come dimostra questa nuova inchiesta, per il benessere animale.
14-01-2026
Dalle opportunità dello European Innovation Council alla mobilità autonoma, ma anche il valore della leadership femminile: nell’Arena Italia una serie di eventi tra networking internazionale e innovazione di frontiera.
Il sistema di monitoraggio di Avacam analizza in tempo reale i movimenti del terreno con precisione millimetrica, un’innovazione cruciale in un paese come l'Italia con oltre 635.000 frane censite.
Il prossimo passo sarà utilizzare l’intelligenza artificiale per arricchire le immagini con contenuti molecolari legati a patologie oncologiche o neurodegenerative.
Un round di investimento da 981 mila euro nella società giapponese Hibot, leader nel campo della robotica, e uno da 1 milione di euro nell’italiana Hypermeteo, che sviluppa analisi climatiche con il supporto dell’Intelligenza Artificiale.