MILANO. Entro 10 anni i robot saranno in grado di 'leggerci nel pensiero': capaci di interpretare il linguaggio del corpo, sapranno anticipare le nostre mosse, riuscendo ad interagire in modo più sicuro e naturale con noi umani. Questo anche grazie ad una nuova pelle hi-tech interamente ricoperta da sensori resistenti e flessibili, adatti ca funzionare anche sulle giunzioni come gomiti e ginocchia. A tracciare questo scenario è Lorenzo Natale, ricercatore dell'Istituto Italiano di Tecnologia (Iit), tra i protagonisti di NIDays 2016, il forum tecnologico sulla progettazione grafica di sistemi organizzato da National Instruments. «Il nostro obiettivo è quello di sviluppare robot sempre più adatti all'uso domestico, capaci di interagire in maniera sicura e naturale anche con bambini e anziani», spiega Natale, che con il suo gruppo di ricerca sta sviluppando la vista e il tatto di iCub, il famoso robot bambino dell'Iit. «I robot non dovranno soltanto essere pronti a reagire, ma dovranno anche intuire in anticipo i nostri movimenti e le nostre intenzioni, in modo da aiutarci o semplicemente evitare di sbatterci contro: per questo stiamo sviluppando nuovi algoritmi che li aiutino ad interpretare il contesto in cui si muovono e il linguaggio del corpo delle persone che hanno davanti». Per interagire con bimbi e anziani, non sempre capaci di impartire comandi vocali chiari e precisi, sarà fondamentale che i robot abbiano un sistema di sensori tattili diffusi su tutta la 'pelle', incluse le giunzioni in movimento: «Così potranno voltarsi se li chiamiamo con un tocco sulla spalla, o potranno rendersi conto di aver sbattuto contro un muro o una persona vicina», sottolinea Natale. «Proveremo anche instillare nei robot la consapevolezza dei propri limiti - aggiunge l'esperto - in modo che si fermino o si mettano in stand by quando il loro sistema percettivo è in difficoltà, ad esempio davanti ad una luce abbagliante che non permette di distinguere le sagome umane o gli oggetti».