Nata da un’idea di un gruppo di studenti dell’ISIS Facchinetti, è una mano robotica che può esprimere con i propri movimenti i segni del linguaggio dei gesti usato nella comunicazione tra e con gli audiolesi. Si realizza usando come base un braccio robotico commerciale e una scheda Arduino Mega. di SIMONE PACE IL ROBOT CONOSCE IL LINGUAGGIO DEI GESTI 32 Settembre 2014 ~ Elettronica In Hi-Tech S ei ragazzi della 3^ Informatica dell’ISIS Facchinetti di Castellanza (VA) con questo progetto, nato nel laboratorio diretto dalla Prof.ssa Ornella Pili, si sono aggiudicati il primo premio nei concorsi nazionali “Skills for the future” e “SEP” del Junior Achievement e addirittura - nel caso del SEP - il terzo posto a livello internazionale nella finale tenutasi a Francoforte dal 26 al 28 maggio di quest’anno. L’apparato sviluppato dagli studenti consiste in una mano robotizzata autocostruita, montata su un braccio robotizzato commerciale (KSR10), comandata da Arduino Mega per mimare i gesti che compongono il linguaggio simbolico utilizzato correntemente per comunicare con chi non ha l’uso dell’udito o per far comunicare tra loro persone che non hanno l’uso né dell’udito, né della parola. Il progetto è nato da un’idea di Simone Pace, un giovane dell’ISIS Facchinetti molto attento alle persone più deboli, che dopo aver sperimentato le esigenze dei sordomuti ed aver compreso le problematiche di chi deve comunicare con essi, ha deciso di sfruttare le proprie conoscenze e proporre al gruppo di studenti cui appartiene di realizzare un braccio meccanico in grado di replicare i gesti componenti il linguaggio internazionale dei segni. Il lavoro ha imposto un bel po’ di studio a questi ragazzi, in quanto essendo essi studenti di informatica e richiedendo, la progettazione e realizzazione del sistema, competenze in Elettronica e Meccanica, hanno dovuto approfondire la conoscenza delle relative materie e mettersi a fare un bel po’ di calcoli. Ma alla fine il risultato ha ripagato i loro sforzi, forse più ampiamente di quel che speravano, visto che è valso loro la partecipazione all’evento di Francoforte. I ragazzi hanno poi realizzato il business plan e creato una campagna di promozione del loro lavoro, affidata al web tramite il sito acmja. altervista.org. Per dare ulteriore visibilità a questa realizzazione, meritevole sotto molti punti di vista, abbiamo deciso di descrivere il progetto in questo numero della rivista. SI ESPRIME CON I GESTI La piattaforma robotica consiste in una mano, interamente realizzata dai ragazzi dell’ISIS Facchinetti, ancorata a un braccio robotico Elettronica In ~ Settembre 2014 33 Componenti utilizzati Per chi volesse cimentarsi in una replica del braccio robot realizzato dai ragazzi dell’ISIS Facchinetti, riportiamo di seguito la lista delle parti utilizzate: - 10 servomotori di piccole dimensioni (bastano dei servo da 38 g); - 1 display 16 caratteri x 2 righe; - 3 pulsanti N.A. da pannello; - 1 deviatore a levetta; - 1 braccio robotico Velleman KSR10; - 1 Arduino Mega rev. 3; - 1 pila da 9 V; - 1 LED rosso tondo 5 mm; - 1 LED verde tondo 5 mm; - 1 LED giallo tondo 5 mm; - 6 resistenze 220 ohm; - fogli di alluminio di spessore pari a 0,5 mm; - jumper maschio-maschio e cavi vari; - legno compensato e truciolare. Questi elementi sono serviti alla realizzazione della prima versione, descritta interamente in queste pagine. La seconda versione, in fase di sviluppo, avrà in più: - 1 modulo EasyVR 2.0 (riconoscimento vocale per Arduino); - 1 shield Bluetooth per Arduino; - 2 driver per motori L293NE Il prototipo. commerciale, gestibile da computer mediante un’apposita utility, ma che in questo caso è stato modificato per accogliere la mano sulla propria sommità. Il cervello del sistema è, guardacaso, una scheda Arduino, che nello specifico è la Mega basata su microcontrollore ATmega2560: in essa gira uno sketch che permette di leggere dei dati in input e trasformarli nei gesti corrispondenti; per l’esattezza, i dati di input sono le lettere e parole selezionabili dall’utente mediante un’interfaccia locale composta da alcuni tasti e un display alfanumerico a cristalli liquidi. Arduino si interfaccia, quindi, con una tastiera per ricevere in ingresso le parole da far “comporre” alla mano tramite i gesti, oltre che con display e LED per Fig. 1 Sagoma del case usato nel prototipo. fornire le segnalazioni del caso e verificare l’inserimento delle parole (approfondiremo il discorso sull’interfaccia di comando più avanti in questo stesso articolo); una volta confermate lettere e/o parole, Arduino comanda un gruppo di servocomandi che, tramite tiranti, azionano le dita della mano e muovono la mano intera al fine di rappresentare i gesti corrispondenti. Nella prima versione (quella descritta in queste pagine) il braccio robotico funziona così, mentre nella nuova versione, che i ragazzi dell’ISIS stanno sviluppando, verranno aggiunti un modulo Bluetooth per interfacciarsi con apposite App e ricevere da smartphone le parole da “gesticolare”, ed anche un modulo di riconoscimento vocale per riprodurre i gesti mentre una persona parla nell’ambiente circostante, quindi per fare da interprete e traduttore simultaneo nel linguaggio dei sordomuti. LA REALIZZAZIONE Il sistema è l’insieme di una meccanica e di un’elettronica, a loro volta suddivise in due corpi, che sono il contenitore e supporto, e la mano robotica vera e propria. Spieghiamo come sono costituiti e in che modo sono stati realizzati quelli del prototipo che i ragazzi hanno portato in Redazione. 34 Settembre 2014 ~ Elettronica In . e ch i ità M en s ile a ic on r tt e l E e d l ie w w it l a u r t t at lic pp a a, w .e le t t a fic n o à t at i sc o ,n i r o n ic a o n ec t a c i v t en g lo in t i . a c i on r t t le e ’ l e lo tr n I
© Copyright 2024 ExpyDoc