Passa ai contenuti principali

Post

Visualizzazione dei post da marzo, 2014

Kinect V2 : Body stream – Activities, Appearance e Expressions

In questo post prenderemo alcune nuove funzionalità messe a disposizione dall’SDK del Kinect 2 e che riguardano il modo di apparire e di porsi dell’utente davanti al device. La classe Body, vista in dettaglo nel precedente post , ci permette di accedere ad alcune caratteristiche “dinamiche” del singolo player che si pone davanti al device. In particolare abbiamo a disposizione: Activities : ci dicono cosa sta facendo il player. Ad esempio se ha l’occhio destro chiuso o se ha la bocca aperta; Appearance : come appare l’utente. Ad esempio se indossa gli occhiali; Expressions : le espressioni che l’utente assume. Ad esempio se sta ridendo. La classe Body espone tre Dictionary che contengono le tre caratteristiche elencate in precedenza: La proprietà Activities è un Dictionary (a sola lettura) con chiave uno dei valori dell’enumerazione Activity e valore l’enumerazione DetectionResult. Le altre due collezioni funzionano in maniera del tutto analoga cambiando esclusivamente l’enu

Kinect V2 : body stream – hand tracking

In questo post continuiamo l’analisi delle informazioni forniteci dallo stream body del Kinect V2 prendendo in esame la funzionalità di tracking delle mani dei player. Le funzionalità di tracking delle mani dei player sono accessibili grazie alla classe Body vista nel precedente post . In particolare la classe Body espone due proprietà per ogni mano: HandRighState, HandLeftState : permette di conoscere lo stato della mano ovvero se la mano è non tracciata, aperta, chiusa o con le dita a V oppure se l’SDK non è riuscito a riconoscerla; HandRghtConfience, HandeLeftConfidence : indica la confidence (low o high) dello stato della mano. Possiamo, quindi, utilizzare queste proprietà per prendere decisioni in base allo stato della mano o delle mani del player. A livello di codice abbiamo la necessità di inizializzare il device e gestire la sorgente Body in maniera analoga a quanto visto nel precedente post : Sensor = KinectSensor .Default If Sensor IsNot Nothing Then      Sens

HTML.it : CodedUI test per Windows Store Apps

  Vi segnalo il mio l’articolo “ CodedUI test per Windows Store Apps ” pubblicato su HTML.it e facente parte della guida avanzata per la creazione di applicazioni Windows Store App. E’ disponibile anche la versione per HTML+Javascript ( link ). Per completare la “marchetta”, vi ricordo che il 28 Marzo 2014, all’Università Partenope di Napoli, si terrà l’ALM Day che vedrà coinvolte 3 community (DotNetCampania, DotNetMarche e DomusDotNet) con 8 sessioni che vanno dalla gestione dell’ALM al test passando per la qualità del software. L’evento è completamente gratuito e da non perdere!!!!

Kinect V2: body source – joints

In questo post prenderemo in esame lo stream body source fornito dal Kinect V2 e, in particolare, ci occuperemo della funzionalità che sostituisce quella, già presente nella versione 1 dell’SDK e che prendeva il nome di Skeletal Tracking. Come accadeva per la versione precedente, il device è in grado di fornirci la posizione nello spazio di un insieme di punti del corpo umano. Nella precedente versione del Kinect avevamo a disposizione 20 punti (detti joints) mentre nella nuova versione sono 25. Sono stati aggiunti il collo (neck), il pollice (Thumb) di entrambe le mani e la punta dell’insieme delle altre dita (Hand_Tip). Nella precedente versione dell’SDK, la struttura dati che conteneva le informazioni relative ai joints prendeva il nome di Skeleton, in questa versione la struttura dati che contiene i dati dei joints si chiama Body. Questo perchè, come vedremo anche nei prossimi post, la classe Body contiene un numero di informazioni superiore rispetto alla vecchia skeleton: tra