Hi Guys,<div><br></div><div>For my thesis i am researching the question which modality will the most effective for robots.</div><div>Therefore i want to develop a prototype using RavenClaw Olympus to take gestures ( x y z coordinates)  in order to recognize gestures and then Olympus will provide feedback in spoken text.</div>
<div><br></div><div>Is there someone who already did something like this? Can someone tell me where to start? </div><div><br></div><div>I am already able to track my hand with the kinect and see the coordinates in a command prompt.</div>
<div><br></div><div>Is it possible to create a component in ravenclaw which receives these coordinates?</div><div>Is there some kind of HMM model in ravenclaw which i can use to tell how the gestures look like ( xyz)?</div>
<div><br></div><div>I would appreciate any form of feedback.</div><div><br></div><div>Thanks in advance.</div><div><br></div><div>Anouar</div>