Thank you for your answer, it was extremely helpful.<br><br><div style="margin-left: 40px;"><blockquote style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;" class="gmail_quote"><font size="2">
Also, the device that's provided for use with ACL (Allegro Common</font><br><font size="2">Lisp) under Windows does actually generate system-level mouse and</font><br><font size="2">keyboard actions.  They will be sent to whatever application has the
</font><br><font size="2">current focus.  So, if you are using that Lisp and OS combo you can</font><br><font size="2">have the model send actions to any application, but it can't "see"</font><br><font size="2">
them.</font><br></blockquote><font size="2"><br></font></div>That's interesting...<br>But I noticed that ACT-R sends the mouse and keyboard actions to its experiment window, independently if an external application has the focus... (I'm using ACT-R 5)...
<br>Could you tell me how can I define the outs to reach external applications or where I can find information about this possibility?<br><br>Thank you.<br>Fábio.<br><br><br><div><span class="gmail_quote">On 7/12/06, <b class="gmail_sendername">
Dan Bothell</b> <<a href="mailto:db30@andrew.cmu.edu">db30@andrew.cmu.edu</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br><br>--On Wednesday, July 12, 2006 4:37 PM -0300 Fabio Gutiyama<br><<a href="mailto:fgutiyama@gmail.com">fgutiyama@gmail.com</a>> wrote:<br><br>> Greetings, ACT-R users,<br>><br>> I'm new in this group and I am starting to use ACT-R on a research about
<br>> human error in Brazil (Escola Politécnica, São Paulo University - USP).<br>> Some aspect I'd like to know is about the perception and motor modules.<br>> Is there any implementation that open possibility to ACT-R interact not
<br>> only with the listener or the experiment window but with the entire<br>> enviroment of the operational system, seeing what is presented in other<br>> programs and generatig keyboards' in/out(s) to windows or any program,
<br>> for example?<br>><br><br>From the model's perspective the world is represented by what's called<br>a device.  The device provides all of the ins and outs for the current<br>perceptual and motor modules of ACT-R.  You can find some general
<br>information on the device for ACT-R 6 in the framework-API.doc document<br>in the ACT-R 6 docs directory and more detailed information at:<br><br><<a href="http://chil.rice.edu/projects/RPM/docs/index.html">http://chil.rice.edu/projects/RPM/docs/index.html
</a>><br><br>Note however that the web site describes the ACT-R 5 code and may<br>not always match with ACT-R 6 (work is currently ongoing to update<br>the documentation for ACT-R 6).<br><br>So, your question comes down to basically whether or not there is
<br>a device that supports the type of access you desire, and basically<br>the answer is no.  The devices included with ACT-R don't do that, but<br>there are a couple of possibilities.<br><br>First, it is possible to add new devices.  So, it's not impossible
<br>to have that type of interaction, but one would have to do the<br>work necessary to create the appropriate device for ACT-R.<br><br>Also, the device that's provided for use with ACL (Allegro Common<br>Lisp) under Windows does actually generate system-level mouse and
<br>keyboard actions.  They will be sent to whatever application has the<br>current focus.  So, if you are using that Lisp and OS combo you can<br>have the model send actions to any application, but it can't "see"
<br>them.<br><br>As for seeing, there was a project called SegMan being developed<br>by Robert St. Amant which was looking to provide a general image<br>processing system that would allow for visual information to come<br>
from "any" window, but I don't know too many details or the current<br>status of that project at this time.<br><br>Hope that helps,<br>Dan<br></blockquote></div><br>