<html>

<head>
<meta http-equiv=Content-Type content="text/html; charset=iso-8859-1">
<meta name=Generator content="Microsoft Word 10 (filtered)">

<style>
<!--
 /* Font Definitions */
 @font-face
        {font-family:Tahoma;
        panose-1:2 11 6 4 3 5 4 4 2 4;}
 /* Style Definitions */
 p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:12.0pt;
        font-family:"Times New Roman";}
a:link, span.MsoHyperlink
        {color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {color:blue;
        text-decoration:underline;}
span.EmailStyle18
        {font-family:Arial;
        color:navy;}
@page Section1
        {size:8.5in 11.0in;
        margin:1.0in 1.25in 1.0in 1.25in;}
div.Section1
        {page:Section1;}
-->
</style>

</head>

<body lang=EN-US link=blue vlink=blue>

<div class=Section1>

<p class=MsoNormal><font size=2 color=navy face=Arial><span style='font-size:
10.0pt;font-family:Arial;color:navy'>     Since no one else has yet said so, I
will tell you that the perceptual and motor components of ACT-R are pretty much
borrowed from the work of David Kieras and David Meyer of the </span></font><font
  size=2 color=navy face=Arial><span style='font-size:10.0pt;font-family:Arial;
  color:navy'>University</span></font><font size=2 color=navy face=Arial><span
 style='font-size:10.0pt;font-family:Arial;color:navy'> of </span></font><font
  size=2 color=navy face=Arial><span style='font-size:10.0pt;font-family:Arial;
  color:navy'>Michigan</span></font><font size=2 color=navy face=Arial><span
style='font-size:10.0pt;font-family:Arial;color:navy'> whose EPIC architecture
emphasized these and demonstrated their importance to the cognitive community.   Apparently,
however, it is still the case that the ACT-R implementation is not nearly a
complete copy of what is in EPIC.  Therefore, you may want to contact David
Kieras as well.</span></font></p>

<p class=MsoNormal><font size=2 color=navy face=Arial><span style='font-size:
10.0pt;font-family:Arial;color:navy'>       In addition you may be interested
in modeling of psychological space (3-D).  Chris Schunn has had a grant from
ONR focused on that capability, although the work is implemented in Java, a
possible complication.  People at an Air Force lab are also working on this
problem now (see schedule for ACT-R workshop).</span></font></p>

<p class=MsoNormal><font size=2 color=navy face=Arial><span style='font-size:
10.0pt;font-family:Arial;color:navy'> </span></font></p>

<div>

<p class=MsoNormal><font size=2 color=navy face="Times New Roman"><span
style='font-size:10.0pt;color:navy'>Susan F. Chipman, Ph.D.</span></font></p>

<p class=MsoNormal><font size=2 color=navy face="Times New Roman"><span
style='font-size:10.0pt;color:navy'>ONR Code 342</span></font></p>

<p class=MsoNormal><font size=2 color=navy face="Times New Roman"><span
style='font-size:10.0pt;color:navy'>875 N. Randolph Street</span></font></p>

<p class=MsoNormal><font size=2 color=navy face="Times New Roman"><span
style='font-size:10.0pt;color:navy'>Arlington, VA 22217-5660</span></font></p>

<p class=MsoNormal><font size=2 color=navy face="Times New Roman"><span
style='font-size:10.0pt;color:navy'>phone:  703-696-4318</span></font></p>

<p class=MsoNormal><font size=2 color=navy face="Times New Roman"><span
style='font-size:10.0pt;color:navy'>fax:  703-696-1212</span></font></p>

</div>

<p class=MsoNormal><font size=2 color=navy face=Arial><span style='font-size:
10.0pt;font-family:Arial;color:navy'> </span></font></p>

<p class=MsoNormal style='margin-left:.5in'><font size=2 face=Tahoma><span
style='font-size:10.0pt;font-family:Tahoma'>-----Original Message-----<br>
<b><span style='font-weight:bold'>From:</span></b>
act-r-users-bounces@act-r.psy.cmu.edu
[mailto:act-r-users-bounces@act-r.psy.cmu.edu] <b><span style='font-weight:
bold'>On Behalf Of </span></b>Fabio Gutiyama<br>
<b><span style='font-weight:bold'>Sent:</span></b> Thursday, July 13, 2006 9:08
AM<br>
<b><span style='font-weight:bold'>To:</span></b> Dan Bothell;
act-r-users@act-r.psy.cmu.edu<br>
<b><span style='font-weight:bold'>Subject:</span></b> Re: [ACT-R-users]
Perception and Motor</span></font></p>

<p class=MsoNormal style='margin-left:.5in'><font size=3 face="Times New Roman"><span
style='font-size:12.0pt'> </span></font></p>

<p class=MsoNormal style='margin-right:0in;margin-bottom:12.0pt;margin-left:
.5in'><font size=3 face="Times New Roman"><span style='font-size:12.0pt'>Thank
you for your answer, it was extremely helpful.</span></font></p>

<div style='margin-left:30.0pt'>

<blockquote style='border:none;border-left:solid #CCCCCC 1.0pt;padding:0in 0in 0in 6.0pt;
margin-left:4.8pt;margin-right:0in'>

<p class=MsoNormal style='margin-left:.5in'><font size=2 face="Times New Roman"><span
style='font-size:10.0pt'>Also, the device that's provided for use with ACL
(Allegro Common</span></font><br>
<font size=2><span style='font-size:10.0pt'>Lisp) under Windows does actually
generate system-level mouse and</span></font><br>
<font size=2><span style='font-size:10.0pt'>keyboard actions.  They
will be sent to whatever application has the </span></font><br>
<font size=2><span style='font-size:10.0pt'>current focus.  So, if
you are using that Lisp and OS combo you can</span></font><br>
<font size=2><span style='font-size:10.0pt'>have the model send actions to any
application, but it can't "see"</span></font><br>
<font size=2><span style='font-size:10.0pt'>them.</span></font></p>

</blockquote>

<p class=MsoNormal style='margin-left:.5in'><font size=3 face="Times New Roman"><span
style='font-size:12.0pt'> </span></font></p>

</div>

<p class=MsoNormal style='margin-right:0in;margin-bottom:12.0pt;margin-left:
.5in'><font size=3 face="Times New Roman"><span style='font-size:12.0pt'>That's
interesting...<br>
But I noticed that ACT-R sends the mouse and keyboard actions to its experiment
window, independently if an external application has the focus... (I'm using
ACT-R 5)... <br>
Could you tell me how can I define the outs to reach external applications or
where I can find information about this possibility?<br>
<br>
Thank you.<br>
Fábio.<br>
<br>
</span></font></p>

<div>

<p class=MsoNormal style='margin-left:.5in'><span class=gmailquote><font
size=3 face="Times New Roman"><span style='font-size:12.0pt'>On 7/12/06, <b><span
style='font-weight:bold'>Dan Bothell</span></b> <<a
href="mailto:db30@andrew.cmu.edu">db30@andrew.cmu.edu</a>> wrote:</span></font></span></p>

<p class=MsoNormal style='margin-left:.5in'><font size=3 face="Times New Roman"><span
style='font-size:12.0pt'><br>
<br>
--On Wednesday, July 12, 2006 4:37 PM -0300 Fabio Gutiyama<br>
<<a href="mailto:fgutiyama@gmail.com">fgutiyama@gmail.com</a>> wrote:<br>
<br>
> Greetings, ACT-R users,<br>
><br>
> I'm new in this group and I am starting to use ACT-R on a research about <br>
> human error in Brazil (Escola Politécnica, São Paulo University - USP).<br>
> Some aspect I'd like to know is about the perception and motor modules.<br>
> Is there any implementation that open possibility to ACT-R interact not <br>
> only with the listener or the experiment window but with the entire<br>
> enviroment of the operational system, seeing what is presented in other<br>
> programs and generatig keyboards' in/out(s) to windows or any program, <br>
> for example?<br>
><br>
<br>
>From the model's perspective the world is represented by what's called<br>
a device.  The device provides all of the ins and outs for the
current<br>
perceptual and motor modules of ACT-R.  You can find some general <br>
information on the device for ACT-R 6 in the framework-API.doc document<br>
in the ACT-R 6 docs directory and more detailed information at:<br>
<br>
<<a href="http://chil.rice.edu/projects/RPM/docs/index.html">http://chil.rice.edu/projects/RPM/docs/index.html
</a>><br>
<br>
Note however that the web site describes the ACT-R 5 code and may<br>
not always match with ACT-R 6 (work is currently ongoing to update<br>
the documentation for ACT-R 6).<br>
<br>
So, your question comes down to basically whether or not there is <br>
a device that supports the type of access you desire, and basically<br>
the answer is no.  The devices included with ACT-R don't do that, but<br>
there are a couple of possibilities.<br>
<br>
First, it is possible to add new devices.  So, it's not impossible <br>
to have that type of interaction, but one would have to do the<br>
work necessary to create the appropriate device for ACT-R.<br>
<br>
Also, the device that's provided for use with ACL (Allegro Common<br>
Lisp) under Windows does actually generate system-level mouse and <br>
keyboard actions.  They will be sent to whatever application has the<br>
current focus.  So, if you are using that Lisp and OS combo you can<br>
have the model send actions to any application, but it can't "see" <br>
them.<br>
<br>
As for seeing, there was a project called SegMan being developed<br>
by Robert St. Amant which was looking to provide a general image<br>
processing system that would allow for visual information to come<br>
from "any" window, but I don't know too many details or the current<br>
status of that project at this time.<br>
<br>
Hope that helps,<br>
Dan</span></font></p>

</div>

<p class=MsoNormal style='margin-left:.5in'><font size=3 face="Times New Roman"><span
style='font-size:12.0pt'> </span></font></p>

</div>

</body>

</html>