<div dir="ltr">Hi Jeff<div><br>That is a very interesting result. <br>I will ask my students (in the next year, holidays start now) the same questions in a more explicit format (and not just as part of a classroom discussion). </div><div><br></div><div>I guess, taking a more ethical perspective from the reasoning of the students, there is an interesting mismatch between the answers of Q1 and Q3. <br>If they are sentient, why not give them rights? And as a follow up to that, perhaps the students should ask themselves what kind of rights they should have / not have. <br><br>In regards to Q2, I must admit that I found this to be very low. I wonder what the motivations of the students were/are. <br>Essentially, what were the ethical issues with endowing the AI with sentience that the students used to reason with? <br>Are they thinking primarily from the perspective of the AI: that it would be unfair to them. OR is it rather a human perspective in which we question what consequences this has for humans?<br>Having looked into these topics as a researcher it is easy to find the motivations for any answer, but it would be interesting to hear the intuitions the students have without the "biased knowledge" of us researchers. <br><br>Either way, it's very interesting!<br>Perhaps this is worth making as a more universal query to the students in AI, philosophy and cognitive science classes. :)<br><br>Thanks for sharing!<br>Maria</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Den ons 31 maj 2023 kl 09:22 skrev Jeffrey L Krichmar <<a href="mailto:jkrichma@uci.edu">jkrichma@uci.edu</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Dear Connectionists,<br>
<br>
I am teaching an undergraduate course on “AI in Culture and Media”. Most students are in our Cognitive Sciences and Psychology programs. Last week we had a discussion and debate on AI, Consciousness, and Machine Ethics.  After the debate, around 70 students filled out a survey responding to these questions.<br>
<br>
Q1: Do you think it is possible to build conscious or sentient AI?     65% answered yes.<br>
Q2: Do you think we should build conscious or sentient AI?            22% answered yes<br>
Q3: Do you think AI should have rights?                                          54% answered yes<br>
<br>
I thought many of you would find this interesting.  And my students would like to hear your views on the topic.<br>
<br>
Best regards,<br>
<br>
Jeff Krichmar<br>
Department of Cognitive Sciences<br>
2328 Social & Behavioral Sciences Gateway<br>
University of California, Irvine<br>
Irvine, CA 92697-5100<br>
<a href="mailto:jkrichma@uci.edu" target="_blank">jkrichma@uci.edu</a><br>
<a href="http://www.socsci.uci.edu/~jkrichma" rel="noreferrer" target="_blank">http://www.socsci.uci.edu/~jkrichma</a><br>
<a href="https://www.penguinrandomhouse.com/books/716394/neurorobotics-by-tiffany-j-hwu-and-jeffrey-l-krichmar/" rel="noreferrer" target="_blank">https://www.penguinrandomhouse.com/books/716394/neurorobotics-by-tiffany-j-hwu-and-jeffrey-l-krichmar/</a><br>
<br>
<br>
<br>
<br>
<br>
</blockquote></div><br clear="all"><div><br></div><span class="gmail_signature_prefix">-- </span><br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr">Maria M. Hedblom</div><div dir="ltr"><a href="http://www.mariamhedblom.com" target="_blank">www.mariamhedblom.com</a><br><br></div></div></div></div>