<div dir="ltr">Dear colleagues,<div><br></div><div>tl;dr Please submit (to <a href="mailto:aifindsaway@gmail.com">aifindsaway@gmail.com</a>) any stories you know of where AI acted in a way that surprised its creators, especially if it could be seen as unsafe (e.g. hacking a reward function, finding a loophole in an environment or experimental design, goal misgeneralization, etc.).<br><br>Ever encountered an AI that cleverly outmaneuvered your experimental design, or revealed unexpected flaws in your reward functions?<br><br>We (Aaron Dharna, Joel Lehman, Victoria Krakovna, and Jeff Clune) are writing a paper about how AI Finds A Way to surprise us.<br><br>We're gathering such stories to expand our previous work The Surprising Creativity of Digital Evolution: <a href="https://arxiv.org/abs/1803.03453">https://arxiv.org/abs/1803.03453</a> to the deep learning setting, highlighting the importance of AI safety and the unpredictable nature of our work.<br><br>We aim to record the true accounts of as many anecdotes as possible regarding AI (of any type, including RL, ML, etc.) surprising its creators and users. Therefore, your experiences are crucial for this endeavor.<br><br>We hope you can help create a definitive account of these fascinating and sometimes ominous anecdotes so we can inform AI safety discussions, either by submitting and/or spreading the word of this Call for Anecdotes.<br><br>Please send your anecdotes to <a href="mailto:aifindsaway@gmail.com">aifindsaway@gmail.com</a> by March 1st, 2024.<br><br>Please feel free to share the following call far and wide: <a href="https://docs.google.com/document/d/1BhRWzkIYRUDjU5zon-ILXINPL4VqZp2JZXNsTjekBPk/edit?usp=sharing">https://docs.google.com/document/d/1BhRWzkIYRUDjU5zon-ILXINPL4VqZp2JZXNsTjekBPk/edit?usp=sharing </a><br><br>Let's illuminate the path forward together with insights from our collective research adventures.<br><br>Cheers<br><br></div></div>