<html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"></head><body style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;"><span id="docs-internal-guid-911dd547-7fff-9dae-416c-7212fa2a0744" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);"><p dir="ltr" style="line-height: 1.38; margin-top: 0pt; margin-bottom: 0pt;">We are happy to announce the I Can’t Believe It’s Not Better workshop at NeurIPS 2023. This year the workshop is titled Failure Modes in the Age of Foundation Models. We invite submissions that focus on surprising or negative results when using foundation models as well as submissions with more general negative results from machine learning. The full call for papers is below.</p><p dir="ltr" style="line-height: 1.38; margin-top: 0pt; margin-bottom: 0pt;"><span id="docs-internal-guid-911dd547-7fff-9dae-416c-7212fa2a0744"><br><b>Key Information</b></span></p><div style="caret-color: rgb(255, 255, 255); color: rgb(255, 255, 255);"><span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);"><b><br></b>Paper Submission Deadline -  October 1, 2023 (Anywhere on Earth)</span></div><div style="caret-color: rgb(255, 255, 255); color: rgb(255, 255, 255);"><span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);"><br>Workshop Website: <a href="https://sites.google.com/view/icbinb-2023/home">https://sites.google.com/view/icbinb-2023/home</a></span></div><div style="caret-color: rgb(255, 255, 255); color: rgb(255, 255, 255);"><span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);"><br><b>Call For Papers</b></span></div><div style="caret-color: rgb(255, 255, 255); color: rgb(255, 255, 255);"><span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);"><b><br></b>The goal of the I Can’t Believe It’s Not Better workshop series is to promote “slow science” that pushes back against “leaderboard-ism”, and provides a forum to share surprising or negative results. In 2023 we propose to apply this same approach to the timely topic of foundation models. <br>The hype around ChatGPT, Stable Diffusion and SegmentAnything might suggest that all the interesting problems have been solved and artificial general intelligence is just around the corner. In this workshop we cooly reflect on this optimism, inviting submissions on failure modes of foundation models, i.e. unexpected negative results. In addition we invite contributions that will help us understand when we should expect foundation models to disrupt existing sub-fields of ML and when these powerful methods will remain complementary to another sub-field of machine learning.<br>We invite submissions on the following topics: <div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Failure modes of current foundation models (safety, explainability, methodological limitations, etc.)</div><div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Failure modes of applying foundation models, embeddings or other massive scale deep learning models.</div><div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Development of machine learning methodologies that benefit from foundation models, but necessitate other techniques.</div><div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Meta machine learning research and reflections on the impact of foundation models on the broader field of machine learning.</div><div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Negative scientific findings in a more general sense. In keeping with previous workshops we will accept findings on methodologies or tools that gave surprising negative results without foundation models. Such submissions are encouraged especially with discussion on the relevance of findings in the present climate where foundation models are changing the field. </div><br>Technical submissions may center on machine learning, deep learning or deep learning adjacent fields (causal DL, meta-learning, generative modelling, adversarial examples, probabilistic reasoning, etc) as well as domain specific applications. </span></div><div style="caret-color: rgb(255, 255, 255); color: rgb(255, 255, 255);"><span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);"><br>Papers will be assessed on:<div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Clarity of writing</div><div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Rigor and transparency in the scientific methodologies employed</div><div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Novelty and significance of insights</div><div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Quality of discussion of limitations</div><div><span class="Apple-tab-span" style="white-space: pre;">    </span>• Reproducibility of results</div><br>Selected papers will be optionally included in a special issue of PMLR.  Alternatively, some authors may prefer their paper to be in the non-archival track which is to share preliminary findings that will later go to full review at another venue.</span></div></span></body></html>