<div dir="ltr">I am pleased to announce a new paper available on arXiv that presents a radically new concept for how the brain represents and computes with probabilities.  It is based on sparse distributed coding (SDC) and is profoundly different from the long-standing, mainstream probabilistic population-based coding (PPC) concept and I think it will be of broad interest to the computational neuroscience and machine learning communities.  Amongst other things, it entails a completely different concept of noise, specifically that noise is actively generated and used to preserve similarity from input space to coding space, which in turn, entails a different (from mainstream) explanation of correlation.  It also explains the classic, unimodal, bell-shaped, single-cell tuning curve as an artifact of the process of embedding SDCs (a.k.a. cell assemblies, ensembles) in superposition.<br><br>Here is the arXiv link:     <a href="http://arxiv.org/abs/1701.07879">http://arxiv.org/abs/1701.07879</a><br><br>Title: A Radically New Theory of how the Brain Represents and Computes with Probabilities<br><br>Abstract:<br><br>The brain is believed to implement probabilistic reasoning and represent information via population, or distributed, coding. Most previous population-based probabilistic theories share several basic properties: 1) continuous-valued neurons (units); 2) fully/densely-distributed codes, i.e., all/most coding units participate in every code; 3) graded synapses; 4) rate coding; 5) units have innate unimodal, e.g., bell-shaped, tuning functions (TFs); 6) units are intrinsically noisy; and 7) noise/correlation is generally considered harmful.  In contrast, our theory assumes: 1) binary units; 2) only a small subset of units, i.e., a sparse distributed code (SDC), comprises any individual code; 3) binary synapses; 4) signaling formally requires only single, i.e., first, spikes; 5) units initially have completely flat TFs (all weights zero); 6) units are not noisy; and 7) noise is a resource generated/used to cause similar inputs to map to similar codes, controlling a tradeoff between storage capacity and embedding the input space statistics in the pattern of intersections over stored codes, indirectly yielding correlation patterns. The theory, Sparsey, was introduced 20 years ago as an efficient canonical cortical circuit/algorithm model—learning and best-match retrieval (inference, recognition) time remains fixed as the number of stored codes (hypotheses, memories) grows—but was not emphasized as a probabilistic model. Assuming input similarity correlates with likelihood, the active SDC code simultaneously represents both the most probable hypothesis and the probability distribution over all stored hypotheses. We show this for spatial and spatiotemporal (sequential) cases. In the latter case, the entire distribution is updated, on each sequence item, in fixed time. Finally, consistent with moving beyond the Neuron Doctrine to the view that the SDC (cell assembly, ensemble) is the fundamental neural representational unit, Sparsey suggests that classical unimodal TFs emerge as an artifact of a single/few-trial learning process in which SDC codes are laid down in superposition.<br><br>I look forward to comments/feedback from the community.<br><br>-Rod Rinkus<br><br>-- <br>Gerard (Rod) Rinkus, PhD<br>President,<br>rod at neurithmicsystems dot com<br>Neurithmic Systems LLC<br>275 Grove Street, Suite 2-400<br>Newton, MA 02466<br>617-997-6272<br><br>Visiting Scientist, Lisman Lab<br>Volen Center for Complex Systems<br>Brandeis University, Waltham, MA<br>grinkus at brandeis dot edu<br><a href="http://people.brandeis.edu/~grinkus/">http://people.brandeis.edu/~grinkus/</a></div>