<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><br class=""><div>Fully-funded PhD position at the Vision Institute, Sorbonne University, Paris, France<br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font><i class=""><u class="">Job description</u></i><br class="">Applications are invited for a 3-year PhD position to develop clinical endpoints of daily-life activity for low vision patients in order to assess visual restoration. The therapeutic benefits of vision restoration are usually evaluated in clinical studies using conventional functional measures such as visual field and contrast sensitivity. However, these tests are not sufficient to characterize the impact of a visual pathology on patients’ quality of life and autonomy. This project will set forth a set of benchmark measures to evaluate a range of daily life functions (locomotion, spatial orientation, posture, balance, reading) in real or virtual conditions. The main goal is to identify behavioral biomarkers of the benefit of vision restoration solutions (namely optogenetic therapy and retinal implants) in visually impaired patients. The PhD candidate will work hand-in-hand with clinicians of the National Hospital Center for Ophthalmology of the Quinze-Vingts and with researchers of the Vision Institute as well as the Streetlab company. The project will be carried out under the supervision of Dr. Colas Authié and Dr. Angelo Arleo.<br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font><i class=""><u class="">Requirements & eligibility criteria</u></i><br class="">Applicants should have a quantitative background (engineering, computer science, physics, applied mathematics), and a keen interest in behavioral neuroscience. The ideal candidate should have expertise in virtual reality, motor control, and biometric data analysis. Experience in low-vision or knowledge on machine learning and programming languages (Matlab, C or Python) are a plus. Knowledge of French is important (but not mandatory). Proficiency in oral and written English is required. Successful candidates are expected to work in an interdisciplinary environment with engineers, neuroscientists, and clinicians.<br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font>Applicants must be in the first four years of their research career and they must not have lived in France more than 12 months during the last 3 years.<br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font><i class=""><u class="">Benefits</u></i><br class="">The position is funded by the Marie Curie ITN project ENTRAIN-VISION and it will start in September 2020. It corresponds to a full PhD appointment (36 months) with competitive salary and working conditions, monthly mobility allowance, and family allowance (if family obligations). It also provides continuing education, secondments in the private sector, training modules, and transferable skills courses.<br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font><i class=""><u class="">Working environment</u></i><br class="">The Vision Institute is one of the top international centers for integrated research on vision and eye diseases. It is located at the heart of Paris, on the campus of the National Hospital Center for Ophthalmology of the Quinze-Vingts. The Vision Institute includes multidisciplinary research laboratories, which share state-of-the-art platforms for human and animal experimentation. It also harbors a Clinical Investigation Center, which fosters translational research. The Streetlab provides a panel of unique platforms (reproducing virtual and real immersive environments) and standardized evaluation solutions to measure autonomy, mobility, and quality of life of visually impaired people.<br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font><u class=""><i class="">How to apply</i></u><br class="">Applicants should apply to the ENTRAIN-VISION consortium (<a href="http://www.entrain-vision.eu/" class="">www.entrain-vision.eu</a>) by April 13th, 2020. For further inquiries, please contact Angelo Arleo (<a href="mailto:angelo.arleo@inserm.fr" class="">angelo.arleo@inserm.fr</a>) and Colas Authié (<a href="mailto:colas.authie@streetlab-vision.com" class="">colas.authie@streetlab-vision.com</a>).<br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font>***************************************<br class=""><br class=""><br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font><i class="" style="font-size: 12px;">Angelo ARLEO FONTAINE, PhD</i><br class=""><i class="" style="font-size: 12px;">Director of Research CNRS</i><br class=""><i class="" style="font-size: 12px;">Head of the Aging in Vision and Action Lab,</i><br class=""><i class="" style="font-size: 12px;">Director of the Chair Silversight,</i><br class=""><i class="" style="font-size: 12px;">Institute of Vision, CNRS - INSERM - Sorbonne University,</i><br class=""><i class="" style="font-size: 12px;">17, rue Moreau F-75012 Paris, France</i><br class=""><i class="" style="font-size: 12px;">Phone: +33 (0)1 53 46 26 52</i><br class=""><i class="" style="font-size: 12px;">Mobile: +33 (0)6 46 84 09 56      </i><br class=""><i class="" style="font-size: 12px;"><a href="mailto:angelo.arleo@inserm.fr" class="">Email: angelo.arleo@inserm.fr</a></i><br class=""><i class="" style="font-size: 12px;">Website: <a href="http://www.aging-vision-action.fr" class="">www.aging-vision-action.fr</a></i><br class=""><span style="caret-color: rgb(191, 90, 242); color: rgb(191, 90, 242); font-size: 12px;" class=""><br class=""></span><br class=""><font color="#bf5af2" class=""><span style="caret-color: rgb(191, 90, 242);" class=""><br class=""></span></font><div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div class=""><br class=""></div></div></div><br class=""></body></html>