<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Aptos;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        font-size:12.0pt;
        font-family:"Aptos",sans-serif;
        mso-ligatures:standardcontextual;
        mso-fareast-language:EN-US;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#467886;
        text-decoration:underline;}
span.EmailStyle18
        {mso-style-type:personal-compose;
        font-family:"Aptos",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;
        mso-ligatures:none;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:72.0pt 72.0pt 72.0pt 72.0pt;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body lang="EN-GB" link="#467886" vlink="#96607D" style="word-wrap:break-word">
<div class="WordSection1">
<p class="MsoNormal"><span style="font-size:11.0pt">Dear Connectionists, please forward to anyone who may be interested in this post.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">I would particularly like to encourage applications from under-represented groups in our area, including women, people from Black, Asian and minority ethnic groups and people with disabilities.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">Many thanks, Mark<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">---<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><b><span style="font-size:11.0pt">Research Fellow in Generative Audio AI
</span></b><span style="font-size:11.0pt">(Deadline: 13 May 2025)<b><o:p></o:p></b></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">Applications are invited for a Research Fellow (RF) position within the Centre for Vision Speech and Signal Processing (CVSSP) and the Surrey Institute for People-Centred AI, at the University of Surrey, UK,
 to work in the area of generative AI for audio generation.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">This post is funded by the AI Hub in Generative Models (<a href="http://www.genai.ac.uk">www.genai.ac.uk</a>). The Gen AI Hub brings together experts in Generative AI, from industry and academia, to make Generative
 AI models more customisable, reliable and trustworthy, and to help to realise the benefits of these technologies for society, science and the economy.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">The postholder will be responsible for undertaking research in generative AI and machine learning methods for audio generation and audio-related multimodal content generation, including audio generation for
 environmental sounds, using approaches such as diffusion models and/or flow matching.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><b><span style="font-size:11.0pt">About you<o:p></o:p></span></b></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">The post holder is expected to have a PhD degree (or equivalent) in electronic engineering, computer science, applied mathematics, statistics, artificial intelligence, audio engineering, or a related subject;
 and research experience in research experience in audio signal processing, audio-related multimodal processing (audio with text and/or video), audio deep learning, or a related topic. The post holder would have experience in developing new research algorithms
 or methods, using languages such as Python, C++ and/or MATLAB, with relevant signal processing, machine learning and/or deep learning tools.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">CVSSP is an International Centre of Excellence for research in Audio-Visual Machine Perception and AI, with over 180 researchers. The Centre has state-of-the-art audio and video capture and analysis facilities
 supporting research in real-time video and audio processing and visualisation. CVSSP has a compute facility with 200 GPUs and >2PB of high-speed secure storage.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">The Surrey Institute for People-Centred AI is the founding pan-university institute at the University of Surrey, bringing together core AI-related expertise in audio-visual and signal processing, computer
 science, and mathematics, with its domain expertise across engineering and physical sciences, human and animal health, law and regulation, business, finance and the arts and social sciences. Our multi-disciplinary approach puts people at the heart of AI.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><b><span style="font-size:11.0pt">How to Apply<o:p></o:p></span></b></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">For further details and information on how to apply, visit
<a href="https://jobs.surrey.ac.uk/021025">https://jobs.surrey.ac.uk/021025</a><o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt">For informal inquiries, please contact Prof Mark Plumbley at
<a href="mailto:m.plumbley@surrey.ac.uk">m.plumbley@surrey.ac.uk</a><o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;mso-fareast-language:EN-GB">--</span><span style="font-size:11.0pt;mso-ligatures:none;mso-fareast-language:EN-GB"><o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;mso-fareast-language:EN-GB">Prof Mark D Plumbley<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;mso-fareast-language:EN-GB">EPSRC Fellow in AI for Sound<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;mso-fareast-language:EN-GB">Professor of Signal Processing<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;mso-fareast-language:EN-GB">Centre for Vision, Speech and Signal Processing<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;mso-fareast-language:EN-GB">University of Surrey, Guildford, Surrey, GU2 7XH, UK<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;mso-fareast-language:EN-GB">Email: m.plumbley@surrey.ac.uk<o:p></o:p></span></p>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
</body>
</html>