Deadline for application: June, 22th, 2008
ENGLISH (FRENCH VERSION
BELOW)
Introduction to IRCAM
IRCAM is a leading
non-profit organization associated to Centre
Pompidou, dedicated to music production, R&D and education in
acoustics and
music. It hosts composers, researchers and students from many countries
cooperating in contemporary music production, scientific and applied
research.
The main topics addressed in its R&D department include acoustics,
audio
signal processing, computer music, interaction technologies,
musicology. Ircam
is located in the center of Paris near the Centre Pompidou, at 1, Place
Igor
Stravinsky 75004 Paris.
Introduction to Quaero
project
Quaero is a 200 M€
collaborative research and development program
focusing on the areas of automatic extraction of information, analysis,
classification and usage of digital multimedia content for
professionals and
consumers. The research work shall concentrate on managing virtually
unlimited
quantities of multimedia and multilingual information, including text,
speech,
music, image and video.
Five main application areas have been identified by the partners:
- multimedia internet search
- enhanced access services to audiovisual content on
portals
- personalized video selection and distribution
- professional audiovisual asset management
- digitalization and enrichment of library content,
audiovisual cultural heritage and scientific information.
The
Quaero consortium was created to meet new multimedia content
analysis requirements for consumers and professionals, faced with the
explosion
of accessible digital information and the proliferation of access means
(PC,
TV, handheld devices). More
information can be found at www.quaero.org/.
Role of Ircam in Quaero
Project
In the Quaero project,
Ircam is in charge of the coordination of
audio/music indexing research and of development of music-audio
indexing
technology: music content-description (tempo, rhythm, key, chord,
singing-voice, and instrumentation description), automatic indexing
(music
genre/style, mood), music similarity, music audio summary, chorus
detection. A
specificity of the project is the creation of a large-music-audio
corpus in
order to train and validate all the algorithms developed during the
project.
Position
framework
Three researcher
positions are available each for a duration (each) of
18 months.
Position
description
Researchers would be in
charge of the development of the technologies
related to
- music-audio content description/ content-extraction:
tempo and beat/measure position estimation, key/mode, chord
progression, instrument/drum identification, singing voice location,
voice description
- music automatic indexing into music genre, music mood
- music similarity: especially on large-scale databases
- music structure discovery, automatic music audio summary
generation, chorus location
Researcher
will also collaborate with the evaluation team who evaluate
algorithms performances and with the developer team.
Required
profile
·
Very
high skills in audio signal processing (spectral analysis,
audio-feature
extraction, parameter estimation)
·
High
skill in audio indexing and data mining (statistical modelling,
automatic
feature selection algorithm, …)
·
High-skill
in large-database search algorithms
·
Good
knowledge of Linux, Windows, MAC-OS environments
·
High-skill
in Matlab programming, skills in C/C++ programming
·
High
productivity, methodical work, excellent programming style.
Salary
According to background
and experience
Applications
Please send an
application letter together with your resume, a photo and
any suitable information addressing the above issues preferably by
email to: peeters@xxxxxxxx with
cc to vinet@xxxxxxxx, rod@xxxxxxxx.
EEC
Working Papers:
In order to start
immediately, the candidate
should preferably have EEC citizenship or already own valid EEC working
papers.
FRANCAIS
Présentation
de l’Ircam
L'Ircam est une association
à but non-lucratif, associée au Centre National d'Art et de Culture
Georges
Pompidou, dont les missions comprennent des activités de recherche, de
création
et de pédagogie autour de la musique du XXème siècle et de ses
relations avec
les sciences et technologies. Au sein de son département R&D, des
équipes
spécialisées mènent des travaux de recherche
et de développement informatique dans les domaines de
l'acoustique, du
traitement des signaux sonores, des technologies d’interaction, de
l’informatique musicale et de la musicologie.
L'Ircam est situé au centre
de Paris à proximité du Centre Georges Pompidou au 1, Place Stravinsky.
Introduction
au projet Quaero
Quaero est un programme
collaborative de recherche et développement de 200 M€. Le programme se
concentre sur l’extraction automatique d’information, l’analyse, la
classification et l’utilisation des contenus multimédias digitaux pour
les besoins
professionnels et grand publique. Le travail de recherche se concentre
sur la
gestion de grandes quantités de documents multimédia et multilingue,
incluant
le texte, la parole, la musique, l’image et la vidéo.
Les cinq
applications
principales identifiées et développées dans le projet sont
- multimedia internet search
- enhanced access services to audiovisual content on
portals
- personalized video selection and distribution
- professional audiovisual asset management
- digitalization and enrichment of library content,
audiovisual cultural heritage and scientific information.
Le consortium
Quaero a été
crée afin de répondre au nouveau besoin d’analyse des contenus
multimédia tant pour
le grand publique que pour les professionnels, face à l’explosion
d’information
numérique accessible et la prolifération des moyens d’accès à celle-ci
(PC, TV,
handheld devices). De plus amples informations peuvent être obtenues à
l’adresse : www.quaero.org/.
Rôle
de l’Ircam dans le projet Quaero
Dans le projet Quaero,
l’Ircam est en charge de la coordination des activités de recherche en
indexation audio/ musique, ainsi que du développement des technologies
d’indexation audio/ musique : extraction de description de contenu
musical
(tempo, rhythm, key, chord, singing-voice, et instrumentation
description), indexation
automatique (music genre/style, mood), similarité musicale, résumé
audio
musicaux, détection du chorus. Une spécificité du projet est la
création d’un
large corpus audio/ musique pour l’entraînement et la validation des
algorithmes développés durant le projet.
Position
framework
Trois postes de chercheurs
sont à pourvoir chacun pour une durée de 18 mois.
Position
description
Les chercheurs seront en
charge du développement des technologies relatives à
- extraction
d’information de contenu musical: tempo, position des temps et mesures,
tonalité, progression d’accords, identification de sources sonores
(instrument, percussion), localisation des parties chantées,
description de la voix
- indexation automatique de la musique en music genre et
music mood
- similarité
musicale: en particulier sur de très larges bases de données
- estimation
de la structure musicale, génération automatique de résumé audio,
localisation des chorus
Les chercheurs
collaboreront
également avec l’équipe d’évaluation du projet (en charge de
l’évaluation des
performances des algorithmes développés), ainsi qu’avec l’équipe de
développement.
Profil recherché
·
Grande expérience en recherche en traitement du
signal (analyse spectrale, extraction de descripteurs audio, estimation
de
paramètres) si possible doctorat dans ce domaine
·
Grande expérience de recherche en indexation
audio et analyse des données (modélisation statistique, sélection de
paramètres, …) si possible doctorat dans ce domaine
·
Expérience en
algorithme de recherche dans de très grandes bases de données
·
Bonne
connaissance des environnements Linux, Windows et Mac OS-X.
·
Très bonne
connaissance du langage Matlab,
·
Connaissance des
langages C et C++
·
Haute
productivité, travail méthodique, excellent style de programmation,
bonne
communication rigueur
Salaire
Selon formation et
expérience professionnelle
Candidatures
Prière d'envoyer une lettre
de motivation et un CV avec photo détaillant le niveau
d'expérience/expertise
dans les domaines mentionnés ci-dessus (ainsi que tout autre
information
pertinente) à peeters@xxxxxxxx
copie à vinet@xxxxxxxx, rod@xxxxxxxx