Maintenance

Une opération de maintenance aura lieu sur le site de la SFBI le 31 octobre 2025. Cette opération pourra entraîner une interruption de service.

Apprentissage profond multimodal pour l’interprétation et la modélisation fondation des ECG

 CDD · Thèse  · 36 mois    Bac+5 / Master   UMMISCO (UMI 209 – IRD / Sorbonne Université) · Paris 13 (France)

Mots-Clés

ecg deep learning intelligence artificielle artificial inteligence ai xai

Description

Contexte et objectifs

Les modèles de fondation appliqués aux signaux physiologiques représentent une nouvelle frontière de l’intelligence artificielle en santé. Dans le domaine cardiologique, les électrocardiogrammes (ECG) constituent une source de données massive, riche et multimodale : signaux bruts, annotations textuelles des cliniciens, et représentations visuelles (images papier, PDF, tracés numérisés). Le projet ELDORA / DeepECG4U vise à développer les premiers modèles de fondation multimodaux pour l’ECG, capables d’intégrer conjointement :

  • le signal temporel (multileads, 1D),
  • les rapports d’interprétation textuels,
  • les représentations visuelles (images) des ECG.

Ces modèles permettront d’apprendre des représentations universelles (embeddings) des ECG, facilitant la détection, la prédiction et l’interprétation des pathologies cardiaques.

Objectifs et missions du doctorat

Le/la doctorant·e développera et analysera des modèles de fondation multimodaux d’apprentissage profond à grande échelle, en explorant des approches d’interprétabilité axées à la fois sur la conception d’architectures explicables et sur l’analyse des représentations apprises.

1. Conception et entraînement de modèles multimodaux

  • Développer des architectures de fondation intégrant les signaux ECG (1D), texte clinique et les images (2D) dans un cadre d’apprentissage auto-supervisé à grande échelle.
  • Étudier les représentations latentes inter-domaines (signal-texte-image) et leur alignement.
  • Explorer des approches de pré-entraînement SSL (Self-Supervised Learning) sur de larges corpus ECG.

2. Exploration et interprétation des représentations (embeddings)

  • Étudier la structure et la sémantique des embeddings appris au moyen d’approches variées — visualisation (UMAP, t-SNE, PCA…), clustering, analyse topologique, corrélations cliniques et exploration des propriétés géométriques de l’espace latent.
  • Identifier les dimensions ou les structures latentes des embeddings associées à des phénotypes cliniques ou à des sous-types pathologiques.
  • Développer des méthodes d’interprétabilité, locales et globales pour relier les représentations multimodales apprises aux caractéristiques pertinentes des signaux et des textes cliniques, et mieux comprendre les mécanismes de décision du modèle

3. Évaluation et validation clinique

  • Évaluer les performances de représentation sur plusieurs tâches (classification, régression, retrieval).
  • Comparer la robustesse et la transférabilité et la capacité de distillation des modèles sur différentes cohortes (multi-centriques, hétérogènes).
  • Collaborer avec des cliniciens pour interpréter les corrélations entre embeddings et diagnostics.

4. Valorisation scientifique

  • Participer à la publication des résultats dans des conférences et journaux de référence (NeurIPS, ICML, ICLR, MICCAI, AAAI/IJCAI, IEEE JBHI, Circulation AI, …).
  • Contribuer à l’ouverture du modèle et de ses outils d’analyse (open science).

Profil recherché

Formation

  • Master 2 ou diplôme d’ingénieur en IA, informatique, vision, traitement du signal, data science ou domaine connexe.
  • Une spécialisation en IA pour la santé ou en apprentissage multimodal sera un atout.

Compétences techniques

  • Excellente maîtrise de Python et PyTorch.
  • Bonne compréhension des principes statistiques et maitrise du langage R.
  • Solides bases en deep learning, transformers, auto-encoders, modèles auto-supervisés.
  • Bonnes connaissances en traitement de signaux physiologiques (ECG, EEG, etc.) et/ou NLP.
  • Compétences analytiques en visualisation et interprétation d’embeddings.
  • Expérience souhaitée en environnement HPC/GPU et gestion de grands jeux de données.

Aptitudes

  • Fort intérêt pour la recherche interdisciplinaire (IA, physiologie, clinique).
  • Capacité d’autonomie, rigueur, créativité et communication scientifique.
  • Aisance en anglais (rédaction et présentation).

Environnement scientifique

Le doctorat s’inscrit au sein de l’UMMISCO (UMI 209 – IRD / Sorbonne Université), un laboratoire international reconnu pour ses travaux en modélisation, IA et science des systèmes complexes. Le/la doctorant·e travaillera dans un environnement interdisciplinaire au sein de la Pitié-Salpêtrière, en collaboration avec des chercheurs en IA, des biostatisticiens et des cliniciens du CIC et des projets internationaux ELDORA et DeepECG4U. L’étudiant bénéficiera d’un accès privilégié à des bases ECG massives (plusieurs millions d’enregistrements), à une infrastructure GPU de pointe (A100/H100) et à un encadrement scientifique de haut niveau.

Ce que nous offrons

  • Contrat doctoral 3 ans financé, au cœur d’un réseau scientifique international.
  • Accès à un environnement HPC et datasets ECG uniques.
  • Encadrement par des chercheurs expérimentés et collaboratifs.
  • Opportunités de publications de haut niveau et de participation à des conférences internationales.
  • Formation complémentaire (écoles d’été IA, séminaires, co-encadrement d’étudiants).

Candidature

  • Envoyer un CV détaillé, une lettre de motivation, des lettres de recommandation et une liste de publications à : edi.prifti@ird.fr et jean-daniel.zucker@ird.fr
  • (indiquez en objet : Candidature PhD – Deep Learning Multimodal ECG)

Candidature

Procédure : Envoyer un CV détaillé, une lettre de motivation, des lettres de recommandation et une liste de publications à : edi.prifti@ird.fr et jean-daniel.zucker@ird.fr (indiquez en objet : Candidature PhD – Deep Learning Multimodal ECG)

Contacts

 Ahmad Fall
 ahNOSPAMmad.fall@ird.fr

 Edi Prifti
 edNOSPAMi.prifti@ird.fr

 https://cloud.ummisco.fr/s/fbNP8dKttfsHqtj

Offre publiée le 29 octobre 2025, affichage jusqu'au 27 décembre 2025