Rémi Flamary

Site web professionel


Cette page contient les archives de news pour ce site

NeurIPS 2023


Je serai présent à NeurIPS 2023 à la Nouvelle Orléans. J'y présenterai avec mes formidables co-auteurs deux posters et je suis un orateur invité au workshop Optimal Transport for Machine Learning (OTML).

N'hésitez pas à venir me voir et voir mes collaborateurs à nos posters ou lors du workshop OTML (nous avons aussi des posters là-bas).

T. Gnassounou, R. Flamary, A. Gramfort, Convolutional Monge Mapping Normalization for learning on biosignals, Neural Information Processing Systems (NeurIPS), 2023.
Abstract: In many machine learning applications on signals and biomedical data, especially electroencephalogram (EEG), one major challenge is the variability of the data across subjects, sessions, and hardware devices. In this work, we propose a new method called Convolutional Monge Mapping Normalization (CMMN), which consists in filtering the signals in order to adapt their power spectrum density (PSD) to a Wasserstein barycenter estimated on training data. CMMN relies on novel closed-form solutions for optimal transport mappings and barycenters and provides individual test time adaptation to new data without needing to retrain a prediction model. Numerical experiments on sleep EEG data show that CMMN leads to significant and consistent performance gains independent from the neural network architecture when adapting between subjects, sessions, and even datasets collected with different hardware. Notably our performance gain is on par with much more numerically intensive Domain Adaptation (DA) methods and can be used in conjunction with those for even better performances.
author = {Gnassounou, Théo and Flamary, Rémi and Gramfort, Alexandre},
title = {Convolutional Monge Mapping Normalization for learning on biosignals},
booktitle = {Neural Information Processing Systems (NeurIPS)},
editor = {},
year = {2023}
H. Van Assel, T. Vayer, R. Flamary, N. Courty, SNEkhorn: Dimension Reduction with Symmetric Entropic Affinities, Neural Information Processing Systems (NeurIPS), 2023.
Abstract: Many approaches in machine learning rely on a weighted graph to encode the similarities between samples in a dataset. Entropic affinities (EAs), which are notably used in the popular Dimensionality Reduction (DR) algorithm t-SNE, are particular instances of such graphs. To ensure robustness to heterogeneous sampling densities, EAs assign a kernel bandwidth parameter to every sample in such a way that the entropy of each row in the affinity matrix is kept constant at a specific value, whose exponential is known as perplexity. EAs are inherently asymmetric and row-wise stochastic, but they are used in DR approaches after undergoing heuristic symmetrization methods that violate both the row-wise constant entropy and stochasticity properties. In this work, we uncover a novel characterization of EA as an optimal transport problem, allowing a natural symmetrization that can be computed efficiently using dual ascent. The corresponding novel affinity matrix derives advantages from symmetric doubly stochastic normalization in terms of clustering performance, while also effectively controlling the entropy of each row thus making it particularly robust to varying noise levels. Following, we present a new DR algorithm, SNEkhorn, that leverages this new affinity matrix. We show its clear superiority to state-of-the-art approaches with several indicators on both synthetic and real-world datasets.
author = {Van Assel, Hugues and Vayer, Titouan and Flamary, Rémi and Courty, Nicolas},
title = {SNEkhorn: Dimension Reduction with Symmetric Entropic Affinities},
booktitle = {Neural Information Processing Systems (NeurIPS)},
editor = {},
year = {2023}

La stratégie du moindre effort pour apprendre aux machines


Gabriel Peyré et moi avons présenté le 13 mars 2023 à Sorbonne Université à Jussieu, une conférence pour un large public où nous avons discuté de l'utilisation du transport optimal et de la théorie du moindre effort dans les applications d'intelligence artificielle.

Je met à disposition les supports de présentation et le lien vers la vidéo sur le site de la Société Mathématique de France.

Présentation orale à NeurIPS 2022


Les travaux de thèse de Cédric Vincent-Cuaz sur le Transport Optimal pour les réseau de neurones sur graph ont été acceptés pour une présentation orale très selective à NeurIPS 2022.

Cédric et moi serons présents à la Nouvelle Orleans pour NeurIPS. N'hésitez pas à venir nous voir à notre poster.

C. Vincent-Cuaz, R. Flamary, M. Corneli, T. Vayer, N. Courty, Template based Graph Neural Network with Optimal Transport Distances, Neural Information Processing Systems (NeurIPS), 2022.
Abstract: Current Graph Neural Networks (GNN) architectures generally rely on two important components: node features embedding through message passing, and aggregation with a specialized form of pooling. The structural (or topological) information is implicitly taken into account in these two steps. We propose in this work a novel point of view, which places distances to some learnable graph templates at the core of the graph representation. This distance embedding is constructed thanks to an optimal transport distance: the Fused Gromov-Wasserstein (FGW) distance, which encodes simultaneously feature and structure dissimilarities by solving a soft graph-matching problem. We postulate that the vector of FGW distances to a set of template graphs has a strong discriminative power, which is then fed to a non-linear classifier for final predictions. Distance embedding can be seen as a new layer, and can leverage on existing message passing techniques to promote sensible feature representations. Interestingly enough, in our work the optimal set of template graphs is also learnt in an end-to-end fashion by differentiating through this layer. After describing the corresponding learning procedure, we empirically validate our claim on several synthetic and real life graph classification datasets, where our method is competitive or surpasses kernel and GNN state-of-the-art approaches. We complete our experiments by an ablation study and a sensitivity analysis to parameters.
author = { Vincent-Cuaz, Cédric and Flamary, Rémi and Corneli, Marco and Vayer, Titouan and Courty, Nicolas},
title = {Template based Graph Neural Network with Optimal Transport   Distances},
booktitle = {Neural Information Processing Systems (NeurIPS)},
editor = {},
year = {2022}

Optimal Transport for Machine Learning tutorial at Hi! Paris Summer School 2022


Je donnerai un tutoriel sur le Transport optimal pour l'apprentissage automatique pour l'Hi! Paris Summer School 2022 le 4 juillet 2022 à l'Ecole Polytechnique à Paris/Saclay, France.

Les supports de présentation sont disponibles ci-dessous (en anglais):

  • Part 1 : Intro to Optimal Transport [PDF].
  • Part 2: Optimal Transform for Machine learning [PDF].

POT Python Optimal Transport 0.8.2


Cette nouvelle version de la bibliothèque POT Python Optimal Transport apporte plusieurs nouvelles fonctionnalités. La moins importante mais la plus excitante étant que nous avons maintenant un logo pour la bibliothèque :

POT logo

Nous avons aussi ajouté de nouvelles fonctionnalités comme

  • Coût stochastiques et calcul des plans de transport régularisés avec les backend
  • OT factorisé avec emd (transport exact) et Sinkhorn
  • Barycentres de Wasserstein avec support libre
  • Implementation backend des solveurs d'adaptation de domaine et d'OT déséquilibré
  • Nouveaux algorithmes de minimisation-maximisation pour résoudre l'OT déséquilibré exact

Plus de détails sont disponibles dans les notes de version.

Version 0.8 the la bibliothèque POT Python Optimal Transport


En tant que mainteneur de POT Python Optimal Transport je suis très heureux d'annoncer la nouvelle version 0.8 de la bibliothèque. Elle amène de nombreuses nouvelle contributions:

  • Implémentation OpenMP pour le solveur numérique de transport exact.
  • Implémentation à base de backend pour gérer les tableaux de type Numpy/Pytorch/jax (CPU ou GPU)
  • Solveurs différentiables pour els backend compatibles (pour une utilisation en deep learning).
  • DE nouveaux examples dans la documentation
  • Wheels Python pré-compilées pour processeurs ARM sur Mac and Raspberry PI.

Plus de details sont disponibles dans les notes de version.

ELLIS Scholar


J'e suis honoré d'avoir été élu ELLIS Scholar dans l'unité Paris ELLIS Unit. ELLIS pour the European Lab for Learning and Intelligent Systems est un laboratoire européen visant à promouvoir la recherche en IA et en apprentissage statistique européenne.

Workshop OTML à NeurIPS 2021


Nous organisons avec Jason Altschuler, Charlotte Bunne, Laetitia Chapel, Alexandra Suvorikova, Marco Cuturi et Gabriel Peyré le quatrième workshop OTML Workshop (Transport Optimal Pour le Machine Learning) à NeurIPS 2019 le 13/14 Decembre 2019.

Conférencies invités

Ce workshop ets organisé avec les partenaires suivants: ELLIS, 3IA Côte d'Azur, Prairie Institute.

Tutorial invité à SIAM Annual Meeting 2021


J'ai été invité à donner un mini tutorial sur l'utilisation du transport optimal en apprentissage statistique au meeting SIAM Annual Meetings 2021.

Vous pouvez trouver les slides de ma présentation ici.

Workshop OTML à NeurIPS 2019


Nous organisons avec Alexandra Suvorikova, Marco Cuturi et Gabriel Peyré le troisième workshop OTML Workshop (Transport Optimal Pour le Machine Learning) à NeurIPS 2019 le 13/14 Decembre 2019.

La liste des conférenciers invités et [l'appel à contributions](https://sites.google.com/view/otml2019/call-for-contributions sont disponible sur le site du workshop.

Tutorial Transport Optimal pour l'apprentissage statistique à ISBI 2019


J'ai présenté un tutorial sur le Transport Optimal pour l'apprentissage statistique à ISBI 2019.

Vous pouvez trouver les présentations ainsi que les notebook Python pour la séances de travaux pratiques ici.

Optimal Transport à Data Science Summer School 2018


Nous allons donner avec Marco Cuturi et Nicolas Courty deux cours d'une journée sur le Transport optimal appliqué à l'apprentissage statistique pour l'école d'été Data Science Summer School 2018 (DS3) à l'École Polytechnique à Paris/Saclay, France.

Vous pouvez trouver les présentations ainsi que les notebook Python pour la séances de travaux pratiques sur Github.

Optimal Transport à Statlearn 2018


Nous avons donné avec Nicolas Courty un cours d'une journée sur le Transport optimal appliqué à l'apprentissage statistique pour l'école de printemps Statlearn 2018 à Nice, France.

Vous pouvez trouver les présentations ainsi que les notebook Python pour la séances de travaux pratiques sur Github.

Présentation à l'assemblée générale du GDR ISIS


J'ai eu l'honeur d'être invité à présenter mes travaux là l'AG du GDR ISIS à Sète.

J'ai présenté un bref rappel de la théorie et des outils du transport optimal, suivi par un panorama des avancées récentes liées à l'utilisation du transport optimal en apprentissage statistique et en estimation. La présentation est disponible ici (diapos en anglais)

Papier accepté à NIPS 2017 at présentation au Workshop OTML 2017


Mes collaborateurs et moi avons eu le papier suivant accepté à NIPS 2017

N. Courty, R. Flamary, A. Habrard, A. Rakotomamonjy, Joint Distribution Optimal Transportation for Domain Adaptation, Neural Information Processing Systems (NIPS), 2017.
Abstract: This paper deals with the unsupervised domain adaptation problem, where one wants to estimate a prediction function f in a given target domain without any labeled sample by exploiting the knowledge available from a source domain where labels are known. Our work makes the following assumption: there exists a non-linear transformation between the joint feature/label space distributions of the two domain Ps and Pt. We propose a solution of this problem with optimal transport, that allows to recover an estimated target Pft=(X,f(X)) by optimizing simultaneously the optimal coupling and f. We show that our method corresponds to the minimization of a bound on the target error, and provide an efficient algorithmic solution, for which convergence is proved. The versatility of our approach, both in terms of class of hypothesis or loss functions is demonstrated with real world classification and regression problems, for which we reach or surpass state-of-the-art results.
author = {Courty, Nicolas and Flamary, Remi and Habrard, Amaury and Rakotomamonjy, Alain},
title = {Joint Distribution Optimal Transportation for Domain Adaptation},
booktitle = {Neural Information Processing Systems (NIPS)},
editor = {},
year = {2017}

Je serai aussi présent au workshop OTML 2017 pour une présentation invitée et 2 poster.

N'hésitez pas à venir nous voir à notre poster NIPS ou au workshop.

POT Transport Optimal en Python


Nous avons proposé une bibliothèque Python library pour le ransport optimal appelée POT. Elle est disponible sur Github et peut être installée directement à partir de PyPI. La bibliothèque implémente de nombreux solveurs liés au transport optimal dans la littérature de traitement d'image et de machine learning (voir le fichier README et la Documentation pour plus de détails).

Nous donnons également de nombreux examples d'utilisation sous la forme de scripts Python et de notebook Jupyter qui ne nécessitent pas d'avoir Python.

Voici une liste de notebooks illustrant POT:

Nhésitez pas à utiliser et à contribuer à POT.

Deux papiers en transport optimal acceptés à NIPS 2016


Mes collaborateurs et moi avons eu deux papiers acceptés à NIPS 2016

R. Flamary, C. Févotte, N. Courty, V. Emyia, Optimal spectral transportation with application to music transcription, Neural Information Processing Systems (NIPS), 2016.
Abstract: Many spectral unmixing methods rely on the non-negative decomposition of spectral data onto a dictionary of spectral templates. In particular, state-of-the-art music transcription systems decompose the spectrogram of the input signal onto a dictionary of representative note spectra. The typical measures of fit used to quantify the adequacy of the decomposition compare the data and template entries frequency-wise. As such, small displacements of energy from a frequency bin to another as well as variations of timber can disproportionally harm the fit. We address these issues by means of optimal transportation and propose a new measure of fit that treats the frequency distributions of energy holistically as opposed to frequency-wise. Building on the harmonic nature of sound, the new measure is invariant to shifts of energy to harmonically-related frequencies, as well as to small and local displacements of energy. Equipped with this new measure of fit, the dictionary of note templates can be considerably simplified to a set of Dirac vectors located at the target fundamental frequencies (musical pitch values). This in turns gives ground to a very fast and simple decomposition algorithm that achieves state-of-the-art performance on real musical data.
author = {Flamary, Remi and Févotte, Cédric and Courty, N. and  Emyia, Valentin},
title = {Optimal spectral transportation with application to music transcription},
booktitle = { Neural Information Processing Systems (NIPS)},
editor = {},
year = {2016}
M. Perrot, N. Courty, R. Flamary, A. Habrard, Mapping estimation for discrete optimal transport, Neural Information Processing Systems (NIPS), 2016.
Abstract: We are interested in the computation of the transport map of an Optimal Transport problem. Most of the computational approaches of Optimal Transport use the Kantorovich relaxation of the problem to learn a probabilistic coupling but do not address the problem of learning the transport map linked to the original Monge problem. Consequently, it lowers the potential usage of such methods in contexts where out-of-samples computations are mandatory. In this paper we propose a new way to jointly learn the coupling and an approximation of the transport map. We use a jointly convex formulation which can be efficiently optimized. Additionally, jointly learning the coupling and the transport map allows to smooth the result of the Optimal Transport and generalize it on out-of-samples examples. Empirically, we show the interest and the relevance of our method in two tasks: domain adaptation and image editing.
author = {Perrot, M. and Courty, N. and Flamary, R. and Habrard, A.},
title = {Mapping estimation for discrete optimal transport},
booktitle = {Neural Information Processing Systems (NIPS)},
editor = {},
year = {2016}

Ces deux papiers proposent des applications du transport optimal au machine learning et traitement du signal. N'hésitez pas à venir nous voir à nos posters, il y aura également des démonstrations en live d'annotation musicale et de copie transparente en image.

Prix Helava du meilleur papier dans le journal ISPRS sur la période 2012-2015


Notre papier a été sélectionné pour le Prix Helava, du meilleur papier dans ISPRS Journal of Photogrammetry and Remote Sensing pour la période 2012-2015.

D. Tuia, R. Flamary, N. Courty, Multiclass feature learning for hyperspectral image classification: sparse and hierarchical solutions, ISPRS Journal of Photogrammetry and Remote Sensing, 2015.
Abstract: In this paper, we tackle the question of discovering an effective set of spatial filters to solve hyperspectral classification problems. Instead of fixing a priori the filters and their parameters using expert knowledge, we let the model find them within random draws in the (possibly infinite) space of possible filters. We define an active set feature learner that includes in the model only features that improve the classifier. To this end, we consider a fast and linear classifier, multiclass logistic classification, and show that with a good representation (the filters discovered), such a simple classifier can reach at least state of the art performances. We apply the proposed active set learner in four hyperspectral image classification problems, including agricultural and urban classification at different resolutions, as well as multimodal data. We also propose a hierarchical setting, which allows to generate more complex banks of features that can better describe the nonlinearities present in the data.
author = {Tuia, D. and Flamary, R. and  Courty, N.},
title = {Multiclass feature learning for hyperspectral image classification: sparse and hierarchical solutions},
journal = {ISPRS Journal of Photogrammetry and Remote Sensing},
editor = {},
year = {2015}

C'est un grand honneur pour nous et je serais présent au ISPRS Congress 2016 le 12 Juillet 2016 pour recevoir le prix au nom de tous les auteurs. Ces travaux ont été effectués en collaboration avec Devis Tuia et Nicolas Courty.

Statlearn 2016


J'ai eu l'honneur d'être invité à la conférence Statlearn 2016 à Vannes.

J'y présenterai le 8 avril nos travaux sur le transport optimal appliqué au problème d'adaptation de domaine en collaboration avec Nicolas Courty , Devis Tuia et Alain Rakotomamonjy. La présentatin peut être téléchargée ici.

Proposition de sujet de thèse


Cedric Richard et moi avons proposé un sujet de thèse à sur le thème de Estimation distribuée sur réseaux multitâches.

Si vous êtes intéressé, contactez Cédric Richard ou moi avant le 6 Juin.

Pour plus de détails consulter le sujet détaillé.

École thématique CNRS BasMatI


Nous organisons du 1 au 15 Juin 2015 avec Céline Theys, David Mary et Claude Aime du Laboratoire Lagrange une école d'été sur le thème :
Bases Mathématiques pour l'instrumentation et le traitement du signal en astronomie.

Vous trouverez plus d'informations sur le site web.

Meilleur papier PCV 2014


Notre travail a été sélectionné comme meilleur papier à la conférence Photogrammetric Computer Vision (PCV 2014).

D. Tuia, N. Courty, R. Flamary, A group-lasso active set strategy for multiclass hyperspectral image classification, Photogrammetric Computer Vision (PCV), 2014.
Abstract: Hyperspectral images have a strong potential for landcover/landuse classification, since the spectra of the pixels can highlight subtle differences between materials and provide information beyond the visible spectrum. Yet, a limitation of most current approaches is the hypothesis of spatial independence between samples: images are spatially correlated and the classification map should exhibit spatial regularity. One way of integrating spatial smoothness is to augment the input spectral space with filtered versions of the bands. However, open questions remain, such as the selection of the bands to be filtered, or the filterbank to be used. In this paper, we consider the entirety of the possible spatial filters by using an incremental feature learning strategy that assesses whether a candidate feature would improve the model if added to the current input space. Our approach is based on a multiclass logistic classifier with group-lasso regularization. The optimization of this classifier yields an optimality condition, that can easily be used to assess the interest of a candidate feature without retraining the model, thus allowing drastic savings in computational time. We apply the proposed method to three challenging hyperspectral classification scenarios, including agricultural and urban data, and study both the ability of the incremental setting to learn features that always improve the model and the nature of the features selected.
author = {Tuia, D. and Courty, N. and Flamary, R.},
title = {A group-lasso active set strategy for multiclass hyperspectral image classification},
booktitle = {Photogrammetric Computer Vision (PCV)},
editor = {},
year = {2014}

Ces travaux ont été effectués en collaboration avec Devis Tuia et Nicolas Courty.



Je serai présent à ICASSP 2014 à Florence. Je présenterai le papier Active set strategy for high-dimensional non-convex sparse optimization problems mercredi 7 mai dans la session spéciale Optimization algorithms for high dimensional signal processing.

Ces travaux ont été effectués en collaboration avec Aurélie Boisbunon et Alain Rakotomamonjy.

Le projet AMOR est en ligne


Le projet AMOR est un projet Jeunes Chercheurs supporté par le GdR ISIS et l'association GRETSI.

La page du projet est maintenant disponible ici.

Présentation sur l'apprentissage avec une infinité de de caractéristiques


J'ai été invité pour présenter nos travaux concernant l'apprentissage avec une infinité de de caractéristiques à une réunion du GDR ISIS.

La présentation (en anglais) est maintenant disponible ici.

Nouvelle Toolbox SVM


Le code de ma toolbox Matlab pour les SVM linéaires est maintenant disponible dans la section soft du site web. Elle permet d'apprendre des SVM linéaires régularisés entre autres par des normes l1, ou des normes mixtes l1-lp.

Cette toolbox Matlab utilise pour l'apprentissage des SVM un algorithme de Forward-Backward Splitting présenté dans le papier FISTA.

Allez sur la page G-SVM pour plus d'informations ou pour télécharger le code source.

Mise à jour du site


Le site web a été mis à jour! Il y a maintenant une page code bien plus claire et lisible et le site web en maintenant généré par Webgen.py à la place de webgen.

Mon manuscrit de thèse est également disponible ici ou sur thèse en ligne.

Soutenance de thèse


J'ai soutenu ma thèse à Rouen le 6 décembre 2011. Le manuscrit sera disponible prochainement at les slides de la présentation sont disponibles ici.

Le jury était composé de :

Rapporteurs :

  • Pr. Jalal Fadili, ENSICAEN
  • DR Michele Sebag, LRI CNRS


  • Pr. Jocelyn Chanussot, INP Grenoble
  • Pr. Liva Ralaivola, Université Aix-Marseille II
  • Pr. Stéphane Canu, INSA Rouen

Directeur de thèse:

  • Pr. Alain Rakotomamonjy, Université de Rouen

Article et code source pour les SVM à étiquettes incertaines


Cette année, j'étais présent au workshop SSP 2011 à Nice. J'ai eu le plaisir d'y présenter les travaux effectués avec Emilie Niaf concernant l'apprentissage de classifieur SVM avec des étiquettes incertaines. Notre poster est disponible en téléchargement. Nous avons aussi mis en ligne le code source matlab pour ceux qui veulent tester notre approche sur leurs données.

Poster de vulgarisation à Cap 2011


Cette année, la conférence en apprentissage Cap 2011 est à Chambéry de 17 au 20 Mai 2011. J'y présenterai un poster de vulgarisation sur le thème de interfaces cerveau-machine.

Présentation MLSP 2010


Vous pouvez voir ici la présentation correspondant au papier “Learning spatial filters for multispectral image segmentation”. La version “draft” du papier sera rapidement disponible sur ce site web.

MLSP 2010


Je serai présent à MLSP 2010 en Finlande. J’y présenterai des travaux concernant l’apprentissage de filtres spatiaux vaste marge pour la segmentation d’images. Ces travaux ont été réalisés en collaboration avec Devis Tuia et Gustavo Camp-Valls du laboratoire IPL de Valence.

La présentation et le papier seront rapidement disponibles sur ce site.

CAp 2010 / BCI in Paris


J’ai présenté en mai mes travaux sur le filtrage vaste marge pour des problèmes non-linéaires à la Conférence CAp 2010 à Clermont-Ferrand et à un meeting BCI organisé par Cédric Gouy-Pailler à Paris.

Les sildes sont en français mais le papier est en anglais.

MLSP 2010 Competitio


Le Workshop international MLSP (MACHINE LEARNING FOR SIGNAL PROCESSING) de cette année a organisé une compétition en apprentissage statistique : “MIND READING”. Le thème portait sur les interfaces cerveaux-machine (BCI). Le comité de cette compétition a publié un jeu de données de signaux cérébraux (EEG). Le but de la compétition était d’analyser les données pour déterminer des évènements rares lors de la présentation d’images à un sujet. 35 équipes internationales ont participé à cette compétition. Leurs méthodes furent évaluées sur un ensemble de données inconnues.

Une équipe du LITIS s’est hissée sur le podium (places 3,5,6 et 8 sur 35 paricipants) de la compétition et publiera les détails de sa méthode à base de Séparateurs à Vaste Marge (SVM) dans les actes du Workshop. Les résultats sont disponibles ici.

L’équipe est composée de :

  • Rémi Flamary (2)
  • Benjamin Labbé (1)
  • Grégoire Mesnil (2)
  • Xilan Tian(1)
  • Florian Yger (2)
  • Alain Rakotomomamonjy (2) – study supervision
  • Gilles Gasso (1) – study supervision

Institution : - (1) INSA de Rouen – LITIS - (2) Université de Rouen – LITIS

News extraite du site du Laboratoire LITIS



Je serai à ICASSP 2010 et je présenterai mes travaux concernant le filtrage vaste marge.

Le poster et le papier peuvent être téléchargés.

Présentation à CREATIS


En janvier, j'ai présenté un séminaire au Laboratoire CREATIS à Lyon sur les SVM, l'apprentissage de noyaux et le filtrage vaste marge. La présentation peut être téléchargée ici.

MLSP 2009 In Grenoble


Je présenterai mon papier Variational Sequence Labeling au Workshop Machine Learning For Signal Processing (MLSP 09) le 2 septembre 2009.

Ce papier a été écrit avec Jean Loïc Rose du laboratoire CREATIS-LRMN.

La présentation peut être téléchargée ici

BCI Competition IV


Les résultats de la quatrième BCI Competition (Compétition en Interfaces cerveaux machine) sont arrivés! Nous avons obtenu la seconde place Pour les données 4.

Le but était de déterminer la position des doigts d’un sujet à partir de ses ondes cérébrales.

Plus d’information sur cette page.