Episodes
Résumé : Nous rappelons les bases de l'approche du problème de la classification non supervisée par les modèles de mélange. La méthode usuelle repose sur le maximum de vraisemblance et le choix du nombre de classes à former se fait par des critères pénalisés. Nous nous intéressons particulièrement au critère ICL (Biernacki, Celeux et Govaert, 2000), adapté à ce contexte et pertinent en pratique. L'étude de ce critère et de la notion de classe sous-jacente est abordée dans le...
Published 10/02/09
Dimensionality reduction is an old yet unsolved problem, with many applications in data visualization, knowledge discovery, and machine learning in general. Our aim in this talk will be to review several developments in the field of dimensionality reduction, with a particular focus on nonlinear methods. As an introduction, we will point out some weird properties of high dimensional spaces, which will motivate the use of dimensionality reduction. Next, we will go back in time and...
Published 04/04/09
Dans ce travail nous utilisons des méthodes de régularisation pour la résolution de problèmes inverses mal posés. La principale difficulté dans l'application d'une méthode de régularisation est la détermination du paramètre de régularisation. L'approche choisie dans ce travail s'appuie sur des outils de la théorie de sélection de modèles. Nous discutons de la façon dont un grand nombre de méthodes de régularisation, originalement conçues pour résoudre des problèmes inverses...
Published 02/07/09