08 - Sélection de modèles pour la classification non supervisée (Jean-Patrick Baudry (Université de Paris-Sud))
Listen now
Description
Résumé : Nous rappelons les bases de l'approche du problème de la classification non supervisée par les modèles de mélange. La méthode usuelle repose sur le maximum de vraisemblance et le choix du nombre de classes à former se fait par des critères pénalisés. Nous nous intéressons particulièrement au critère ICL (Biernacki, Celeux et Govaert, 2000), adapté à ce contexte et pertinent en pratique. L'étude de ce critère et de la notion de classe sous-jacente est abordée dans le cadre de la méthode de minimisation d'un contraste adapté à l'objectif de classification non supervisée. Ce faisant, nous définissons un nouvel estimateur et une nouvelle famille de critères de sélection de modèles dont nous étudions les propriétés - notamment la consistance. La calibration de ces critères par l'heuristique de pente (Birgé et Massart, 2006) est envisagée. Divers aspects pratiques de leur mise en oeuvre sont discutés et leur comportement pratique illustré par des simulations. Vous pouvez entendre l'intervention, tout en visualisant le Power Point, en cliquant sur ce lien : http://epn.univ-paris1.fr/modules/UFR27semSAMOS/SemSamos20091009_Baudry/SemSamos20091009_Baudry.html. Ecouter l'intervention : Bande son disponible au format mp3 Durée : 1H10
More Episodes
Dimensionality reduction is an old yet unsolved problem, with many applications in data visualization, knowledge discovery, and machine learning in general. Our aim in this talk will be to review several developments in the field of dimensionality reduction, with a particular focus on...
Published 04/04/09
Dans ce travail nous utilisons des méthodes de régularisation pour la résolution de problèmes inverses mal posés. La principale difficulté dans l'application d'une méthode de régularisation est la détermination du paramètre de régularisation. L'approche choisie dans ce travail s'appuie...
Published 02/07/09