3 episodes

Les séminaires hebdomadaires du laboratoire SAMM portent sur l'un des thèmes suivants : probabilités, statistiques ou mathématiques complexes. Les exposés proposés sont des exposés de recherche qui conviendront à des étudiants de M2 et doctorat ainsi qu'à des chercheurs en mathématiques appliquées. Les exposés étiquetés "mathématiques complexes" sont organisés avec le soutien de l'Institut des Sciences Complexes Paris Ile-de-France. Le séminaire à lieu les vendredi de 11 h à 12 h en salle C-20-13 au centre PMF de l'Université Paris 1. Les supports de présentation sont disponibles sur l'Espace pédagogique interactif (http://epi.univ-paris1.fr/samos-sem). Le programme des prochains exposés est disponible à l'adresse suivante : http://samm.univ-paris1.fr/Seminaires. Recommandé à : étudiant de la discipline, chercheur - Catégorie : conférences - Année de réalisation : 2009-2010

Séminaires de probabilités et statistiques (SAMM, 2009-2010‪)‬ Université Paris 1 Panthéon-Sorbonne

    • Education

Les séminaires hebdomadaires du laboratoire SAMM portent sur l'un des thèmes suivants : probabilités, statistiques ou mathématiques complexes. Les exposés proposés sont des exposés de recherche qui conviendront à des étudiants de M2 et doctorat ainsi qu'à des chercheurs en mathématiques appliquées. Les exposés étiquetés "mathématiques complexes" sont organisés avec le soutien de l'Institut des Sciences Complexes Paris Ile-de-France. Le séminaire à lieu les vendredi de 11 h à 12 h en salle C-20-13 au centre PMF de l'Université Paris 1. Les supports de présentation sont disponibles sur l'Espace pédagogique interactif (http://epi.univ-paris1.fr/samos-sem). Le programme des prochains exposés est disponible à l'adresse suivante : http://samm.univ-paris1.fr/Seminaires. Recommandé à : étudiant de la discipline, chercheur - Catégorie : conférences - Année de réalisation : 2009-2010

    • video
    08 - Sélection de modèles pour la classification non supervisée (Jean-Patrick Baudry (Université de Paris-Sud))

    08 - Sélection de modèles pour la classification non supervisée (Jean-Patrick Baudry (Université de Paris-Sud))

    Résumé : Nous rappelons les bases de l'approche du problème de la classification non supervisée par les modèles de mélange. La méthode usuelle repose sur le maximum de vraisemblance et le choix du nombre de classes à former se fait par des critères pénalisés. Nous nous intéressons particulièrement au critère ICL (Biernacki, Celeux et Govaert, 2000), adapté à ce contexte et pertinent en pratique. L'étude de ce critère et de la notion de classe sous-jacente est abordée dans le cadre de la méthode de minimisation d'un contraste adapté à l'objectif de classification non supervisée. Ce faisant, nous définissons un nouvel estimateur et une nouvelle famille de critères de sélection de modèles dont nous étudions les propriétés - notamment la consistance. La calibration de ces critères par l'heuristique de pente (Birgé et Massart, 2006) est envisagée. Divers aspects pratiques de leur mise en oeuvre sont discutés et leur comportement pratique illustré par des simulations. Vous pouvez entendre l'intervention, tout en visualisant le Power Point, en cliquant sur ce lien : http://epn.univ-paris1.fr/modules/UFR27semSAMOS/SemSamos20091009_Baudry/SemSamos20091009_Baudry.html. Ecouter l'intervention : Bande son disponible au format mp3 Durée : 1H10

    • 1 hr 10 min
    • video
    06 - Dimensionality reduction : from PCA to recent nonlinear techniques ( John Lee (Université Catholique de Louvain, Belgique))

    06 - Dimensionality reduction : from PCA to recent nonlinear techniques ( John Lee (Université Catholique de Louvain, Belgique))

    Dimensionality reduction is an old yet unsolved problem, with many applications in data visualization, knowledge discovery, and machine learning in general. Our aim in this talk will be to review several developments in the field of dimensionality reduction, with a particular focus on nonlinear methods. As an introduction, we will point out some weird properties of high dimensional spaces, which will motivate the use of dimensionality reduction. Next, we will go back in time and start our review with a short reminder about well known techniques such as principal component analysis and multidimensional scaling. Our travel into time will also bring us to visit Sammon mapping and other methods based on distance preservation. Next, we will come across self-organizing maps and auto-encoders with bottleneck neural networks. Some spectral methods such as Isomap and locally linear embedding will be reviewed as well. A glance at recent methods based on similarity preservation such as stochastic neighbor embedding will close the survey. Finally, we will try to identify the relationships between the different approaches, and say a few words about quality criteria for dimensionality reduction techniques. Vous pouvez entendre l'intervention, tout en visualisant le Power Point, en cliquant sur ce lien : http://epn.univ-paris1.fr/modules/UFR27semSAMOS/SemSamos20090529L_ee/SemSamos20090529_Lee.html. Ecouter l'intervention : Bande son disponible au format mp3 Durée : 1H14

    • 1 hr 14 min
    • video
    03 - Un point de vue statistique pour la régularisation de problèmes (Anna Karina Firmin (Université Paris X))

    03 - Un point de vue statistique pour la régularisation de problèmes (Anna Karina Firmin (Université Paris X))

    Dans ce travail nous utilisons des méthodes de régularisation pour la résolution de problèmes inverses mal posés. La principale difficulté dans l'application d'une méthode de régularisation est la détermination du paramètre de régularisation. L'approche choisie dans ce travail s'appuie sur des outils de la théorie de sélection de modèles. Nous discutons de la façon dont un grand nombre de méthodes de régularisation, originalement conçues pour résoudre des problèmes inverses mal posés, se traduise en des algorithmes d'apprentissage (comme par exemple les SVM). Tous ces algorithmes sont des méthodes à noyaux qui peut être facilement mis en oeuvre. Nous présentons quelques exemples des ces méthodes de régularisations et nous discuterons leur applicabilité à des problèmes industriels. Vous pouvez entendre l'intervention, tout en visualisant le Power Point, en cliquant sur ce lien : http://epn.univ-paris1.fr/modules/UFR27semSAMOS/SemSamos20090227FerminKarina/SemSamos20090227FerminKarina.html. Ecouter l'intervention : Bande son disponible au format mp3 Durée : 1h27

    • 1 min

Top Podcasts In Education

The Mel Robbins Podcast
Mel Robbins
The Jordan B. Peterson Podcast
Dr. Jordan B. Peterson
Mick Unplugged
Mick Hunt
The Rich Roll Podcast
Rich Roll
Law of Attraction SECRETS
Natasha Graziano
TED Talks Daily
TED

More by Université Paris 1 Panthéon-Sorbonne

Droit des entreprises
Bruno Dondero
Droit administratif et institutions administratives (CAVEJ, Jean-Marie Pontier, 2010)
Université Paris 1 Panthéon-Sorbonne
StatLearn 2012 - Workshop on "Challenging problems in Statistical Learning"
Statlearn2012
Découper le temps : les périodes de l'histoire
Université de Paris 1 Panthéon-Sorbonne
StatLearn 2010 - Workshop on "Challenging problems in Statistical Learning"
Statlearn2010
Qu'est-ce que l'archéologie?
Alain Duplouy