Episodes
La réduction de dimension a pour ambition de produire des représentations en faible dimension d'ensembles de données en haute dimension. Un des objectifs principaux de la réduction de dimension est la visualisation de données (en dimension 2 ou 3). De nombreuses méthodes de réduction de dimension ont été proposées récemment. Une grande partie d'entre elles se basent sur l'optimisation d'un critère de respect de distances entre paires de points. Le critère peut être simple (souvent...
Published 01/22/09
Les premiers niveaux du système visuel des primates sont maintenant bien connus. Dans cet exposé, nous présentons leur architecture et leurs fonctions comme un modèle pour le traitement et l'analyse des images. Tout y apparaît comme bien adapté à la statistique des images pour en réduire la redondance et les variabilités. La rétine, par des fonctions spécifiques, extrait les informations utiles contenues dans le signal spatio-temporel des images de notre monde visuel : * Un filtrage...
Published 01/22/09
On s'intéresse à la méthode des forêts aléatoires d'un point de vue méthodologique. Introduite par Leo Breiman en 2001, elle est désormais largement utilisée tant en classification qu'en régression avec un succès spectaculaire. On vise tout d'abord à confirmer les résultats expérimentaux, connus mais épars, quant au choix des paramètres de la méthode, tant pour les problèmes dits og standards g que pour ceux dits de og grande dimension g (pour lesquels le nombre de variables est très grand...
Published 01/21/09
In the first part we are interested in finding images of people on the web, and more specifically within large databases of captioned news images. It has recently been shown that visual analysis of the faces in images returned on a text-based query over captions can significantly improve search results. The underlying idea to improve the text-based results is that although this initial result is imperfect, it will render the queried person to be relatively frequent as compared to other...
Published 01/21/09
Un problème important en statistiques est de trouver une loi de probabilité jointe entre deux variables à partir de ses lois marginales. Dans le cas de deux variables, les densités marginales f1(x) et f2(y) sont liées à leurs distribution jointe f(x,y) via des intégrations suivant les deux axes horizontal et vertical. Ce problème ressemble à un problème de reconstruction d'image en tomographie où on chercherait à reconstruire une image à partir de seulement deux projections. Ce problème...
Published 01/21/09
Dans cet exposé nous présentons un travail qui est mené conjointement par deux équipes du laboratoire IBISC : l'équipe DYNAMIC, constituée de biologistes expérimentaux, et l'équipe TADIB, spécialisée en traitement de données et d'images. L'objectif final de ce travail est de proposer aux biologistes un logiciel d'analyse automatique d'images qui, à partir de vues prises sur un microscope apotome ZEISS, permette d'évaluer le pourcentage de cellules appartenant à des classes prédéterminées. En...
Published 01/20/09
Les machines à noyaux constituent une classe d'algorithmes permettant d'extraire de l'information à partir de données dans un cadre non-paramétrique et fonctionel. L'intérêt suscité par ces méthodes tient d'abord aux excellentes performances qu'elles ont permis d'obtenir, notamment sur des problèmes de grandes dimensions. Cette bonne tenue à la charge est due à la parcimonie de la solution et à la (comparativement) faible complexité de son calcul. L'intérêt des machines à noyaux réside aussi...
Published 01/20/09
Nous proposons des techniques adaptatives en apprentissage statistique permettant de transférer l'information acquise sur une population de référence P vers une population cible P*. Etant donné un échantillon d'individus issu d'une population P, décrits par des variables explicatives et regroupés en classes définies a priori, la classification supervisée consiste à construire une règle de classement de ces individus, qui sera utilisée pour classer de nouveaux individus dont la classe serait...
Published 01/20/09
L'approche semi-quadratique a été développée initialement en analyse d'image pour traiter de problèmes de restauration d'image. Le champ d'application de cette approche a été ensuite étendu et cela a permis d'établir la connection avec l'estimation robuste. L'approche semi-quadratique recoupe aussi en partie l'approche EM (Expectation-Maximization). Une lecture de l'approche semi-quadratique fondée sur les outils d'optimisation numérique sous contraintes a aussi été proposée. Cette dernière...
Published 01/20/09
Les pathologistes utilisent leur outil de travail, le microscope, depuis le 17ème siècle et la plus grande partie de leur analyse est visuelle. C'est pourquoi l'imagerie pathologique est devenue un environnement d'imagerie médicale d'importance grandissante qui présente de nombreux défis. Un de ces défis réside dans la conception de systèmes d'aide au diagnostic par une analyse automatique ou semi-automatique. Nous présentons deux approches pour le traitement d'images microscopiques. La...
Published 01/19/09
En classification supervisée, la supervision humaine est requise pour associer des extit{labels} aux observations d'un jeu d'apprentissage qui sont ensuite utilisés pour construire un classifieur. Cependant, dans de nombreuses applications, la supervision humaine peut s'avérer être imprécise, difficile ou coûteuse. Dans de telles situations, les classifieurs supervisés peuvent être fortement destabilisés et produire des décisions instables. Pour pallier ce problème, nous proposons une...
Published 01/19/09