MOIS THEMATIQUE – SEMAINE 1

Apprentissage
1 au 5 février 2016

Cette semaine sera consacrée à l’apprentissage statistique, tant sur ses aspects théoriques qu’appliqués. La théorie de l’apprentissage statistique développée dans les années 70 a apporté un grand renouveau en statistiques. D’une part le développement des outils informatiques ont permis la collecte de données massives et la mise en oeuvre d’algorithmes très puissants et exigeants en mémoire ou en temps de calculs. D’autre part la théorie asymptotique classique visant à prouver l’efficacité des méthodes d’estimation en modélisation et en prévision était limitée à des problèmes de dimensionalité. Les approches développées en apprentissage statistique ont permis de faire face à quelques nouvelles difficultés tels que le fléau de la dimensionalité, les échantillons de faible taille, et actuellement les masses de données. On a vu apparaître les techniques dites de data mining, de feature selection et depuis peu des approches spécialisées dans les données massives dites Big data. Outre les développements théoriques (la théorie non asymptotique), de nombreux algorithmes
ont vu le jour à cheval sur les statistiques et l’informatiques pour répondre à ces nouveaux besoins. Ces besoins se sont manifestés dans de nombreux domaines tels que la bioinformatique, les sciences sociales, la médecine ou les télécoms.
Cette semaine vise à regrouper des spécialistes de l’apprentissage supervisé et non supervisé travaillant sur des techniques de pointe et issus de domaines variés, principalement les statistiques, l’informatique mais aussi des sciences sociales ou la bioinformatique.
Les sous thèmes prévus dans cette semaine sont les suivants :
– Apprentissage supervisé
– Apprentissage non supervisé : clustering et estimation de la densité
– Sélection de modèles
– Big Data
Des invités sont prévus pour chaque sous thèmes.
Comité scientifique

Gérard Biau (Université Pierre-et-Marie-Curie)
Pascal Massart (Université Paris-Sud)
Vincent Rivoirard (Université Paris Dauphine)


Comité d’organisation

Badih Ghattas (Aix-Marseille Université)
Liva Ralaivola (Aix-Marseille Université)

Conférenciers

Large-scale machine learning and convex optimization

Apprentissage et données massives

Is adaptive early stopping possible in statistical inverse problems?

Entropy, geometry, and a CLT for Wishart matrices

The power of heterogeneous large-scale data for high-dimensional causal inference

Mixed integer programming for sparse and non convex machine learning

A Lagrangian viewpoint on Robust PCA

Block-diagonal covariance selection for high-dimensional Gaussian
graphical models

Statistical learning with Hawkes processes and new matrix concentration inequalities

Random forests variable importances: towards a better understanding and large-scale feature selection

About the Goldenshluger-Lepski methodology for bandwidth selection

Sub-Gaussian mean estimators

Reconstruction simpliciale de variétés via l’estimation des plans tangents

Quantization, Learning and Games with OPAC

Understanding (or not) Deep Neural Networks

Eigenvalue-free risk bounds for PCA projectors

Estimation  of  local  independence  graphs  via  Hawkes  processes  and link with the  functional neuronal connectivity

A novel multi resolution framework for the statistical analysis of ranking data

Robust sequential learning with applications to the forecasting of electricity consumption and of exchange rates

Oracle inequalities for network models and sparse graphon estimation