Apprentissage
1 au 5 février 2016
Cette semaine sera consacrée à l’apprentissage statistique, tant sur ses aspects théoriques qu’appliqués. La théorie de l’apprentissage statistique développée dans les années 70 a apporté un grand renouveau en statistiques. D’une part le développement des outils informatiques ont permis la collecte de données massives et la mise en oeuvre d’algorithmes très puissants et exigeants en mémoire ou en temps de calculs. D’autre part la théorie asymptotique classique visant à prouver l’efficacité des méthodes d’estimation en modélisation et en prévision était limitée à des problèmes de dimensionalité. Les approches développées en apprentissage statistique ont permis de faire face à quelques nouvelles difficultés tels que le fléau de la dimensionalité, les échantillons de faible taille, et actuellement les masses de données. On a vu apparaître les techniques dites de data mining, de feature selection et depuis peu des approches spécialisées dans les données massives dites Big data. Outre les développements théoriques (la théorie non asymptotique), de nombreux algorithmes
ont vu le jour à cheval sur les statistiques et l’informatiques pour répondre à ces nouveaux besoins. Ces besoins se sont manifestés dans de nombreux domaines tels que la bioinformatique, les sciences sociales, la médecine ou les télécoms. Cette semaine vise à regrouper des spécialistes de l’apprentissage supervisé et non supervisé travaillant sur des techniques de pointe et issus de domaines variés, principalement les statistiques, l’informatique mais aussi des sciences sociales ou la bioinformatique. Les sous thèmes prévus dans cette semaine sont les suivants : – Apprentissage supervisé – Apprentissage non supervisé : clustering et estimation de la densité – Sélection de modèles – Big Data Des invités sont prévus pour chaque sous thèmes. |
Comité scientifique
Gérard Biau (Université Pierre-et-Marie-Curie) Badih Ghattas (Aix-Marseille Université) Conférenciers
Large-scale machine learning and convex optimization
Apprentissage et données massives
Is adaptive early stopping possible in statistical inverse problems?
Entropy, geometry, and a CLT for Wishart matrices
The power of heterogeneous large-scale data for high-dimensional causal inference
Mixed integer programming for sparse and non convex machine learning
A Lagrangian viewpoint on Robust PCA
Block-diagonal covariance selection for high-dimensional Gaussian
Statistical learning with Hawkes processes and new matrix concentration inequalities
Random forests variable importances: towards a better understanding and large-scale feature selection
About the Goldenshluger-Lepski methodology for bandwidth selection
Sub-Gaussian mean estimators
Reconstruction simpliciale de variétés via l’estimation des plans tangents
Quantization, Learning and Games with OPAC
Understanding (or not) Deep Neural Networks
Eigenvalue-free risk bounds for PCA projectors
Estimation of local independence graphs via Hawkes processes and link with the functional neuronal connectivity
A novel multi resolution framework for the statistical analysis of ranking data
Robust sequential learning with applications to the forecasting of electricity consumption and of exchange rates
Oracle inequalities for network models and sparse graphon estimation |