Notre monde est aujourd'hui submergé par un déluge de données produites par une multitudes de sources. Il y a quelques années, on a commencé à comprendre que ces données recelaient une grande valeur à condition d'arriver à les traiter suffisamment efficacement.
C'est le domaine du Big Data, un défi extraordinaire pour les chercheurs... et une mine d'or pour les compagnies de service logiciel, avec bien sûr Google en première ligne.
Pour extraire de la valeur à partir de ce déluge de données, qu'elles soient scientifiques, financières ou autres, il faut être capable de gérer le volume énorme de ces données, le débit de leur production et la variabilité de leur format. Cette exigence est souvent résumée par les "3 V": Volume, Vitesse et Variété. Deux avancées matérielles et logicielles majeures ont permis de relever ce défi: les clouds et le paradigme Map-Reduce.
Luc Bougé a soutenu sa thèse d'état en 1987 à Paris sur la sémantique des langages parallèles. Il a depuis travaillé à Lyon sur l'algorithme distribué, la programmation data-parallèle, les bibliothèques de communication réseau à haute performance, puis à Rennes, sur la gestion des données à très grande échelle dans les systèmes distribués.
Alexandru Costan a obtenu un doctorat de l'Université Polytechnique de Bucarest, consacré aux comportements autonomiques des systèmes distribués à grande échelle. Ses travaux ont été mis en œuvre dans le système MonALISA de surveillance de l'infrastructure logicielle mondialement répartie de stockage et de traitement des données produites par le LHC au CERN. Il s'intéresse aujourd'hui à la gestion des Big Data sur les clouds et les infrastructures hybrides.