img-logoInriaRennes
img-logoconfLunch

img-conflunchBigData16oct2015 Le Cloud et la programmation Map-Reduce:
Comment survivre au déluge du Big Data ?

Conf'Lunch - 16 octobre 2015

L'introduction ; Les exposés

img-LucBougeconflunchBigData16oct2015 Luc Bougé, professeur à l'ENS Rennes et membre de l'équipe KerData &

img-AlexandruCostanBigData16oct2015 Alexandru Costan, Maître de conférences à l'INSA Rennes et membre de l'équipe KerData

sont venus nous parler de cet enjeu scientifique. Les deux présentations sont suivies des questions de la salle.

img-ConflunchLucBougeConflunch16oct2015 Surviving the data deluge [41:53 mn]

Luc Bougé, professeur à l'ENS Rennes et membre de l'équipe Kerdata
(Cliquer sur l'image pour lancer la vidéo)
img-flecheHaut

img-ConflunchGeoffroyEttaix26juin2015 Some (Simple) Examples: Word Count & Word Length [27:15 mn]

Alexandru Costan Maître de conférences à l'INSA Rennes et membre de l'équipe KerData img-flecheHaut
img-ConflunchGeoffroyEttaix26juin2015 Les questions à Alexandru Costan et à Luc Bougé [14:25] img-flecheHaut

Notre monde est aujourd'hui submergé par un déluge de données produites par une multitudes de sources. Il y a quelques années, on a commencé à comprendre que ces données recelaient une grande valeur à condition d'arriver à les traiter suffisamment efficacement.
C'est le domaine du Big Data, un défi extraordinaire pour les chercheurs... et une mine d'or pour les compagnies de service logiciel, avec bien sûr Google en première ligne.
Pour extraire de la valeur à partir de ce déluge de données, qu'elles soient scientifiques, financières ou autres, il faut être capable de gérer le volume énorme de ces données, le débit de leur production et la variabilité de leur format. Cette exigence est souvent résumée par les "3 V": Volume, Vitesse et Variété. Deux avancées matérielles et logicielles majeures ont permis de relever ce défi: les clouds et le paradigme Map-Reduce.

Luc Bougé a soutenu sa thèse d'état en 1987 à Paris sur la sémantique des langages parallèles. Il a depuis travaillé à Lyon sur l'algorithme distribué, la programmation data-parallèle, les bibliothèques de communication réseau à haute performance, puis à Rennes, sur la gestion des données à très grande échelle dans les systèmes distribués.

Alexandru Costan a obtenu un doctorat de l'Université Polytechnique de Bucarest, consacré aux comportements autonomiques des systèmes distribués à grande échelle. Ses travaux ont été mis en œuvre dans le système MonALISA de surveillance de l'infrastructure logicielle mondialement répartie de stockage et de traitement des données produites par le LHC au CERN. Il s'intéresse aujourd'hui à la gestion des Big Data sur les clouds et les infrastructures hybrides. img-flecheHaut

img-logoconfLunch index des Conf'lunch

img-logoVideotheque index des manifestations scientifiques

img-flecheHAUT