Le web constitue une des plus importantes machines à générer des données que l’humanité ait pu créer. Ce sont tous les jours des quantités astronomiques de données qui transitent et sont stockées sur des serveurs au travers du monde. Face à cette problématique, l’open source apporte aujourd’hui son lot de solutions. Stefane Fermigier propose au travers d’un livre blanc de nous en décrire le paysage.
Big data ou la gestion des “grosses données”
Inutile de dire que la traduction de ce terme en français donne un résultat peu satisfaisant. Je parlerais plus de “nombreuses données” dont la totalité représente un volume potentiellement gigantesque. N’oublions pas qu’aujourd’hui, un disque dur “classique” permet de stocker 1Tera-octet soit 1 125 899 906 842 624 “caractères”. A titre de comparaison, la Bible contient 4 000 000 de caractères. Il est donc possible de stocker plus de 280 millions d’exemplaires de celle-ci sur un disque de ce type.
Ces chiffres aussi impressionnants soient-ils ne sont rien en comparaison du volume de données que compte l’ensemble des centres de données ou datacenter de la planète. Une étude de novembre 2011 réalisée par l’IDCprévoyait un volume de données mondiale de 1,8 zéttaoctet en 2011 soit 1 800 milliards de gigaoctets. L’étude IDC montre aussi que d’ici 2020, les entreprises (au plan mondial) connaîtront : une explosion du nombre de serveurs, ils seront multipliés par dix ; un accroissement du volume d’informations à traiter, cette fois c’est multiplié par 50 ; des fichiers et des conteneurs 7 fois plus nombreux.
Quelles solutions pour le Big data ?
Le livre blanc de Stéfane dénombre les défis technologiques que posent ces outils :
>>> Source & Suite sur : http://www.planet-libre.org/index.php?post_id=11398