Archives du mot-clé hadoop

Hadoop Pig : traitement des flux de données

Traiter des gros volumes de données et offrir des services à base de ces traitements nécessite des méthodes et des processus de traitement hautement productifs. Dans cette optique que le projet Hadoop Pig à vu le jour. Il démocratise les traitements et les rend accessible au non développeur, en proposant Lire la suite

Hadoop MapReduce

Hadoop MapReduce est un framework de calcul parallèle distribué sur de grosses quantités de données. Le calcul distribué se fait via un cluster de machines. MapReduce gère entièrement le cluster et la répartition de la charge. Cela permet de faire du calcul distribué sans aucune connaissance l’infrastructure sous-jacente.

Un certain Lire la suite