L’ évolution du Big data pour 2017.

Stocker, traiter et exploiter leurs données devient de plus en plus fréquent auprès des organisations. Ainsi, le Big data se doit d’évoluer afin de répondre à la forte demande des organisations, afin de répondre à plus de donnée.

D’après le magazine le monde, le Big data est appelé à croître de 35 % jusque qu’en 2019.

L’un des premiers enjeux concernant le Big Data en cette année 2017 est que le Big data deviennent instantané et abordable. Le Big data est en partie du a hadoop, qu’est ce que hadoop ?

Il s’agit d’un framework Open Source conçu pour réaliser des traitements sur des volumes de données massifs, de l’ordre de plusieurs petaoctets (soit plusieurs milliers de To). Il s’inscrit donc typiquement sur le terrain du Big Data. Géré sous la fondation Apache, il faut savoir aussi que Hadoop est écrit en Java.

Afin d’améliorer le Big data, il faut alors porter des modifications dans le hadoop, d’après le monde  en 2017, les possibilités pour accélérer Hadoop vont se multiplier. Ce changement a déjà commencé, comme en témoigne l’adoption de bases de données hautes performances comme Exasol ou MemSQL, de technologie de stockage comme Kudu, ou encore d’autres produits permettant l’activation d’exécution de requêtes plus rapides.

 

 

Source :

http://blog.octo.com/hadoop-une-plateforme-de-reference-pour-faire-du-big-data/

http://hortonworks.com/apache/hadoop/