L’ évolution du Big data pour 2017.

Stocker, traiter et exploiter leurs données devient de plus en plus fréquent auprès des organisations. Ainsi, le Big data se doit d’évoluer afin de répondre à la forte demande des organisations, afin de répondre à plus de donnée.

D’après le magazine le monde, le Big data est appelé à croître de 35 % jusque qu’en 2019.

L’un des premiers enjeux concernant le Big Data en cette année 2017 est que le Big data deviennent instantané et abordable. Le Big data est en partie du a hadoop, qu’est ce que hadoop ?

Il s’agit d’un framework Open Source conçu pour réaliser des traitements sur des volumes de données massifs, de l’ordre de plusieurs petaoctets (soit plusieurs milliers de To). Il s’inscrit donc typiquement sur le terrain du Big Data. Géré sous la fondation Apache, il faut savoir aussi que Hadoop est écrit en Java.

Afin d’améliorer le Big data, il faut alors porter des modifications dans le hadoop, d’après le monde  en 2017, les possibilités pour accélérer Hadoop vont se multiplier. Ce changement a déjà commencé, comme en témoigne l’adoption de bases de données hautes performances comme Exasol ou MemSQL, de technologie de stockage comme Kudu, ou encore d’autres produits permettant l’activation d’exécution de requêtes plus rapides.

 

 

Source :

http://blog.octo.com/hadoop-une-plateforme-de-reference-pour-faire-du-big-data/

http://hortonworks.com/apache/hadoop/

La machine learning et le Big data

A quoi consiste la «  machine learning » ?

Cela consiste en la mise en place d’algorithmes en vue d’obtenir une analyse prédictive à partir de données, dans un but précis.

C’est en quelque sorte l’apprentissage par l’exemple. En fait, on va créer un programme qui crée un programme, plutôt que de tenter de définir des règles qui définissent avec certitude un évènement. On imagine qu’avec une masse importante de donnée, définir des règles serait fastidieux. C’est une branche des stats, nourrit pat l’informatique ou l’enjeu est de tirer du sens, de faits empiriques et de donné empirique.  Cependant il faut savoir faire la part des choses,  est demander des corrélations pas impossibles à trouver.

Le machine learning se décompose en 2 étapes: une phase d’entrainement (on apprend sur une partie des données) et une phase de vérification (on teste sur la seconde partie de données).

Nous aurons donc 3 phases: la Représentation, l’évaluation , l’Optimisation. La phase de représentation consiste à trouver le modèle mathématique le plus adapté. Il existe un nombre important de modélisations. Enfin, l’évaluation mesure l’écart entre le modèle et la réalité des données de tests. L’optimisation vise à amenuiser cet écart.

3 méthodes basiques:

– la Classification: modélisation de plusieurs groupes de données dans des classes existantes. Par exemple: la classification des orchidées, la tendance d’un parti politique…

– le Clustering: ressemble à la classification mais ce ne sont pas des classes connues.

– la Régression: les données sont liées à d’autres données numériques par une corrélation (une droite, une courbe, une tendance).

Le Machine learning permet  alors  a certain d’organisation d’innover comme par exemple :  la voiture autonome de Google, classification des emails dans gmail, la traduction en temps réel de Skipe, la reconnaissance vocale Siri d’Apple, détection de fraude dans le monde de la banque, reconnaissance faciale, liste non exhaustive.

Pour en savoir plus sur le machine learning, vous pouvez regarder cette vidéo :

Source :

https://en.wikipedia.org/wiki/Machine_learning

http://www.journaldunet.com/solutions/expert/56923/le—machine-learning—–quand-les-donnees-remplacent-les-algorithmes.shtml

La société sous le Big Data

Grâce a la technologie du Big data les informations liées à notre vie privées sont recueillies chaque seconde, minute, … dans un but qui est totalement inconnu.

Le Big data permet de stocker d’énormes masses de données et donc par conséquent se révèle utile pour enregistrer des millions d’adresses, numéro de téléphone, identifiants bancaires,  des choses qui se révèlent nous appartenir et que l’on n’a pas forcément envie de partager.

Les conversations téléphoniques sont-ils enregistrés ? Les emails ? Les sms. Ces questions font peurs, car on se dit que nos faits et geste sont surveillés.

Un projet « Big Brother » avait pour but l’espionnage de masse alors que ce projet était basé sur la technologie du Big data.

Dans une série américaine, person of interest, grâce au Big Data, on peut prédire les futurs crimes. Sera t-il vraiment possible de prédire un crime dans les années à venir?

Cependant pour vous rassurer  le Big data permet de stocker beaucoup de choses, mais  les conversations audio pèsent trop pour être toutes enregistrées. Vous en faites pas il vous reste encore un peu de liberté…Pour le moment.

Source :

http://sandsiv.com/blog/person-of-interest-big-data-analytics-as-entertainment/

http://www.economiematin.fr/news-big-data-donnees-volume-sophistication-archivage-stockage

TOUS LES IMAGES SUR CE SITE WEB SONT LIBRE DE DROITS  ET MAJORITAIREMENT ISSUS DES BANQUES IMAGE PIXABAY, FREEIMAGES .
Encore un blog WordPress

Toutes les nouvelles de la communauté WordPress.com