Niptech Explore – Le Big data



Nous sommes en pleine préparation de la Nipconf 2015, une conférence où nous explorons les changements technologiques à venir. Quand j’ai commencé à réfléchir au thème de l’édition 2015, j’ai vite été convaincu que nous devions nous arrêter sur le monde des données. En 2014, nous avions parlé de voitures autonomes, de maisons connectées, de vêtements intelligents et de leur impact sur notre quotidien. Cette année, nous reprenons ce fil conducteur en regardant de plus près le lien entre ce nouveau monde connecté et les données qu’il génère.

Au-delà des peurs, parfois légitimes, causées par la récolte et la mise en relation de vastes quantités de données, leur objectif ultime est d’augmenter l’intelligence des machines. « La feuille de route des 10’000 prochaines startups? », prophétisaient Kevin Kelly de Wired il y a quelques mois: « Prenez X et ajoutez-y de l’intelligence artificielle ».  Ce n’est pas une prédiction très risquée tant tous les éléments pour sa réalisation sont en train de converger.

[soundcloud url= »http://api.soundcloud.com/tracks/210584959″ params= »? » width= »100% » height= »166″ iframe= »true » /]

Podcast: Téléchargement

Lorsqu’il est question de systèmes de traitement de données vastes et complexes, affectueusement appelées Big Data, la première chose à mettre en avant est que la puissance de calculs des machines et l’intelligence humaine, loin d’être en compétition, sont complémentaires. Les ordinateurs sont incroyablement puissants pour dénicher des liens dans des masses de données mais ils demeurent, et demeureront encore dans un futur proche, peu performants pour en tirer des stratégies complexes.

Un autre élément à ne pas sous-estimer est qu’il reste du ressort de l’être humain de préparer les données pour la machine. Là encore, une préparation est nécessaire pour intégrer des formats aussi différents que des textes, des chiffres, de l’image, du son et des vidéos. Et cela sans même mentionner les métadonnées associées à chaque information, comme l’heure de parution,  le support de saisie ou le « graph social », c’est-à-dire les personnes à qui étaient destinées ces données.

Enfin, quand bien même énormément de recherches sont en cours pour permettre aux ordinateurs de trouver par eux-mêmes les meilleurs algorithmes à appliquer à un jeu de données, la réalité du moment est que sans recours aux « data scientists », tous les petabytes de données du monde ne sont qu’un vaste gaspillage d’espace disque.

Bref, le contexte reste encore une prérogative humaine, le reste peut aller à la machine. Pour vraiment comprendre la part de chacun, il faut regarder sous le capot et voir comment fonctionne le Big Data.

Pour nous aider dans nos premiers pas sur le sujet,  j’ai eu le plaisir d’accueillir Mick Lévy, directeur de l’innovation de Business & Decision, notre premier partenaire métier pour la Nipconf (merci à eux!). Et si le podcast ne vous suffit pas et que vous voulez en savoir plus, vous pouvez nous rejoindre à matinée Big Data qu’ils organisent le 2 juillet à Lausanne par Business & Decision ;)

,

6 réponses à “Niptech Explore – Le Big data”

  1. Merci pour le PodCast l’exemple de la bouteille de bière est parfaite pour nous WhatsHome sous l’angle Etude Quali afin de montrer à des Ethnologues ce qu’il se passait au moment de l’usage de la bouteille

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.