Analyser le déluge de données, une aubaine pour les grandes entreprises

La puissance informatique conjuguée à la modélisation statistique offre un regard neuf sur l’activité. Les multinationales changent la façon de concevoir et de vendre leurs produits et services.

Prédire les pannes dans une usine, calculer l’impact de la création d’une nouvelle ligne de métro sur la densité d’un quartier, ou encore imaginer la voiture de vos rêves… Autant de sujets qui peuvent être traités par des algorithmes qui se nourrissent de milliards de données collectées en ligne pour créer des modèles statistiques. « Ce n’est pas nouveau », sourit Malene Haxholdt, vice-présidente en charge de l’analytique chez l’assureur MetLife, qui utilise de longue date la modélisation mathématique pour calculer les primes de risque ou détecter les fraudes. « Mais nous changeons d’échelle actuellement », poursuit la jeune femme qui pilote 90 projets autour de l’exploitation des données avec une équipe de 100 data scientists. « Nous enregistrons sans cesse de nouvelles sources de données et pouvons imaginer de nouvelles opportunités de business ». D’ores et déjà, l’assureur peut mesurer le comportement d’un automobiliste pour adapter ses tarifs, et demain, « les informations en provenance de votre brosse à dents permettront de vous proposer une assurance dentaire », s’amuse Malene Haxholdt.

Il n’y a pas que dans les services que la capacité de récupérer, stocker et analyser de larges volumes d’informations change la donne. Chez un industriel traditionnel comme le chinois Lenovo, c’est l’occasion de revoir le design de ses ordinateurs, tablettes et téléphones. Depuis deux ans, le constructeur rassemble dans une gigantesque base de données les informations en provenance de ses usines, mais aussi directement de ses produits – puisque la plupart envoient des notifications lorsqu’ils ont un problème technique – et surtout les perceptions de clients sur le Web. Grâce à des logiciels spécialisés, Lenovo récupère sur quelque 1.700 sites Web et sur les réseaux sociaux comme Facebook ou Twitter l’intégralité de ce qui se dit sur ses 200 produits et sur la concurrence. « Nous captons les discussions en anglais, en japonais et en mandarin », détaille Mohammed Chaara, en charge de l’équipe de data scientists de Lenovo. « Le français, l’espagnol et l’arabe sont en développement, ce qui nous permettra de couvrir 95 % de ce qui se dit en ligne sur la marque ». Dix teraoctets par mois viennent ainsi alimenter la base de données, un flux lui-même en augmentation de 10 % par mois. En plus de permettre à 800 salariés d’accéder à des tableaux de bord précis sur la perception d’un produit Lenovo par rapport à son prédécesseur ou son concurrent, l’analyse des tendances repérées en ligne permet à l’industriel de définir les priorités et de laisser de côté, par exemple, la course à la finesse des ordinateurs pour se focaliser sur la qualité du clavier ou de l’écran.

Une révolution encore à ses débuts

Le Big Data bouleverse également la façon de segmenter. Navistar, un des grands constructeurs de camions américains, a ainsi équipé 160.000 véhicules de puces pour récupérer des milliers de données sur la conduite, le moteur, etc. « Nous avons identifié par recoupement statistique huit catégories de conducteurs, du plus banal au plus agressif », explique Gyasi Dapaa, le responsable du programme, qui assure mieux anticiper les réparations, alors que chaque immobilisation coûte 1.000 dollars par jour.

A entendre les professionnels, la révolution de l’analyse statistique n’en est qu’à ses débuts puisqu’au fur et à mesure que la masse des données augmente, les modèles s’affinent. Sans compter que le « machine learning », la capacité des algorithmes d’apprendre par eux-mêmes, va décupler les capacités d’analyse. « Aujourd’hui, personne ne sait analyser ce qui se dit dans une vidéo YouTube », explique Mohammed Chaara de Lenovo. « Mais cela ne nous prendra que quelques années, grand maximum. »

Les Echos 26/04/2016