Pourquoi l’analyse de la donnée va devenir indispensable pour les entreprises

Publié le 10/03/2022

L’entreprise de demain devrait mettre de plus en plus la donnée au centre de son modèle, semblent montrer les études. À condition qu’elles parviennent, main dans la main avec les éditeurs de solutions numériques, à améliorer la qualité des données collectées pour faire émerger des services d’analyse de données sur-mesure.

Pour 61% des entreprises européennes, l’analyse des données est une des priorités d’investissement technologique pour les deux prochaines années, rapportait une étude menée par IDC en octobre 2021. Et pour cause : la collecte de ces données d’entreprises a connu une croissance exponentielle ces dernières années.

« Aujourd’hui, on collecte de plus en plus de données, dans tous les domaines et tous les secteurs, affirme André Brunetière, directeur produit et R&D chez l’éditeur français de logiciels de gestion Cegid. Dans les usines, par exemple : il y a quelques années encore, on faisait une mesure par jour pour évaluer l’état des machines. Désormais, tous les nouveaux équipements sont dotés de capteurs reliés au cloud du constructeur et pas moins de 300 à 400 données par seconde et par machine sont remontées vers ce cloud. Ou encore dans le e-commerce, où l’on trace absolument tous les aspects du comportement des utilisateurs. »

Pour chaque entreprise, cette valorisation de données revêt divers bénéfices. D’après une étude menée en octobre 2021 par Infopro Digital Etudes pour Opendatasoft, 41% des organisations publiques et privées françaises s’en servent pour la production (définir la feuille de route du développement d’un produit par exemple), 32% l’utilisent pour transformer leur organisation (formation, recrutement, collaboration entre les métiers et les fonctions support), et 12% s’appuient dessus pour des études de faisabilité (notamment via des preuves de concept).
Trois défis : homogénéiser, sélectionner et prioriser des données utiles

Pourtant, « la capacité des organisations à exploiter ces données est encore très faible », poursuit André Brunetière. Les principaux concernés lui donnent d’ailleurs raison, puisque moins de la moitié des répondants à l’enquête d’Opendatasoft estiment que leur organisation ne dispose pas de suffisamment de moyens pour la valorisation de ses données. « Nous sommes face à un immense gisement de pétrole mais il est sous une couche de cailloux et nous ne savons pas creuser dans cette couche pour aller chercher ce pétrole », illustre le spécialiste.

Concrètement, trois verrous expliquent ces difficultés : l’hétérogénéité des données ; la complexité de les trier et de choisir un échantillon représentatif ; et celle de les filtrer et les organiser pour n’offrir que les données utiles en fonction de l’utilisateur, de son activité et de l’instant où il les consulte.

Silos internes, manque de sensibilisation, différentes procédures en fonction des entreprises… Il existe pléthore de raisons qui explique le premier frein. « Dans le secteur de l’expertise comptable, par exemple, où nos clients travaillent avec un million d’entreprises, dont la moitié des TPE françaises, on pourrait se dire qu’analyser leurs données est très simple, puisqu’elles ont la même activité. Sauf qu’elles travaillent toutes de manière légèrement différente », témoigne André Brunetière. Plusieurs initiatives aident d’ailleurs à réaliser ce travail de collecte, comme la Data Confidence Fabric de Dell dans le secteur des technologies ou l’OpenDataButton Initiative pour standardiser les données publiques. Quant au deuxième frein, c’est principalement le travail des entreprises et des organismes de certification de juger de la qualité, de la représentativité et de la fiabilité d’un échantillon de données.
« C’est aux éditeurs de solutions numériques d’offrir les données utiles à nos clients »

C’est pour lever le troisième verrou que l’on attend le plus les fournisseurs de services aujourd’hui, estime André Brunetière. « En tant que manipulateur de données, c’est à nous, éditeurs de solutions numériques, d’offrir uniquement les données utiles à nos clients. » Pour y parvenir au mieux, Cegid fait le pari de la donnée hyper-spécialisée et s’entoure des meilleures pépites de la data, notamment dans la gestion des finances, des ressources humaines et du retail, grâce à son nouvel incubateur, le Cegid Data Lab, lancé en janvier dernier. À titre d’exemple, le Cegid Data Lab accueille Humanitics, une startup française qui « mélange données du e-commerce et du commerce physique pour analyser le comportement des consommateurs sur un secteur bien précis, le luxe », développe le responsable de l’incubateur.
À lire aussi
Cegid installe son nouveau data lab à Station F

Et l’intelligence artificielle dans tout ça ? « Bien sûr, l’IA peut servir à plusieurs niveaux (rendre l’échantillon de données cohérent, tester sa représentativité, prioriser les données en sortie…), commence-t-il. Mais ce n’est pas une baguette magique qui transforme tout le travail d’analyse de données, comme on l’entend parfois. C’est l’une des nombreuses briques, qui, combinée à d’autres, qui puisent par exemple dans l’algorithmie classique à base de règles mathématiques, nous permet de développer un modèle de data analytics pour offrir des données utiles. »

Par utiles, André Brunetière entend des données certes représentatives et fiables mais, surtout, contextualisées. « Il s’agit pour nous et nos partenaires de rendre la donnée appropriée, intelligente et accessible à l’utilisateur en fonction de son profil, de son métier, de sa période de travail dans le mois, etc. Par exemple, quand on est contrôleur de gestion, on ne regarde pas les métriques du début du mois comme celles de la fin du mois. »
Anticiper le virage data-centric des architecture numériques

C’est pourquoi, au-delà du modèle de data analytics, l’expert de Cegid encourage les startups de la data à ne pas négliger le front-end. Le Cegid Data Lab offre ainsi un accompagnement soutenu dans le développement d’interfaces utilisateurs (UI) et d’expériences utilisateurs (UX). « Historiquement, on a beaucoup conçu l’UX en fonction de la productivité d’un utilisateur. C’est-à-dire qu’on agrégeait un grand nombre d’éléments à l’écran en se disant que cet utilisateur aura nécessairement besoin de toutes ces informations à l’avenir pour monter en compétences, rappelle le spécialiste. Aujourd’hui, comme l’on veut apporter de l’analyse de données à de plus en plus de profils, on change de logique : on ne veut plus faire perdre de temps à l’utilisateur et l’on préfère offrir des UX plus dépouillées, plus intuitives. »

En réalité, la vision d’André Brunetière s’inscrit dans une tendance de fond : autrefois considérée comme un domaine à part entière, l’analyse de données s’impose aujourd’hui davantage comme un besoin transversal. Chiffres à l’appui : si 37% des organisations interrogées par l’étude d’Opendatasoft possèdent une équipe dédiée à la data, 45% préfèrent intégrer des experts au sein de différents services. Et ce virage data-centric influera, de manière certaine, « la façon avec laquelle on concevra les systèmes d’information demain, qui seront d’abord dédiés à des consommateurs de données, non plus à des utilisateurs qui contribuent, avec leur clavier, à créer l’information », prophétise André Brunetière.

Maddyness, partenaire média de Cegid

Source : Maddyness (https://www.maddyness.com/2022/03/09/pourquoi-lanalyse-de-la-donnee-va-devenir-indispensable-pour-les-entreprises/)