We’re available from 9 am to 6 pm on weekdays. Contact Us.
Gartner Data & Analytics Summit 2018 : Démultiplier la valeur des données

C'est aujourd'hui une évidence : les données constituent une ressource essentielle pour les organisations qui veulent tracer leur route dans un environnement économique en voie de digitalisation rapide. L'analyse de ces données devient ainsi progressivement une priorité pour les entreprises. Celles-ci peuvent en effet y trouver des leviers pour améliorer leur efficacité, optimiser les expériences vécues par leurs clients et gagner des avantages concurrentiels, ont expliqué les analystes de Gartner aux spécialistes des données réunis du 19 au 21 mars à Londres à l'occasion du Gartner Data & Analytics Summit 2018.

La Business Intelligence et l'Analytique sont d'ailleurs considérées par les leaders technologiques comme les principaux activateurs de croissance, selon la dernière édition de l'enquête CIO Agenda de Gartner : 26% des 2.834 CIOs interrogés par la firme dans le cadre de son étude annuelle voient dans la BI et l'analyse des données les domaines technologiques les plus importants pour aider leurs organisations à se différencier de leurs concurrents et à atteindre leurs objectifs stratégiques [1].

Pour Ted Friedman, Responsable de Recherche au sein de l'équipe Données & Analytique de Gartner, extraire toute la valeur des programmes déployés par les entreprises pour collecter, traiter et analyser les données implique cependant de surmonter quatre défis d'envergure. Le premier de ces défis, qui consiste à établir une véritable confiance dans le fondement même des données, s'impose comme une priorité aux entreprises qui visent à tirer profit de l'exploitation de l'ensemble des informations dont elles disposent, d'origine interne comme externe, y compris celles qui proviennent des systèmes d'IoT. Y parvenir implique d'améliorer la qualité des données collectées. Dans un contexte où les volumes de données ne cessent de croître, Gartner postule que, pour se doter des moyens de garantir, à toutes les échelles, la qualité et la fiabilité de leurs données, les entreprises doivent passer par la création automatisée de métadonnées et le recours au crowdsourcing. Le cabinet conseille encore aux organisations d'équilibrer le recours aux data lakes – qui permettent de gérer des données complexes et de natures diverses - et aux data warehouses – qui conviennent à l'exploitation des données structurées issues des systèmes de gestion d'entreprise.

 

Gartner considère qu'en 2021 les "réalités contrefaites" et les faux contenus créés en recourant à l'intelligence artificielle dépasseront la capacité de cette même intelligence artificielle à les détecter, générant ainsi une montée de la défiance vis-à-vis du numérique.

 

Un autre défi est de promouvoir une culture de la diversité transverse à toute l'organisation, ce qui peut se concevoir de plusieurs manières, notamment en rassemblant des talents qui diffèrent par leur culture, leur âge, leur genre ou leur façon de travailler, mais aussi en réduisant les biais dans les algorithmes et en s'ouvrant à des sources de données plus diversifiées. Selon Kurt Schlegel, Vice-Président de la Recherche chez Gartner, les petites équipes diversifiées sont plus efficaces que les groupes homogènes lorsqu'il s'agit de s'attaquer à des problèmes complexes. C'est pourquoi il est important de développer une culture de la diversité parmi les équipes d'analyse des données. Le chercheur de Gartner conseille également aux entreprises de s'appuyer sur des plateformes d'analyse susceptibles d'élargir le contexte, d'apporter plus de précision et d'obtenir plus rapidement des réponses.