Chargement...

Data-Companies. Les entreprises pilotées par les données

Mémoire (de fin d'études) 2019 66 Pages

Informatique - Informatique Appliquée à la Gestion

Extrait

Table des matières

Introduction

1. Omniprésence des données
1.1 – Un peu d’histoire
1.2 – Donnée, Information et Connaissance

2. Évolution et impacts
2.1 – Le coût des données
2.2 – La valeur des données
2.3 – L’innovation pilotée par les données
2.4 – Les transformations liées à la donnée
a. Technologie
b. Organisation
c. Culture

3. Data Companies
3.1 – Définition
3.2 – Exemple de réalisations
3.3 – Étude de cas

Conclusion

Remerciements

Bibliographie

Genèse du mémoire : C’est en regardant l’intervention du directeur de la technologie (CTO) de la SNCF lors des Microsoft Expériences 2018 dans laquelle il évoque le terme « Data Company » que je me suis intéressé à ce terme. Cette présentation offre un excellent point de départ pour mener une enquête sur ce terme qui semble se répandre dans toutes les sociétés, mais sur lequel on ne sait finalement que peu de choses, notamment sur les conditions de sa mise en œuvre concrète.

Abbildung in dieser Leseprobe nicht enthalten

Introduction

À l’heure où les données sont omniprésentes, certaines sociétés se disent être des Data Companies, Data Driven Companies, entreprises pilotées par les données, etc... Pourtant utilisé à l’origine dans le monde des Startups ou dans les sociétés où la donnée est la compétence principale, aujourd’hui ce terme est cité de plus en plus par les grands groupes.

“Data is going to explode across the network”, “We are a data company. We are a company that will grow off this data explosion over the next four to five years”. Brian Krzanich (CEO) of Intel (2017).

L'illustration ne fait pas partie du travail pour des raisons de droits d'auteur.

Figure 1 - Benoît Tiers Directeur général e.SNCF, 29 août 2018 : La donnée, nouvelle étape de la transformation de SNCF

Est-ce un effet de mode ou est-ce une nécessité dans le cadre de leur transformation numérique d’intégrer au centre de leur culture la donnée même si cela n’est pas le cœur de leur métier ?

Rappelons que la transformation numérique est une nécessité pour toutes les entreprises, leur survie en dépend puisque le numérique améliore l’expérience client et optimise la productivité. Si la donnée est bel et bien au cœur de transformation numérique, alors elle représente un facteur indéniable dans la conduite de celle-ci.

Nous tâcherons dans ce mémoire de présenter l’évolution dans l’usage des données numériques (Chapitre 1).

Nous verrons quels sont les impacts des données dans l’entreprise et comment ces entreprises peuvent tirer parti des révolutions technologiques et de leur patrimoine numérique pour innover dans un contexte tiraillé par les contraintes règlementaires (Chapitre 2).

Nous tâcherons ensuite de définir le terme « Data Company » et présenterons quelques mises en œuvre. Enfin, nous verrons à travers un exemple concret comment une entreprise a su se transformer autour d’une architecture data centrique afin de perdurer et gagner des parts de marché (Chapitre 3).

À travers ce mémoire, nous tâcherons de répondre à la question de recherche suivante : La donnée est-elle au cœur de la transformation numérique des sociétés ?

1. Omniprésence des données

1.1 – Un peu d’histoire

Historiquement les données étaient rares, le stockage des informations s’effectuait uniquement dans nos cerveaux et sur papier. Les informations étaient difficiles à rassembler, à traiter et à analyser ; sans compter le coût associé au traitement de ces données qui était alors manuel.

Avec l’arrivée du stockage électronique et de la microélectronique, il fut plus facile de stocker et traiter ces informations. La saisie de ces informations fut dans un premier temps réalisée par les êtres humains : stockage des informations financières dans des ERPH1, saisie des bons de commande, des factures, des paiements, des transactions électroniques, …

La quantité de données était alors limitée, mais l'adoption constante de systèmes d'information dans les organisations a généré de plus en plus de données. La plupart de ces données étaient conservées en silo au sein des organisations et leur analyse passait par des rapports que les employés exportaient et imprimaient.

Dans les années 1990, la construction d'entrepôts de données a permis la consolidation de données issues de différents systèmes verticaux et ainsi de fournir aux bonnes personnes les bonnes données pour qu’elles puissent prendre les bonnes décisions.

C’est avec l’arrivée d’internet, des smartphones, des pages Web et des applications mobiles que l'accélération de la création de contenus numériques a explosé. Chaque fois qu'un utilisateur accède à un site Web, les logs de son activité sont sauvegardés. On parle alors du Big Data pouvant être défini par les quatre V : Volume, Variété, Vitesse et Véracité.

Abbildung in dieser Leseprobe nicht enthalten

Figure 2 - The Four V's of Big Data, IBM

Aujourd'hui, le volume de données grossit exponentiellement, des algorithmes de plus en plus sophistiqués sont développés et la puissance de calcul et de stockage est régulièrement améliorée. La convergence de ces tendances alimente les progrès technologiques et les disruptions business.

Abbildung in dieser Leseprobe nicht enthalten

IDC (International Data Corporation) prédit que le volume de données passera de 33 zettaoctets (ZB) en 2018 à 175 ZB d’ici 2025 :

Abbildung in dieser Leseprobe nicht enthalten

Les activités visant à générer de la valeur étaient manuelles puis elles furent automatisées et désormais elles sont numérisées.

L'un des principaux résultats de ce processus de numérisation est la production de grandes quantités de données, et ce dans tous les domaines.

Nous assistons à l'explosion des données générées par l'informatique omniprésente, le défi des entreprises est alors de trouver des moyens simples et rapides pour les transformer en sources d'informations.

Abbildung in dieser Leseprobe nicht enthalten

1.2 – Donnée, Information et Connaissance

Les concepts de « Donnée », « Information » et « Connaissance » revêtent une importance capitale dans de nombreux domaines et notamment dans le monde de l’informatique et des systèmes d’information. Aussi, attardons-nous sur ces termes et précisons ce qu’est une « donnée » et ce qui la différencie de « l’information » ou encore de la « connaissance ».

Étymologie :

- Donnée : Traduction dans le domaine de l’informatique du mot anglais « data », le mot provient du latin « datum », qui signifiait à l'origine (XIIIe siècle) « don », « aumône ». Il s’est peu à peu spécialisé en mathématiques, statistiques, psychologie et informatique pour désigner ce qui constitue la base d’un savoir en construction.

- Information : Le mot remonte au XIVe siècle dans le sens de « renseignement que l’on obtient de quelqu’un » et, par extension, désigne au pluriel l’ensemble des connaissances sur un sujet donné. Il vient du verbe « informer », qui signifiait à l’origine « donner une forme ». Il s’emploie généralement en ce qui concerne l'éducation, l'instruction ou toute autre forme de communication du savoir.

- Connaissance : Le mot provient du verbe latin « Cognoscere », qui signifiait « apprendre, se constituer un savoir ».

Par définition, une donnée est un élément brut, qui n’a pas encore été interprété, mis en contexte. Les données sont des faits ou des chiffres ; individuellement, elles sont rarement utiles seules, car sans contexte.

Exemple : 10 °.

Lorsque les données sont traitées, interprétées, organisées, structurées ou présentées de manière à être significatives ou utiles, elles sont appelées informations. Contextualisées, elles prennent de la valeur.

Exemple : 10°

- La température est de 10°C à Paris aujourd’hui.

La présence d’informations ne suffit pas pour prendre des décisions. Ces dernières doivent être interprétées par le cerveau humain pour être transformées en connaissances et mener à une action.

Exemple : 10°

- La température est de 10°C à Paris aujourd’hui.
- Je suis à Paris aujourd’hui donc je m’habille chaudement.

Abbildung in dieser Leseprobe nicht enthalten

Figure 3 - BALMISSE, Gilles : La recherche d’information en entreprise, Page 68.

Une donnée est « un élément défini et isolable qui va pouvoir être manipulé, traité et analysé en fonction d’un objectif ou d’un cadre d’analyse ». [1]

Nous parlerons dans la suite de ce document d’activation de la donnée comme étant l’étape clé permettant la prise de connaissance à partir des données brutes.

L'activation des données consiste à mettre en action les données stockées dans une plateforme de gestion de données, notamment en les traitant et en améliorant leur qualité2, en d’autres termes, en les rendant intelligibles. Les données sont comme du carburant dans une voiture et l’activation des données est l’allumage, avant le démarrage du moteur la voiture a peu d’intérêt tout comme les données non activées.

« Information usually implies data that is organized and meaningful to the person receiving it. Data is therefore raw material that is transformed into information by data processing. Information can be defined in terms of its surprise value. It tells the recipient something he did not know ». [2]

Une donnée est constituée à partir de règles ou catégories que le producteur de données définit (l'âge, le revenu, les goûts...) ou encore grâce à une unité de mesure communément admise (le mètre, l’euro, le degré...).

Quant à l'information, elle naît de la relation entre une donnée et une personne. Une information n'existe que si une personne interprète une donnée et lui confère du sens. En d'autres termes, les données sont des éléments basiques qui, en fonc- tion du contexte, seront compris et traduits en connaissances par des hommes ou des machines.

Considérer les données comme un capital que l’on peut faire fructifier par des traitements analytiques (statistiques et informatiques) permet de mieux connaître le fonctionnement de l’entreprise et d’améliorer, d’automatiser la prise de décision et les processus. Comprendre les données et les activer dans le but de générer de l’information constitue la base de la « culture » 3 des données.

Abbildung in dieser Leseprobe nicht enthalten

2. Évolution et impacts

2.1 – Le coût des données

Dans le passé, le coût de stockage des données pouvait décourager la conservation de données non utiles. Aujourd’hui les coûts de stockage ayant diminué, les données peuvent généralement être conservées pendant de longues périodes, voire indéfiniment. Ceci est illustré, par exemple, par le coût moyen par gigaoctet de disques durs grand public, qui sont passés de 56 USD en 1998 à 0,05 USD en 2012, soit une baisse moyenne de près de 40% par an. Avec les technologies de stockage de nouvelles générations telles que les disques SSD (Solid- State Drive), la baisse des coûts par gigaoctet est encore plus rapide.

Coût moyen de stockage des données pour les consommateurs entre 1998 et 2012 :

Abbildung in dieser Leseprobe nicht enthalten

Le CAGR (Compound Annual Growth Rate) est le taux de rendement requis pour qu’un investissement grandisse en supposant que les bénéfices ont été réinvestis.

Parallèlement à la baisse du coût de stockage, la loi de Moore4, selon laquelle la puissance de traitement double environ tous les 18 mois, a été largement confirmée. Cela est particulièrement visible dans les outils de traitement de données qui sont devenus de plus en plus puissants, sophistiqués, omniprésents et peu coûteux, rendant les données facilement analysables.

En génétique, par exemple, les machines de séquençage des gènes à ADN peuvent maintenant lire environ 26 milliards de caractères du code génétique humain en moins d’une minute et le coût de séquençage par génome a chuté de 60% par an en moyenne, passant de 100 millions USD en 2001 à moins de 10 000 USD en 2012.

Coût de séquençage par génome entre 2001 et 2011 :

Abbildung in dieser Leseprobe nicht enthalten

Par ailleurs, les infrastructures de communication ont également grandement progressé ce qui a facilité, par la même occasion, l’usage du Cloud Computing lequel a lui aussi joué un rôle important dans l'augmentation de la capacité de stockage et de traitement des données. Nous avons assisté à l'innovation et à la prolifération de dispositifs de production de données qui tirent parti de ces avancées technologiques.

Malgré un coût de transfert de données plus rapide et moins cher ainsi qu’un coût de stockage et de traitement diminué, le cycle de vie des données ne reste cependant pas gratuit. Tout au long de leur cycle de vie, de leur création, en passant par leur transformation jusqu’à leur analyse, les données génèrent des coûts et ce n’est que lorsqu’on commence à les utiliser, les analyser que celles-ci prennent de la valeur.

Coût et valeur de la donnée durant son cycle de vie :

Abbildung in dieser Leseprobe nicht enthalten

Figure 4 - Coût et valeur de la donnée

Ces différentes étapes nécessitent des infrastructures et des logiciels que des personnes formées doivent savoir utiliser. Ces compétences sont aujourd’hui très recherchées sur le marché du travail et elles ont aussi un coût.

Salaires moyens en dollars aux États-Unis des différents métiers autour de la Data en 2016 :

Abbildung in dieser Leseprobe nicht enthalten

Sans surprise, dans une étude LinkedIn de 2018 on retrouve ces métiers dans la liste des plus difficiles à recruter et dont les entreprises ont le plus besoin [4]. De plus, une étude du site Kaggle montre que les salaires de certains postes comme celui des Data scientist explosent [5].

Un autre poste de coût à ne pas oublier est celui permettant d’assurer la qualité de la donnée. Une étude de marché réalisée par Gartner en 2018 révèle qu’une qualité médiocre de données entraîne des pertes moyennes de 15 millions de dollars par an [6]. Si l'analyse des données peut être réalisées sur des données inexactes, incomplètes, ambigües et de qualité médiocre, on peut s'interroger sur le sens à donner aux résultats de ces analyses et remettre en cause, à juste titre, la qualité des connaissances ainsi élaborées.

Outre les coûts d’activation de la donnée, les salaires des employés, et les traitements pour améliorer la qualité des données, il y a en amont des investissements à réaliser et, pendant toute la durée du cycle, des coûts pour permettre le maintien en condition opérationnelle, la maintenance et la sauvegarde des données. Sans oublier le coût lié à la sécurité et au suivi des règlementations : A titre d’exemple, le RGPD5 impose aux sociétés travaillant avec l’Europe d’avoir des processus en place permettant la suppression des données de ses utilisateurs en cas de demande. Si le coût d’une mise en conformité efficace (le montant est variable en fonction de la taille de l’organisme, du secteur concerné et de la nature des traitements des données opérés) peut certes être élevé, on peut légitimement rétorquer que ce coût est nettement inférieur à celui des sanctions auxquelles ces sociétés s’exposent en cas de non- conformité. Les données sont des actifs précieux et une non-conformité peut engendrer des graves conséquences aussi multiples que variées : sanctions administratives, action en responsabilité, atteinte à la réputation et à l’image de marque, perte de revenus, etc.

La baisse des coûts de la chaîne de valeur des données a été un facteur important de la production et de l’utilisation croissante de données ainsi que de la migration accélérée des activités socio-économiques vers Internet grâce à l’adoption généralisée des services électroniques dans un environnement de plus en plus participatif. Cependant, même si les coûts de l’activation des données ont baissé, ces activités requièrent des connaissances, des outils, des infrastructures ainsi que le respect des règlementations, … générant des coûts ; le retour sur investissement ne sera possible que quand les données auront été activées.

Abbildung in dieser Leseprobe nicht enthalten

2.2 – La valeur des données

La numérisation et la Datafication6 touchent tous les secteurs de l'économie et créent un vecteur continu de changements dans l'économie. La valorisation de nombreuses entreprises telles que Google, Amazon et Facebook repose aujourd’hui sur deux facteurs : Leur potentiel à générer des profits à partir de leur base d’utilisateurs et la quantité de données qu’elles gèrent.

Par exemple, en 2015, Facebook valait environ 250 milliards de dollars tandis qu’Air Canada, une société qui détient des actifs corporels tels que des avions et détient des licences lui permettant d’utiliser des installations aéroportuaires et d’opérer dans le monde entier, ne valait que 34 milliards de dollars.

Si les données peuvent aider à créer de nouveaux produits ou gammes de services, elles peuvent en revanche constituer un obstacle à l'entrée sur le marché pour les nouvelles entreprises confrontées à une concurrence bien établie. Par exemple, si quelqu'un devait créer demain un nouveau service de réseau social professionnel, il serait impossible pour lui de rivaliser avec LinkedIn dans la mesure où LinkedIn a tellement de données sur ses utilisateurs professionnels que sans ces données, il aura beaucoup de mal à entrer sur le marché.

On entend souvent « La Data est le pétrole du XXIe siècle », c ertaines entreprises ont intégré cette certitude depuis longtemps, d’autres commencent seulement à comprendre tout l’avantage stratégique qui en découle. Avec la multiplication des appareils et objets connectés, des plateformes sociales et surtout des solutions de suivi des internautes, le client se retrouve de plus en plus “créateur de données”, données qui vont ensuite pouvoir être qualifiées pour bâtir une stratégie et ainsi générer plus de valeurs.

Un autre exemple illustrant le transfert de l’actif corporel aux actifs incorporels, telles que les données, dans la valorisation et la stratégie d’entreprise : En 2015, IBM a acquis Weather Company pour 2 milliards de dollars. Celle-ci fournit le contenu météo de plus de 195 000 stations. Alors que de nombreux analystes étaient surpris par l'acquisition d'une société de météorologie par une société de technologie appartenant à un secteur totalement différent, un an plus tard, IBM utilisait les

données de la société de météorologie pour répondre aux préoccupations de leurs

commerçants face aux intempéries avec un modèle de prévision très précis. Aujourd’hui leurs

solutions fournissent aux télédiffuseurs, pilotes, commerçants en énergie, agents d’assurance, employés de l’État, responsables de la vente au détail, et plus encore, des informations sur l’impact des conditions météorologiques sur leurs activités, les aidant à prendre des décisions plus éclairées pour améliorer la sécurité, réduire les coûts et générer des revenus.

Abbildung in dieser Leseprobe nicht enthalten

L'infonomie7 est une théorie axée sur la quantification de la valeur de l'information et la gestion de l'information comme un atout. La portée de l'infonomie consiste à traiter les données avec une monétisation identique ou similaire à celle des autres actifs traditionnels tels que les actifs financiers, physiques ou immatériels. Selon la théorie infonomique, une information répond à tous les critères des actifs traditionnels d'une entreprise. Même si elles ne sont pas encore acceptées par les pratiques comptables les plus courantes, de plus en plus d'organisations se comportent comme si elles devaient optimiser la valeur commerciale générée par l'information. De la même manière, l'économie de données (Data Economy) implique de tirer parti des données et de leur analyse comme atout pour augmenter les revenus de l’entreprise, accroître son efficacité opérationnelle ainsi que générer de nouveaux modèles commerciaux [7]. L’économie de données a également été reconnue par la Commission européenne. Dans un article intitulé « Towards a thriving data-driven economy » publié sur le site Web de la Commission Européenne, les auteurs déclarent que l'économie fondée sur les données encouragera la recherche et l'innovation ce qui créera de nouvelles opportunités commerciales. [8]

La monétisation des données consiste à utiliser des données pour obtenir des avantages économiques quantifiables directs (vente via un courtier en données ou indépendamment) ou indirects (améliorations mesurables des performances commerciales, innovations, réduction des risques et des coûts). [9]

Nous l’avons déjà évoqué, la valeur de la donnée n’est véritable que si elle est activée, mais d’autres aspects sont à prendre en compte quant à sa valeur :

- Son volume : Plus le volume de données est grand, plus les informations pouvant en être extraites seront potentiellement importantes, par exemple le fait de pouvoir analyser un plus grand historique de données afin de déceler des patterns, des schémas répétitifs.
- Sa variété : La capacité d'acquérir et d'analyser des données variées (structurées ou non structurées) est extrêmement précieuse. Plus les données clients d’une entreprise seront diversifiées, plus elle sera à même de développer une vision globale et ainsi mieux cibler les attentes de ses clients.
- Sa qualité, sa véracité : Une mauvaise complétude, conformité, cohérence, précision, unité ou encore intégrité dans les données impacte lourdement sa valeur. Par exemple une donnée erronée sur l’adresse d’un utilisateur impactera les coûts d’envois postaux.
- Sa fraicheur : Les données ne se déprécient pas en raison de leur consommation, mais elles peuvent devenir non pertinentes en raison de leur ancienneté. En expliquant la théorie de l’innovation de rupture « Disruptive innovation », Clayton Christensen disait que le problème des paradigmes de type Data-Driven est que les données viennent du passé et qu’on risque de prendre des décisions quand il sera déjà trop tard [10]. Les données concernant le futur n’existent pas et personne ne peut nous les fournir. Pour optimiser, nous avons donc besoin d’exploiter les données du présent tout de suite et rapidement avant qu’elles ne soient « périmées ».
- Sa rareté : Les biens les plus rares ont le plus de valeur. Ce principe a une logique économique indéniable et reste vrai concernant les données. Leur rareté participe à déterminer leur prix.

La valeur des données augmente si la capture, l'analyse et le traitement des données variées et de qualités sont rapidement réalisés :

Abbildung in dieser Leseprobe nicht enthalten

Figure 5 - Valeur de la donnée 8

Les données historiques porteuses de moins de valeurs à l’instant T sont toutefois porteuses d’informations. Au regard du coût de stockage, il est aujourd’hui plus pertinent de les sauvegarder et de trouver une façon de les activer par la suite plutôt que de les supprimer.

D’autres traitements sophistiqués peuvent ajouter de la valeur aux données. C’est le cas de l'analyse prescriptive et de l'analyse prédictive qui tirent parti de l’apprentissage automatique :

- L'analyse prédictive permet de faire des projections futures basées sur des données historiques et actuelles. Elle permet d'utiliser les données brutes connues et de les traiter afin de pouvoir prédire les informations non connues.
- L’analyse prescriptive permet non seulement de donner un sens aux données brutes, mais également de s’en servir pour déterminer les actions à prendre. L'analyse prescriptive aide également à faire évoluer la logique décisionnelle afin de maintenir ou d'améliorer son efficacité au fil du temps.

Il est courant de présenter les étapes de sophistication de la donnée sous la forme suivante :

Abbildung in dieser Leseprobe nicht enthalten

Figure 6 - Analytics Value Escalator [11]

Autre caractéristique intéressante de la donnée : Elle est aujourd’hui facile à distribuer et peut être réutilisée plusieurs fois contrairement à d’autres actifs. Selon G. Shapiro et H. Varian dans « Information rules » : « l’information est coûteuse à produire mais peu coûteuse à reproduire ». Le prix est fixé en fonction de sa valeur pour le client et non en fonction de son coût marginal. Le PDG de Saint-Gobain a énoncé dans une conférence (Conférence de l’IAE de Paris du 09/05/2016 sur les enjeux de la transformation numérique pour les entreprises) que l’investissement dans une plateforme a un coût élevé au début pour la mettre en place, mais un coût marginal faible par la suite pour exploiter les produits numériques qu’elle génère.

Il n’est donc pas étonnant de voir naitre de plus en plus d’entreprises spécialisées dans la vente de données (Data Broker). À titre d’exemple, la société américaine Datalogix (rachetée par Oracle en 2014) traque les Data issues des transactions bancaires transitant par les sites de commerce en ligne ou chez les commerçants et magasins physiques. Ces données amassées sont notamment vendues à de grands groupes comme Facebook ou Google pour les aider à mieux cibler leurs offres publicitaires. En France, la société Dawex est une « place de marché » de données où les entreprises achètent et vendent des données. Dans ces places de marché, la donnée peut avoir plusieurs niveaux de valorisation : sa valeur brute (par sa source ou son contenu propre) et sa valeur « raffinée » en fonction de l’expertise, de son traitement, de sa fiabilité ou encore de sa pertinence.

Comme précisé ci-avant, la donnée a une valeur significative, mais un mouvement prône son ouverture, son partage. Initié aux États-Unis en 2009, ce mouvement a trouvé un fort écho dans la communauté des développeurs notamment parmi les contributeurs de projets Open Source dont le mouvement est philosophiquement proche : L’Open Data9. L'ouverture des données est à la fois un mouvement, une philosophie d'accès à l'information et une pratique de publication de données librement accessibles et exploitables. Elle s'inscrit dans une tendance qui considère l'information publique comme un bien commun dont la diffusion est d'intérêt public et général. Une donnée ouverte répond à un ensemble de critères techniques, économiques et juridiques : Elle doit être accessible gratuitement et librement en ligne dans un format qui en permet la réutilisation. Des exemples d’Open Data : Données sur le transport, la cartographie, les statistiques, la géographie, la sociologie, l'environnement, etc.

Les données ont une valeur et procurent un avantage concurrentiel certain aux entreprises en capacité de les activer. La valeur des données dépend de plusieurs facteurs : Leur volume, leur variété, leur véracité, leur qualité, leur rareté, leur fraicheur et leur sophistication.

La monétisation des données révolutionne la façon dont les entreprises considèrent les actifs informationnels. Les informations générées à partir des données brutes sont monétisables et servent à obtenir un avantage économique certain. Ainsi la capacité de produire, de comprendre et d’utiliser des données numériques devient une compétence essentielle pour toutes entreprises.

Abbildung in dieser Leseprobe nicht enthalten

2.3 – L’innovation pilotée par les données

Compte tenu de la dynamique de l'industrie moderne, l’innovation devient de plus en plus importante pour assurer la croissance, la durabilité et la compétitivité des entreprises.

Le dictionnaire Larousse définit l’innovation comme un « Ensemble du processus qui se déroule depuis la naissance d'une idée jusqu'à sa matérialisation (lancement d'un produit), en passant par l'étude du marché, le développement du prototype et les premières étapes de la production ». Ainsi, l’innovation ne désigne pas seulement la nouvelle idée, mais aussi toutes les étapes nécessaires à sa réalisation.

Le manue l d’ Oslo10 définit les quat re for me s de l’ innovat ion e nt r e pr e ne ur iale :

- Innovation de produit : Elle signifie l’introduction d’une nouvelle offre, d’un nouveau bien ou service,
- Innovation de procédé (ou de processus) : Elle signifie la production d’un produit selon une nouvelle méthode. C’est par exemple la mise en place d’une nouvelle méthode de production par l’exploitation d’une nouvelle technologie,
- Innovation de commercialisation (ou de marketing) : Elle signifie la production d’un même produit avec la même méthode, mais avec un changement de design ou l’utilisation d’une nouvelle méthode de commercialisation impliquant des changements significatifs de la conception ou du conditionnement, du placement, de la promotion ou de la tarification d’un produit.
- Innovation d’organisation (ou managériale) : Dans ce cas, on fabrique la même chose de la même manière et on la commercialise de la même façon, mais avec une nouvelle organisation plus efficiente. Les méthodes Lean Management et Agile sont des exemples de ce type d’innovation.

Ces quatre formes d’innovation ont un point commun : L'utilisation des technologies émergentes et l'amélioration constante des processus de création de valeur. Les entreprises doivent disposer de souplesse et d’agilité nécessaires pour créer de nouvelles offres, produits ou encore services. Ils adoptent alors des méthodologies comme avec le Lean Startup.

Le Lean Startup est une méthode alternative au développement traditionnel des produits et des business qui a été introduite par Eric Ries en 2011. Contrairement au processus linéaire du développement de produit traditionnel, le Lean Startup est un développement agile avec des cycles courts et répétés. L'objectif principal du Lean Startup est de raccourcir les cycles de développement de produits et de développer des produits conformes aux besoins des clients. La méthode est liée à l’approche Lean Manufacturing en visant à éliminer les activités inutiles et à augmenter les actions à valeur ajoutée dans le processus de développement de la production. L'agilité de la méthode repose sur la réception continue des commentaires des clients tout au long du processus de développement du produit, ce qui permet d'éviter de consacrer des ressources à des fonctionnalités indésirables qui ne répondent pas aux besoins des clients et réduisent les risques du marché.

Boucle de feedback « Build-Measure-Learn » :

Abbildung in dieser Leseprobe nicht enthalten

Figure 7 - Diagramme adapté d’Eric Ries (2011) 'The Lean Startup' [13]

Les entreprises dont les compétences en matière de données sont plus avancées extraient de plus en plus de valeurs à partir de ces données et informations et deviennent des entreprises intelligentes.

Exemple avec le robot de cuisine Thermomix fabriqué par la société Vorwerk : Thermomix est sur le marché depuis plus de trente ans et en est actuellement à la cinquième génération de son produit. La proposition de valeur de Thermomix est qu’il permet aux personnes qui ne savent pas ou n’ont pas le temps de cuisiner, de cuisiner. En baisse de vente, la société a incorporé des fonctionnalités dans sa dernière génération qui en ont fait un actif intelligent. En effet, le Thermomix peut désormais se connecter au réseau Wifi du domicile du client et peut ainsi recevoir et envoyer des données. Il peut recevoir des recettes de cuisine et envoyer des informations au réseau sur l'utilisation du produit. Cet ajout intelligent à la plateforme permet au Thermomix de faire beaucoup de choses qu’il ne pouvait pas faire par le passé : tout d'abord, il crée des données sur la manière dont les utilisateurs utilisent le produit, ce qu'ils cuisinent et à quels moments. Ces données peuvent ensuite alimenter le développement futur des produits de la société. En outre, la plateforme envoie des données sur les performances techniques du produit ainsi que sur les éventuels dysfonctionnements. Toute cette information revient au créateur de Thermomix qui en apprend ainsi beaucoup sur les habitudes d’utilisation ou encore les goûts de ses clients. De plus, Thermomix dispose d'une équipe de cuisiniers qui créent constamment de nouvelles recettes pour leurs utilisateurs. En connaissant les habitudes de ses utilisateurs, Thermomix a la possibilité de leur envoyer des recommandations personnalisées. Cet exemple montre clairement le potentiel des actifs intelligents (pertinents pour de nombreux autres actifs tels que les maisons intelligentes, les montres, les voitures ou les portes), ainsi que la valeur des produits de données et la manière dont ils améliorent les actifs numériques et les actifs intelligents.

L’innovation pilotée par les données ou en anglais Data-Driven-Innovation (DDI) a été définie et présentée dans le livre « Exploring Data-Driven Innovation as a New Source of Growth » [14].

A la lecture de cet ouvrage, il est clair que les innovations de demain seront en grande partie pilotées par les données :

« DDI has the potential to enhance resource efficiency and productivity, economic competitiveness, and social well-being as it begins to transform all sectors in the economy, including low-tech industries and manufacturing. The exploitation of DDI has already created significant value-added for many businesses and individuals, and more can be expected to follow. […] Available evidence also shows that firms using DDI have raised productivity faster than non-users by around 5-10%. ».

Différents exemples de l’ ut ilisat ion de s do nné e s c omme sour c e d’ innovat ion e t de cr oissanc e de la productivité :

- Utilisation des données pour la création de nouveaux produits (biens et services). Cela inclut l'utilisation de données en tant que produit (« Data Products ») ou en tant que composant majeur d'un produit (produits à forte consommation / création de données « data-intensive products »).
- Utilisation des données pour optimiser ou automatiser les processus de production ou de livraison (processus pilotés par les données, « Data Driven Processes »). Cela inclut l'utilisation des données pour améliorer l'efficacité de la distribution des ressources énergétiques (réseau électrique intelligent, « Smart Grids »), de la logistique et du transport (logistique et transport intelligent).
- Utilisation des données pour améliorer le marketing, par exemple en fournissant des publicités ciblées et des recommandations personnalisées ou d'autres types de clustering liés au marketing (marketing fondé sur les données, « Data Driven marketing), ainsi que l'utilisation de données pour la conception de produits expérimentaux (conception de produits axée sur les données, « Data Driven Product Design »).
- Utilisation des données pour de nouvelles approches organisationnelles et de gestion ou pour améliorer de manière significative les pratiques existantes (organisation et prise de décisions basées sur des données, « Data Driven organization and Data Driven Decision Making »).
- Utilisation des données pour améliorer la recherche et le développement (« Data Driven R&D »).

Les différentes formes d’innovation pilotées par les données s’inscrivent naturellement dans la « boucle de feedback » permettant aux sociétés d’améliorer en continu leurs produits, procédés ou encore leurs organisations et ainsi de proposer de nouveaux services à leurs clients et prospérer.

D’autres sociétés utilisent les produits de données comme source de diversification pour créer de nouveaux business ou encore dans le but d’améliorer des processus existants.

Ces sociétés ont toutes un point commun, celui de mesurer, d’apprendre et ainsi de progresser via l’utilisation des données.

Abbildung in dieser Leseprobe nicht enthalten

2.4 – Les transformations liées à la donnée

Nous avons vu le coût de la donnée, quelle pourrait en être la valeur si celle-ci était activée et comment les sociétés peuvent les utiliser pour innover. Etudions à présent les transformations nécessaires afin d’en tirer parti en tant qu'actif stratégique.

a. Technologie

Afin de générer des informations numériques, les activités de l’entreprise doivent être numérisées. Être une entreprise numérique est la première étape pour disposer d’actifs numériques et avoir la capacité d’extraire de la valeur de données produites par ces actifs numériques. En raison de la dématérialisation d’un nombre croissant de processus et l’apparition de produits et services numériques totalement nouveaux, la quantité de données numériques créées augmente de manière exponentielle.

L’omniprésence et la prolifération exponentielle des données impactent les entreprises qui doivent déployer des plateformes de gestion et d’exploitation de la donnée capables de répondre aux nouveaux besoins des utilisateurs comme l’analyse en temps réel, l’agrégation d’énormes quantités de données ou encore l’analyse prédictive. Regardons quelques solutions technologiques supportant ces transformations.

La gestion des données d'entreprise (EDM en anglais : Enterprise Data Management) est la capacité d'une organisation à créer, intégrer, diffuser et gérer efficacement des données pour l'ensemble des applications, processus et entités de l'entreprise. Une Data Management Platform (DMP), ou Plateforme de Gestion des Données permet de collecter et centraliser les données, de les retraiter (en les unifiant, les enrichissant, les segmentant, …) dans le but de les activer. Le Master Data Management (MDM) désigne un ensemble d’outils et de méthodologies permettant l’intégration et la maintenance des données de références (Master Data) de l’entreprise. Ces outils sont étroitement liés à la gouvernance des données, ils jouent alors un rôle prépondérant dans la transformation liée aux données en permettant notamment de cartographier les données de l’entreprise et d’avoir « une seule version de la vérité ».

Dès l’invention des systèmes de gestion de base de données (SGBD), les bases de données relationnelles (OLTP, OnLine Transaction Processing) ont présenté, entre autres, l’avantage de retrouver rapidement une donnée particulière grâce aux index. Toutefois, ces mêmes bases de données ne sont pas adaptées aux traitements de masse nécessaires aux calculs des données d’un système décisionnel, où l’objet est de ramener un grand nombre de données et de les agréger entre elles. Ainsi les systèmes OLAP11 ont fait leur apparition, ils précalculent (ou du moins facilitent largement les agrégations) toutes les valeurs clés (aussi appelées mesures) selon des axes d’analyse (ou dimensions).

Datawarehouse : Le système d’information de l’entreprise et notamment son système d’aide à la décision, de Business Intelligence (BI) a un rôle primordial dans l’entreprise.

[...]


1 Enterprise Resource Planning (ERP) : Progiciel permettant de gérer l’ensemble des processus opérationnels d’une entreprise en intégrant plusieurs fonctions de gestion.

2 La qualité des données, en informatique se réfère à la conformité des données aux usages prévus, dans les modes opératoires, les processus, les prises de décision, et la planification (J.M. Juran).

3 « La culture des données croise culture médiatique et culture informatique et mathématique. Elle repose comme t ou t e culture sur le partage de connaissances et de pratiques. Il s'agit d'une part de connaître le mode de fonctionnement des médias informatisés qui, entre autres, collectent, communiquent, traitent des données. Regarder et configurer les paramètres de nos applications, comprendre la manière dont est produite une datavisualisation (représentation graphique de données). Et d'autre part, cela requiert d'être en mesure de mobiliser quelques bases informatiques et statistiques ». [3]

4 La loi de Moore est une loi empirique qui a trait à l'évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique.

5 RGPD : Le Règlement Général sur la Protection des Données, est un règlement de l'Union européenne qui constitue le texte de référence en matière de protection des données à caractère personnel. Il renforce et unifie la protection des données pour les individus au sein de l'Union européenne.

6 Le terme Datafication apparu pour la première fois dans le livre "Big Data: A Revolution That Will Transform How We Live, Work and Think" (Kenneth Cukier, 2013) fait référence à l'hyperinflation numérique, qui se traduit par des masses gigantesques et difficilement gouvernables de données. Le processus de Datafication est parallèle au processus de transformation des actifs en actifs numériques et intelligents.

7 L’infonomie (Infonomics en Anglais), s’intéresse à la manière de produire, de diffuser et d’utiliser des contenus immatériels : données, informations, connaissances, savoir-faire, etc.

8 Schéma inspiré de la figure 26 “The value of information and data in time” du livre The Data Advantage [12].

9 Le terme open data trouve son origine en 1995 dans une publication du comité sur les données géophysiques et environnementales du Conseil national de la recherche aux États-Unis intitulée De l'échange complet et ouvert des données scientifiques.

10 Le Manuel d'Oslo de l'Organisation de Coopération et de Développement Economiques (OCDE) rassemble les principes directeurs proposés pour le recueil et l'interprétation des données sur l'innovation.

11 Les systèmes OLAP ont été conceptualisés par Edgar Frank Codd en 1996.

Résumé des informations

Pages
66
Année
2019
ISBN (ebook)
9783668962491
Langue
Français
N° de catalogue
v478149
Note
16
mots-clé
Data-Companies Data BigData MachineLearning Culture DataLiteracy

Auteur

Partager

Précédent

Titre: Data-Companies. Les entreprises pilotées par les données