Selon Gartner (juillet 2024), au moins 30 % des projets d'IA générative seront abandonnés après la phase de POC d'ici fin 2025 — pour cause de mauvaise qualité des données, de contrôles de risque inadéquats, de coûts qui dérapent, ou d'absence de valeur business claire. Dans une étude plus récente (février 2025), Gartner alerte que 60 % des projets IA seront abandonnés d'ici 2026 par défaut de données « AI-ready ». MIT Project NANDA (juillet 2025) va encore plus loin : sur 300 déploiements analysés, 95 % des projets d'IA générative en entreprise n'apportent aucun retour mesurable sur le P&L.
Et pourtant, 88 % des organisations utilisent l'IA dans au moins une fonction (McKinsey State of AI 2025). Plus une organisation est mature, plus l'écart se creuse entre le déclaratif et la valeur P&L réelle. La cause de ce gouffre n'est presque jamais la technologie. Elle est méthodologique — et c'est précisément le sujet de cet article.
Notre conviction : la plupart des projets data sont conduits selon une approche top-down héritée du conseil traditionnel — on bâtit d'abord l'infrastructure (datalake, gouvernance, qualité), puis on construit les dashboards, puis (peut-être) on industrialise les usages. Le problème : 18 mois plus tard, l'entreprise a dépensé 150 à 500 k€ et personne dans les opérations ne s'en sert. L'approche bottom-up — partir de l'outil métier qui génère la donnée — bat statistiquement le top-down sur 6 critères mesurables sur 7 en PME-ETI. C'est ce que cet article démontre.
Le constat : entre 60 % et 95 % d'échec selon le périmètre
Un consensus statistique sans appel
Aucune statistique « universelle » ne s'impose, mais une convergence claire émerge des publications 2024-2026 :
| Source | Chiffre | Périmètre | Date |
|---|---|---|---|
| Gartner (Nick Heudecker) | 60 puis 85 % d'échec des projets big data | Grandes entreprises | 2017, toujours cité 2024 |
| Gartner | 30 % des projets GenAI abandonnés après POC d'ici fin 2025 | Tous secteurs | 29 juillet 2024 |
| Gartner | 60 % des projets IA sans données « AI-ready » abandonnés d'ici 2026 | 1 203 leaders data | 26 février 2025 |
| Gartner | 80 % des initiatives de gouvernance D&A échoueront d'ici 2027 | Tous secteurs | 28 février 2024 |
| MIT Project NANDA — The GenAI Divide | 95 % des projets GenAI sans impact P&L | 300 initiatives + 153 répondants | Juillet 2025 |
| Wavestone Data & AI Leadership Executive Benchmark 2025 | 23,9 % en production at scale (vs 4,9 % en 2024) | 125 Fortune 1000 | Décembre 2024 |
| McKinsey State of AI 2025 | 88 % utilisent l'IA, 1/3 seulement scale ; 39 % impact EBIT (majoritairement <5 %) | 1 993 répondants | Octobre 2025 |
| dbt Labs State of Analytics Engineering 2025 | 56 % citent la qualité des données comme défi #1 | 459 praticiens | Avril 2025 |
| RAND Corporation | >80 % des projets IA échouent (2× IT trad.) | Tous secteurs | 2025 |
| S&P Global | 42 % d'abandon en 2025 vs 17 % en 2024 | Tous secteurs | 2025 |
« 95 % of organizations deploying generative AI saw zero measurable return. Not low return. Zero. » — MIT Project NANDA, The GenAI Divide: State of AI in Business 2025, juillet 2025.
Les vraies causes de l'échec
Trois familles ressortent systématiquement (Gartner 2024, MIT NANDA 2025, McKinsey 2025) :
- Technique : qualité des données insuffisante (43 % des CDO selon CDO Insights 2025), maturité technique faible, intégration aux SI existants problématique (cité dans 70 % des cas par Eurostat 2022).
- Méthodologique : approche top-down sans cas d'usage validé. « Believing if you build it they will come », comme Gartner le formule. Les projets démarrés par l'IT plutôt que par le métier ont, selon le MIT NANDA 2025, un taux de succès deux fois inférieur : 33 % vs 67 % pour les projets achetés à un fournisseur spécialisé et co-construits avec le métier.
- Adoption : 22 % de résistance des employés (Bpifrance Le Lab, juin 2025), 43,5 % d'organisations Wavestone manquent de talents, absence de sponsorship métier.
« Cultural challenges remain the principal impediment to data and AI transformation. » — MIT Sloan Management Review + Wavestone, 2024-2025.
Le coût d'un projet raté en grande entreprise
Les chiffres PME français sont rares, mais les ordres de grandeur sont éclairants :
- Cas Fortune 100 retailer documenté par Karthik Goutam (Medium, mars 2025) : 4,2 M$ dépensés sur un datalake abandonné après 14 mois, faute de cas d'usage et d'alignement organisationnel.
- MIT NANDA 2025 : 30 à 40 G$ d'investissements GenAI en entreprise pour 95 % de retours nuls.
- En PME-ETI française : un projet « plateforme data » conduit par un Big 4 ou grande ESN se situe dans la fourchette 150-500 k€ pour la phase 1 (cadrage + premier datawarehouse), atteint régulièrement 800 k€-2 M€ sur 18-24 mois quand on intègre roadmap + run + change.
Le « data swamp » et l'échec spécifique des datalakes
Le datalake est devenu l'archétype de l'échec data en entreprise :
- 80 % des datalakes échouent ou dérivent en data swamp (chiffre repris par Moody's, EdgeDelta, Acceldata sur la base d'études Gartner 2017 actualisées 2024).
- Une organisation type accumule 5 PB de données non structurées sans métadonnées, avec des coûts cloud mensuels >115 000 $ (EdgeDelta 2024).
- Moins de 10 % des données ingérées dans un datalake sont effectivement requêtées (estimation industrielle citée par Solix, Cloudian, Alation 2024).
- 60 % des initiatives datalake échouent pour des raisons de gouvernance, qualité et intégration (Folio3 citant Gartner 2024).
À retenir pour un dirigeant PME-ETI : la probabilité statistique qu'un projet data lancé en mode « plateforme d'abord » échoue à délivrer une valeur P&L mesurable est de l'ordre de 2 sur 3 à 9 sur 10, selon le périmètre considéré. L'écart entre les chiffres tient au critère retenu (mise en production vs ROI documenté). En aucun cas il ne tient à la qualité des modèles ou des outils.
L'approche traditionnelle top-down : pourquoi elle ne fonctionne plus
L'héritage théorique
Deux paradigmes ont structuré la pensée data warehousing depuis 30 ans :
- Bill Inmon (Corporate Information Factory) : approche top-down. On construit d'abord le datawarehouse central, puis on dérive les data marts métier. Forte gouvernance, longue durée de mise en œuvre, robustesse à long terme.
- Ralph Kimball (Dimensional Modeling) : approche bottom-up. On construit d'abord des data marts par domaine métier, qui s'agrègent par conformed dimensions. Time-to-value plus court, gouvernance plus distribuée.
Le débat moderne déplace ce clivage vers une question plus radicale : faut-il commencer par l'infrastructure ou par l'outil métier qui génère la donnée ?
Les trois faiblesses structurelles du top-down
Le modèle traditionnel commence par la couche infrastructure : data warehouse, ETL, gouvernance, qualité. On modélise ensuite les données métier, on bâtit des dashboards, et seulement à la fin on imagine des cas d'usage IA / produits. Cette approche présente trois faiblesses structurelles documentées :
- Le ROI est invisible pendant 12 à 18 mois. Tant qu'on n'a pas atteint la couche applicative, l'investissement n'a aucun retour mesurable. Les dirigeants perdent confiance, les budgets sont coupés, le projet s'enlise.
- L'infrastructure construite est hors-sol. Les équipes data conçoivent un datalake « en fonction de tous les cas d'usage potentiels », ce qui aboutit à un sur-engineering non aligné avec les vrais besoins métier.
- Les utilisateurs ne s'approprient jamais l'outil. Quand la couche applicative arrive enfin, les processus métier ont changé, les utilisateurs n'ont pas été embarqués dans la conception, et l'outil est rejeté.
Le tournant data mesh (2019-2024)
Zhamak Dehghani (Thoughtworks) publie en 2019 « How to Move Beyond a Monolithic Data Lake to a Distributed Data Mesh » — texte fondateur. Quatre principes : domain ownership, data as a product, self-serve platform, federated computational governance. Sa thèse centrale, élaborée dans le livre O'Reilly Data Mesh (2022), est explicite :
« Despite the time, money, and effort poured into them, data warehouses and data lakes fail when applied at the scale and speed of today's organizations. » — Zhamak Dehghani, Data Mesh, O'Reilly, 2022.
Les retours d'expérience Thoughtworks (Roche 2023-2024 ; whitepaper Google Cloud + Thoughtworks 2023) confirment que la data mesh prend des mois à des années à matérialiser sur les plateformes, mais qu'elle aligne mieux la création de valeur avec les usages métiers.
L'approche bottom-up : construire l'outil, c'est construire la donnée
Notre méthode inverse la logique. Nous démarrons par l'identification d'un point de douleur opérationnel précis et mesurable chez le client : un processus métier mal outillé, un reporting manuel chronophage, une décision business qui se prend à l'aveugle. Nous construisons immédiatement un outil qui résout ce point de douleur — et c'est cet outil qui génère la donnée structurée.
Cette approche change tout :
- L'outil est utilisé dès le jour 1, parce qu'il a été conçu autour d'un usage réel.
- La donnée produite est nativement métier, parce qu'elle naît d'un processus opérationnel.
- L'investissement génère du ROI immédiat, parce qu'il libère du temps ou crée du revenu dès la première semaine.
- L'écosystème data se construit progressivement, brique par brique, en cohérence avec la maturité réelle de l'organisation.
Ce que nous appelons « l'écosystème data-natif » est cette logique appliquée à l'échelle : chaque outil interne déployé enrichit le patrimoine de données de l'entreprise. Au bout de 12-18 mois, le client n'a pas seulement des dashboards : il a un patrimoine numérique souverain, fait d'outils opérationnels qui produisent eux-mêmes la donnée stratégique.
Top-down vs bottom-up — le tableau comparatif
| Critère mesurable | Top-down (datalake → dashboards → usages) | Bottom-up (outil métier → données structurées en sortie → BI) |
|---|---|---|
| Time-to-value (1ᵉʳ ROI mesurable) | 9-18 mois (MIT NANDA 2025 : 9 mois min. pour les grandes entreprises) | 8-12 semaines (MIT NANDA 2025 : ~90 jours pour le mid-market) |
| Coût phase 1 typique PME-ETI | 150-500 k€ (cadrage + DWH) ; 800 k€-2 M€ sur 18-24 mois | 30-100 k€ (outil métier SaaS + intégration + 1 dashboard) |
| Taux de mise en production | 5-23,9 % au niveau Fortune 1000 (Wavestone 2025) | Co-construit : 67 % de succès (MIT NANDA 2025) |
| Taux d'échec global | 60-85 % (Gartner 2024) ; 95 % sans valeur P&L (MIT NANDA) | 2× plus de succès (MIT NANDA) |
| Adoption métier | Résistance dans 22 % des cas (Bpifrance 2025) ; cultural challenges = #1 obstacle | L'utilisateur métier est le générateur de la donnée → adoption native |
| Alignement use case | Faible : 60 % des dirigeants français 2024 sans stratégie IA formalisée (Bpifrance) | Élevé : le cas d'usage précède l'investissement infra |
| Valorisation à la cession | Risque de tech debt + data debt non négocié | Patrimoine numérique structuré, prêt pour due diligence |
Synthèse contrariante : sur les sept critères mesurables ci-dessus, l'approche bottom-up domine sur six. Le seul argument valide pour une approche top-down concerne les organisations >5 000 salariés ou les acteurs régulés (banque, assurance, santé) avec des exigences de gouvernance fédérée. Aucune des deux conditions ne s'applique à une PME de 30-300 salariés.
Le marché PME-ETI français : la fenêtre est ouverte
Une pénétration qui décolle
Les chiffres officiels 2024-2026 confirment que le marché bouge vite :
- Eurostat (novembre 2024) : seulement 58 % des PME de l'UE ont atteint un niveau « basique » de digitalisation, 32 points sous la cible 2030 de 90 %. Les grandes entreprises (>250 salariés) sont à 91 %.
- France Num — Baromètre 2024 (DGE, 10 125 entreprises) : 24 % seulement des TPE-PME ont un ERP, en baisse de 2 points sur un an. 65 % ont un logiciel comptable, 67 % un logiciel de facturation. 13 % utilisaient l'IA en 2024.
- Bpifrance Le Lab (conjoncture janvier 2026) : 55 % des TPE-PME utilisent l'IA générative fin 2025 vs 31 % fin 2024 — basculement historique.
- Bpifrance Le Lab — L'IA dans les PME et ETI françaises (juin 2025, 1 209 dirigeants) : 76 % des PME-ETI sont engagées dans une transformation digitale ; 58 % considèrent l'IA comme une « question de survie à 3-5 ans » ; 43 % n'analysent pas leurs données pour piloter leur activité — la première brique manque ; 57 % n'ont pas de stratégie IA formalisée.
- Observatoire de la Maturité Data des Entreprises (OMDE-Datasulting 2024, 339 entreprises) : seulement 22 % se déclarent capables d'exploiter efficacement leurs données.
« 43 % des PME-ETI n'analysent pas leurs données pour piloter leur activité : la première brique d'une IA efficiente n'est posée que par une minorité des chefs d'entreprise. » — Élise Tissier, directrice de Bpifrance Le Lab, 4 juin 2025.
Excel comme outil de pilotage principal
L'étude qualitative France Num 2024 (Crédoc, 31 entretiens) le confirme : « Les TPE PME qui sont très peu équipées de logiciels informatiques font la gestion sous Excel. Elles sont très attachées à ce logiciel, ne souhaitent pas en changer. » Avec 24 % d'ERP et 65 % de logiciel comptable, on peut estimer que 30-40 % des PME françaises pilotent encore avec Excel comme outil principal de reporting.
C'est précisément le terrain où l'approche bottom-up domine : remplacer un Excel critique par un outil métier connecté qui génère la donnée structurée est plus efficace que de construire un datawarehouse en parallèle des Excel existants.
Le triptyque Foundation / IA / Application
L'écosystème data-natif s'organise autour de trois couches superposées :
Couche Foundation : la donnée brute, captée à la source par les outils opérationnels. C'est la base de tout. Mais à la différence du modèle top-down, elle se construit en parallèle des usages, pas avant.
Couche IA : les modèles prédictifs, génératifs et décisionnels qui exploitent la couche Foundation pour augmenter les outils internes. Forecasting de demande, scoring client, génération de contenu, automatisation de processus.
Couche Application : les interfaces métier que les équipes utilisent quotidiennement. Dashboards, outils de pilotage, agents conversationnels, applications sur-mesure.
Dans l'approche bottom-up, on commence souvent par la couche Application — un outil qui résout immédiatement un problème — puis on remonte vers les couches Foundation et IA au fur et à mesure que l'usage se développe.
Modern Data Stack : la stack technique qui rend le bottom-up possible
a16z formalise en octobre 2020 le concept dans « Emerging Architectures for Modern Data Infrastructure ». L'architecture cible 2025-2026 :
- Ingestion : Fivetran, Airbyte
- Storage : Snowflake, BigQuery, Databricks lakehouse (avec Apache Iceberg comme format dominant)
- Transformation : dbt
- Activation : Hightouch, Census (reverse ETL)
- BI : Looker, Mode, Tableau, Metabase
- Observability : Monte Carlo, Soda, Bigeye
Coût d'opération typique en PME française
Estimation consolidée (Reintech 2024, Distillery 2025), pour une PME de 50-150 salariés avec ~20 M lignes/mois :
| Composant | Coût mensuel cible |
|---|---|
| Snowflake / BigQuery (compute + storage) | 1 500-5 000 € |
| dbt Cloud (ou dbt Core auto-hébergé) | 200-2 000 € |
| Fivetran / Airbyte (ELT) | 800-3 500 € |
| Hightouch / Census (reverse ETL) | 500-1 500 € |
| BI (Metabase OSS / Looker / Tableau) | 0-2 500 € |
| Observability (Soda Core / Monte Carlo) | 0-1 500 € |
| Total run mensuel typique PME | 3 000-16 000 € |
Soit 36 000-200 000 € par an de run, hors build initial. À comparer à un projet SAP / Oracle on-premise : licences + maintenance 100-500 k€/an + intégrateur 200-500 k€ pour la mise en œuvre, sans agilité analytique native.
Apache Iceberg s'impose comme standard
La 2025 State of the Apache Iceberg Ecosystem Survey révèle : 96,4 % d'utilisation avec Spark, 60,7 % avec Trino, 28,6 % avec DuckDB ; 64,3 % en AWS ; 28,6 % gèrent des tables 10-100 TB. Polaris Catalog (Snowflake, donné à l'Apache Software Foundation) atteint déjà 21,4 % d'adoption. Le marché des Iceberg catalogs est estimé à 578 M$ en 2024, projeté à 4,18 G$ en 2033 (CAGR 21,7 %, Dremio survey 2024).
Consolidation : la fusion dbt Labs / Fivetran
Annoncée le 13 octobre 2025, la fusion dbt Labs + Fivetran crée 600 M$ de revenu combiné, 10 000 clients. Nexla titre : « The modern data stack is dead », pointant le « tool sprawl » et l'imprévisibilité tarifaire qui ont tué la promesse best-of-breed. Pour une PME, la consolidation peut profiter (moins de vendors à gérer, intégration plus fluide) mais augmente aussi le risque de vendor lock-in. Les alternatives open-source (Airbyte, dbt Core, Iceberg + Trino + DuckDB) permettent une stack à <10 k€/an pour une PME 30-100 salariés.
Pourquoi cette approche marche en PME et ETI
Trois raisons structurelles :
Le ROI est immédiat. Les dirigeants de PME / ETI n'ont ni le temps ni le budget pour un projet à horizon 18 mois. L'approche bottom-up génère des résultats mesurables dans les 90 jours. MIT NANDA 2025 confirme : « Mid-market organizations move faster from pilot to full implementation (~90 days) than large enterprises (nine months or longer). »
L'outil devient un actif transmissible. À terme, le patrimoine numérique souverain — fait d'outils internes propriétaires — devient un facteur de valorisation lors d'une cession ou d'une levée de fonds. EY Software M&A: Tech Due Diligence for Future-Proof Deals (2024-2025) explicite la mécanique : « Pre-deal, investors risk overlooking latent technical debt, AI-readiness, and unscalable architecture that can derail growth plans. » Les SaaS data-mature commandent typiquement 8-12× EBITDA, vs 4-6× pour les manufacturiers traditionnels — un écart pouvant représenter +50 % à +100 % de prime à la cession.
Le client achète une capacité, pas un projet. Notre engagement n'est pas livrer un PowerPoint en 6 mois : c'est installer durablement une capacité data dans l'entreprise.
Cas Snowflake interne : référence MDS bottom-up à grande échelle
Snowflake elle-même a remplacé son monolithe BI par un MDS Fivetran + dbt + Snowflake (case study Fivetran 2024). Résultats :
- 900 connexions Fivetran, 400 millions de lignes mensuelles.
- Modèles ML d'attribution marketing en production.
- Self-service analytics démocratisé.
- Time-to-insight passé de semaines à heures.
Si l'éditeur du data warehouse le plus avancé du marché choisit le bottom-up MDS pour sa propre stack data interne, c'est un signal stratégique fort.
Coût comparé Big 4 / boutiques / intégrateurs métier
TJM consultants — France 2025
(Synthèse Morgan Philips Freelance 2025, RH Solutions 2025, Beager 2024)
| Profil | TJM régions | TJM Île-de-France |
|---|---|---|
| Data scientist / engineer junior (<3 ans) | 350-450 € | 450-550 € |
| Data confirmé (3-8 ans) | 700-800 € | 750-850 € |
| Data senior (>8 ans) | 850-1 200 € | 950-1 500 € |
| Partner Big 4 | — | 1 800-3 000 € |
Ordres de grandeur pour une PME-ETI
- Mission cadrage data Big 4 : 80-200 k€ sur 6-10 semaines.
- Build datawarehouse + premier portfolio dashboards Big 4 : 300 k€-1 M€ sur 6-12 mois.
- Programme de transformation data complet (cadrage + plateforme + data products + change) : 1-3 M€ sur 18-24 mois en ETI.
- Équivalent boutique data spécialisée FR : 40-150 k€ pour cadrage + premier cas d'usage.
Coûts cachés des projets cabinet
Documentés par Yield Studio (2024) et ABC Portage 2025 :
- Charge interne client (DAF, DG, équipes métier) souvent sous-estimée : 30-50 % du budget projet non facturé mais réel.
- Écart entre roadmap stratégique et exécution opérationnelle : 6-12 mois de dérive moyenne sur les programmes >500 k€.
- « Loss of continuity » : turnover des consultants cité comme problème récurrent dans les reviews Gartner Peer Insights 2025.
Synthèse coût/bénéfice
Pour une PME-ETI 30-300 salariés, un budget « bottom-up » de 30-100 k€ sur 90 jours, conduit par un intégrateur métier et 1-2 freelances data confirmés, génère un ROI mesurable typique 6× supérieur à un cadrage Big 4 200 k€ sur 6 mois — sans démarrage de la phase build. La logique du « cabinet à 200 k€ » a un sens uniquement si la complexité organisationnelle interne (multi-pays, multi-métiers, M&A à intégrer) le justifie.
Le résultat : un patrimoine numérique souverain
À l'issue d'un cycle de 12 à 18 mois, l'entreprise dispose :
- D'un ensemble cohérent d'outils internes propriétaires, conçus autour de ses processus métier.
- D'un capital de données structurées, produit naturellement par l'usage de ces outils.
- D'une équipe interne formée et autonome sur la maintenance et l'évolution.
- D'une roadmap claire pour étendre l'écosystème vers de nouveaux cas d'usage.
C'est ce que nous appelons un patrimoine numérique souverain : un actif data qui appartient pleinement à l'entreprise, qui ne dépend pas d'un éditeur SaaS extérieur, et qui constitue un avantage compétitif durable.
L'arbre de décision pour un dirigeant PME-ETI
Étape 1 — Diagnostic 30 jours (budget : 0-15 k€)
- Cartographier les outils métier qui génèrent réellement la donnée (CRM, ERP, outil de production, e-commerce, paie).
- Identifier le top 3 cas d'usage où une donnée fiable manque pour décider (typiquement : pilotage commercial, marge produit, productivité opérationnelle).
- Auditer la dette data : Excel-driven processes, données dupliquées, ressaisies.
- Seuil de bascule : si la maturité data interne est <30 % (test OMDE) et que vous prévoyez une cession <5 ans, l'investissement data devient un sujet de DAF/DG, pas de DSI.
Étape 2 — Quick win 90 jours (budget : 30-100 k€)
- Choisir un cas d'usage parmi le top 3 où la donnée est déjà capturée par un outil métier.
- Mettre en place un mini-datawarehouse cloud (Snowflake/BigQuery starter ~500 €/mois), un ELT managé (Fivetran/Airbyte ~800 €/mois), dbt Core (gratuit) et un BI léger (Metabase OSS).
- Cibler un seul dashboard validé par le DG et utilisé chaque semaine.
- ROI cible documenté : gain de temps DAF/DG (5-10h/semaine), time-to-decision divisé par 3, ou identification d'une opportunité commerciale concrète.
Étape 3 — Industrialisation 6-12 mois (budget : 100-250 k€)
- Étendre à 3-5 cas d'usage métiers, en gardant la logique « outil métier source → données structurées → décision ».
- Implémenter data contracts simples entre métier et data team.
- Mettre en place un semantic layer (dbt Semantic Layer ou Cube) pour aligner KPI.
- Recruter ou intégrer 1 data engineer + 1 analytics engineer (ou freelance senior, 800-1 200 €/jour).
- Seuil de bascule : si vous générez >1 G€ de CA, multi-pays, multi-BU, alors un cabinet de conseil stratégique data peut faire sens — mais pas avant.
Étape 4 — Patrimoine data (12-24 mois et plus, budget : 1-3 % du CA annuel)
- Documenter lineage, gouvernance, qualité.
- Préparer la due diligence numérique (cf. checklists Crosslake, Diligize, EY).
- Évaluer la prime de cession potentielle : un actif data documenté peut représenter +50 % à +100 % du multiple sur certaines verticales (SaaS, services B2B récurrents).
Benchmarks par taille d'organisation
- <50 salariés : se contenter d'un CRM + outil financier intégré + 1 dashboard. Pas de stack data dédiée.
- 50-150 salariés et CA <30 M€ : démarrer la stack MDS minimaliste, budget run <50 k€/an.
- 150-300 salariés et CA 30-150 M€ : stack MDS complète, équipe data 2-4 ETP, budget run 100-200 k€/an + build 200-500 k€ étalé sur 18 mois.
- M&A en cours ou cession <3 ans : passer immédiatement à l'étape 4 patrimoine data, même partiellement.
Caveats — ce que cet article n'affirme pas
- Le chiffre 95 % MIT NANDA porte sur la GenAI, pas sur tous les projets data. Il est abusif de l'utiliser comme « 95 % des projets data échouent ». Gartner « 60-85 % » reste plus solide pour les projets data au sens large.
- Les statistiques « 80 % des datalakes échouent » et « <10 % des données utilisées » sont largement diffusées mais ne sont pas auditées par une source officielle indépendante. Elles relèvent du consensus industriel issu d'études Gartner anciennes (2017) toujours citées, à utiliser comme tendance qualitative et non comme statistique exacte.
- Les données françaises spécifiques aux PME 30-300 salariés sont rares. France Num agrège TPE et PME (0-249 salariés), Bpifrance Le Lab couvre PME-ETI (>10 salariés). L'échantillon spécifique 30-300 n'est pas isolé dans les baromètres officiels.
- « Approche bottom-up bat top-down » : la thèse contrariante défendue ici est étayée pour des PME-ETI 30-300 salariés en mono-métier ou mono-pays. Pour des ETI multi-pays, multi-BU ou en secteur régulé (banque, santé, défense), une approche hybride avec une couche de gouvernance fédérée reste pertinente.
- Le marché Iceberg / lakehouse évolue très vite. La fusion dbt Labs + Fivetran (oct. 2025) et l'intégration native Iceberg dans Snowflake/Databricks/AWS modifient les comparaisons coûts. Les chiffres run cités sont valables au T1 2026.
Vous dirigez une PME ou une ETI et vous vous reconnaissez dans le constat ?
Le workshop découverte est conçu exactement pour ça : une demi-journée pour cartographier vos points de douleur, identifier les premiers outils à construire, et chiffrer le ROI à 90 jours. Réservez un workshop découverte.
Sources principales : Gartner — communiqués 2024-2025 (29 juillet 2024, 28 février 2024, 26 février 2025) ; MIT Project NANDA — The GenAI Divide: State of AI in Business 2025, juillet 2025 ; Wavestone — Data & AI Leadership Executive Benchmark 2025, décembre 2024 ; McKinsey — State of AI 2025, octobre 2025 (1 993 répondants) ; dbt Labs — State of Analytics Engineering 2025, avril 2025 (459 praticiens) ; Bpifrance Le Lab — L'IA dans les PME et ETI françaises, juin 2025 (1 209 dirigeants) + conjoncture janvier 2026 ; France Num — Baromètre 2024 (DGE, 10 125 entreprises) ; INSEE Enquête TIC entreprises 2024 ; Eurostat — Digitalisation 2024 ; OMDE-Datasulting 2024 (339 entreprises) ; Zhamak Dehghani — Data Mesh, O'Reilly 2022 ; a16z — Emerging Architectures for Modern Data Infrastructure 2020-2023 ; EdgeDelta, Acceldata, Moody's (datalake failure rates) ; EY — Software M&A: Tech Due Diligence for Future-Proof Deals 2024-2025.
