Tous les cas clients

Cas client · SaaS B2B — RH / SIRH

Comment un éditeur SaaS RH français est sorti de la paralysie IA en moins de 2 mois.

6 mois de discussions internes sans décision. Une concurrence US qui annonçait déjà ses fonctionnalités IA. Une équipe avec 30 idées, sans méthode pour trier. C'est l'histoire d'un éditeur SaaS RH français de 30-50 salariés qui a transformé son dilemme stratégique en plan d'action exécuté — sans Big 4, sans recruter de Head of AI, sans dépenser 200 k€.

Secteur

SaaS B2B · SIRH

Taille

PME · 30-50 salariés

CA

1-5 M€

Mission

~4 mois · en cours

Chapitre 1 · Le contexte

Un éditeur français du SIRH historique, face à une concurrence US qui prend une longueur d'avance.

Cet éditeur français est un acteur reconnu du Système d'Information RH — recrutement, gestion des talents, évaluation, formation. Il accompagne depuis plus d'une décennie des centaines d'entreprises françaises et européennes, à travers une plateforme SaaS modulaire utilisée chaque jour par des DRH, des responsables formation, et des consultants RH.

Au début 2026, l'équipe est composée de 30 à 50 collaborateurs : un noyau produit-tech solide, une équipe customer success qui connaît les clients, un département commercial qui suit les renouvellements et l'acquisition. Le CA tourne autour de 1-5 M€. La rentabilité est là, le produit fonctionne, les clients sont fidèles.

Mais le marché change. Vite.

Les concurrents américains — bien financés, plus agressifs sur le marketing — annoncent les uns après les autres leurs fonctionnalités IA générative : analyse automatique des entretiens, chatbots de support, copilots de rédaction de fiches de poste, scoring de candidats. Le positionnement « nous aussi on fait de l'IA » devient rapidement un standard implicite dans les RFP et les démos commerciales.

Côté équipe interne, le sujet est ouvert depuis longtemps. Tout le monde voit passer les démos d'OpenAI, Mistral, Anthropic. Les développeurs expérimentent ChatGPT au quotidien. Le Head of Product a une dizaine d'idées de cas d'usage en tête. Le CEO suit le sujet de loin mais sait qu'il faut « faire quelque chose ».

La plupart des clients DRH commencent à demander, en RDV ou dans les réunions de comité utilisateurs : « et chez vous, qu'est-ce qui est prévu côté IA ? ». Pour l'instant, la réponse oscille entre « on y travaille » et « on a des choses dans les cartons ». Pas de date. Pas de roadmap. Pas de fonctionnalité concrète.

Chapitre 2 · Le déclencheur

6 mois de discussions internes sans décision. Le moment où ils nous ont appelés.

Pendant les 6 mois précédant notre prise de contact, l'équipe a tourné autour du sujet IA sans réussir à trancher. Trois symptômes typiques de la paralysie IA en éditeur logiciel.

1

Trop d'idées, pas de priorité

Chaque membre de l'équipe avait sa propre liste de cas d'usage. Le Head of Product imaginait un copilot de rédaction. Le CTO voulait automatiser l'analyse des questionnaires. Le commercial parlait de chatbot client. Aucune idée plus crédible qu'une autre — faute de méthode d'évaluation partagée.

2

Asymétrie d'information

Le CEO ne savait pas ce qui était techniquement faisable — les modèles disponibles, les coûts d'infra, la conformité. La tech ne savait pas ce qui était commercialement vendable — la valeur perçue par les clients. Le produit était au milieu, sans pouvoir trancher en l'absence d'expertise externe.

3

Risque d'avancer mal

Démarrer sur le mauvais cas d'usage, dépenser 6 mois et 50 k€ pour une fonctionnalité que personne n'utilise — comme tant d'éditeurs SaaS qu'on voit chaque trimestre dans les retours d'expérience LinkedIn. Mieux ne rien faire que faire mal, par défaut.

« On en parle en comité de direction depuis 6 mois. Tout le monde sait qu'il faut bouger. Mais à chaque fois, on revient sur la question : on fait quoi en premier ? Et personne n'a la réponse. On a peur de se tromper, alors on temporise. »

— Le CEO, lors de notre premier appel de cadrage

C'est précisément à ce moment qu'ils nous ont contactés. Pas pour qu'on développe un POC IA — ils savaient déjà comment construire un POC, leur équipe tech est solide. Mais pour débloquer la décision. Mettre une méthode sur la table, qualifier les idées, hiérarchiser, et produire un plan que tout le monde puisse défendre en comité. Pour passer des intuitions au plan d'action.

Notre proposition : un workshop IA structuré sur une journée, suivi d'une roadmap 12 mois et d'un premier projet en production sous 8 semaines. Sans engagement long-terme. Sans cadre Big 4 surdimensionné. Format compatible avec leur taille (PME) et leur vélocité (équipe agile).

Ils ont accepté trois jours après notre proposition.

Chapitre 3 · Le workshop, jour J

Une journée, cinq parties prenantes, trente idées sur la table.

Le workshop a eu lieu sur leur site, dans une salle de réunion équipée d'un grand tableau blanc et d'un écran. Cinq personnes autour de la table côté client. Notre équipe en face : CEO Nymphar.AI + un AI Engineer senior. La journée avait été préparée en amont par un questionnaire de 12 questions envoyé une semaine avant — chacun avait remonté ses pain points et ses idées de cas d'usage.

Qui était dans la salle (côté client)

Le CEO

Vision business, monétisation, positionnement face à la concurrence

Le CTO

Faisabilité technique, intégration plateforme, dette technique

Le Head of Product

Roadmap produit, hiérarchisation des releases, vision UX

Le lead développeur backend

Architecture, capacité de delivery, contraintes techniques réelles

La responsable customer success

Voix du client : ce que les DRH demandent vraiment, ce qui les agace, ce qui les rendrait fans de la plateforme

Cette composition n'est pas un hasard. Pour un workshop IA en éditeur SaaS, il faut les cinq voix critiques : business, tech, produit, delivery, client. Sans une seule, on rate quelque chose. Avec une personne en plus, on dilue la décision et on prolonge inutilement.

Le déroulé de la journée — heure par heure

9h00 – 10h00

Tour de table & cadrage des règles du jeu

Présentation des participants, rappel du contexte, validation des objectifs. Surtout : poser le cadre méthodologique. « On va passer en revue toutes vos idées. On ne va en éliminer aucune sans l'avoir évaluée sur 4 axes. À la fin de la journée, on aura un plan partagé, pas un avis. » Cette précision a immédiatement détendu l'équipe — chacun avait peur que ses idées soient balayées.

10h00 – 12h30

Brainstorming structuré — sortir toutes les idées de la tête

Chaque participant présente ses pain points opérationnels (à partir du questionnaire amont) et ses idées de cas d'usage IA. On note tout au tableau, sans filtrer. Au bout de 2h30, le tableau contient 30 idées, regroupées en 6 grandes familles : analyse automatique de questionnaires, copilots de rédaction, chatbots, scoring de candidats, automatisation back-office, génération de synthèses. Aucune n'a été éliminée.

14h00 – 16h30

Évaluation idée par idée sur 4 axes

Le cœur du workshop. Pour chaque idée, scoring en temps réel sur les 4 axes méthodologiques. C'est notre AI Engineer senior qui apporte l'expertise sur la faisabilité tech et qui démine les fausses bonnes idées (« ce serait possible mais ça demande 6 mois et 80 k€ »), et le CEO Nymphar qui apporte l'expertise sur l'impact business sectoriel (« ce cas d'usage marche bien chez d'autres éditeurs SaaS qu'on accompagne »).

Axe 1

Faisabilité technique

Axe 2

Impact business / monétisation

Axe 3

Effort de développement

Axe 4

Dépendances inter-projets

16h30 – 18h00

Hiérarchisation finale & choix du premier projet

Sur les 30 idées, 8 émergent avec un scoring élevé sur les 4 axes. Le reste est soit reporté à plus tard (impact intéressant mais effort démesuré), soit abandonné (faible impact ou redondant). Ensemble, on identifie un premier projet candidat : l'analyse automatique des questionnaires d'évaluation. Validé par les cinq participants en 15 minutes.

Le moment AHA

« Vers 15h, on a tous compris qu'on n'était pas en train de choisir le meilleur cas d'usage. On était en train d'apprendre une méthode pour trancher. »

C'est ce que le CTO a dit à la pause de l'après-midi. Un déclic important : la valeur du workshop ne tient pas à quelle idée on choisit. Elle tient au fait que l'équipe construit ensemble un cadre de décision réutilisable. À l'issue de la journée, l'équipe sait comment évaluer la prochaine idée IA qui arrivera dans 3 mois — sans nous, sans refaire toute la démarche.

Chapitre 4 · La roadmap 12 mois

8 projets IA, classés, datés, chiffrés. Avec un premier projet à démarrer sous 14 jours.

Cinq jours après le workshop, on a remis la roadmap 12 mois. Format : un document Notion partagé de 25 pages, structuré pour servir à la fois de pilotage stratégique pour le comité de direction et de plan d'exécution pour la tech.

La roadmap couvre 8 projets IA prioritaires, organisés en 4 trimestres avec dépendances cartographiées. Chaque projet contient : description fonctionnelle, scoring sur les 4 axes, budget estimatif en jours-homme, ROI attendu, risques techniques, prérequis.

Aperçu de la roadmap (extraits)

Q1 · Pilote

Agent IA d'analyse de questionnaires d'évaluation RH

Premier projet retenu. Détaillé chapitre suivant.

Q2

Copilot de rédaction de fiches de poste

S'appuie sur l'infrastructure RAG construite au Q1. Génère des fiches conformes aux guidelines client + référentiel ROME.

Q2-Q3

Synthèses automatiques d'entretiens annuels

Réutilise l'extracteur d'entités du Q1 + ajoute la synthèse comparative multi-entretiens.

Q3

Chatbot d'assistance interne pour les administrateurs RH

RAG sur la base de connaissance produit. Réduit le ticket support niveau 1.

Q4

4 projets supplémentaires (scoring de candidats, génération de plans de formation, etc.)

Détaillés en sprint planning dès la fin du Q3, en fonction des résultats des trois premiers.

Pourquoi cet ordre ? Trois logiques s'imbriquent :

  • Effet réseau : chaque projet utilise une partie de l'infrastructure du précédent (RAG, anonymisation, monitoring). Les coûts marginaux décroissent à chaque cycle.
  • ROI cumulatif : le premier projet est celui qui prouve la méthode aux yeux de l'équipe interne. Les suivants capitalisent sur cette confiance.
  • Conformité progressive : on commence par le cas d'usage de plus faible risque AI Act, on étend progressivement vers les cas plus encadrés (scoring de candidats = haut risque AI Act).

Chapitre 5 · Le premier projet

Agent IA d'analyse des questionnaires d'évaluation RH. En production en 8 semaines.

Le cas d'usage prioritaire identifié au workshop : automatiser l'analyse des questionnaires d'évaluation RH que la plateforme produit pour ses clients DRH.

Avant nous : les consultants RH (côté client) recevaient les questionnaires bruts — souvent 30 à 100 réponses par campagne, avec des questions ouvertes qui demandaient une lecture attentive. Ils analysaient manuellement, identifiaient les thèmes récurrents, repéraient les signaux faibles (mécontentement, alertes RH), produisaient une synthèse pour le DRH. Délai typique : 3 à 5 jours ouvrés. Subjectivité variable selon le consultant. Pas scalable face à la croissance du nombre de clients.

Après nous : un agent IA produit cette analyse en 30 secondes, avec un niveau de qualité jugé équivalent par les consultants RH eux-mêmes. L'agent extrait les thèmes, identifie les signaux faibles, anonymise les données personnelles avant traitement, et produit la synthèse formatée. Le consultant RH conserve le rôle de validation finale et de contextualisation client — on automatise l'extraction, pas le jugement.

Chapitre 6 · La conformité

RGPD et AI Act intégrés dès la conception. Pas en option, pas en V2.

Pour un éditeur SaaS RH français, la conformité n'est pas un sujet accessoire. Les données traitées (réponses de salariés à des questionnaires d'évaluation) sont par nature sensibles : RGPD strict, vigilance accrue des DPO clients, et bientôt AI Act qui impose la documentation des systèmes IA en contexte RH.

Notre choix : intégrer la conformité dès la première version, pas en patch ex-post. Cela coûte ~15 % d'effort en plus sur le projet initial. Mais ça évite les six mois de refonte qu'on voit chez les éditeurs qui ont commencé par le « MVP rapide » avant d'ajouter la conformité.

RGPD

  • Anonymisation native des PII avant tout traitement par le LLM
  • Registre de traitement complet, mis à jour à chaque release
  • Hébergement zone UE (pas de transfert hors-UE pour les données client)
  • Audit log de toutes les transformations + rétention 12 mois
  • Mécanisme de droit à l'oubli : suppression sous 30 jours
  • DPIA conduite avec le DPO de l'éditeur en amont du delivery

AI Act

  • Classification du système (risque limité — obligations de transparence)
  • Documentation finalité, base d'entraînement, limites connues
  • Mention explicite à l'utilisateur final qu'il interagit avec un système IA
  • Mécanisme de supervision humaine (validation par consultant RH)
  • Recours utilisateur : possibilité de demander une analyse humaine
  • Roadmap conformité pour le passage à l'AI Act haut risque (cas Q4 du scoring de candidats)

Cette conformité native a permis à l'éditeur d'intégrer la fonctionnalité IA dans son argumentaire commercial dès le premier jour de mise en production — y compris auprès de clients DRH dont les DPO exigent des garanties renforcées. Sans cette base de conformité, l'agent IA aurait été un risque commercial autant qu'un atout.

Chapitre 7 · Les résultats

De la paralysie à la production. En moins de 2 mois.

4 sem

pour produire la roadmap 12 mois

Avec scoring ROI sur chaque cas d'usage et premier projet identifié pour exécution immédiate.

< 2 mois

de paralysie → action

Passage d'une discussion bloquée depuis 6 mois à un plan d'action partagé et démarré.

8 sem

premier agent IA en production

Live sur 3 clients pilotes, branché sur la plateforme existante via API REST.

~30 s

vs 3-5 jours auparavant

Pour produire l'analyse d'un questionnaire d'évaluation. Qualité jugée équivalente à l'analyse humaine.

Conformité native

RGPD + AI Act intégrés dès la conception. Argumentaire commercial validé par DPO.

Différenciation produit

Fonctionnalité IA déployée face à la concurrence US, intégrée dans le discours commercial.

Méthode capitalisée

L'équipe interne sait désormais évaluer la prochaine idée IA sans nous.

Chapitre 8 · Pour vous projeter

Vous reconnaissez votre situation dans cette histoire ?

Ce cas n'est pas isolé. Sur les 12 derniers mois, nous avons accompagné plusieurs éditeurs SaaS et PME dans des situations de paralysie IA très similaires. Voici les profils qui se retrouvent typiquement dans ce schéma — et pour qui la méthode produit le plus de valeur.

Vous vous reconnaissez si...

  • Vous dirigez un éditeur SaaS, une ETI ou une PME, et l'IA est sur la table de votre comité de direction depuis 3-12 mois sans décision claire
  • Votre équipe a des idées (parfois beaucoup), mais aucune méthode pour les hiérarchiser de manière partagée
  • Vous avez une asymétrie d'information entre vous (business), la tech, et le produit — chacun voit le sujet sous son angle
  • Vous voulez une roadmap actionnable, pas un livrable Big 4 de 120 slides à 200 k€
  • La conformité RGPD et AI Act fait partie de vos contraintes fortes (santé, RH, finance, secteur public)
×

Ce n'est pas pour vous si...

  • × Vous êtes un grand groupe CAC 40 avec 50+ data engineers internes et un budget IA de plusieurs millions
  • × Vous cherchez un développement à façon sur un cas d'usage déjà cadré (un freelance senior suffira)
  • × Votre projet IA prioritaire est déjà en production et vous cherchez juste de l'optimisation ponctuelle
  • × Vous voulez de la R&D fondamentale ou du fine-tuning de modèles propriétaires à partir de millions d'exemples