8 questions à Daria sur l’intégration de l’IA en entreprise
Pour la première fois dans l’histoire de la Douille, cet épisode est un interview.
Nous recevons Daria, responsable juridique et pilote du projet IA en entreprise, mais aussi formatrice IA. Elle décrypte l’IA avec un regard acéré, mêlant stratégie et bon sens business.
Vous la connaissez peut-être déjà via sa newsletter Daria décrypte l’IA, lue par des milliers de lecteurs chaque semaine (dont Volkane fait partie).
Si ce n’est pas encore le cas, allez-vite vous abonner.
1. Quelles sont les méthodes les plus efficaces pour qu’une entreprise puisse identifier des cas d’usage pertinents pour déployer l’IA (ceux qui apportent une vraie valeur métier) ?
Pour savoir si un cas d’usage vaut le coup, j’utilise une règle simple : il doit être chronophage, répétitif ou à faible valeur ajoutée. Deux critères sur trois suffisent.
Ce sont des tâches où les équipes soufflent quand on les soulage. Et c’est souvent un bon indicateur de ROI.
2. Une fois qu’on a ces cas d’usage, comment identifier ceux qu’on va prioriser ? Est-ce que tu as un exemple concret de priorisation réussie ou ratée ?
L’idée est d’avancer sur ce qui apporte un gain immédiat, ce qui peut être testé facilement et ce qui ne met pas en jeu des données sensibles.
Un exemple qui a très bien fonctionné : la comparaison automatique des documents, notamment les BAT (Bon à tirer).
Les équipes y passaient beaucoup de temps, les attentes étaient claires et l’IA pouvait repérer les écarts sans toucher à des données confidentielles.
Un exemple qui marche moins bien : démarrer avec un projet qui repose sur des données éparpillées ou mal structurées. Avant de mettre de l’IA, il faut déjà que la donnée soit propre, accessible et cohérente. C’est d’ailleurs la raison pour laquelle on a créé la Task Force Data & IA en entreprise, pour structurer la data en amont et ajouter ensuite une couche d’IA sur une base solide.
Un bon exemple est le remplissage automatique des questionnaires qualité. Sur le papier c’est parfait : gros volume, forte répétition, impact immédiat. Mais en réalité : impossible d’automatiser sans un gros travail préalable d’harmonisation.
3. Dans les projets IA que tu as suivis, quelles sont les erreurs que tu vois revenir tout le temps ?
Trois erreurs reviennent :
- lancer un POC “pour voir” sans objectif clair.
- oublier les équipes et espérer que l’adoption se fera naturellement.
- se précipiter sur l’outil avant de poser les règles de confidentialité.
Par exemple, connecter un Drive à ChatGPT sans vérifier les risques. C’est une fausse bonne idée qui peut créer des incidents.
4. Faut-il mieux miser sur des outils IA ultra-spécialisés pour un département (par ex : IA pour le juridique ou les RH) ou sur un outil généraliste comme ChatGPT que toute l’entreprise peut utiliser ? Qu’est-ce qui crée le plus de valeur et le meilleur rapport coût/ bénéfices selon toi ?
- Le quotidien : pour écrire, comparer, résumer, analyser ou préparer un document, un outil généraliste comme ChatGPT Business ou Copilot suffit largement. C’est simple, rapide à déployer et les équipes voient immédiatement le bénéfice. C’est souvent là que l’IA prend sa vraie place dans la journée de travail.
- Les projets spécifiques : quand un métier a un besoin très pointu ou un volume important, on passe à des solutions plus spécialisées, parfois avec une couche de protection renforcée selon la sensibilité des données.
Cette combinaison crée le meilleur rapport valeur / coût.
5. À quel moment faut-il impliquer les juristes ? Et sur quels sujets (RGPD, contrats, propriété des outputs, etc.) ? Est-ce qu’il y a d’autres fonctions clé à impliquer ?
Le juriste pose le cadre, protège les données, sécurise les contrats et évite les mauvaises surprises plus tard. Il intervient sur les accès, la confidentialité, les flux de données, les droits sur les contenus générés et les risques liés aux fournisseurs d’IA.
Et il n’est pas seul. Pour que ça fonctionne, il faut aussi impliquer la DSI pour la sécurité et l’intégration et les équipes métiers pour vérifier que l’outil répond vraiment à un besoin.
Impliquer ces trois acteurs dès le départ fait gagner du temps, évite des choix bancals et sécurise tout le projet.
6. Beaucoup d’entreprises lancent des projets IA (notamment des licences copilot), mais très peu mesurent le ROI. Quels sont les bons KPIs selon toi pour évaluer si un déploiement d’IA marche vraiment ?
Les quatre indicateurs qui fonctionnent le mieux :
- Le temps gagné. C’est le plus parlant. On mesure la durée d’une tâche avant et après l’IA.
- Le volume traité automatiquement. Combien de tâches l’IA prend en charge chaque semaine ou chaque mois. Plus ce chiffre monte, plus le ROI est visible.
- Les erreurs évitées. L’IA est très utile pour les contrôles répétitifs. On mesure : oublis réduits, moins de retours clients, moins de corrections.
- Le délai de traitement. Combien de temps entre le début et la fin d’un dossier, d’une demande ou d’un contrôle. Si l’IA raccourcit ces délais, l’impact opérationnel est là.
Et un indicateur souvent oublié : la charge mentale.
On peut le mesurer via un mini questionnaire interne. Quand les équipes disent “c’est plus fluide”, “je fais moins d’aller-retour”, “j’ai gagné en sérénité”, c’est un signal fort.
7. Quel est le plus gros malentendu que tu rencontres sur l’IA en entreprise ?
8. Un dernier conseil que tu donnerais à un CEO qui veut se lancer ?
Un minimum de formation pour donner confiance aux équipes, un cadre clair pour les données et 3 cas d’usage simples.
Quand les collaborateurs comprennent comment utiliser l’IA au quotidien, même dix minutes par jour, tout s’accélère. L’adoption ne vient pas d’un grand plan stratégique, elle vient de petits tests concrets qui montrent vite l’intérêt.
2. Temps Technique : Vous utilisez une IA sans prévenir votre client ? Voici pourquoi ça peut se retourner contre vous
Elle rappelle notamment très justement que cela crée des problématiques importantes en matière de cession des droits d’auteur puisque le contenu généré par l’IA n’est pas protégeable si l’intervention humaine n’est pas suffisante.
Vous nous connaissez. Dès qu’on voit ce genre de sujet, on ne peut pas s’empêcher de faire un pas de côté. Car s’il est fondamental d’alerter les clients, il est tout aussi essentiel — juridiquement parlant — d’ouvrir les yeux aux prestataires qui vont dans cette direction.
C’est cette question qu’on traite ici, en prolongeant l’analyse de Daria : que risque un prestataire qui utilise une IA sans rien dire dans son contrat ?
1. Utiliser une IA sans informer son client, est un manquement à l’obligation de conseil et de bonne foi
Lorsqu’une IA est intégrée dans une prestation, la nature du service change. Il ne s’agit plus uniquement de l’intervention d’un expert humain, mais d’un binôme : le prestataire + un système tiers (avec lequel votre client n’a pas forcément choisi de travailler).
Dans sa typologie, Daria distingue 3 niveau d’utilisation de l’IA :
- l’IA-outil où l’IA est uniquement un appui mais la prestation reste humaine,
- l’IA-« coauteur » dans laquelle l’IA produit une partie important du livrable
- l’IA « intégrée » où l’IA exécute la prestation de manière autonome.
À partir du moment où l’IA commence à produire une partie significative du livrable ou à orienter les résultats, le client doit le savoir. Ne rien dire, c’est lui masquer un paramètre essentiel pour juger de la portée et de la valeur de la mission.
Et juridiquement, c’est un manquement à l’obligation de conseil — voire à l’obligation de bonne foi, selon le niveau de dissimulation.
Ce qu’on recommande d’intégrer au contrat :
- Intégrer une clause claire décrivant l’usage d’IA dans la lettre de mission ou les CGV et dans quel cadre : appui ponctuel, génération de contenu, automatisation.
- Identifier clairement les livrables qui sont uniquement issus d’un traitement automatisé
- Si vous limitez votre responsabilité, restez lucide sur la portée réelle de la clause : vous dédouaner en cas d’erreur commis par l’outil d’IA ne vous exonérera pas forcément, surtout si vous avez une obligation de résultat. Et personne aujourd’hui ne peut vous garantir que ce type de clause tiendra devant un juge quand les premiers cas arriveront devant un tribunal, même bien rédigée.
2. Traiter des données personnes dans une IA : un double risque RGPD et contractuel
Imaginons que dans le cadre de la prestation, un client vous transmet une base de données, par exemple son fichier client avec l’ensemble des données personnelles qu’il contient.
Si vous utilisez ces fichiers pour entraîner un modèle, alimenter un prompt, ou automatiser une analyse via un outil IA — sans que cela soit précisé dans le contrat — vous ouvrez deux brèches : l’une contractuelle (le client ne sait pas ce que vous faites avec ses données), l’autre réglementaire (vous ne respectez pas le RGPD).
Même si le client vous a transmis les fichiers sans réserve, vous ne pouvez pas considérer que vous êtes couvert.
Ce qu’on recommande d’intégrer au contrat :
- Qualifier précisément votre rôle :
- En tant que sous-traitant, vous devez informer votre client (le responsable de traitement) de tout outil utilisé, surtout si cela implique un transfert hors UE. Ce devoir d’information s’accompagne d’une obligation de documentation et de transparence sur vos mesures de sécurité. Gardez en tête que le client peut exercer un droit d’audit à tout moment.
- En tant que responsable de traitement, vous ne pouvez utiliser les données personnelles qui vous sont confiées que dans le cadre fixé par votre client. Si les données n’ont pas été correctement collectées pour pouvoir vous les transmettre, vous risquez une mise en cause directe.
- Si vous êtes responsable de traitement, protégez-vous contractuellement :
- Clause de garantie : exigez que le client garantisse qu’il a le droit de vous fournir les données. Vous pouvez — et devriez — lui demander la preuve de cette licéité en détaillant dans le contrat comment il a collecté ces données, quelle est la base légale, comment il a informé/demandé le consentement des personnes pour vous transmettre les données, etc.
- Information des personnes concernées : sauf à informer vous-même les personnes concernées que vous traitez leurs données conformément à l’article 14 du RGPD (collecte indirecte), prévoyez contractuellement que le client s’engage à le faire pour vous, et vérifiez de temps à autre qu’il le fait réellement.


