4C Rue des Michottes, 54000 NANCY
contact@philopartners.fr 07 68 25 99 03
Accueil · Actualités · IA & RGPD/LCB-FT
Alerte Conformité

IA Générative en cabinet : comment éviter les fuites de données clients

Analyse des risques RGPD et LCB-FT liés à l'usage des outils d'Intelligence Artificielle grand public par les professionnels assujettis.

Par Daphné Derkaoui · 14 Novembre 2025

Question, simple, têtue, dérangeante : si un contrôleur CNIL ou Tracfin débarque demain et demande à consulter l'historique des prompts envoyés par votre entreprise sur des outils IA grand public, qu'avez-vous à montrer ? Un registre, un DPA, une politique d'usage ? Ou un silence, suivi d'une tentative d'explication ?

Les usages de l'IA générative grand public

Avant toute chose, il est important de rappeler comment fonctionne l’IA générative et comment sont traitées les données. En effet, puisqu’elle est devenue le stylo bille du XXIᵉ siècle, qu’elle est aussi omniprésente que pratique, il faut savoir que contrairement au stylo, elle mémorise, elle analyse, elle rediffuse. Et surtout, elle appartient à quelqu'un d'autre. Tout le monde peut le constater, l’IA générative, par nature, opacifie. On ne sait pas exactement ce qu'elle fait des données, même quand elle promet de ne rien en faire. On ne sait pas où commence « l'amélioration du modèle » ni où finit « le traitement contractuel ». On fait confiance à une boîte noire, parce qu'elle est efficace.

Ce qui se joue vraiment quand on « prompt » une donnée client

Le RGPD impose que toute donnée personnelle traitée par un outil numérique fasse l'objet d'un encadrement contractuel, d'une analyse de risque, d'une traçabilité. L'article 28 oblige le responsable de traitement — c'est-à-dire l’entreprise — à s'assurer que son sous-traitant — l'outil IA — garantit un niveau de sécurité adéquat.

Or, la plupart des outils IA grand public ne signent aucun Data Processing Agreement (DPA) avec leurs utilisateurs gratuits. Autrement dit : pas de contrat, pas de garantie, pas de responsabilité partagée. Juste une clause d'utilisation rédigée en Californie qui stipule, quelque part à la ligne 47, que les données peuvent servir à « améliorer le modèle ».

Concrètement, cela signifie qu'un nom, un montant d'actifs, une adresse, un numéro de téléphone, une situation familiale — tout ce qui compose la fiche client standard d'un CGP ou d'un courtier — peuvent techniquement alimenter l'entraînement d'un modèle utilisé par des milliers d'autres utilisateurs. Pas par malveillance. Par conception.

Le problème ne s'arrête pas au RGPD. L'article L. 561-3 du Code monétaire et financier impose aux professionnels assujettis à la lutte contre le blanchiment une obligation de confidentialité stricte sur les informations collectées dans le cadre de la vigilance clientèle. Verser ces données dans un outil tiers non sécurisé, même pour simplifier la rédaction d'un rapport de soupçon, constitue une rupture de confidentialité. La CNIL, comme Tracfin, disposent des moyens de le vérifier.

Force est de constater que la majorité des solutions d'IA générative grand public ne proposent pas de cadre contractuel adapté aux exigences B2B, exposant ainsi les entreprises utilisatrices à un risque de non-conformité structurel. De ce fait, il faut prendre les choses par le bon angle et démarrer par une cartographie réelle des risques puis proposer des solutions de mitigation, comme on le ferait pour n’importe quel autre risque professionnel.

Et la RC Pro dans tout ça ?

Compte-tenu de l’essor de l’IA publique dans toutes les entreprises et dans toutes les mains, certaines compagnies d’assurance offrent désormais une couverture spécifique à l’usage de l’IA dans leurs produits de Responsabilité Civile Professionnelle. Reste à bien regarder les clauses d’exclusion et ce qui est vraiment couvert.

C’est pourquoi il est indispensable aujourd’hui d’intégrer l’utilisation de l’IA dans une démarche globale de transformation digitale responsable, conciliant innovation, performance et conformité. Une approche par le risque reste aujourd’hui la meilleure prévention possible.

Les entreprises qui sauront structurer une gouvernance robuste et documentée disposeront d'un avantage concurrentiel significatif, tout en se prémunissant contre les risques de sanctions administratives et de mise en cause de leur responsabilité.

Pour structurer une gouvernance solide, il faut commencer par identifier clairement les risques et les piliers qui permettent de les maîtriser. C’est la base nécessaire pour progresser sereinement.

Bloc réglementaire

Risques majeurs & piliers de gouvernance

Principaux risques si l’usage n’est pas encadré

1

Transfert hors UE non maîtrisé

Solutions cloud hébergées aux États-Unis ou ailleurs : transfert international possiblement non conforme aux mécanismes RGPD prévus.

2

Aucune traçabilité des prompts

Usages dispersés, comptes personnels, absence de registre : impossible de démontrer l’accountability en cas de contrôle CNIL ou Tracfin.

3

Pseudo-anonymisation illusoire

Retirer le nom ne suffit pas : l’addition âge + localisation + patrimoine + situation familiale permet souvent de réidentifier la personne.

4

Utilisation de comptes gratuits

Les garanties sérieuses (DPA, hébergement, logs) sont réservées aux offres entreprise. Les comptes gratuits restent pensés pour un usage individuel.

5

Absence de base légale claire

Traiter des données clients via IA sans information préalable ni clause dans les mandats revient à créer un traitement sans base légale valide.

5 piliers pour sécuriser l’usage de l’IA générative

1

Audit & cartographie des usages

Recenser les outils utilisés, les données saisies, les métiers concernés et les volumes pour identifier les zones de risque critique.

2

Contractualisation & DPA

Basculer vers des offres professionnelles : DPA signé, hébergement maîtrisé (UE, certifications), et clauses de non-réutilisation des données.

3

Formation ciblée des équipes

Expliquer les risques RGPD / LCB-FT liés à l’IA, les bonnes pratiques d’anonymisation et les réflexes à adopter avant de “copier-coller”.

4

Politique d’usage écrite

Définir une liste blanche des outils autorisés, des catégories de données interdites, des règles de validation et des procédures d’escalade.

5

Traçabilité & contrôle interne

Intégrer les usages IA au registre des traitements, documenter les incidents, organiser des audits internes et préparer les éléments en vue d’un contrôle.

Daphné Derkaoui

L'Auteure

Daphné Derkaoui

Fondatrice de PhiloPartners et experte en gouvernance éthique. Elle accompagne dirigeants et assureurs pour transformer la conformité (DDA, RUP) en levier de performance et de sens.

Découvrir son parcours