Menu
https://trackr.fr/app/uploads/2024/09/cropped-TRACKR-2.pngTRACKR
  • Tech
  • Pop Culture
    • Films
    • Séries TV
  • Jeux Vidéo
Tech

Quand l’IA générative met les entreprises en danger

Tech > IA > Données personnelles > Travail
Par CodexZéro,  publié le 12 octobre 2025 à 19h00.
IA

Image d'illustration. IAADN

Les employés exposent involontairement des informations sensibles via l’IA générative.

Tl;dr

  • Les outils d’IA générative comme ChatGPT ou Copilot sont devenus la première source de fuites de données en entreprise, devant le cloud et les emails.
  • Le principal risque vient des employés eux-mêmes, qui partagent des informations sensibles via des comptes personnels non sécurisés.
  • Les systèmes de cybersécurité actuels ne détectent pas ce type de fuites, d’où la nécessité de nouvelles règles et pratiques pour encadrer l’usage de l’IA.

Un nouveau risque majeur avec l’IA générative

Alors que l’adoption de l’IA générative explose en entreprise, un récent rapport de Cyera tire la sonnette d’alarme : les outils tels que ChatGPT, Microsoft Copilot ou encore Claude sont désormais la première source de fuites de données professionnelles, dépassant pour la première fois le stockage cloud et l’email. Ce constat, pour le moins inquiétant, met en lumière une faille qui, jusqu’à présent, évoluait discrètement sous le radar des directions informatiques.

Les employés bien plus dangereux que les hackers ?

Contrairement à ce que l’on imagine souvent, le principal danger ne provient pas d’attaques extérieures sophistiquées mais bien des propres équipes internes. Selon les chercheurs, près de 50% des salariés utilisent régulièrement ces chatbots sur leur lieu de travail. Des informations sensibles — rapports financiers, données personnelles ou stratégies confidentielles — se retrouvent ainsi copiées-collées dans des interfaces IA, souvent via des comptes personnels non encadrés. Or, 77% de ces interactions concernent de réelles données d’entreprise. Le geste paraît anodin, mais il court-circuite totalement les dispositifs classiques de prévention contre la perte de données.

L’impasse des outils de cybersécurité actuels

Les mécanismes traditionnels se montrent impuissants face à cette nouvelle menace. Habituellement paramétrés pour détecter fichiers suspects ou envois d’emails douteux, ils passent totalement à côté du trafic web engendré par les conversations IA. Un chiffre de la récente étude de LayerX illustre cette faille : 67% des échanges avec l’IA se font via des comptes personnels, hors du contrôle direct des équipes IT. Résultat : l’utilisation professionnelle de l’IA devient une véritable zone d’ombre sécuritaire.

Ajuster les pratiques : recommandations et bon sens

Plutôt que d’interdire purement et simplement ces technologies — une mesure jugée irréaliste — les experts recommandent d’introduire plusieurs garde-fous pour limiter les risques :

  • Bloquer l’accès aux IA depuis les comptes privés ;
  • Imposer une authentification unique (SSO) sur tous les outils IA professionnels ;
  • Surveiller l’apparition de mots-clés sensibles et le presse-papiers ;
  • Traiter chaque interaction chat comme un transfert potentiellement risqué.

En filigrane, un principe simple s’impose : si vous n’assumeriez pas qu’un contenu soit publié sur Internet, mieux vaut éviter tout partage avec un chatbot. Car dans cette quête effrénée de productivité grâce à l’IA, un simple copier-coller mal avisé peut suffire à exposer l’ensemble des secrets d’une entreprise. Prendre conscience du risque constitue déjà une étape décisive vers davantage de vigilance collective.

Le Récap
  • Tl;dr
  • Un nouveau risque majeur avec l’IA générative
  • Les employés bien plus dangereux que les hackers ?
  • L’impasse des outils de cybersécurité actuels
  • Ajuster les pratiques : recommandations et bon sens
En savoir plus
  • YouTube : la vérification d’âge par IA qui fâche les utilisateurs
  • Quand l’IA explore les recoins oubliés du web
  • De Peloton à Tripadvisor, ChatGPT devient votre assistant universel
https://trackr.fr/app/uploads/2024/09/cropped-TRACKR-2.png
  • À propos
  • Archives
  • Infos Légales
© 2025 - Tous droits réservés sur les contenus du site TRACKR