Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesBotsEarnCopy
10 risques de sécurité à connaître lorsque vous utilisez l'IA au travail

10 risques de sécurité à connaître lorsque vous utilisez l'IA au travail

MPOSTMPOST2025/07/02 23:30
Par:MPOST

En bref D’ici la mi-2025, l’IA est profondément ancrée dans les opérations sur le lieu de travail, mais son utilisation généralisée, notamment via des outils non sécurisés, a considérablement augmenté les risques de cybersécurité, suscitant des appels urgents pour une meilleure gouvernance des données, des contrôles d’accès et des politiques de sécurité spécifiques à l’IA.

D'ici mi-2025, l'intelligence artificielle ne sera plus un concept futuriste sur le lieu de travail. Elle sera intégrée aux flux de travail quotidiens des services marketing, juridique, d'ingénierie, de support client, RH, etc. Les modèles d'IA facilitent désormais la rédaction de documents, la génération de rapports, le codage et même l'automatisation du chat interne. Mais à mesure que le recours à l'IA se développe, le paysage des risques s'accroît également.

Un rapport Selon Cybersecurity Ventures, les coûts mondiaux de la cybercriminalité pourraient atteindre 10.5 billions de dollars d'ici 2025 , ce qui reflète une augmentation annuelle de 38 % des violations liées à l'IA par rapport à l'année précédente. Cette même source estime qu'environ 64 % des équipes d'entreprise utilisent l'IA générative à un titre ou à un autre, tandis que seulement 21 % de ces organisations ont mis en place des politiques formelles de traitement des données.

Ces chiffres ne sont pas seulement le buzz du secteur : ils témoignent d'une visibilité croissante à grande échelle. La plupart des équipes s'appuyant encore sur des outils d'IA publics ou gratuits, la sensibilisation à la sécurité de l'IA est urgente.

Vous trouverez ci-dessous les 10 risques de sécurité critiques auxquels les équipes sont confrontées lorsqu'elles utilisent l'IA au travail. Chaque section explique la nature du risque, son fonctionnement, son dangerosité et les endroits où il apparaît le plus souvent. Ces menaces affectent déjà les organisations en 2025.

Fuite d'entrée via les invites

L'une des failles de sécurité les plus fréquentes commence dès la première étape : l'invite elle-même. Au sein des services marketing, RH, juridique et du service client, les employés insèrent souvent des documents sensibles, des e-mails clients ou du code interne dans des outils d'IA pour rédiger rapidement des réponses. Bien que cette méthode semble efficace, la plupart des plateformes stockent au moins une partie de ces données sur des serveurs back-end, où elles peuvent être enregistrées, indexées ou utilisées pour améliorer les modèles. Selon un rapport de 2025 de Varonis, 99 % des entreprises ont admis avoir partagé des données confidentielles ou des données clients avec l'IA services sans appliquer de contrôles de sécurité internes.

Lorsque les données d'une entreprise sont transférées sur des plateformes tierces, elles sont souvent soumises à des politiques de conservation et à un accès personnel que de nombreuses entreprises ne contrôlent pas totalement. Même les modes « privés » peuvent stocker des fragments à des fins de débogage. Cela entraîne des risques juridiques, notamment au regard du RGPD, de la loi HIPAA et d'autres lois similaires. Pour réduire l'exposition, les entreprises utilisent désormais des filtres pour supprimer les données sensibles avant de les envoyer aux outils d'IA et définissent des règles plus claires sur ce qui peut être partagé.

Stockage de données caché dans les journaux d'IA

De nombreux services d'IA conservent des enregistrements détaillés des invites et des sorties de l'utilisateur, même après leur suppression par l'utilisateur. Rapport Thales 2025 sur les menaces liées aux données pris en compte que 45 % des organisations ont subi des incidents de sécurité impliquant des données persistantes dans les journaux d'IA.

Ceci est particulièrement crucial dans des secteurs comme la finance, le droit et la santé, où même un enregistrement temporaire de noms, de détails de compte ou d'antécédents médicaux peut enfreindre les accords de conformité. Certaines entreprises pensent que la suppression des données en amont est suffisante ; en réalité, les systèmes back-end conservent souvent des copies pendant des jours, voire des semaines, notamment lorsqu'ils sont utilisés à des fins d'optimisation ou de formation.

Les équipes qui cherchent à éviter cet écueil se tournent de plus en plus vers des plans d’entreprise avec des accords stricts de conservation des données et la mise en œuvre d’outils qui confirment la suppression du backend, plutôt que de s’appuyer sur des boutons de tableau de bord vagues indiquant « supprimer l’historique ».

Dérive du modèle grâce à l'apprentissage sur des données sensibles

Contrairement aux logiciels traditionnels, de nombreuses plateformes d'IA améliorent leurs réponses en apprenant des données saisies par les utilisateurs. Cela signifie qu'une invite contenant un langage juridique spécifique, une stratégie client ou un code propriétaire pourrait affecter les résultats futurs fournis à des utilisateurs non concernés. L'indice Stanford AI 2025 a constaté une augmentation de 56 % d'une année sur l'autre dans les cas signalés où des données spécifiques à l'entreprise sont apparues par inadvertance dans des sorties ailleurs.

Dans les secteurs où l'avantage concurrentiel repose sur la propriété intellectuelle, même les plus petites fuites peuvent nuire aux revenus et à la réputation. L'apprentissage étant automatique, sauf désactivation spécifique, de nombreuses entreprises ont désormais recours à des déploiements locaux ou à des modèles isolés qui ne conservent pas les données utilisateur et n'apprennent pas à partir d'informations sensibles.

Phishing et fraude générés par l'IA

L'IA a rendu les attaques d'hameçonnage plus rapides, plus convaincantes et beaucoup plus difficiles à détecter. En 2025, DMARC a signalé une augmentation de 4000 XNUMX % dans des campagnes de phishing générées par l'IA, dont beaucoup utilisaient des modèles de langage interne authentiques récoltés à partir de données d'entreprise divulguées ou publiques. Selon Hoxhunt, les escroqueries deepfake basées sur la voix ont augmenté de 15 % cette année , avec des dommages moyens par attaque approchant les 4.88 millions de dollars.

Ces attaques imitent souvent si précisément les discours et les styles de communication des dirigeants que les formations traditionnelles en sécurité ne les empêchent plus. Pour se protéger, les entreprises développent des outils de vérification vocale, mettent en place des canaux de confirmation secondaires pour les approbations à haut risque et forment leur personnel à signaler tout langage suspect, même s'il semble impeccable et sans erreur.

Faible contrôle sur les API privées

Dans la précipitation à déployer de nouveaux outils, de nombreuses équipes connectent des modèles d'IA à des systèmes tels que des tableaux de bord ou des CRM via des API avec une protection minimale. Ces intégrations négligent souvent des pratiques clés telles que la rotation des jetons, les limites de débit ou les autorisations spécifiques aux utilisateurs. Si un jeton fuit ou est deviné, les attaquants peuvent siphonner des données ou manipuler les systèmes connectés sans que personne ne s'en aperçoive.

Ce risque n’est pas théorique. Une étude récente Une étude d'Akamai a révélé que 84 % des experts en sécurité ont signalé un incident de sécurité d'API Au cours de l'année écoulée, près de la moitié des organisations ont été victimes de violations de données suite à l'exposition de jetons d'API. Dans un cas, des chercheurs plus de 18,000 XNUMX secrets d'API exposés dans des référentiels publics ont été découverts .

Comme ces passerelles API fonctionnent discrètement en arrière-plan, les entreprises ne détectent souvent les failles qu'après un comportement anormal dans les analyses ou les dossiers clients. Pour y remédier, les grandes entreprises renforcent leurs contrôles en imposant des durées de vie courtes aux jetons, en effectuant régulièrement des tests d'intrusion sur les terminaux connectés à l'IA et en conservant des journaux d'audit détaillés de toutes les activités des API.

Adoption de l'IA fantôme dans les équipes

D'ici 2025, l'utilisation non autorisée de l'IA, connue sous le nom d'« IA fantôme », s'est généralisée. L'étude Zluri a révélé que 80 % de l'utilisation de l'IA en entreprise se produit via des outils non approuvés par les services informatiques.

Les employés ont souvent recours à des extensions de navigateur téléchargeables, des générateurs low-code ou des chatbots d'IA publics pour répondre à des besoins immédiats. Ces outils peuvent envoyer des données internes à des serveurs non vérifiés, ne pas être chiffrés ou collecter des journaux d'utilisation à l'abri des regards de l'organisation. Sans visibilité sur les données partagées, les entreprises ne peuvent ni garantir la conformité ni maintenir le contrôle.

Pour lutter contre ce phénomène, de nombreuses entreprises déploient désormais des solutions de surveillance interne qui signalent les services inconnus. Elles tiennent également à jour des listes d'outils d'IA approuvés et exigent des employés qu'ils n'interagissent que via des canaux autorisés et des environnements sécurisés.

Injection rapide et modèles manipulés

L'injection d'invites se produit lorsqu'une personne intègre des instructions malveillantes dans des modèles d'invites partagés ou des entrées externes, dissimulées dans du texte légitime. Par exemple, une invite conçue pour « résumer le dernier e-mail client » peut être modifiée pour extraire l'intégralité de l'historique des discussions ou révéler involontairement du contenu confidentiel. Le Top 2025 de la sécurité GenAI de l'OWASP 10 classe l'injection rapide comme une vulnérabilité majeure , avertissant que les entrées fournies par l'utilisateur, en particulier lorsqu'elles sont combinées avec des données externes, peuvent facilement remplacer les instructions du système et contourner les mesures de protection.

Les organisations qui s'appuient sur des bibliothèques d'invites internes sans supervision adéquate risquent des problèmes en cascade : exposition de données indésirables, résultats trompeurs ou workflows corrompus. Ce problème survient souvent dans les systèmes de gestion des connaissances et les réponses automatisées des clients ou des services juridiques basées sur des modèles d'invites. Pour contrer cette menace, les experts recommandent d'appliquer un processus de gouvernance à plusieurs niveaux : vérifier de manière centralisée tous les modèles d'invites avant leur déploiement, nettoyer les entrées externes lorsque cela est possible et tester les invites dans des environnements isolés afin de garantir qu'aucune instruction cachée ne passe inaperçue.

Problèmes de conformité liés à des résultats non vérifiés

L'IA générative produit souvent des textes soignés, mais ces résultats peuvent être incomplets, inexacts, voire non conformes à la réglementation. Ce phénomène est particulièrement dangereux dans les secteurs de la finance, du droit ou de la santé, où des erreurs mineures ou un langage trompeur peuvent entraîner des amendes ou des poursuites.

D’après Selon l'enquête 2025 de l'ISACA, 83 % des entreprises déclarent utiliser l'IA générative au quotidien , mais seulement 31 % disposent de politiques internes formelles en matière d'IA. Fait alarmant, 64 % des professionnels ont exprimé de sérieuses inquiétudes quant aux abus, alors que seulement 18 % des organisations investissent dans des mesures de protection telles que la détection des deepfakes ou les contrôles de conformité.

Les modèles d'IA ne comprenant pas les nuances juridiques, de nombreuses entreprises exigent désormais la conformité humaine ou un examen juridique de tout contenu généré par l'IA avant toute utilisation publique. Cette étape garantit que les allégations sont conformes aux normes réglementaires et évite d'induire les clients ou les utilisateurs en erreur.

Risques liés aux plugins tiers

De nombreuses plateformes d'IA proposent des plugins tiers qui se connectent aux e-mails, calendriers, bases de données et autres systèmes. Ces plugins manquent souvent de contrôles de sécurité rigoureux. un rapport de 2025 de Check Point Research sur la sécurité de l'IA a révélé qu'une invite d'IA sur 1 présentait un risque élevé de fuite Données sensibles : une partie de ce risque provient des interactions assistées par plug-ins. Check Point prévient également que les outils d'IA non autorisés et les intégrations mal configurées comptent parmi les principales menaces émergentes pour l'intégrité des données d'entreprise.

Lorsqu'ils sont installés sans vérification, les plugins peuvent accéder à vos entrées, sorties et identifiants associés. Ils peuvent envoyer ces informations à des serveurs externes, hors de la surveillance de l'entreprise, parfois sans chiffrement ni journalisation des accès.

Plusieurs entreprises exigent désormais une vérification des plugins avant leur déploiement, n'autorisent que les plugins sur liste blanche et surveillent les transferts de données liés aux intégrations d'IA actives pour garantir qu'aucune donnée ne quitte les environnements contrôlés.

Manque de gouvernance de l'accès aux outils d'IA

De nombreuses organisations s'appuient sur des comptes d'IA partagés sans autorisations spécifiques à l'utilisateur, ce qui rend impossible de savoir qui a soumis quelles invites ou accédé à quelles sorties. Rapport Varonis 2025 analysant 1,000 XNUMX environnements cloud Une étude a révélé que 98 % des entreprises utilisaient des applications d'IA non vérifiées ou non autorisées, et que 88 % entretenaient des utilisateurs fantômes avec un accès persistant à des systèmes sensibles (source). Ces résultats soulignent que la quasi-totalité des entreprises sont confrontées à des failles de gouvernance pouvant conduire à des fuites de données intraçables.

Lorsque les accès individuels ne sont pas suivis, les utilisations abusives des données internes, qu'elles soient accidentelles ou malveillantes, passent souvent inaperçues pendant de longues périodes. Le partage des identifiants brouille les responsabilités et complique la gestion des incidents en cas de violation. Pour y remédier, les entreprises adoptent des plateformes d'IA qui appliquent des autorisations granulaires, des journaux d'activité instantanés et l'attribution des utilisateurs. Ce niveau de contrôle permet de détecter les comportements inhabituels, de révoquer rapidement les accès inactifs ou non autorisés et de remonter à une personne spécifique.

Que faire maintenant

Analysez la façon dont vos équipes utilisent l'IA au quotidien. Identifiez les outils qui gèrent les données privées et identifiez qui peut y accéder. Définissez des règles claires concernant ce qui peut être partagé avec les systèmes d'IA et établissez une liste de contrôle simple : rotation des jetons d'API, suppression des plugins inutilisés et vérification de la disponibilité de véritables options de suppression pour tout outil stockant des données. La plupart des failles de sécurité surviennent parce que les entreprises supposent que « quelqu'un d'autre les surveille ». En réalité, la sécurité commence par les petites actions que vous adoptez dès aujourd'hui.

0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !