Analyse
La croissance de l'IA fantôme souligne la nécessité d'une gouvernance de l'IA
12 AOÛT 2025
/
2 mins de lecture
Auteur
Responsable d’information et d’analyse, Cybersécurité

À mesure que les plateformes d'IA générative (GenAI) gagnent en popularité, les employés les utilisent de plus en plus pour améliorer leur productivité dans des domaines tels que la création de contenu, l'analyse de données, la génération de code et le débogage, entre autres. Cependant, les employés peuvent utiliser ces outils en dehors des garde-fous de gouvernance formels de l' , sans comprendre les risques associés à ces outils. Cette tendance croissante, qui consiste à utiliser les technologies d'IA sans l'approbation ou la supervision des équipes de cybersécurité, est appelée « IA fantôme ».
Risques de conformité
Les employés peuvent soumettre des données confidentielles, exclusives ou appartenant à des clients à une plateforme d'IA. Ces données peuvent être conservées ou utilisées dans le cadre de la formation de modèles externes, ce qui peut entraîner des violations de la confidentialité ou le non-respect des cadres réglementaires, tels que le règlement général sur la protection des données (RGPD) de l'Union européenne, la loi américaine sur la portabilité et la responsabilité en matière d'assurance maladie (HIPAA) et les contrôles SOC 2 (Service Organizational Controls 2).
Vulnérabilité accrue aux cyberattaques
De plus, de nombreuses applications développées rapidement, en particulier les outils « wrapper », qui sont des applications tierces construites sur des plateformes d'IA publiques, contournent souvent les évaluations de sécurité formelles et ne disposent pas de protections essentielles telles que le cryptage. Ces lacunes élargissent considérablement la surface d'attaque d'une organisation, créant des vulnérabilités que les outils de sécurité traditionnels ne sont pas conçus pour détecter ou contrer. La plupart des outils de surveillance existants ne sont pas équipés pour détecter l'activité de l'IA fantôme. Si une telle utilisation n'est pas détectée, elle ne peut être contrôlée ni corrigée.
La nécessité d'une gouvernance de l'IA, et non d'une interdiction
L'interdiction générale des outils d'IA n'empêchera pas leur utilisation ; les employés adopteront probablement une approche plus discrète, ce qui renforcera les inquiétudes liées à l'IA fantôme. Les organisations doivent donc adopter des politiques de gouvernance de l'IA durables et tenant compte des risques, qui doivent s'intégrer aux architectures de gouvernance et de conformité existantes.
Une fois ces politiques mises en place, les employés peuvent se voir accorder l'accès à des plateformes d'IA approuvées par l'entreprise et dotées de contrôles, tels que la rédaction des données, la journalisation rapide et la prévention des pertes de données, afin de garantir la visibilité des actions des employés et de protéger les données sensibles.
Comme dans la plupart des domaines de la cybersécurité, les risques les plus importants résident dans les erreurs des utilisateurs, et le contrôle le plus efficace reste la formation des employés. Même les contrôles les plus avancés ne peuvent compenser un personnel mal informé. Les organisations doivent former leurs employés aux risques liés à l'utilisation d'applications d'IA non approuvées par l' , aux outils dont l'utilisation est autorisée et aux types de données qui peuvent être saisies en toute sécurité dans ces applications. La formation doit être continue et évoluer en fonction des plateformes d'IA et du paysage de la gouvernance.
L'IA fantôme représente un défi de gouvernance en pleine expansion pour les équipes chargées de la sécurité, des questions juridiques et de la conformité. Les organisations doivent s'appuyer sur une gouvernance interne pour s'assurer que l'IA constitue un atout concurrentiel plutôt qu'un passif non géré. Les entreprises qui développent des régimes de gouvernance structurés en matière d'IA et investissent dans la formation continue de leurs employés sont les mieux placées pour tirer le meilleur parti des outils d'IA tout en garantissant la sécurité des données sensibles.
Découvrez comment tirer parti de nos experts régionaux et spécialisés de premier plan pour obtenir des informations qui aideront votre organisation à garder une longueur d'avance sur les risques qui pèsent sur votre personnel et vos opérations.
Associés
Étiquettes
AIGUISEZ VOTRE
VISION DU RISQUE
Abonnez-vous à notre infolettre pour recevoir les dernières perspectives de nos analystes, à chaque semaine.
INFORMATION, ANALYSES ET PERSPECTIVES
UNE INFORMATION ET
UNE ANALYSE DE VALEUR
Avec son équipe globale de plus de 200 analystes, Crisis24 est la seule source requise d’informations utiles et exploitables sur tout sujet lié au risque.

Analyse
La réservation prolongée de l’espace aérien offshore par la Chine signale des risques politiques et opérationnels accrus
La mesure chinoise de 40 jours sur l’espace aérien offshore en mer Jaune et en mer de Chine orientale accroît l’incertitude opérationnelle en Asie du Nord-Est.
10 avril 2026

Analyse
Le conflit au Moyen-Orient accroît les risques sanitaires et environnementaux
Les frappes visant les infrastructures énergétiques, industrielles et maritimes provoquent des dommages environnementaux immédiats et cumulés sur l’air, l’eau et les sols.
Par Elizabeth Yin, Diyanah Azmi
7 avril 2026

Analyse
Asie-Pacifique : des pénuries de carburant liées au Moyen-Orient perturbent transports, industrie et sécurité énergétique
Plusieurs pays d’Asie-Pacifique (APAC) connaissent des pénuries aiguës de carburant, une flambée des prix et des mesures de rationnement en raison de ...
Par Équipe APAC
3 avril 2026

Analyse
Soudan : un engagement du Golfe durable malgré l’escalade au Moyen-Orient
La guerre au Soudan devrait se prolonger, soutenue par les appuis rivaux du Golfe, ancrés dans des intérêts stratégiques et économiques durables.
Par Mathilde Venet
30 mars 2026



