OpenAI a coupé les liens avec Mixpanel après la découverte d’un incident de sécurité chez ce fournisseur d’analytique web. Les données exposées concernent exclusivement des métadonnées de comptes API, mais l’affaire soulève une question centrale sur la confiance dans les maillons tiers des chaînes logicielles IA.

Mixpanel, fournisseur d’analyses web utilisé par OpenAI pour son interface API (platform.openai.com), a détecté une intrusion non autorisée dans une partie de ses systèmes, provoquée par une campagne de « smishing » (hameçonnage par SMS). L’incident n’a pas été détecté par OpenAI lui-même, mais par Mixpanel. Le 9 novembre 2025, celui-ci a informé ses clients qu’un accès non autorisé avait été obtenu via une attaque par hameçonnage. Les identifiants de connexion d’un collaborateur ont été compromis, donnant aux attaquants la possibilité d’accéder à certains environnements internes. OpenAI a indiqué avoir reçu, le 25 novembre, une copie des données concernées, révélant l’ampleur limitée, mais réelle de l’exposition. Les équipes ont immédiatement révoqué l’usage de Mixpanel, engagé un audit interne, et informé les utilisateurs dont les données apparaissaient dans les fichiers extraits.

Si la compromission n’a pas affecté les modèles d’OpenAI ni les requêtes API elles-mêmes, elle met en lumière une dépendance structurelle de nombreux fournisseurs d’IA à des outils tiers qui accèdent en périphérie à des informations sensibles. L’incident, circonscrit à la couche analytique, rappelle que les informations « hors production » (courriels, identifiants d’organisation, configurations de navigateur ou provenance géographique) peuvent être utilisées pour élaborer des attaques ciblées ou mener des campagnes d’hameçonnage secondaire. Les entreprises clientes d’OpenAI ayant intégré les API via cette plateforme sont donc potentiellement exposées à un risque indirect, même si aucune compromission active de leurs systèmes n’a été identifiée à ce stade.

Métadonnées exposées, mais pas les données opérationnelles

Selon la version publiée par OpenAI, les données affectées n’incluent ni contenus générés, ni journaux de requêtes API, ni secrets d’authentification, ni moyens de paiement, ni documents d’identité. L’exposition concerne uniquement les informations collectées par Mixpanel pour produire des rapports de performance ou d’usage. On y retrouve le nom et le courriel de l’utilisateur, l’identifiant du compte ou de l’organisation, la localisation géographique approximative (ville et pays), le système d’exploitation, le navigateur utilisé, ainsi que l’URL référente lors de la connexion. Ces données sont régulièrement utilisées pour des tableaux de bord internes, mais sont rarement cryptées ou isolées comme des données critiques dans les architectures analytiques classiques.

OpenAI précise que le processus d’authentification des utilisateurs n’a pas été contourné et que les clés API et les mots de passe ne figuraient pas dans les fichiers hackés par les attaquants. Néanmoins, l’entreprise invite à la prudence et recommande l’usage systématique de l’authentification multifactorielle (MFA) sur les comptes développeur. Elle appelle également les utilisateurs à être attentifs à toute tentative d’hameçonnage par courriel ou messagerie, qui pourrait exploiter les données divulguées. Pour les équipes de sécurité, la traçabilité de cet incident illustre l’importance de cartographier non seulement les flux de production, mais aussi l’ensemble des outils observables connectés aux plateformes sensibles.

Une chaîne logicielle de plus en plus vulnérable

L’incident Mixpanel/OpenAI illustre une dérive devenue systémique dans les chaînes logicielles de l’IA contemporaine : l’empilement de briques analytiques, logicielles et marketing repose sur un ensemble de prestataires intermédiaires, souvent invisibles du point de vue des utilisateurs finaux. Ces services tiers — qu’ils relèvent de l’optimisation, du suivi d’usage, de la personnalisation ou du support — manipulent fréquemment des métadonnées d’usage essentielles. Or ces dépendances sont rarement soumises au même niveau d’exigence sécuritaire que les environnements de production, et leur compromission peut exposer indirectement des environnements critiques. Le fait que Mixpanel ait été victime d’un simple hameçonnage SMS, sans recours à une faille technique complexe, renforce ce constat.

Pour les entreprises, les administrations et les fournisseurs de services intégrant des API IA dans leurs infrastructures, l’affaire souligne la nécessité de réévaluer la surface d’exposition globale. Il ne suffit pas d’auditer les flux de données entre l’organisation et le fournisseur principal — ici OpenAI. Il faut aussi cartographier les intégrations tierces invisibles, souvent activées par défaut dans les environnements SaaS. Dans le cas de Mixpanel, la collecte de données servait à optimiser l’interface développeur, mais aucun message n’informait explicitement l’utilisateur de la nature ou de la finalité de ces analyses. Le RGPD impose pourtant des obligations de transparence, et ce point pourrait nourrir un contentieux si des utilisateurs européens venaient à s’estimer lésés.

En guise de leçon opérationnelle, l’affaire Mixpanel montre que la confiance numérique dans l’IA ne se joue pas uniquement au niveau du modèle ou du fournisseur principal. Elle dépend de toute une écologie logicielle, souvent négligée dans les revues de sécurité. Le maillon faible ne se situe pas nécessairement dans la zone critique, mais dans un service auxiliaire apparemment anodin. Pour les DSI et RSSI, cet événement rappelle qu’une sécurité robuste passe par une cartographie complète, une revue des dépendances tierces et une gouvernance active des chaînes logicielles. Les pratiques de due diligence vont devoir évoluer dans un secteur où la vitesse de déploiement l’emporte trop souvent sur la rigueur contractuelle.

publicité