ChatGPT : OpenAI a-t-il dissimulé une fuite de données ?

Par Vincent le 8 juillet 2024 à 10h53

En mars 2023, une faille de sécurité significative a touché ChatGPT, le célèbre chatbot d’OpenAI. Cet incident a révélé des informations sensibles appartenant à certains utilisateurs. Le problème est survenu à cause d’un bug dans une bibliothèque open-source utilisée par le service. Ce bug a permis à certains utilisateurs de voir les titres de l’historique de chat d’autres utilisateurs et, dans certains cas, les premiers messages de nouvelles conversations si les utilisateurs étaient actifs en même temps.

Nature des données compromises

Le 20 mars 2023, un bug dans la bibliothèque Redis a provoqué la fuite de diverses informations sensibles. OpenAI a confirmé que 1,2 % des abonnés à ChatGPT Plus ont été affectés pendant une période de neuf heures. Les données compromises incluaient les noms, les adresses e-mail, les adresses de paiement, ainsi que les quatre derniers chiffres et la date d’expiration des cartes de crédit utilisées pour les abonnements  . Heureusement, les numéros complets des cartes de crédit n’ont pas été exposés.

Réactions et mesures prises par OpenAI

Face à cette situation, OpenAI a rapidement réagi en mettant en place plusieurs mesures pour corriger la faille et renforcer la sécurité de leur système. Les actions entreprises incluent :

1. Correction du bug : Le problème dans la bibliothèque Redis a été corrigé.

2. Contrôles redondants : Des contrôles supplémentaires ont été ajoutés pour s’assurer que les données renvoyées par le cache Redis correspondent bien à l’utilisateur qui fait la demande.

3. Analyse des logs : Une analyse systématique des logs a été effectuée pour garantir que seules les données des utilisateurs concernés étaient accessibles.

4. Communication avec les utilisateurs affectés : OpenAI a contacté les utilisateurs concernés pour les informer de l’incident et des mesures prises .

Impact et confiance des utilisateurs

Cet incident a soulevé des questions sur la sécurité des données gérées par OpenAI et a affecté la confiance des utilisateurs. Bien que l’entreprise ait rapidement réagi pour mitiger les dommages, cet épisode rappelle l’importance cruciale de la sécurité des données dans les services utilisant l’intelligence artificielle. OpenAI continue de travailler sur l’amélioration de ses protocoles de sécurité pour éviter de futurs incidents.

La fuite de données de mars 2023 a été un rappel sévère des défis de sécurité auxquels sont confrontées les entreprises technologiques. OpenAI a pris des mesures correctives rapides et importantes, mais cet incident souligne la nécessité d’une vigilance constante et d’une amélioration continue des systèmes de sécurité pour protéger les utilisateurs et leurs informations personnelles.