Les données personnelles de plusieurs utilisateurs de ChatGPT ont été visibles publiquement pendant un moment sur la plateforme d’intelligence artificielle textuelle, ChatGPT.

L’information a été révélée par les développeurs de OpenAI, ajoutant le bug a été résolu, mais qu’il avait permis à plusieurs utilisateurs de la plateforme de voir les échanges effectués avec l’algorithme.

Sam Altman, CEO de la plateforme, a indiqué via une série de tweets que la faille, bien qu’elle soit importante, n’aurait concerné qu’un nombre réduit d’utilisateurs. Le problème aurait été toutefois réglé, à noter que l’historique d’échanges avec l’IA ne sera plus accessible pour les utilisateurs touchés par le bug.

Cela a poussé plus d’un internaute à se poser la question sur la sévérité de failles similaires, surtout que ChatGPT se base sur la collecte d’informations lors des échanges avec les utilisateurs, pour générer des réponses adéquates. Le risque de voir des informations sensibles partagées par l’IA n’est pas à éloigner, puisque celle-ci n’en est encore qu’à un stade basique de son développement.