Des employés de Samsung Semiconductor divulguent des informations sensibles via ChatGPT

Alors que Samsung Electronics n’a autorisé ses employés à utiliser ChatGPT que depuis le 11 mars dernier, trois employés auraient involontairement divulgué des informations confidentielles lors d’échanges avec ChatGPT avant la fin du mois… Celles-ci font aujourd’hui partie des données d’apprentissage du chatbot et pourraient être transmises à d’autres utilisateurs.

La société a permis aux ingénieurs de sa branche semi-conducteurs d’utiliser ChatGPT pour leur permettre d’accélérer divers processus, notamment pour les aider à résoudre les problèmes liés à des erreurs de code.

L’un des employés constatant une erreur lors de l’exécution du code source du programme de téléchargement de la base de données de mesure des installations de semi-conducteurs a communiqué ce code à ChatGPT, lui demandant de résoudre le problème.

Un second lui a demandé d’optimiser les séquences de test pour identifier les défauts dans les puces, et entré le code du programme qu’il avait créé dans ce but.

Le troisième a demandé à ChatGPT de l’aide pour convertir des notes de réunion en procès-verbal, révélant ainsi le contenu de cette réunion et l’identité des personnes y ayant pris part.

Samsung Electronics a donc demandé à ses employés d’être plus prudents dans leur utilisation de ChatGPT, les données étant transmises et stockées sur un serveur externe, il lui est donc impossible de les récupérer. De son côté, OpenAI a prévenu lors du lancement de ChatGPT du danger d’entrer des données sensibles, la société utilisant les questions posées comme données d’apprentissage pour améliorer son chatbot.

Il y a peu de chances pour que Samsung obtienne la suppression des informations malencontreusement fournies par ses employés alors qu’en Europe, le RGPD lui donnerait le droit à cette suppression.

La divulgation de données confidentielles comme celles permettant de détecter les défauts sur les puces pourrait lui faire perdre un avantage certain sur la concurrence. Afin que de tels incidents ne se reproduisent plus, il envisage de créer sa propre IA en interne.

En attendant, il a pris des mesures pour empêcher des fuites via chatGPT, notamment en limitant la capacité de chaque entrée à 1024 octets et a prévenu ses employés que si un tel incident se reproduisait, l’accès au chatbot serait interdit sur le réseau de l’entreprise.


Recommandé pour vous :

Partager l'article
Offre exclusive : 1 an d'abonnement au magazine ActuIA + Le guide pratique d'adoption de l'IA en entreprise pour seulement 27,60€ Boutique ActuIA Pour tout abonnement à ActuIA, recevez en cadeau le Guide Pratique d'Adoption de l'IA en Entreprise, d'une valeur de 23€ !
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.