OpenAI et gestion des crises de cybersécurité : un piratage passé sous silence

Selon des révélations du New York Times, OpenAI, la start-up derrière ChatGPT, a été la victime en début d’année dernière d’un hacker. Si les membres du conseil d’administration et les employés concernés par les vols de données personnelles ont été avertis par la direction quelque temps plus tard, le piratage n’avait pas été dévoilé au gouvernement américain ni au public jusqu’à présent.

Selon les sources du quotidien new-yorkais, le ou les pirates se sont introduits dans une messagerie interne à OpenAI, ce qui n’est pas sans rappeler le même problème rencontré par son principal investisseur, Microsoft. Ce dernier a d’ailleurs reconnu la semaine dernière que la cyberattaque dont il a été la cible en janvier dernier par des pirates informatiques russes était plus importante qu’estimée au prime abord. L’entreprise, qui a également été visée par des attaquants chinois, s’est d’ailleurs vu reprocher son manque de rigueur en matière de sécurité, tout comme OpenAI depuis plusieurs mois par ses propres employés.

Alors que lors des cyberattaques subies par Microsoft, des données sensibles ont été volées, notamment certaines du gouvernement américain, aucune donnée d’utilisateur ou de partenaire d’OpenAI ne l’a été lors du piratage, raison pour laquelle celui-ci n’a été dévoilé qu’en interne.

Leopold Aschenbrenner, qui travaillait dans l’équipe de superalignement d’OpenAI, avait alors alerté le conseil d’administration de la start-up sur le manque de protection pour éviter qu’un gouvernement étranger ne s’empare de ses informations, ce qui, selon ses dires, lui aurait valu d’être licencié en avril dernier.

Cette équipe de superalignement de l’IA, mise en place en juillet 2023 pour minimiser les risques potentiels d’une IA qui surpasserait l’intelligence humaine, a d’ailleurs été dissoute au mois de mai suivant suite à la démission de ses deux co-dirigeants, Ilya Sutskever et Jan Leike.

Peu de temps après, alors qu’elle s’est engagée aux côtés de 15 autres entreprises lors de de l’AI Safety Summit de Séoul à adopter des mesures de sécurité pour l’IA, la start-up a mis en place un Comité de sûretéchargé de faire des recommandations à l’ensemble du conseil d’administration sur les décisions critiques en matière de sûreté et de sécurité pour les projets et les opérations d’OpenAI”.

Ce comité avait trois mois pour évaluer les processus et les garanties d’OpenAI mais également pour les développer davantage.

Ces événements soulignent les défis croissants en matière de cybersécurité auxquels sont confrontées les entreprises technologiques, même les plus avancées comme OpenAI ou Microsoft. La révélation tardive du piratage met en lumière des lacunes dans la communication et la gestion des incidents de sécurité, tant en interne qu’externe. L’engagement d’OpenAI à renforcer ses mesures de sécurité est une étape nécessaire pour prévenir de futures cyberattaques mais également pour regagner la confiance des parties prenantes.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.