Apple restreint l’utilisation de ChatGPT et GitHub Copilot à ses employés

Open AI a prévenu lors du lancement de ChatGPT du danger d’entrer des données confidentielles. Nous avons pourtant appris, en avril dernier, que des employés de Samsung Semiconductor avaient divulgué inopinément des informations sensibles lors d’échanges avec le chatbot. Apple, plutôt qu’être confronté à ce problème, préfère anticiper et a, selon une note interne consultée par le Wall Street Journal, décidé de restreindre l’utilisation non seulement de ChatGPT mais d’autres outils d’IA, dont l’assistant de programmation GitHub Copilot.

Si certaines entreprises encouragent leurs employés à utiliser ChatGPT, de nombreuses autres sont récalcitrantes à son adoption, de peur que leurs employés ne donnent des informations cruciales lorsqu’ils l’utilisent.

Apple rejoint le rang des entreprises interdisant à leurs employés d’utiliser ChatGpt : Samsung, JPMorgan Chase, Verizon, Accenture… Amazon demanderait à ses ingénieurs d’utiliser ses propres outils d’IA plutôt que des outils externes. Selon Bloomberg, ce dernier prévoit d’ailleurs d’intégrer un chatbot d’IA similaire à ChatGPT à sa boutique en ligne.

Selon le Wall Street Journal, Apple travaille au développement d’un LLM, sous la direction de John Giannandrea, son vice-président senior de la stratégie d’apprentissage automatique et d’IA, recruté en 2018 après avoir dirigé les divisions de recherche et intelligence artificielle durant 8 ans chez Google.

ChatGPT et les problèmes de confidentialité

ChatGPT a subi le 20 mars dernier une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant ce qui, avec « l’absence de cadre légal justifiant la collecte et le stockage massifs de données personnelles, à des fins d’entraînement des algorithmes faisant fonctionner ChatGPT », a amené l’Italie à restreindre son utilisation.

L’autorité italienne lui demandait de réagir rapidement sous peine de sanction, OpenAI a fait un premier pas vers la protection des données personnelles en permettant aux utilisateurs de ChatGPT de désactiver l’historique des discussions. Grâce à cette option, annoncée fin avril, les conversations ne sont pas utilisées pour améliorer le chatbot ou entraîner les futurs modèles d’IA de la société. Elles sont cependant conservées pendant 30 jours et examinées en cas d’abus, avant d’être définitivement supprimées.

La société dit travailler sur un nouvel abonnement « ChatGPT Business », pour les professionnels qui ont besoin de plus de contrôle sur leurs données, ainsi que pour les entreprises qui cherchent à gérer leurs utilisateurs finaux. Les données de ces derniers ne seront pas utilisées pour entraîner ses modèles par défaut. ChatGPT Business devrait être disponible dans les mois à venir.

De son côté, Microsoft, qui grâce à son investissement de 10 milliards de dollars dans OpenAI, peut intégrer ChatGPT dans ses produits, envisage lui aussi une version payante de ChatGPT destinée aux entreprises. Selon un article de The Information du 2 mai dernier, cette offre, développée par Microsoft Azure, garantirait une totale confidentialité de leurs données hébergées dans des serveurs cloud dédiés, séparées de celles des autres clients.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.