Actualité LinkedIn rend TonY open source pour exécuter des jobs TensorFlow

Pour approfondir le sujet

IA et Europe : Retour sur la création du Comité ad hoc sur l’intelligence artificielle (CAHAI)

Lors de sa 1353e réunion, le 11 septembre 2019, le Comité des Ministres du Conseil de l'Europe a créé un Comité Ad Hoc sur...

Google lance l’outil “What-If” pour TensorBoard

James Wexler, Ingénieur logiciel chez Google AI, a annoncé le lancement d'un nouvel outil pour TensorBoard : What-If. Comme son nom l'indique, l'outil encourage...

Europe : Quelle régulation pour l’intelligence artificielle ? avec Yannick Meneceur et Clementina Barbaro

Le 4 juin dernier, la Librarie Kléber à Strasbourg accueillait un échange sur la thématique "Quelle régulation pour l'intelligence artificielle ?" Animé par Franck...

Décoder l’intelligence artificielle : 10 mesures pour protéger les droits de l’homme

La Commissaire aux droits de l’homme du Conseil de l’Europe a publié il y a quelques mois un document très intéressant intitulé Décoder l'intelligence...

LinkedIn rend TonY open source pour exécuter des jobs TensorFlow

LinkedIn a annoncé récemment avoir rendu open source TonY, son projet permettant aux chercheurs et développeurs d’exécuter facilement des jobs TensorFlow sur Hadoop, Map/Reduce et Spark. 

LinkedIn propose désormais en open source TonY. Ce projet permet d’aider à ses utilisateurs de jouer des scénarios TensorFlow sur les environnements Hadoop, nativement, mais également sur Spark et Map/Reduce. Jonathan Hung, senior software engineer dans l’équipe de développement Hadoop chez LinkedIn, a expliqué dans un post de blog :

“Nous voulions un moyen flexible et durable de combler le fossé entre la puissance analytique distribuée de TensorFlow et la puissance de gradualité (scaling) de Hadoop. […]

tony2.jpg

De façon similaire à la manière dont MapReduce fournit le moteur d’exécution des scripts Pig / Hive sur Hadoop, et que Spark fournit le moteur d’exécution du code Scala utilisant les API Spark, TonY vise à fournir le même support de première classe pour l’exécution des tâches TensorFlow, en gérant des tâches comme la négociation de ressource et la configuration d’environnement de containers.”

“Il existe trois composants principaux pour TonY: Client, ApplicationMaster et TaskExecutor. C’est le processus complet pour exécuter un travail TonY:

  1. L’utilisateur soumet le code de formation du modèle TensorFlow, les arguments de soumission et leur environnement virtuel Python (contenant la dépendance TensorFlow) au Client.
  2. Le Client configure l’ApplicationMaster (AM) et le soumet au cluster YARN.
  3. AM négocie les ressources avec le gestionnaire de ressources de YARN en fonction des besoins en ressources de l’utilisateur (nombre de serveurs de paramètres et de travailleurs, mémoire et GPU).
  4. Une fois que AM reçoit des allocations, il génère des TaskExecutors sur les nœuds alloués.
  5. TaskExecutors lance le code de formation de l’utilisateur et attend son achèvement.
  6. Le code de formation de l’utilisateur démarre et TonY effectue périodiquement des pulsations entre TaskExecutors et AM pour vérifier la qualité de vie.”

Les chercheurs et développeurs pourront donc désormais conjuguer ces différents environnements et en tirer parti. À noter que TonY inclut également le support des environnements graphiques, la visualisation par TensorBoard, une modularité des ressources pour les requêtes et la tolérance à la panne.

Johanna Diaz

Partager l'article

Synapse AI : Entretien avec Julian Lucchesi, directeur des partenariats du CenTech à Montréal

L'adoption de l'intelligence artificielle en entreprise nécessite bien souvent un accompagnement. Dans ce numéro 3 de Synapse AI, Mathieu Barreau rencontre Julian Lucchesi, Directeur...

Un modèle de deep learning pour repérer plus facilement les tumeurs métastasiques complexes

Nous vous présentions récemment un système mis au point par des scientifiques écossais permettant de repérer plus facilement les mésothéliomes, une forme rare de cancer....

Trois start-up, spécialisées data et intelligence artificielle, finalistes du LVMH Innovation Award

Dans le cadre de la cinquième édition du LVMH Innovation Award, 28 start-up ont été sélectionnées. Grâce à ce prix dédié à l'innovation, les...

Quelle fiabilité pour la reconnaissance vocale utilisée pour le diagnostic du COVID-19 ?

Savoir si des patients sont atteints du COVID-19 grâce à leur voix ? C'est le défi que se sont lancé plusieurs équipes de recherche....