Nebuly présente ChatLLaMA, un nouveau concurrent de ChatGPT, basé sur LLaMA, le grand modèle de langage de Meta

Seulement quelques jours après la publication de LLaMA, la collection de grands modèles de langage fondamentaux de Meta, allant de 7 à 65 milliards de paramètres, Nebuly présentait la première implémentation open-source de LLaMA basée sur l’apprentissage par renforcement à partir de la rétroaction humaine (RLHF) : ChatLLaMA.

Meta se disait impatiente de voir ce que la communauté pouvait apprendre et construire, en utilisant LLaMA, son grand modèle de langage, elle n’aura pas eu longtemps à attendre… Elle a publié le code de LLaMA en open source pour aider les chercheurs grâce à des modèles plus petits que GPT-3 mais performants : l’architecture 13B de LLaMA surpasse GPT-3 bien qu’elle soit 10 fois plus petite, donc ChatLLaMA devrait être plus performant que ChatGPT.

Cette nouvelle collection de modèles fondamentaux ouvre la porte à des performances d’inférence plus rapides et à des assistants en temps réel de type chatGPT, tout en étant rentables et fonctionnant sur un seul GPU.

Cependant, LLaMA n’a pas été affiné pour la tâche d’instruction avec un processus de formation Reinforcement Learning from Human Feedback (RLHF).

Nebuly, qui se donne pour mission l’optimisation de l’IA, présente ChatLLaMA : la première implémentation open source basée sur le RLHF qui tire parti de LLaMA, pour créer un service de type ChatGPT basé sur des modèles LLaMA pré-entraînés :

  • Par rapport au ChatGPT original, le processus de formation et l’inférence à GPU unique sont beaucoup plus rapides et moins chers en tirant parti de la taille plus petite des architectures LLaMA.
  • ChatLLaMA dispose d’un support intégré pour DeepSpeed ZERO afin d’accélérer le processus de réglage fin.
  • La bibliothèque prend en charge toutes les architectures de modèles LLaMA (7B, 13B, 33B, 65B), afin d’affiner le modèle en fonction des préférences en matière de temps d’entraînement et de performances d’inférence.

Le code complet pour répliquer l’implémentation ChatLLaMA a été publié par Nebuly en open-source, pour permettre  à chaque utilisateur d’affiner ses propres assistants ChatLLaMA personnalisés. Il lui est demandé de fournir les poids originaux de Meta qu’il peut obtenir en postulant à ce formulaire et un jeu de données personnalisé avant de commencer le processus de réglage fin.

La bibliothèque, encore ses débuts, peut être étendue avec les fonctionnalités suivantes :

  • Points de contrôle avec des poids affinés;
  • Techniques d’optimisation pour une inférence plus rapide;
  • Prise en charge de cadres de déploiement efficaces.

Tous les développeurs sont invités à se joindre aux efforts de Nebuly afin de créer des assistants de type ChatGPT plus efficaces et plus ouverts.

Ils peuvent participer des manières suivantes :

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.