Après avoir annoncé le fine-tuning de GPT-4o mini fin juillet dernier avec une offre de 2 millions de jetons gratuits par jour jusqu’au 23 septembre prochain, OpenAI propose depuis mardi dernier aux développeurs d’affiner son LLM multimodal phare GPT-4o.
GPT-4o, introduit en mai dernier par OpenAI, fusionne le traitement de l’audio, de la vision et du texte en temps réel. Comparé à GPT-4 Turbo, il est deux fois plus rapide, deux fois moins cher et propose des limites de débit cinq fois plus élevées. Les développeurs vont pouvoir l’affiner en utilisant des ensembles de données personnalisés à un coût réduit pour leurs cas d’utilisation spécifiques.
Le fine-tuning, l’une des fonctionnalités les plus demandées par les développeurs, permet d’améliorer la précision, la structure, et le ton des réponses du modèle, ainsi que sa capacité à suivre des instructions complexes propres à certains domaines, même avec de petits ensembles de données. Selon OpenAI, quelques dizaines d’exemples peuvent suffire pour obtenir des améliorations significatives.
La nouvelle fonctionnalité est disponible pour tous les développeurs, quel que soit leur niveau d’utilisation. Le coût de l’entraînement est fixé à 25 par million de jetons d’entrée et 15 $ par million de jetons de sortie.
Comme pour GPT-4o mini, son lancement est assorti d’une offre de fine-tuning gratuit jusqu’au 23 septembre mais plus restreinte : chaque organisation bénéficie d’un million de jetons d’entraînement gratuits par jour.
De premiers cas d’utilisation convaincants
Depuis deux mois, plusieurs partenaires de confiance d’OpenAI ont pu tester le fine-tuning de GPT-4o avec des résultats impressionnants.
Parmi ceux-ci :
- Cosine a utilisé GPT-4o pour affiner son assistant d’ingénierie logicielle, Genie. En intégrant des exemples réels d’ingénieurs logiciels, Genie a été en mesure de détecter et corriger des bogues, créer de nouvelles fonctionnalités et refactoriser du code avec une précision accrue. Grâce à ce réglage fin, Genie a atteint un score record de 43,8 % sur le banc d’essai SWE-bench, établissant un nouveau standard de performance ;
- Distyl : ce partenaire spécialisé dans les solutions d’IA pour les entreprises du Fortune 500 a utilisé GPT-4o pour améliorer ses capacités de traitement SQL. Le modèle affiné a obtenu un score de 71,83 % au benchmark BIRD-SQL, surpassant ses concurrents et démontrant une compétence exceptionnelle dans la reformulation de requêtes et la génération SQL.
Sécurité et contrôle des données
Les modèles affinés via GPT-4o restent entièrement sous le contrôle des développeurs. Les données d’entreprise, y compris les entrées et sorties, sont protégées et ne sont jamais partagées ou utilisées pour entraîner d’autres modèles. De plus, des mesures de sécurité rigoureuses, incluant des évaluations automatisées et une surveillance continue de l’utilisation, sont en place pour prévenir tout usage abusif.
Comment commencer le fine-tuning de GPT-4o ?
Les développeurs intéressés par cette nouvelle fonctionnalité peuvent suivre ces étapes simples :
- Se connecter à leur tableau de bord de fine-tuning sur la plateforme OpenAI ou s’enregistrer pour ceux qui n’ont pas encore de compte ;
- Cliquer sur “créer”;
- Sélectionner gpt-4o-2024-08-06 dans le menu déroulant des modèles de fondation.
OpenAI propose un guide dédié aux étapes du fine-tuning pour les non-initiés ici.
La start-up commente :
“Du codage à l’écriture créative, la mise au point peut avoir un impact important sur les performances du modèle dans divers domaines. Ce n’est qu’un début : nous continuerons d’investir dans l’élargissement de nos options de personnalisation de modèle pour les développeurs”.