Que sait-on de Ferret, le LLM multimodal dévoilé par Apple ?

On apprenait en juillet dernier qu’Apple faisait discrètement ses premiers pas dans le domaine de l’IA générative avec le chatbot “Apple GPT”, utilisé seulement en interne par ses collaborateurs. Ferret, un LLM conçu spécifiquement pour ses smartphones, n’a pas fait davantage l’objet de publicité de la part de la firme. Développé par des experts en IA d’Apple en collaboration avec des chercheurs de l’Université de Columbia, le modèle de langage multimodal open source a toutefois été présenté dans un article de recherche sur arXiv

Apple a pu sembler à la traîne par rapport aux autres GAFAM dans le déploiement de l’IA générative, Tim Cook, son directeur général, considérait que la GenAI a un potentiel énorme mais, pour lui, certains problèmes restaient à régler.

La société avait ainsi décidé de restreindre à ses employés l’utilisation non seulement de ChatGPT mais d’autres outils d’IA, dont l’assistant de programmation GitHub Copilot pour raison de sécurité. Elle n’entendait pas pour autant se priver des revenus que pouvait lui apporter la technologie, et une de ses équipes travaillait au développement de LLMs, sous la direction de John Giannandrea, son Vice-Président senior de la stratégie d’apprentissage automatique et d’IA, recruté en 2018 après avoir dirigé les divisions de recherche et intelligence artificielle durant 8 ans chez Google. Les employés d’Apple ayant reçu une approbation spéciale ont pu avoir accès à Apple GPT mais sans pouvoir l’utiliser pour développer des fonctionnalités destinées aux clients.

Ferret, un LLM multimodal open source

Ferret, entraîné à l’aide de 8 GPU Nvidia A100, se démarque d’autres modèles multimodaux existants en excellant dans les tâches de référence et de mise à la terre. Il n’analyse pas une image dans son ensemble, mais des régions spécifiques soumises par un utilisateur, qu’elles se réfèrent à des objets ou à des textes, que ce soit sous forme de point, de boîte ou autre forme libre et les incorpore aux requêtes.

Comme représenté dans la figure ci-dessus, Ferret se compose d’un encodeur d’image pour extraire des embeddings d’image, d’un échantillonneur visuel conscient de l’espace proposé pour extraire des caractéristiques continues régionales, et d’un MLLM pour modéliser conjointement les caractéristiques de l’image, du texte et de la région.

Un entraînement sur GRIT

Pour entraîner leur modèle, les chercheurs ont créé GRIT (Ground-and-Refer Instruction-Tuning) un ensemble de données d’ajustement d’instructions pour la référence et l’ancrage multimodal, comprenant 1,1 million d’échantillons. GRIT couvre divers niveaux de connaissances spatiales, incluant des objets, des relations, des descriptions de régions et des raisonnements complexes. L’ensemble de données provient principalement de tâches vision-langage existantes, adaptées avec des modèles soigneusement conçus pour suivre les instructions.

De plus, 34 000 conversations d’ajustement d’instructions ont été collectées avec l’aide de ChatGPT/GPT-4 pour faciliter l’entraînement d’un généraliste de référence et d’ancrage ouvert au vocabulaire et orienté vers l’instruction. Enfin, une extraction consciente de données négatives spatiales a été réalisée pour renforcer la robustesse du modèle.

Les performances du modèle

Les chercheurs ont comparé les performances de Ferret à celles de GPT-4V, le LLM multimodal d’OpenAI qui a élargi les capacités de GPT-4 à la compréhension des images.

Ils ont ainsi pu constaté que GPT-4V a une compréhension limitée lorsqu’il s’agit de référencer des petites régions dans une image, tandis que Ferret excelle dans la précision de cette tâche. Bien que GPT-4V démontre une connaissance approfondie du bon sens, Ferret se distingue par sa capacité à fournir des boîtes englobantes précises, en particulier pour des applications nécessitant une grande précision dans des régions plus petites.

Ferret excelle également dans l’ancrage, comme illustré par des tests avec des CAPTCHAs, démontrant une identification précise des feux de circulation même dans des scénarios complexes. Dans l’ensemble, GPT-4V excelle dans la réponse à des questions générales, tandis que Ferret se démarque dans des situations nécessitant une précision spatiale et une compréhension détaillée des régions spécifiques de l’image.

Les chercheurs soulignent que Ferret, comme la plupart des MLLMs, peut produire des réponses nocives et contrefactuelles. Ils prévoient d’améliorer leur modèle afin de pouvoir générer des masques de segmentation en plus des boîtes englobantes.

Ferret offre une base solide pour les futures avancées de l’IA conversationnelle d’Apple, notamment dans la recherche visuelle et d’autres applications nécessitant une compréhension contextuelle nuancée.

Références de l’article : “Ferret : refer and ground anything anywhere at any granularity” arXiv:2310.07704v1

Auteurs : Haoxuan You1 , Haotian Zhang2, Zhe Gan2, Xianzhi Du2, Bowen Zhang2, Zirui Wang2, Liangliang Cao2, Shih-Fu Chang1, Yinfei Yang2.

Affiliations : 1Columbia University, 2Apple AI/ML

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.