Home Tags Modèle text-to-video

modèle text-to-video

OpenAI dévoile SORA, son premier modèle text-to-video

Jeudi dernier, le jour même où Meta présentait V-Jepa, OpenAI dévoilait SORA, un modèle de génération de vidéos. Plusieurs modèles text-to-video ont été présentés dernièrement comme Stable Video Diffusion de Stability AI ou W.A.L.T, au développement duquel a participé Google Rese...

Lumiere, la nouvelle IA génératrice de vidéos de Google Research

Le modèle de génération de vidéos Lumiere, récemment présenté par des chercheurs de Google Research, utilise un modèle de diffusion probabiliste basé sur un réseau U-Net spatio-temporel, pour générer des vidéos de 5 secondes réalistes et cohérentes à partir d’invites ou d&#...

Qu’est-ce que W.A.L.T, le modèle qui génère des vidéos à partir d’images ou de texte ?

Le modèle Window Attention Latent Transformer (W.A.L.T) a été récemment présenté par des  chercheurs de l’Université de Stanford, de Google Research et du Georgia Institute of Technology. Utilisant l’architecture de réseau neuronal transformer et proposant une nouvell...

Meta AI dévoile Make-A-Video, un modèle de génération de vidéos

Meta AI a dévoilé un nouveau projet de recherche et présenté, fin septembre, des clips produits avec Make-A- Video, un système d’IA qui génère des vidéos de quelques secondes à partir d’invites textuelles. Make-A-Video s’appuie sur les récents progrès de Meta AI en matière ...