IA générative : améliorez vos compétences grâce aux derniers cours en ligne gratuits proposés par Google

Depuis plusieurs années, Google propose des formations gratuites permettant aux étudiants, employés ou dirigeants d’entreprises de développer de nouvelles compétences ou gagner en efficacité. Récemment, il a introduit des cours gratuits sur le sujet du moment : l’IA générative. Disponibles sur la plateforme en ligne Coursera, ils s’adressent aux débutants ou aux développeurs désirant intégrer l’IA générative dans leurs applications. A la fin du cours, un certificat partageable sur LinkedIn ou leur CV validera leurs compétences.

Parmi les cours s’adressant aux débutants, on trouve :

Introduction à l’IA générative

Ce module de 42 mn explique ce qu’est l’IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente également les outils Google permettant de développer sa propre application d’IA générative.

Introduction aux grands modèles de langage 

Ce cours de micro-apprentissage, récemment mis à jour, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d’utilisation et décrit comment améliorer les performances des LLM grâce au réglage des invites. Il présente lui aussi les outils Google qui aident à développer ses propres applications d’IA générative.

Introduction à l’IA responsable

Ce module explique ce qu’est l’IA responsable, souligne son importance et décrit comment Google l’implémente dans ses produits. Il présente également les sept principes de l’IA de Google.

Introduction à Generative AI Studio

Ce cours présente Generative AI Studio, un outil de Vertex AI présenté lors de Google I/0 2023 qui permet de créer et personnaliser des modèles d’IA générative pour les intégrer dans ses applications. Il explique ses fonctionnalités et ses options, ainsi que la manière de l’utiliser en suivant des démonstrations du produit.

D’autres cours s’adressent à des apprenants de niveau intermédiaire, notamment en ML et programmation Python. Parmi ceux-ci :

Introduction à la génération d’images

Ce cours présente les modèles de diffusion, une famille de modèles d’apprentissage automatique qui ont récemment montré leur potentiel dans le domaine de la génération d’images. Il initie à la théorie derrière les modèles de diffusion et permet d’apprendre comment les entraîner et les déployer sur Vertex AI. Des connaissances en ML, en deep learning, en réseaux neuronaux convolutifs (CNN) et en programmation Python sont nécessaires.

Créer des modèles de sous-titrage d’images

Ce module de 52 mn permet d’apprendre à créer un modèle de sous-titrage d’images à l’aide du deep learning. Il explore les différents composants de ce type de modèle, comme l’encodeur et le décodeur, et comment l’entraîner et l’évaluer. Il apporte les connaissances nécessaires pour développer son propre modèle de sous-titrage d’images et l’utiliser pour générer desdlégendes d’images. Des connaissances en ML, deep learning, NLP, vision par ordinateur et programmation Python sont prérequises.

Mécanisme d’attention

Ce cours propose une initiation au mécanisme d’attention, une technique puissante qui permet aux réseaux neuronaux de se concentrer sur des parties spécifiques d’une séquence d’entrée. Il présente le fonctionnement de l’attention et comment celle-ci peut être utilisée pour améliorer les performances de diverses tâches d’apprentissage automatique, notamment la traduction automatique, la résumé de texte et la réponse aux questions. Une connaissance du ML, du deep learning, de la NLP, de la vision par ordinateur et de la programmation Python est prérequise.

Modèles transformers et modèle BERT

Ce cours de 45 mn décrit les principaux composants de l’architecture Transformer, notamment le mécanisme d’auto-attention, et comment celui-ci a été utilisé pour créer le modèle BERT (Bidirectional Encoder Representations from Transformers), l’un des modèles les plus populaires et les plus polyvalents. Il présente également les différentes tâches auxquelles le modèle BERT peut être appliqué, comme la classification de texte, la réponse aux questions et l’inférence en langage naturel. Ce cours requiert une certaine familiarité avec le ML, une compréhension du mécanisme d’attention et du plongement lexical (word embeddings) ainsi qu’une expérience en Python et TenserFlow.

Architecture Encodeur-Décodeur 

Ce cours offre un aperçu de l’architecture encodeur/décodeur, une architecture ML performante souvent utilisée pour les tâches “seq2seq”, telles que la traduction automatique, la synthèse de texte et les questions-réponses. Le module présente les principaux composants de l’architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Le tutoriel d’atelier correspondant explique comment utiliser TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro. De solides bases en Python et TensorFlow sont nécessaires.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.