RNN et LSTM : Modéliser les Séquences
Maîtrisez les réseaux récurrents : pourquoi les RNN oublient, comment les LSTM résolvent le vanishing gradient avec leurs 3 portes, et quand les utiliser face aux Transformers.
Réseaux de neurones, CNN, RNN, Transformers et architectures avancées
Maîtrisez les réseaux récurrents : pourquoi les RNN oublient, comment les LSTM résolvent le vanishing gradient avec leurs 3 portes, et quand les utiliser face aux Transformers.
Plongez dans l'architecture des modèles de diffusion : forward process, U-Net débruiteur, guidance CLIP et Latent Diffusion. Comprenez ce qui propulse Stable Diffusion, SDXL et Flux.
Maîtrisez le reinforcement learning : paradigme Agent/Environment, Q-Learning, DQN sur CartPole, PPO et le lien avec RLHF pour l'alignement des LLMs.
Comprenez les réseaux adversariaux génératifs (GANs) et l'évolution vers Stable Diffusion : architecture, entraînement, applications et limites éthiques.
Vidéo d'introduction au Deep Learning posant les bases du fonctionnement.
Du neurone biologique au perceptron, comprenez intuitivement comment un réseau de neurones apprend et construisez votre premier modèle avec Keras.
Comprenez le mécanisme d'attention, l'architecture Transformer (encoder/decoder), BERT, GPT et les Vision Transformers avec des implémentations PyTorch.
Maîtrisez les réseaux convolutifs (CNN) : convolutions, pooling, architectures classiques (LeNet, ResNet) et transfer learning avec PyTorch.
Construisez vos premiers réseaux de neurones avec PyTorch : CNN pour les images, entraînement sur GPU et transfer learning.
Maîtrisez le feature engineering, les algorithmes d'ensemble (XGBoost, Random Forest) et construisez votre premier réseau de neurones.