Dans ce cours, nous présentons l’apprentissage par renforcement et le comparons aux autres types d’apprentissage. Nous décrivons les différentes classifications de ce système et les objectifs de chacune. Nous considérons à travers des exemples concrets de résolution de problème comment le RL peut innover et apporter des solutions en dehors de l’espace initiale de solutions. Nous analysons ses
Apprentissage supervisé : Régressions paramétriques — Conseil : Révision des méthodes d’optimisation (gradient d’une fonction multi- variée, méthode de descente de gradient), etc.. — Modèle paramétrique, estimation par maximum de vraisemblance, — Régression linéaire (Annulation de gradient d’une fonction convexe), formule de l’estimateur de maximum — Régression logistique (fonction logit, fonction logistique) — Régression polynomiale — Régularisation : Lasso, Ridge (interprétation géométrique), ElasticNet Apprentissage supervisé : Méthodes des plus proches voisins — Méthode du plus proche voisin — Algorithme du plus proche voisin — Digramme de Voronoai — Méthode des K plus proches voisins — Distances et similarités : définition d’un distance, distance de Minkowski, — Similarité, coefficient de corrélation — Filtrage collaboratif — Avantages et désavantages du K-NN
Les fondements mathématiques de la Descente de Gradient et ses optimisations (Sofiane BOUKLI HACENE)
Le Deep Learning représente une branche avancée de l’intelligence artificielle basée sur l’utilisation de réseaux de neurones artificiels. L’une des pierres angulaires du succès du Deep Learning réside dans l’optimisation des modèles, et la Descente de Gradient joue un rôle central dans ce processus. Elle s’appuie sur les dérivées partielles et le gradient, qui mesurent respectivement les variations locales et la direction de plus forte augmentation d’une fonction. Cette méthode ajuste itérativement les paramètres d’un modèle pour minimiser une fonction coût. Pour accélérer la convergence, des techniques d’optimisation avancées comme le Momentum, RMSProp et Adam sont souvent utilisées. Le choix de la méthode d’optimisation dépend du contexte du problème, et une bonne compréhension des fondements mathématiques est essentielle pour obtenir des modèles performants en apprentissage automatique.
Ce cours fait suite au cours «Introduction aux chaînes de Markov». Il consiste à construire un modèle markovien par découpage d’un processus à mémoire finie en morceaux de processus contigus appropriés. Il présente la définition et quelques propriétés de telles chaînes de Markov ainsi construites, transformations conservant la propriété de Markov, applications aux modèles «transformers», … etc. Le cours contient également une partie statistique.
On parlera de la faiblesse des méthodes exactes. Vu la taille des données, il est difficile (voire impossible) d’avoir un algorithme de résolution qui produit une solution optimale en un temps raisonnable. Ce qui justifie le recours à des méthodes approchées (Heuristiques qui donnent une solution approchée rapidement !!!. On parlera d’abord de la complexité algorithmique, de classification des problèmes d’optimisation (faciles, polynomiaux; difficiles, exponentiels, NP-Complet, statut indéterminé, …) . On donnera les outils mathématiques qui permettent la classification et l’évaluation des performances des méthodes approchées (Heuristiques, Méta- Heuristiques, Hyper-Heuristiques, …).
Ce cours spécialisé couvre une sélection de thèmes avancés d’analyse numérique. Ceux-ci comprennent : 1- espace de Krylov, la méthode du résidu minimal généralisé (GMRES); 2- discrétisation des équations différentielles et aux dérivées partielles; 3- théorie de l’approximation et approximation en dimension supérieure; 4- analyse de Fourier, analyse par ondelettes; 5- méthodes stochastiques et leurs applications en intelligence artificielle et apprentissage automatique; 6- méthodes de réduction dimensionnelle (PCA).
Après avoir rappeler quelques propriétés d’analyse convexe et de calcul différentiel, nous aborderons dans ce cours l’étude de problèmes d’optimisation sans et avec contrainte, la méthode de descente du gradient, la méthode du gradient stochastique. Nous finirons par voir comment implémenter cette dernière méthode (et d’autres variantes) avec pytorch. 1. Optimisation sans et avec contrainte 2. Méthode de gradient déterministe 3. Méthode de gradient stochastique 4. Exemples d’implémentation avec pytorch