Dans ce cours, nous analysons les différentes évolutions des usages d’outils d’apprentissage machine essentiellement dans le traitement de données et leurs limitations. Nous introduisons les types de données sur lesquelles notre étude se focalise. Nous regardons essentiellement des usages liés aux séries temporelles et aussi à ce qui s’appelle les données tabulaires. Nous analysons les résultats d’outils tels que les arbres de décisions bayesiens et les support vector et nous les comparons à des outils plus récents tels que les différentes familles de réseaux de neurones . Notre analyse couvre les systèmes convolutionnels et les systèmes récurrents. Nous regardons à travers des exemples traités dans des travaux de l’équipe l’usage des réseaux génératifs et les comparons entre eux. Nous concluons sur l’avenir de chacune de ces familles et nous soulevons les limites et les verrous que nous pensons être pertinents pour la recherche et l’usage à grande échelle.
Analyse uni-variée. — Différents type de variables : discrète (qualitative), continue (quantitative), ordinale. — Caractéristiques statistiques des variables : espérance, variance, écart-type, fonctions de densité. — Distributions standards des variables : Gaussienne, Poisson, exponentielle avec leurs fonctions de densité Estimation. — Principe de l’échantillonnage et caractéristiques empiriques — Estimation ponctuelle — Méthodes d’estimation : moindres carrées (MC), maximum de vraisemblance, — Biais d’estimation + consistance — moyenne empirique, variance, écart- type Analyse bi-variée. — Corrélation empirique — Statistiques de Tests (Tests d’indépendance) — p-value — Test de Chi-2, Pearson — ANOVA — Multi-colinéarité Formalisme mathématique d’un problème du ML — Espace des hypothèses (paramétrique et non paramétrique) Risque empirique — Fonctions de coût classification binaire : coût 0/1, coût 0/1 pour la régression, Erreur Hinge, coût logistique, entropie croisée — Coût pour la classification multi-classe — Fonctions de coût régression : coût quadratique — Minimisation du risque empirique — Principe de généralisation : Sur- apprentissage, Sous-apprentissage — Compromis biais-variance — Parler du régularisation : minimisation du risque empirique pénalisé — Méthodes d’optimisation (descente de gradient, ..)
Ce cours s’adresse à des apprenants qui doivent maîtriser des notions de base de probabilités et de calcul matriciel. Il présente la définition et des propriétés élémentaires des chaînes de Markov : classification des états, matrice de transition, mesure invariante, chaîne de Markov irréductible, théorème ergodique et ses applications. Le cours contient également une partie de l’estimation statistique des matrices de transition.
Les technologies de l’information modernes nécessitent des innovations basées sur la modélisation, l’analyse, la conception et enfin la mise en œuvre de nouveaux systèmes; les réseaux de communication modernes sont l’un des systèmes les plus complexes, où la fiabilité et l’efficacité des composants jouent un rôle très important. Pour mieux comprendre le comportement dynamique des processus impliqués, il est nécessaire de construire des modèles mathématiques qui décrivent le service stochastique des demandes arrivant de façon aléatoire. La théorie des files d’attente est l’un des outils mathématiques les plus couramment utilisés pour l’évaluation des performances de tels systèmes. Ce cours couvre la théorie des files d’attente, un outil essentiel pour évaluer les performances de systèmes de communication complexes. Nous examinons la construction et l’analyse de modèles stochastiques, en mettant l’accent sur la distribution exponentielle. Le cours aborde également la modélisation de divers types de files d’attente, y compris les systèmes non markoviens. Diverses méthodes sont présentées pour résoudre ces problèmes complexes.
On fera un tour d’horizon sur les types de problèmes d’optimisation (Monocritère, multicritère, continue, discrète, dynamique, théorie des jeux, contrôle optimal, …)
L’intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l’intelligence humaine. L’intelligence artificielle est devenue une partie indispensable de notre vie quotidienne. Les machines intelligentes sont partout et leur efficacité augmente et améliore sans cesse les capacités humaines. Durant ce cours introductif, on discutera des utilisations de l’intelligence artificielle dans plusieurs domaines. Parmi ces derniers, on peut citer : – Finance et banques, – Développement militaire, – Médecine, – Renseignement policier, – Droit, – Logistique et transports, – Robotique, – Industrie, – Jeux vidéo, – Art, – Autres (domesticité, journalisme, …). L’apprentissage automatique (machine learning en anglais) est un champ d’étude de l’intelligence artificielle qui vise à donner aux machines la capacité d’ apprendre à partir de données, via des modèles mathématiques. L’apprentissage automatique (AA) permet à un système piloté ou assisté par ordinateur comme un programme, une IA ou un robot, d’adapter ses réponses ou comportements aux situations rencontrées, en se fondant sur l’analyse de données empiriques passées issues de bases de données, de capteurs, ou du web. Il y a une confusion fréquente dans le débat public entre intelligence artificielle, apprentissage automatique (machine learning) et apprentissage profond (deep learning). Pourtant, ces notions ne sont pas équivalentes, mais sont imbriquées. Ainsi, – l’intelligence artificielle englobe le machine learning, qui lui-même englobe le deep learning; -l’intelligence artificielle peut aussi englober plusieurs autres types de briques logicielles, comme les moteurs de règles. L’apprentissage automatique est utilisé dans un large spectre d’applications pour doter des ordinateurs ou des machines de capacité d’analyser des données d’entrée comme : – perception de leur environnement; – moteurs de recherche, analyse et indexation d’images et de vidéo; – aide aux diagnostics; – interfaces cerveau-machine; – détection de fraudes à la carte de crédit, cyber-sécurité, analyse financière; – génie logiciel; – adaptation de sites Web; – robotique; – analyse prédictive dans de nombreux domaines; – diminution des temps de calcul pour les simulations informatiques en physique (calcul de structures, de mécanique des fluides, de neutronique, d’astrophysique, de biologie moléculaire, etc.); – optimisation de design dans l’industrie, etc. Les algorithmes d’apprentissage peuvent se catégoriser selon le mode d’apprentissage qu’ils emploient. On a – Apprentissage supervisé, – Apprentissage non supervisé, – Apprentissage semi-supervisé, – Apprentissage partiellement supervisé, – Apprentissage auto-supervisé, – Apprentissage par renforcement, – Apprentissage par transfert. L’apprentissage automatique ne se résume pas à un ensemble d’algorithmes, mais suit une succession d’étapes. Celles-ci sont : 1. Définir le problème à résoudre, 2. Acquérir des données, 3. Analyser et explorer les données, 4. Préparer et nettoyer les données, 5. Ingénierie ou extraction de caractéristiques, 6. Choisir ou construire un modèle d’apprentissage, 7. Entraîner, évaluer et optimiser, 8. Test, 9. Déployer le modèle, 10.Expliquer.