Big data, machine learning et apprentissage profond
Dans cet ouvrage, les Big Data sont abordées du point de vue des applications, des méthodes d’analyse et de modélisation, des outils informatiques, et de l’optimisation de la programmation dans R et dans d’autres logiciels, dont Spark et H2O.Les principes de l’apprentissage profond sont détaillés, et tout particulièrement les réseaux de neurones convolutifs et [...]
[lire le résumé du livre]
Auteur : Stéphane TUFFERY
Editeur : Technip
Date parution : 04/2019Quel est le sujet du livre "Big data, machine learning et apprentissage profond"
Dans cet ouvrage, les Big Data sont abordées du point de vue des applications, des méthodes d’analyse et de modélisation, des outils informatiques, et de l’optimisation de la programmation dans R et dans d’autres logiciels, dont Spark et H2O.
Les principes de l’apprentissage profond sont détaillés, et tout particulièrement les réseaux de neurones convolutifs et récurrents. On rappelle ce que sont la descente du gradient et le mécanisme de rétropropagation, leurs difficultés (sur-apprentissage, évanouissement du gradient) et les solutions apportées (dropout, normalisation par lot, activation ReLU…). Les applications à la reconnaissance d’image et les architectures élaborées ces dernières années sont ensuite décrites, de même que des applications aux jeux de stratégie et dans le domaine artistique avec les modèles génératifs.
Ces méthodes sont ensuite mises en oeuvre avec trois des principales bibliothèques d’apprentissage profond : MXNet, PyTorch et Keras-TensorFlow. On montre comment créer et entraîner un réseau convolutif, et comment l’appliquer à des problèmes de classement d’images. On montre comment améliorer leur reconnaissance en recourant à l’augmentation de données et à l’apprentissage par transfert. On compare les résultats des méthodes profondes à ceux des méthodes « classiques » de machine learning : régression pénalisée, forêts aléatoires, extra-trees, gradient boosting, SVM et perceptron. On montre aussi la puissance de calcul des processeurs graphiques (GPU).
Le traitement du langage naturel commence ensuite par les questions linguistiques classiques : étiquetage grammatical, reconnaissance des entités nommées, résolution des coréférences et lemmatisation. Puis viennent les représentations vectorielles et les méthodes de plongements de mots. On parle aussi de la modélisation de thématiques, que l’on applique à À la recherche du temps perdu de Proust. Les réseaux de neurones récurrents LSTM et GRU sont ensuite mis en oeuvre dans deux tâches bien différentes : la génération de texte et le classement de documents. Un aperçu est donné de l’analyse de sentiments.
L’analyse des réseaux sociaux et plus particulièrement d’un corpus de tweets est vue comme convergence des méthodes de Big Data, de théorie des graphes et de traitement du langage naturel.
L’ouvrage se conclut par une perspective sur l’intelligence artificielle, à la fois comme application des méthodes vues précédemment et comme source de réflexions sur l’évolution et les défis de l’intelligence artificielle, et ce qui la sépare de l’intelligence humaine.
Auteur Stéphane TUFFERY est responsable des études statistiques dans un grand groupe bancaire. Il intervient à l'Institut des Actuaires et il est Maître de Conférences associé à l'Université de Rennes 1, où il enseigne le Data Mining, l'apprentissage profond et les méthodes de Big Data.
Cet ouvrage montre comment appliquer les méthodes de machine learning aux Big Data,En suivant ce lien, retrouvez tous les livres dans la spécialité Informatique-Audiovisuel.