Intelligence artificielle vulgarisée - eni - 9782409020735 -
Intelligence artificielle vulgarisée 

Intelligence artificielle vulgarisée
Le machine learning et le deep learning par la pratique

L'intelligence artificielle est aujourd'hui incontournable. Ce livre a pour objectif de présenter de façon vulgarisée les concepts du Machine Learning et du Deep Learning pour les mettre en application dans des projets basés sur de l'intelligence artificielle, en mettant de côté autant que possible les [...]
[lire le résumé du livre]

Auteur : 

Editeur : Eni

Collection : Ressources informatiques

Date parution :

Reliure :
Broché
Nbr de pages :
480
Dimension :
17.8 x 21.6 x 2.5 cm
Poids :
800 gr
ISBN 10 :
2409020739
ISBN 13 :
9782409020735
29,90 €
Définitivement indisponible
Cet ouvrage n'est plus commercialisé par l'éditeur
Paiements sécurisés
CB Google/Apple Pay, Chèque, Virement
0.01€ à partir de 35€ en France métropolitaine
Satisfait ou remboursé sous 14 jours ouvrés

Quel est le sujet du livre "Intelligence artificielle vulgarisée"

L'intelligence artificielle est aujourd'hui incontournable. Ce livre a pour objectif de présenter de façon vulgarisée les concepts du Machine Learning et du Deep Learning pour les mettre en application dans des projets basés sur de l'intelligence artificielle, en mettant de côté autant que possible les formules mathématiques et statistiques. Il s'adresse avant tout aux développeurs mais intéressera également toute personne novice en la matière.

Avec une démarche progressive, chaque notion étudiée dans ce livre est illustrée par des cas pratiques écrits en langage Python. Des connaissances dans ce langage sont ainsi un plus.

Après une introduction à l'intelligence artificielle et l'identification des craintes qu'elle suscite, l'auteur propose quelques rappels sur les fondamentaux du langage Python ainsi qu'une révision de certaines notions statistiques pour appréhender au mieux les algorithmes du Machine Learning. Le lecteur peut ensuite mettre en pratique certains de ces algorithmes et découvrir comment donner la faculté à sa machine de prédire des valeurs et de réaliser des classifications.

Vient ensuite l'étude de l'apprentissage non supervisé et de l'usage des réseaux de neurones qui permet de surcroît au lecteur de découvrir comment les neurosciences ont eu un impact sur l'intelligence artificielle. Le livre se termine avec la réalisation de cas pratiques : un premier mêlant réseau de neurones et parole et un second relatif au premier chatbot.

Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.



Retrouvez le webinaire consacré à l'intelligence artificielle vulgarisée


Grâce à ce webinaire, découvrez l'IA vulgarisée : le machine learning et le deep learning par la pratique


Quizinclus dans
la version en ligne !

Téléchargements

Auteurs :
Après un début de carrière en tant que développeur et expert technique, Aurélien VANNIEUWENHUYZE est aujourd'hui fondateur et dirigeant des entreprises QSTOM-IT et Junior Makers Place. C'est dans cette seconde structure qu'il propose des activités de codage et des activités scientifiques pour enfants et adolescents, et notamment des formations sur l'intelligence artificielle avec une pédagogie accessible à tous, reprise dans ce livre. Titulaire du certificat d'études supérieures de pilotage de la transformation digitale obtenu à HEC et auteur d'ouvrages sur la technologie Flex ou le Framework Agile Scrum, il aide également les entreprises à réussir leur transformation numérique, tant sur le plan de l'agilité que par la sensibilisation et la mise en place de l'intelligence artificielle.

En suivant ce lien, retrouvez tous les livres dans la spécialité Intelligence artificielle.

Sommaire et contenu du livre "Intelligence artificielle vulgarisée - Le machine learning et le deep learning par la pratique"

Avant-propos
  1. 1. Un souhait de vulgarisation des concepts liés à l'intelligence artificielle
  2. 2. Un mot sur l'auteur
  3. 3. À qui s'adresse cet ouvrage ?
  4. 4. Structure du livre
  5. 5. Aspects pratiques
  6. 6. Remerciements
Vous avez dit intelligence artificielle ?
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. L'intelligence artificielle, ce n'est pas nouveau !
  3. 3. Quelques dates et périodes clés
  4. 4. Mais qu'est-ce que l'intelligence artificielle ?
  5. 5. Intelligence artificielle, Machine Learning et Deep Learning
  6. 6. Les différents types d'apprentissage
  7. 7. L'intelligence artificielle fait peur
    1. 7.1 La singularité technologique
    2. 7.2 Des emplois menacés
    3. 7.3 Des intelligences artificielles détournées
    4. 7.4 Des boîtes noires qui font peur
    5. 7.5 Et la vie privée dans tout ça ?
  8. 8. Créer une intelligence artificielle chez soi c'est possible !
Les fondamentaux du langage Python
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. Pourquoi Python ?
  3. 3. Installation de Python
  4. 4. Une rapide découverte du langage Python
    1. 4.1 Python, un langage interprété
    2. 4.2 Les opérations de base
      1. 4.2.1 Affectation et affichage d'une variable
      2. 4.2.2 Affections et affichage de plusieurs variables et éventuellement de types différents
      3. 4.2.3 Création de plusieurs variables de même type et de même valeur
    3. 4.3 Manipulation de chaînes de caractères
      1. 4.3.1 Création d'une chaîne de caractères
      2. 4.3.2 Les concaténations
      3. 4.3.3 Accès aux caractères d'une chaîne
      4. 4.3.4 Quelques fonctions utiles
    4. 4.4 Utilisation des listes
      1. 4.4.1 L'initialisation
      2. 4.4.2 Les fonctions de manipulation des listes
    5. 4.5 Les tuples et les dictionnaires
    6. 4.6 Les structures conditionnelles et les boucles
      1. 4.6.1 Les structures conditionnelles
      2. 4.6.2 Les boucles "tant que"
      3. 4.6.3 Les boucles "Pour..."
  5. 5. Installation de PyCharm
  6. 6. Votre premier script en Python
    1. 6.1 Création du projet
    2. 6.2 Création du fichier de script principal
    3. 6.3 Nos premières lignes de code
      1. 6.3.1 Un tuple pour le paramétrage
      2. 6.3.2 Création des zones à l'aide de dictionnaires
      3. 6.3.3 Regroupement des zones dans une liste
      4. 6.3.4 Une fonction pour calculer la surface à nettoyer
      5. 6.3.5 Une deuxième fonction pour coder le temps de nettoyage
      6. 6.3.6 Le script dans son ensemble
  7. 7. Conclusion
Des statistiques pour comprendre les données
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. Les statistiques, un outil d'aide à la compréhension des données
  3. 3. Une série de notes en guise d'étude de cas
  4. 4. Petites notions de vocabulaire avant de commencer
    1. 4.1 Observations et features
    2. 4.2 Les types de données
  5. 5. Et Python dans tout ça ?
    1. 5.1 Des modules dédiés
    2. 5.2 Une représentation un peu particulière de notre étude de cas
    3. 5.3 Pas de Python, mais Excel en guise d'outil
  6. 6. Mesure de tendance centrale
    1. 6.1 Connaître le nombre d'observations et de features
    2. 6.2 Les valeurs minimales et maximales
    3. 6.3 La moyenne arithmétique
    4. 6.4 La médiane
      1. 6.4.1 Cas d'un nombre d'observations impair
      2. 6.4.2 Cas d'un nombre d'observations pair
      3. 6.4.3 Retour à notre exemple
    5. 6.5 Le mode
  7. 7. Premières déductions
  8. 8. La dispersion
    1. 8.1 L'étendue
    2. 8.2 L'écart type (Standard déviation)
      1. 8.2.1 Calcul de la variance
      2. 8.2.2 Calcul de l'écart type
      3. 8.2.3 Interprétation de l'écart type
    3. 8.3 Les quartiles et interquartile
      1. 8.3.1 Les quartiles
      2. 8.3.2 L'interquartile
  9. 9. Détection de valeurs extrêmes (outliers en anglais)
  10. 10. Traitement des valeurs extrêmes
  11. 11. Un peu de visualisation graphique
  12. 12. Conclusion sur les données
  13. 13. Distribution gaussienne et loi normale
    1. 13.1 Un exemple pour faire connaissance
    2. 13.2 Un peu de probabilités
  14. 14. Une classe Python pour vous aider à analyser vos données
  15. 15. Combien d'observations sont nécessaires pour un bon apprentissage ?
Principaux algorithmes du Machine Learning
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. Supervisé ou non supervisé ? Régression ou classification ?
  3. 3. Les algorithmes d'apprentissage supervisés pour la régression (prédiction de valeurs)
    1. 3.1 La régression linéaire univariée (linear regression)
    2. 3.2 La régression linéaire multiple (Multiple Linear Regression-MLR)
    3. 3.3 La méthode de descente de gradient
    4. 3.4 Régression polynomiale (polynomial regression)
      1. 3.4.1 Monôme et polynôme
    5. 3.5 Régression logistique
    6. 3.6 Arbre de décision (decision tree)
    7. 3.7 Forêts aléatoires (Random Forest)
    8. 3.8 Agrégation de modèle : le bagging, le boosting et le Gradient boosting
      1. 3.8.1 Le bagging
      2. 3.8.2 Le boosting
      3. 3.8.3 Gradient Boosting (GBoost) et XGBoost
    9. 3.9 Machine à vecteurs de support (SVM)
    10. 3.10 KNN (K-Nearest Neighbours)
    11. 3.11 Naive Bayes
  4. 4. Les algorithmes pour les apprentissages non supervisés
    1. 4.1 K-Moyennes (KMeans)
    2. 4.2 Mean-shift
    3. 4.3 DBSCAN (Density Based Spatial Clustering of Application with Noise)
    4. 4.4 Mélange gaussien (Gaussian Mixture Models (GMM))
  5. 5. Et c'est tout ?
Machine Learning et Pokémons : première partie
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. L'univers des Pokémons
  3. 3. Notre mission : choisir le bon Pokémon !
  4. 4. Des données pour un apprentissage supervisé
    1. 4.1 Des données basées sur l'expérience
    2. 4.2 Disposer d'un grand nombre de données d'apprentissage
    3. 4.3 Des données d'apprentissage et des données de tests
  5. 5. Les étapes à réaliser pour mener à bien un projet de Machine Learning
    1. 5.1 Création et configuration d'un nouveau projet Python
      1. 5.1.1 Installation de modules
      2. 5.1.2 Utilisation des modules dans un script Python
      3. 5.1.3 Référencement des fichiers de données dans notre projet
  6. 6. Étape 1 : définir le problème à résoudre
  7. 7. Étape 2 : acquérir des données d'apprentissage et de tests
  8. 8. Étape 3 : préparation des données
    1. 8.1 De quelles données disposons-nous ?
    2. 8.2 Affichage des dix premières lignes de nos données
    3. 8.3 Quelles sont les features de catégorisation ?
    4. 8.4 Quelles données sont de type numérique ?
    5. 8.5 Que faut-il penser de la feature LEGENDAIRE ?
    6. 8.6 Manque-t-il des données ?
    7. 8.7 À la recherche des features manquantes
    8. 8.8 Place aux observations des combats
    9. 8.9 Assemblage des observations
      1. 8.9.1 Nombre de combats menés
      2. 8.9.2 Nombre de combats gagnés
      3. 8.9.3 Agrégation des données avec le Pokédex
  9. 9. Une petite pause s'impose
Machine Learning et Pokémons : seconde partie
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. Un peu de statistiques
    1. 2.1 Le nombre de données (count)
    2. 2.2 La moyenne (mean)
    3. 2.3 L'écart type (Std pour Standard Deviation)
    4. 2.4 Les valeurs minimales et maximales
    5. 2.5 Les quartiles
    6. 2.6 Description de notre jeu d'observations
  3. 3. Quels sont les types de Pokémons qu'un dresseur doit posséder ?
  4. 4. Les types de Pokémons gagnants et perdants
  5. 5. Essayons de trouver une corrélation entre les données
  6. 6. Résumé de nos observations
  7. 7. Vérifions nos hypothèses
  8. 8. Passons à la phase d'apprentissage
    1. 8.1 Découpage des observations en jeu d'apprentissage et jeu de tests
    2. 8.2 Algorithme de régression linéaire
    3. 8.3 L'arbre de décision appliqué à la régression
    4. 8.4 La random forest
    5. 8.5 Sauvegarde du modèle d'apprentissage
  9. 9. Phénomènes de surapprentissage (overfitting) et de sous-apprentissage (underfitting)
  10. 10. Utiliser le modèle d'apprentissage dans une application
  11. 11. Fin du cas d'étude
Bien classifier n'est pas une option
  1. 1. Ce que nous allons découvrir et prérequis
  2. 2. Origines et source du jeu d'observations
  3. 3. Un problème de classification et algorithmes de prédiction associés
  4. 4. Démarche de résolution du problème
    1. 4.1 Définition du problème à résoudre
    2. 4.2 Acquisition des données d'apprentissage
    3. 4.3 Préparer et nettoyer les données
      1. 4.3.1 De quelles données disposons-nous ?
      2. 4.3.2 De combien de données disposons-nous ?
      3. 4.3.3 Affichage des 10 premières observations
      4. 4.3.4 Transformation de la feature OBJET
      5. 4.3.5 Manque-t-il des données ?
    4. 4.4 Analyser et explorer les données
      1. 4.4.1 Combien de mines et combien de rochers ?
      2. 4.4.2 Moyenne, écart type, min, max et quartiles
      3. 4.4.3 À la recherche des valeurs extrêmes
      4. 4.4.4 Traitement des valeurs extrêmes
    5. 4.5 Choix d'un modèle de prédiction et résolution du problème
      1. 4.5.1 Des données d'apprentissage et des données de tests
      2. 4.5.2 Test des algorithmes
      3. 4.5.3 Optimisation
      4. 4.5.4 Et si on boostait un peu tout ça ?
      5. 4.5.5 Que faire des données extrêmes ?
  5. 5. En résumé
Opinions et classification de textes
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. Le traitement automatique du langage naturel (TALN)
  3. 3. Naive Bayes appliqué au TALN
    1. 3.1 Le théorème
    2. 3.2 Un exemple : quels mots-clés choisir ?
      1. 3.2.1 Détermination des probabilités
      2. 3.2.2 Conclusion
  4. 4. Naive Bayes pour l'analyse d'opinion
    1. 4.1 Étape 1 : normalisation des données
    2. 4.2 Étape 2 : suppression des stops words
    3. 4.3 Étape 3 : le stemming
    4. 4.4 Étape 4 : la lemmatisation
    5. 4.5 Étape 5 : déterminer le nombre d'occurrences de chaque mot
    6. 4.6 Étape 6 : déterminer les probabilités pour l'opinion positive
    7. 4.7 Étape 7 : déterminer les probabilités pour le sentiment positif
    8. 4.8 Étape 8 : déterminer le sentiment d'une nouvelle phrase
  5. 5. Cas pratique : croyez-vous au réchauffement climatique ?
    1. 5.1 Comment obtenir des données ?
    2. 5.2 Création d'un projet Python
    3. 5.3 Acquisition des données et préparation des données
      1. 5.3.1 Chargement du fichier
      2. 5.3.2 Normalisation
      3. 5.3.3 Suppression des stop words
      4. 5.3.4 La stemmisation
      5. 5.3.5 La lemmatisation
  6. 6. Phases d'apprentissage et de prédiction
    1. 6.1 Découpage en jeux de tests et d'apprentissage
    2. 6.2 Création d'un pipeline d'apprentissage
    3. 6.3 Apprentissage et analyse des résultats
    4. 6.4 Classification d'un nouveau message
  7. 7. L'algorithme SVM (Machine à vecteurs de supports) pour le classement de texte
  8. 8. L'algorithme SVM plus performant que Naive Bayes ?
Abricots, cerises et clustering
  1. 1. Une machine qui apprend seule
  2. 2. Acquisition de données d'apprentissage
  3. 3. Algorithme des K-Means (K-Moyennes)
  4. 4. Visualiser les données
  5. 5. Laisser la machine classifier seule
  6. 6. Réaliser des classifications
  7. 7. Des erreurs de classifications
  8. 8. Algorithme de mélanges gaussiens ou Gaussian Mixture Model (GMM)
  9. 9. Pour conclure
Un neurone pour prédire
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. 1957 - Le perceptron
    1. 2.1 Un peu de biologie
    2. 2.2 La biologie appliquée au machine learning
  3. 3. Des données linéairement séparables
  4. 4. Fonctions d'activation, rétropropagation et descente de gradient
    1. 4.1 La fonction d'activation
      1. 4.1.1 La fonction de seuil binaire
      2. 4.1.2 La fonction sigmoïde
      3. 4.1.3 La fonction tangente hyperbolique (tanH)
      4. 4.1.4 La fonction ReLU (Rectified Linear Unit, unité de rectification linéaire)
      5. 4.1.5 La fonction softMax
  5. 5. La rétropropagation de l'erreur
  6. 6. Les fonctions de perte (Loss function)
    1. 6.1 L'erreur linéaire ou erreur locale
    2. 6.2 Erreur moyenne quadratique MSE ou erreur globale
  7. 7. La descente de gradient
  8. 8. Le biais, un neurone particulier
  9. 9. Un cas pratique pour comprendre le perceptron
    1. 9.1 Initialisation du perceptron
    2. 9.2 Les étapes d'apprentissage
      1. 9.2.1 Étape 1 : initialisation des poids
      2. 9.2.2 Étape 2 : chargement des données de la première observation
      3. 9.2.3 Étape 3 : préactivation
      4. 9.2.4 Étape 4 : utilisation d'une fonction d'activation
      5. 9.2.5 Étape 5 : calcul de l'erreur linéaire commise lors de l'apprentissage
      6. 9.2.6 Étape 6 : ajustement des poids synaptiques
  10. 10. Codons notre premier neurone formel "From Scratch"
    1. 10.1 Les données d'apprentissage
    2. 10.2 Définition des poids
    3. 10.3 Gestion des hyperparamètres
    4. 10.4 Codage de fonctions utiles
    5. 10.5 Passons à l'apprentissage !
    6. 10.6 À la recherche du point de convergence
    7. 10.7 Tests de prédictions
  11. 11. Un neurone artificiel avec TensorFlow
    1. 11.1 Un petit mot sur TensorFlow
    2. 11.2 Données d'apprentissage et de tests
    3. 11.3 Paramétrage du neurone
    4. 11.4 L'apprentissage
    5. 11.5 Tests de prédictions
  12. 12. Un premier pas vers le Deep Learning
Utilisation de plusieurs couches de neurones
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. Fonctionnement des réseaux de neurones multicouches
  3. 3. Le cas du Ou exclusif (XOR)
    1. 3.1 De combien de couches et de neurones avons-nous besoin ?
    2. 3.2 Un exemple chiffré
      1. 3.2.1 Les données d'apprentissage
      2. 3.2.2 Initialisation des poids
      3. 3.2.3 Chargement des données d'entrée
      4. 3.2.4 Calcul de la préactivation du neurone de sortie
      5. 3.2.5 Calcul de l'activation
      6. 3.2.6 Calcul de l'erreur
      7. 3.2.7 Mise à jour des poids
    3. 3.3 Place au code avec TensorFlow !
  4. 4. Le retour des mines et des rochers
    1. 4.1 De meilleures performances avec plus de neurones sur la couche cachée ?
      1. 4.1.1 Chargement des données d'apprentissage
      2. 4.1.2 Création des jeux d'apprentissage et de tests
      3. 4.1.3 Paramétrage du réseau de neurones avec une couche cachée de 24 neurones
      4. 4.1.4 Réalisation de l'apprentissage
      5. 4.1.5 Calcul de la précision de l'apprentissage
      6. 4.1.6 De meilleurs résultats avec une couche cachée composée de 24 neurones ?
      7. 4.1.7 Pouvons-nous obtenir de meilleurs résultats ?
  5. 5. Conclusion
La classification d'images
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. Différence entre détection et classification d'images
  3. 3. Des réseaux de neurones convolutifs pour classifier des images
    1. 3.1 De nombreuses données d'apprentissage nécessaires
    2. 3.2 Un outil pour illustrer nos propos
    3. 3.3 L'image d'entrée
    4. 3.4 Les caractéristiques
    5. 3.5 La convolution
    6. 3.6 Pooling
    7. 3.7 Plusieurs couches de convolutions
    8. 3.8 Mise à plat (Flatten)
    9. 3.9 L'apprentissage
    10. 3.10 Un schéma global qui résume tout
  4. 4. Un cas pratique autour de la mode
    1. 4.1 Présentation de Kaggle
    2. 4.2 Parlons un peu de Keras
    3. 4.3 Classifier des robes, pulls et chaussures ?
    4. 4.4 De quelles données disposons-nous ?
    5. 4.5 Préparation des données d'apprentissage
    6. 4.6 Préparation des données de tests
    7. 4.7 Un réseau avec une seule couche de convolution
      1. 4.7.1 Configuration
      2. 4.7.2 Compilation, apprentissage et test
      3. 4.7.3 Conclusion sur l'apprentissage
      4. 4.7.4 Augmentation du nombre de données
      5. 4.7.5 Sauvegarde du modèle
    8. 4.8 Un modèle plus performant
  5. 5. Utilisation du modèle avec de nouvelles images
  6. 6. Pour conclure ce chapitre
Votre ordinateur sait lire !
  1. 1. Ce que nous allons découvrir et les prérequis
  2. 2. Votre mission
    1. 2.1 Question n°1 : de quelles données avez-vous besoin ?
    2. 2.2 Question n°2 : comment utiliser le module Python-Mnist ?
    3. 2.3 Question n°3 : de quelles données disposez-vous à présent ?
    4. 2.4 Question n°4 : est-ce un problème de régression ou de classification ?
    5. 2.5 Question n°5 : quel algorithme allez-vous utiliser ?
    6. 2.6 Question n°6 : comment allez-vous créer vos jeux d'apprentissage et de tests ?
    7. 2.7 Question n°7 : les images sont elles au bon format ?
    8. 2.8 Question n°8 : qu'est-ce que la catégorisation des libellés en One-Hot et comment procéder pour la réaliser ?
    9. 2.9 Question n°9 : avez-vous une petite idée des paramètres à utiliser pour créer le réseau de neurones ?
    10. 2.10 Question n°10 : trouvez-vous le résultat satisfaisant ?
    11. 2.11 Mission accomplie !
  3. 3. La reconnaissance de lettres sur une vidéo
    1. 3.1 Une ardoise en guise de support
    2. 3.2 OpenCV, un module de traitement d'images
      1. 3.2.1 Utiliser la webcam
      2. 3.2.2 Détecter les formes rectangulaires
      3. 3.2.3 Détecter la zone d'écriture
      4. 3.2.4 Détecter et extraire la lettre écrite
      5. 3.2.5 Reconnaître la lettre écrite et la faire lire à votre ordinateur
  4. 4. Et voilà !
Hommage au premier ChatBot
  1. 1. Introduction
  2. 2. Eliza
    1. 2.1 Comment fonctionne Eliza ?
    2. 2.2 Le code d'Eliza
  3. 3. D'autres ChatBots !
  4. 4. C'est déjà la fin !
  5. Index

    Avis clients sur Intelligence artificielle vulgarisée - eni - Ressources informatiques

    (Ils sont modérés par nos soins et rédigés par des clients ayant acheté l'ouvrage)
    Donnez votre avis
     
    Controler les cookies