Performance and Mindset Institute
Performance and Mindset Institute
Accueil
Contact
Search for
Accueil
All Courses
Intelligence Artificielle
Machine Learning : Traitement du langage naturel en Python (V2)
Machine Learning : Traitement du langage naturel en Python (V2)
Détails
23 Sections
156 Lessons
10 Weeks
Expand all sections
Collapse all sections
Neurone
7
1.1
Le neurone – Introduction à la section
1.2
Ajustement d’une ligne
1.3
Préparation du code de classification
1.4
Classification de texte avec TensorFlow
1.5
Le neurone
1.6
Comment un modèle apprend-t-il ?
1.7
Résumé de la section sur le neurone
Stratégies d'apprentissage efficaces pour Machine Learning - FAQ
4
1.1
Comment réussir dans ce cours (Version longue)
1.2
Est-ce pour les débutants ou les experts ? Académique ou pratique ? Rapide ou à un rythme lent ?
1.3
Feuille de route des prérequis en apprentissage automatique et en intelligence artificielle (partie 1)
1.4
Feuille de route des prérequis en apprentissage automatique et en intelligence artificielle (partie 2)
Introduction
2
2.1
Introduction et sommaire
2.2
Êtes-vous débutant, intermédiaire ou avancé ? Tout va bien !
Mise en place en cours
5
3.1
Salissez-vous les mains, expérience pratique du codage, data links
3.2
Comment utiliser Github et astuces de codage supplémentaires (optionnel)
3.3
Où obtenir le code, les notebooks et les données
3.4
Comment réussir dans ce cours
3.5
Erreurs temporaires 403
Modèles vectoriels et définitions de base du texte pour le TALN
22
4.1
Introduction
4.2
Définitions de base pour le TALN (Traitement Automatique du Langage Naturel)
4.3
Qu’est-ce qu’un vecteur ?
4.4
Sac de mots
4.5
Compteur vectoriel (Théorie)
4.6
Tokenisation
4.7
Mots vides
4.8
Racination et lemmatisation
4.9
Démo de racination et lemmatisation
4.10
Compteur vectoriel (Code)
4.11
Similarité vectorielle
4.12
TF-IDF (Théorie)
4.13
Exercice interactif de recommandation
4.14
TF-IDF (Code)
4.15
Mapping mot-vers-indice
4.16
Comment construire TF-IDF à partir de zéro
4.17
Incorporations neuronales de mots
4.18
Démo des incorporations neuronales de mots
4.19
Résumé des modèles vectoriels et de la prétraitement du texte
4.20
Aperçu de la résumé de texte
4.21
Comment faire du TALN dans d’autres langues
4.22
Boîte à suggestions
Modèles probabilistes
1
5.1
Modèles probabilistes intro
Modèles de Markov (intermédiaire)
13
6.1
Introduction à la section sur les modèles de Markov
6.2
La propriété de Markov
6.3
Le modèle de Markov
6.4
Lissage de probabilité et logarithmes de probabilité
6.5
Construction d’un classificateur de texte (Théorie)
6.6
Construction d’un classificateur de texte (Sujet d’exercice)
6.7
Construction d’un classificateur de texte (Code partie 1)
6.8
Construction d’un classificateur de texte (Code partie 2)
6.9
Modèle de langage (Théorie)
6.10
Modèle de langage (Sujet d’exercice)
6.11
Modèle de langage (Code partie 1)
6.12
Modèle de langage (Code partie 2)
6.13
Résumé de la section sur les modèles de Markov
Article Spinner (intermédiaire)
6
7.1
Article Spinner – Description du problème
7.2
Article Spinner – Approche N-Gram
7.3
Sujet d’exercice pour l’Article Spinner
7.4
Article Spinner en Python (partie 1)
7.5
Article Spinner en Python (partie 2)
7.6
Étude de cas : Article Spinner qui a mal tourné
Déchiffrement de code (Avancé)
13
8.1
Introduction de la section
8.2
Code
8.3
Modèles de langage (Révision)
8.4
Algorithmes génétiques
8.5
Préparation du code
8.6
Code partie 1
8.7
Code partie 2
8.8
Code partie 3
8.9
Code partie 4
8.10
Code partie 5
8.11
Code partie 6
8.12
Déchiffrement du code – Discussion supplémentaire
8.13
Conclusion de la section
Machine Learning modèles (Introduction)
1
9.1
Introduction
Détection de SPAM
6
10.1
Détection de spam – Description du problème
10.2
Intuition du Naive Bayes
10.3
Détection de spam – Sujet d’exercice
10.4
À part : Déséquilibre de classe, ROC, AUC et score F1 (partie 1)
10.5
À part : Déséquilibre de classe, ROC, AUC et score F1 (partie 2)
10.6
Détection de spam en Python
Analyse de sentiment
7
11.1
Analyse de sentiment – Description du problème
11.2
Intuition de la régression logistique (partie 1)
11.3
Régression logistique multi classe (partie 2)
11.4
Entraînement et interprétation de la régression logistique (partie 3)
11.5
Analyse de sentiment – Sujet d’exercice
11.6
Analyse de sentiment en Python (partie 1)
11.7
Analyse de sentiment en Python (partie 2)
Résumé de texte
10
12.1
Introduction à la section sur la résumé de texte
12.2
Résumé de texte utilisant des vecteurs
12.3
Sujet d’exercice pour le résumé de texte
12.4
Résumé de texte en Python
12.5
Intuition de TextRank
12.6
TextRank – Comment cela fonctionne vraiment (Avancé)
12.7
Sujet d’exercice TextRank (Avancé)
12.8
TextRank en Python (Avancé)
12.9
Résumé de texte en Python – La méthode facile (Débutant)
12.10
Résumé de la section sur la résumé de texte
Modélisation de sujets
8
13.1
Introduction à la section sur la modélisation de sujets
13.2
Allocation Latente de Dirichlet (LDA) – Principes de base
13.3
Préparation du code pour LDA
13.4
Allocation Latente de Dirichlet (LDA) – Intuition (Avancé)
13.5
Modélisation de sujets avec l’Allocation Latente de Dirichlet (LDA) en Python
13.6
Intuition de la Factorisation de Matrice Non Négative (NMF)
13.7
Modélisation de sujets avec la Factorisation de Matrice Non Négative (NMF) en Python
13.8
Résumé de la section sur la modélisation de sujets
Analyse sémantique latente (Indexation sémantique latente)
5
14.1
Introduction à la section sur LSA / LSI
14.2
Intuition de la SVD (Décomposition en valeurs singulières)
14.3
LSA / LSI : Application de la SVD au TALN
14.4
Analyse sémantique latente / Indexation sémantique latente en Python
14.5
Exercices LSA / LSI
Deep Learning Introduction
1
15.1
Introduction à l’apprentissage profond (Intermédiaire-Avancé)
Réseaux de neurones artificiels à propagation directe
20
16.1
Réseaux de neurones artificiels (ANN) – Introduction à la section
16.2
Propagation avant (Forward Propagation)
16.3
La représentation géométrique
16.4
Fonctions d’activation
16.5
Classification multi classe
16.6
Préparation du code pour les ANN
16.7
Classification de texte avec ANN dans TensorFlow
16.8
Préparation du code pour le prétraitement de texte
16.9
Prétraitement de texte dans TensorFlow
16.10
Incorporations (Embeddings)
16.11
CBOW (Avancé)
16.12
Sujet d’exercice CBOW
16.13
CBOW dans TensorFlow (Avancé)
16.14
Résumé de la section sur les ANN
16.15
Comment choisir les hyperparamètres (Optionnel)
16.16
Convolution sur des images en couleur
16.17
Architecture des CNN
16.18
CNN pour le texte
16.19
Réseau neuronal convolutif pour le TALN dans TensorFlow
16.20
Résumé de la section sur les CNN
Réseaux de neurones convolutionnels
4
17.1
Introduction à la section sur les CNN
17.2
Qu’est-ce que la convolution ?
17.3
Qu’est-ce que la convolution ? (Correspondance de motifs)
17.4
Qu’est-ce que la convolution ? (Partage de poids)
Réseaux de neurones récurrents
12
18.1
Introduction à la section sur les RNN
18.2
Unité RNN simple / Elman (partie 1)
18.3
Unité RNN simple / Elman (partie 2)
18.4
Préparation du code pour les RNN
18.5
RNN : Attention aux formes
18.6
GRU et LSTM (partie 1)
18.7
GRU et LSTM (partie 2)
18.8
RNN pour la classification de texte dans TensorFlow
18.9
Étiquetage des parties du discours (POS) dans TensorFlow
18.10
Reconnaissance des entités nommées (NER) dans TensorFlow
18.11
Exercice : Retour aux CNN (Avancé)
18.12
Résumé de la section sur les RNN
Conclusion du cours
1
19.1
Qu’apprendre ensuite ?
FAQ sur la configuration de votre environnement
3
20.1
Vérification de pré-installation
20.2
Configuration de l’environnement Anaconda
20.3
Comment installer Numpy, Scipy, Matplotlib, Pandas, IPython, Theano et TensorFlow
FAQ : Aide supplémentaire avec le codage en Python pour les débutants
3
21.1
Comment coder par soi-même (partie 1)
21.2
Comment coder par soi-même (partie 2)
21.3
Preuve que l’utilisation de Jupyter Notebook est la même que de ne pas l’utiliser
Annexe / FAQ finale
2
22.1
Qu’est-ce que l’Annexe ?
22.2
BONUS
This content is protected, please
login
and
enroll
in the course to view this content!
Modal title
Main Content