La formation « Machine Learning: Traitement du langage naturel en Python (V2) » offre une immersion approfondie dans le domaine dynamique du traitement du langage naturel (NLP). Conçue pour les professionnels de l’informatique et les passionnés de données, cette formation met l’accent sur l’application pratique des techniques d’apprentissage automatique dans le contexte spécifique du NLP. Les participants développeront des compétences solides en utilisant Python, en se concentrant sur des bibliothèques renommées telles que NLTK et spaCy, et en abordant des sujets allant de la tokenisation à la classification de texte et à l’analyse des sentiments.
Cette formation se démarque par son approche axée sur les projets, encourageant les apprenants à appliquer leurs connaissances à des cas concrets. À travers des études de cas du monde réel, les participants acquerront une expérience pratique de la résolution de problèmes complexes liés au NLP, renforçant ainsi leur capacité à relever des défis dans des contextes professionnels. À la fin de la formation, les apprenants auront acquis les compétences nécessaires pour concevoir et mettre en œuvre des solutions NLP de pointe, renforçant ainsi leur expertise dans le domaine de l’apprentissage automatique appliqué au langage naturel.
Détails
- 23 Sections
- 156 Lessons
- 10 Weeks
- Neurone7
- Stratégies d'apprentissage efficaces pour Machine Learning - FAQ4
- 1.1Comment réussir dans ce cours (Version longue)
- 1.2Est-ce pour les débutants ou les experts ? Académique ou pratique ? Rapide ou à un rythme lent ?
- 1.3Feuille de route des prérequis en apprentissage automatique et en intelligence artificielle (partie 1)
- 1.4Feuille de route des prérequis en apprentissage automatique et en intelligence artificielle (partie 2)
- Introduction2
- Mise en place en cours5
- Modèles vectoriels et définitions de base du texte pour le TALN22
- 4.1Introduction
- 4.2Définitions de base pour le TALN (Traitement Automatique du Langage Naturel)
- 4.3Qu’est-ce qu’un vecteur ?
- 4.4Sac de mots
- 4.5Compteur vectoriel (Théorie)
- 4.6Tokenisation
- 4.7Mots vides
- 4.8Racination et lemmatisation
- 4.9Démo de racination et lemmatisation
- 4.10Compteur vectoriel (Code)
- 4.11Similarité vectorielle
- 4.12TF-IDF (Théorie)
- 4.13Exercice interactif de recommandation
- 4.14TF-IDF (Code)
- 4.15Mapping mot-vers-indice
- 4.16Comment construire TF-IDF à partir de zéro
- 4.17Incorporations neuronales de mots
- 4.18Démo des incorporations neuronales de mots
- 4.19Résumé des modèles vectoriels et de la prétraitement du texte
- 4.20Aperçu de la résumé de texte
- 4.21Comment faire du TALN dans d’autres langues
- 4.22Boîte à suggestions
- Modèles probabilistes1
- Modèles de Markov (intermédiaire)13
- 6.1Introduction à la section sur les modèles de Markov
- 6.2La propriété de Markov
- 6.3Le modèle de Markov
- 6.4Lissage de probabilité et logarithmes de probabilité
- 6.5Construction d’un classificateur de texte (Théorie)
- 6.6Construction d’un classificateur de texte (Sujet d’exercice)
- 6.7Construction d’un classificateur de texte (Code partie 1)
- 6.8Construction d’un classificateur de texte (Code partie 2)
- 6.9Modèle de langage (Théorie)
- 6.10Modèle de langage (Sujet d’exercice)
- 6.11Modèle de langage (Code partie 1)
- 6.12Modèle de langage (Code partie 2)
- 6.13Résumé de la section sur les modèles de Markov
- Article Spinner (intermédiaire)6
- Déchiffrement de code (Avancé)13
- Machine Learning modèles (Introduction)1
- Détection de SPAM6
- Analyse de sentiment7
- 11.1Analyse de sentiment – Description du problème
- 11.2Intuition de la régression logistique (partie 1)
- 11.3Régression logistique multi classe (partie 2)
- 11.4Entraînement et interprétation de la régression logistique (partie 3)
- 11.5Analyse de sentiment – Sujet d’exercice
- 11.6Analyse de sentiment en Python (partie 1)
- 11.7Analyse de sentiment en Python (partie 2)
- Résumé de texte10
- 12.1Introduction à la section sur la résumé de texte
- 12.2Résumé de texte utilisant des vecteurs
- 12.3Sujet d’exercice pour le résumé de texte
- 12.4Résumé de texte en Python
- 12.5Intuition de TextRank
- 12.6TextRank – Comment cela fonctionne vraiment (Avancé)
- 12.7Sujet d’exercice TextRank (Avancé)
- 12.8TextRank en Python (Avancé)
- 12.9Résumé de texte en Python – La méthode facile (Débutant)
- 12.10Résumé de la section sur la résumé de texte
- Modélisation de sujets8
- 13.1Introduction à la section sur la modélisation de sujets
- 13.2Allocation Latente de Dirichlet (LDA) – Principes de base
- 13.3Préparation du code pour LDA
- 13.4Allocation Latente de Dirichlet (LDA) – Intuition (Avancé)
- 13.5Modélisation de sujets avec l’Allocation Latente de Dirichlet (LDA) en Python
- 13.6Intuition de la Factorisation de Matrice Non Négative (NMF)
- 13.7Modélisation de sujets avec la Factorisation de Matrice Non Négative (NMF) en Python
- 13.8Résumé de la section sur la modélisation de sujets
- Analyse sémantique latente (Indexation sémantique latente)5
- Deep Learning Introduction1
- Réseaux de neurones artificiels à propagation directe20
- 16.1Réseaux de neurones artificiels (ANN) – Introduction à la section
- 16.2Propagation avant (Forward Propagation)
- 16.3La représentation géométrique
- 16.4Fonctions d’activation
- 16.5Classification multi classe
- 16.6Préparation du code pour les ANN
- 16.7Classification de texte avec ANN dans TensorFlow
- 16.8Préparation du code pour le prétraitement de texte
- 16.9Prétraitement de texte dans TensorFlow
- 16.10Incorporations (Embeddings)
- 16.11CBOW (Avancé)
- 16.12Sujet d’exercice CBOW
- 16.13CBOW dans TensorFlow (Avancé)
- 16.14Résumé de la section sur les ANN
- 16.15Comment choisir les hyperparamètres (Optionnel)
- 16.16Convolution sur des images en couleur
- 16.17Architecture des CNN
- 16.18CNN pour le texte
- 16.19Réseau neuronal convolutif pour le TALN dans TensorFlow
- 16.20Résumé de la section sur les CNN
- Réseaux de neurones convolutionnels4
- Réseaux de neurones récurrents12
- 18.1Introduction à la section sur les RNN
- 18.2Unité RNN simple / Elman (partie 1)
- 18.3Unité RNN simple / Elman (partie 2)
- 18.4Préparation du code pour les RNN
- 18.5RNN : Attention aux formes
- 18.6GRU et LSTM (partie 1)
- 18.7GRU et LSTM (partie 2)
- 18.8RNN pour la classification de texte dans TensorFlow
- 18.9Étiquetage des parties du discours (POS) dans TensorFlow
- 18.10Reconnaissance des entités nommées (NER) dans TensorFlow
- 18.11Exercice : Retour aux CNN (Avancé)
- 18.12Résumé de la section sur les RNN
- Conclusion du cours1
- FAQ sur la configuration de votre environnement3
- FAQ : Aide supplémentaire avec le codage en Python pour les débutants3
- Annexe / FAQ finale2