Traitement automatique des langues et réseaux de neurones

Table des matières

Syllabus

Le cours se déroule en 6 séances. À chaque fois, une nouvelle notion est abordée avec un TP à réaliser.


Session 1 : Introduction et vecteurs de mots 15/01/2025

Cours

Introduction au TAL – les vecteurs de mots : transparents transparents (2x2)

TP

Implémentation de word2vec

Session 2 : Convolutions 22/01/2025

Cours

Les réseaux convolutifs pour le texte : transparents (1ere partie) transparents (2x2)

TP

Analyse d'opinion avec des CNN

Références


Session 3 : Réseaux Récurrents 29/01/2025

Cours

Les réseaux récurrents : transparents (2e partie)

TP

Analyse d'opinion avec des CNN (suite…)

Références

  • cours de Christopher Manning cours 6 (RNN à partir de la page 22, mais introduit les modèles de langues avant!) et cours 7 (problème du gradient dans les RNN)

Session 4 03/02/2025

Cours

Modèles n-grammes et réseaux récurrents : transparents

Références

  • cours de Christopher Manning cours 6 (RNN à partir de la page 22, mais introduit les modèles de langues avant!) et cours 7 (problème du gradient dans les RNN)

Session 5 05/02/2025

Cours

Modèles n-grammes et réseaux récurrents : transparents (suite)

Références

Session 6 12/02/2025

Cours

Traduction automatique (cours par Nadi Tomeh)

Remarques

  • Un QCM par semaine (à partir de la 2e semaine) pour évaluation
  • Projet/

Références

Auteur: Joseph Le Roux

Created: 2025-01-30 Jeu 16:36