Skip to content. | Skip to navigation

Personal tools

Sections

Consider the world interacting

  • Logo CNRS
  • Logo ENSL
  • logo-enssib.jpg
You are here: Home / Agenda / Seminars / Cycles de séminaires / Intelligence Artificielle et Langage / Applications et évaluation des Transformers: de FlauBERT à LeBenchmark

Applications et évaluation des Transformers: de FlauBERT à LeBenchmark

Alexandre Allauzen (PSL)
When Nov 26, 2021
from 11:00 to 12:30
Add event to calendar vCal
iCal

 

Résumé

L'apparition des transformers dans le paysage déjà riche du deep-learning a profondément modifié la recherche en traitement automatique des langues, mais aussi dans d'autres domaines. Les enjeux soulevés par des modèles comme BERT sont multiples: scientifiques (peut on se passer de cette approche et rester compétitif), technologiques (apprendre de tels modèles n'est pas à la portée de tous) et stratégiques (avoir accès à un modèle adapté est important). Il ainsi souhaitable de mutualiser les efforts scientifiques afin de partager l'accès aux modèles pré-appris, ainsi que les outils d'évaluation. Cet exposé aborde différentes applications des transformers comme par exemple le traitement automatique du français pour les textes écrits (FLauBERT) et la parole (LeBenchmark).

Bio

Alexandre Allauzen est professeur à Paris Sciences et Lettres (PSL) depuis novembre 2019, où il coordonne le programme transverse DATA. Il enseigne les méthodes numériques et l'informatique à l'ESPCI (École supérieure de physique et de chimie industrielles de la ville de Paris) et il est affilié en recherche au LAMSADE (laboratoire d’Analyse et de Modélisation de Systèmes pour l’Aide à la Décision) de Dauphine Université dans l'équipe MILES (Machine Intelligence and Learning Systems). Ses recherches sur les architectures de réseaux de neurones profonds appliquées au traitement automatique des langues et depuis peu à la Physique.