Aller au contenu. | Aller à la navigation

Outils personnels

Navigation

Voir le monde en interaction

  • Logo CNRS
  • Logo ENSL
  • logo-enssib.jpg
Vous êtes ici : Accueil / Agenda / Séminaires / Cycles de séminaires / Données complexes en géographie / Early modern information overload: the Encyclopédie as big data

Early modern information overload: the Encyclopédie as big data

Glenn Roe (Sorbonne Université, U. Paris 4)
Quand ? Le 05/05/2022,
de 14:00 à 16:00
Ajouter un événement au calendrier vCal
iCal
Le prochain séminaire du cycle "Extraction, traitement et visualisation de données complexes en géographie (XVIIIe siècle - XIXe siècle)" financé par l’Institut Rhônalpin des systèmes Complexes (IXXI) aura lieu jeudi 5 mai à 14h à l’ENS de Lyon en mode hybride (le lien visio sera envoyé par mail aux inscrits).
Le programme détaillé et le formulaire d’inscription sont disponibles sur le site internet du séminaire : https://gitlab.liris.cnrs.fr/geode/seminaires-ixxi
Pour cette cinquième session nous accueillerons une présentation autour de l’Encyclopédie ou dictionnaire raisonné des sciences, des arts et des métiers en lien avec la thématique 2 du cycle (Linguistique des discours, traitement automatique des langues).
Early modern information overload: the Encyclopédie as big data. (résumé à la fin de ce mail)
Glenn Roe (Sorbonne Université, U. Paris 4)
L’inscription est gratuite mais obligatoire. Les personnes qui souhaitent participer à distance recevront le lien de connexion par email avant le séminaire.

Résumé

The exponential increase in the scale of humanities datasets is altering the relationship of scholars to the objects of their research. These ‘big data’ approaches—from data mining to distant reading—promise new insights into our shared cultural record in ways that would have previously been impossible. But, these same methods also risk disconnecting scholars from the raw materials of their research as individual texts are subsumed into massive digital collections. One of the main challenges for the digital humanities is to develop scalable reading approaches—both distant and close—that allow scholars to move from macro- to micro-analyses and back. In this talk, I will outline some previous attempts at addressing this challenge using data mining and machine learning techniques to explore large-scale datasets drawn primarily from the French Enlightenment period, and in particular the great mid-century Encyclopédie of Diderot and d’Alembert. Preliminary analysis of these datasets demonstrates that the overwhelming sense of ‘information overload’ that characterises our modern condition is in fact much older. From the Renaissance onwards, print culture was shaped by new information technologies such as indexing, commonplacing, and encyclopaedism, developed in order to make sense of the growing textual record. Today, as we grapple with our own data deluge, these techniques can help put our current fascination with big data into perspective, ensuring that the inherent specificity of humanistic enquiry remains viable and vibrant at any sc