18-22 mai 2026 Paris (France)

Programme > Ateliers

Les deux journées qui précèdent la conférence Humanistica 2026 (lundi 18 et mardi 19 mai) sont consacrées à des ateliers.

Chaque atelier, d’une demi-journée, permet d’entrer au cœur des méthodes, des outils et des pratiques des humanités numériques, dans un format plus interactif et plus expérimental que les sessions de communication. Ils s’adressent avant tout aux personnes débutantes, mais ils peuvent également intéresser des participant·e·s disposant de quelques connaissances en code et souhaitant consolider leurs bases.

Les inscriptions aux ateliers ouvriront en même temps que celles du colloque. Chaque atelier comporte un nombre minimal et un nombre maximal de participant·e·s : si le seuil minimal n’est pas atteint, l’atelier n’aura pas lieu. À l’inverse, aucune place supplémentaire ne pourra être ajoutée une fois l’atelier complet : l’attribution des places se fera selon le principe « premier arrivé, premier inscrit ».

A noter : il sera possible de s'inscrire à plusieurs ateliers (2 par jour).

L'inscription est d'abord ouverte aux participant·e·s du colloque. Dans un deuxième temps, il sera également possible de suivre les ateliers sans être inscrit·e à la conférence (l'inscription aux ateliers sera séparée).

Pour tous les ateliers, chaque participant·e devra disposer d’un ordinateur.

Vous trouverez la liste des ateliers ci-dessous, par ordre alphabétique de titre.


Corpusense : transformez vos documents sériels en données structurées

Développé dans le cadre du projet Mezanno, financé par le plan quadriennal de la BnF, Corpusense (https://mezanno.xyz/corpusense/) est une interface en ligne (sans installation requise), ouverte et conçue pour répondre de la manière la plus simple possible à la question suivante : comment transformer des sources sérielles (annuaires, dictionnaires, index, etc.) en données structurées (tableaux, graphes de connaissances) ?
Cet atelier propose de prendre en main Corpusense en deux temps. D’abord, une présentation générale de l’outil sera faite, illustrée par des exemples concrets. Ensuite, les participants seront invités à travailler sur des données de leur choix, avec l’assistance des formateurs.

Intervenants

  • Jonathan Perrinet, EPITA, développeur principal de l'application Corpusense
  • Joseph Chazalon, EPITA, initiateur du projet Mezanno/Corpusense
  • Edwin Carlinet, EPITA, initiateur du projet Mezanno/Corpusense

Public visé

Débutant

Durée

3 heures

Prérequis

Apporter un ordinateur portable, de préférence avec une souris.


De la source au graphe RDF et aux données liées ouvertes. Le workflow LOD4HSS pour la modélisation, la collecte et l’analyse de données de recherche en SHS

Résumé

L'objectif de l'atelier est de proposer aux participant·e·s la prise en main d’outils et de méthodologies pour la production de données interopérables et réutilisables dans le contexte de la recherche en Sciences Humaines et Sociales, ceci en mobilisant les méthodes et les outils - gratuits et open source - de l’écosystème proposé par le projet Linked Open Data for Humanities and Social Sciences (LOD4HSS). Après une rapide présentation de la vision du projet, de l'environnement technique mobilisé et des notions de base nécessaires pour suivre l'atelier, une prise en main de cet environnement sera proposée. Celle-ci permettra de s'approprier les différentes étapes du processus de travail : configuration d'un triple store, définition du modèle dans l'application de gestion des ontologies OntoMe, importation de données dans le triple store, édition, enrichissement et exploration des données via l'application Logre (Local Graph Editor). Cet atelier s'adresse aux chercheurs, aux doctorants et aux ingénieurs.

Intervenant·e·s

  • Stephen HartResearch Associate à l'Université de Berne
  • Roger Mauvois, ingénieur d'étude, ENS Lyon - LARHRA
  • Pierre Vernus, maître de conférences en histoire, Université Lumière Lyon 2 - LARHRA

Public visé

Avancé / intermédiaire

Durée

3 heures

Prérequis

  • Ordinateur portable pour la partie pratique
  • Familiarité avec les données structurées (tableur, CSV ou métadonnées)
  • Intérêt pour les enjeux du web sémantique et des données liées en SHS
  • Notions de Python et de RDF/SPARQL souhaitables.

De l'image à la TEI : bonnes pratiques pour les textes en français du Moyen Âge à aujourd'hui

Résumé

Comment OCRiser un texte ? Comment accélérer la conversion des données en TEI? De quels outils a-t-on besoin pour explorer les données produites ? Depuis plusieurs années, un groupe de chercheur.se.s s'est engagé dans la rédaction d'un manuel de travail afin de proposer des solutions communes et de régler les multiples problèmes que posent la documentation.

Cet atelier propose de présenter pour la première fois des propositions concrètes, qui concernent tous les types de documents (manuscrits, imprimés, etc.) pour tous les siècles du français. Il vise aussi à créer un espace d’échange autour des choix méthodologiques, à confronter les retours d’expérience et à favoriser la discussion entre praticiens, en fonction des types de corpus et des objectifs de recherche. Quatre principales tâches informatiques seront abordées : l'analyse de mise en page, la reconnaissance automatique de l’écriture, la normalisation du texte et son annotation linguistique.

Intervenant·e·s

  • Ariane Pinche est chargée de recherche CNRS en études médiévales et en humanités numériques au CIHAM (UMR 5648). Ses recherches portent sur l’édition numérique de textes hagiographiques en ancien français. Aujourd’hui, ses intérêts de recherche se portent tout particulièrement sur la reconnaissance automatique d’écriture pour les manuscrits médiévaux et sur les mécanismes de compilation dans les légendiers français.
  • Lucence Ing est ingénieure de recherche au sein du projet COLaF (Corpus et Outils pour les Langues de France), ALMAnaCH, Inria. Ses recherches portent sur l’évolution du français médiéval à travers l’étude diachronique de témoins de textes arthuriens. Dans ce cadre, elle s’intéresse tant aux questions d’alignement automatique de témoins d’un même texte qu’à celles de l’étiquetage linguistique automatique.
  • Sonia Solfrini est doctorante en humanités numériques et en littérature de la Renaissance, dans le cadre du projet FNS SETAF (IHR, Université de Genève). Ses recherches portent sur le traitement numérique des textes de la Renaissance et sur les œuvres du poète Matthieu Malingre (ca. 1500-1572).

Public visé

Débutant

Durée

2 heures

Prérequis

Une première expérience avec la constitution ou la manipulation d'un corpus numérique est recommandée (mais n'est pas obligatoire).


Du prétraitement aux LLM : TAL pour textes classiques

Résumé

L'atelier a pour but de familiariser les chercheurs en lettres classiques à l'usage des techniques modernes adaptées à l'étude des langues anciennes. Les notebooks Python proposés (qui ne nécessiteront pas d'installation) seront utilisés pour les tâches de TAL (lemmatisation, postagging, dependency), vectorisation sémantique simple, et autres tâches attenantes aux capacités actuelles des transformers (NER, classification, analyse de réseau, et autres).

Intervenante

  • Marianne Reboul (Ecole Normale Supérieure de Lyon) est maîtresse de conférences en lettres classiques et humanités numériques (spécialisée dans l'usage des LLMs pour l'alignement automatique des langues anciennes et détection d'intertexte multilingue).

Public visé

Débutant

Durée

3 heures

Prérequis

Pas de prérequis obligatoire ; un peu de Python peut être utile.


Écrire et éditorialiser ses recherches avec Stylo et le Crieur

Résumé

Dans cet atelier, nous nous pencherons sur l'éditeur de texte en ligne sémantique et collaboratif Stylo, ainsi que sur le générateur de site de revue ou de blog le Crieur, qui prend en entrée des corpus structurés sur Stylo. Proposés par le Laboratoire de recherche sur les écritures numériques à l'Université de Montréal, ces logiciels libres entendent fournir des instruments adaptés aux activités d'écriture et de publication de la recherche en sciences humaines et sociales, en contrepoint des solutions de la Big Tech, tout en engageant leurs practiciens·nes à une maîtrise de leurs outils de travail. Après une présentation des principes théoriques qui orientent leur développement, nous les prendrons en main collectivement en se répartissant en groupes. Sur la fin, nous discuterons des développement potentiels pour ces outils.

Intervenant·e·s

  • Victor Chaix, doctorant en Littérature et Humanités Numériques, Laboratoire de recherche sur les écritures numériques (Université de Montréal) et Chaire d'Excellence en Édition Numérique (Université de Rouen Normandie).


Avec l'appui de : 

  • Alexia Schneider, doctorante en Littérature et Humanités Numériques au Laboratoire de recherche sur les écritures numériques (Université de Montréal)
  • Giulia Ferretti, doctorante en Littérature et Humanités Numériques au Laboratoire de recherche sur les écritures numériques (Université de Montréal)

Public visé

Intermédiaire / avancé

Durée

2 heures

Prérequis

Si possible, se créer un compte Stylo en amont. Voir la documentation de Stylo : https://stylo-doc.ecrituresnumeriques.ca/fr/fonctionnalites/creer-compte/

Idéalement, télécharger en amont le gestionnaire de paquets Python intitulé 'UV'. Les indications sont à ce lien : https://docs.astral.sh/uv/getting-started/installation/


Initiation au Distant Viewing

Résumé

Cet atelier présentera des méthodes modernes pour travailler avec des collections d’images numériques. Nous débuterons avec des outils open source en ligne, faciles à utiliser, avant de passer à des approches reposant sur la programmation. Aucune expérience préalable n’est nécessaire. Tout le contenu de l’atelier sera librement accessible via votre navigateur.

Intervenant

  • Taylor Arnold (Université de Richmond) est professeur en sciences des données, spécialisé dans l’analyse de données visuelles et multimodales appliquées aux humanités numériques et computationnelles.

Public visé

Intermédiaire / avancé

Durée

3 heures

Prérequis

Aucun.


Introduction à la Récupération Augmentée par Génération

Le but est d'introduire les principes de base de la Récupération Augmentée par Génération (RAG) appliquant à un corpus de documents textuels.
 

Intervenants

  • Donghan Bian, doctorant à l'Ecole nationale des chartes et EPITA
  • Aurélien Pellet, data scientist à Epitech et doctorant à EPITA

Public visé

Avancé / intermédiaire

Durée

3 heures

Prérequis

Maîtrise basique de Python.


Modéliser les objets culturels littéraires leurs métadonnées avec une ontologie. Introduction à l’ontologie CAO_CRM (Atelier AMIS)

et atelier propose une introduction à l'ontologie CAO-CRM, une ontologie conçue par le Consortium-HN ARIANE pour décrire et structurer des corpus textuels.

Qu’est-ce que CAO-CRM ?
CAO-CRM est un modèle conceptuel qui permet d’organiser de manière cohérente les informations liées aux textes. Il s’appuie sur le standard CIDOC CRM, une ontologie de référence utilisée dans le domaine du patrimoine culturel pour décrire les objets, les événements et leurs relations. Le CAO-CRM adapte ces principes aux objets textuels, en distinguant notamment :

  • les œuvres (le contenu intellectuel),
  • leurs différentes expressions (langue, version),
  • leurs manifestations (édition imprimée, fichier numérique, etc.),
  • ainsi que les événements associés (création, publication, transformation).

Pourquoi une ontologie ?
Un même texte peut exister sous de nombreuses formes : livre imprimé, édition numérique, transcription encodée, l'ontologie CAO-CRM permet de :

  • relier ces différentes formes entre elles,
  • décrire précisément leur contexte de production (auteurs, dates, lieux),
  • structurer les métadonnées de façon rigoureuse et interopérable,
  • faciliter l’exploration, l’analyse et le partage des corpus.

Un lien direct avec les outils : le robot AMIS
L’ontologie CAO_CRM n’est pas seulement un modèle théorique : elle est conçue pour être mobilisée par des systèmes numériques « intelligents », notamment fondés sur l’IA, comme le robot AMIS (Advanced Metadata Intelligent System), développé par le Consortium-HN ARIANE avec le soutien de l'Union européenne et du programme OSCARS. AMIS s’appuie sur ce cadre ontologique pour structurer l’analyse des corpus textuels et en extraire des métadonnées. L’atelier proposé dans le cadre du colloque Humanistica2026 montrera comment une ontologie peut servir de socle à des applications concrètes en humanités numériques.

L’atelier sera organisé en deux temps complémentaires :

1. Partie théorique

L’introduction permettra de découvrir les principes de base d’une ontologie, ainsi que le modèle CAO_CRM : ses objectifs, sa structure et la manière dont il organise les informations. Des exemples concrets appliqués à des corpus textuels illustreront ces notions.

2. Pratique pratique : atelier en groupes

Les participants travailleront en petits groupes à partir d’un cas d’étude et apprendront à identifier différentes entités (œuvre, édition, fichier…), à en décrire les caractéristiques et à établir des relations entre elles à l’aide du modèle. Selon les modalités retenues, cette activité pourra être organisée à l’aide de supports papier (cartes de modélisation) ou via une interface interactive permettant de manipuler visuellement les concepts.

Intervenants

  • Fatiha Idmhand, Université de Poitiers, Professeur en Études hispaniques et Humanités numériques
  • Ioana Galleron, Université Sorbonne Nouvelle, Professeur en Littérature française et Humanités numériques
  • Sabine Loudcher, Université Lyon 2, Professeur en Informatique
  • Ala Eddine Laouir, CNRS, Post Doctorant en Informatique, Projet AMIS (OSCARS)
  • Ameni Guizani, CNRS, Développeur informatique, Projet AMIS (OSCARS)
  • Andres Echavarría, CNRS, Post Doctorant en Humanités numériques, Projet AMIS (OSCARS)
  • Mélanie Bouland

Public visé

L'atelier est ouvert à toutes et tous :

  • chercheurs, enseignants, étudiants,
  • professionnels des bibliothèques, archives et musées,
  • toute personne intéressée par les humanités numériques.

Durée

3 heures

Prérequis

Aucune compétence technique préalable n’est requise. Il faut apporter un ordinateur personnel


Pandore : boîte à outils pour les humanités numériques

Résumé

Cet atelier est consacré à Pandore, une boîte à outils dédiée aux humanités numériques, développée par l'équipe ObTIC (Sorbonne Université) pour faciliter l’analyse, l’exploration et le traitement de corpus de recherche.
Animé par deux ingénieurs et un chercheur, l'atelier proposera une présentation des fonctionnalités de Pandore ainsi que des démonstrations pratiques illustrant ses usages concrets dans des projets en sciences humaines et sociales.

Intervenant·e·s

  • Floriane Chiffoleau, post-doctorante à SU (ObTIC)
  • Alina Miasnikova, ingénieure d'étude à SU (ObTIC)
  • Motasem Alrahabi, ingénieur de recherche, SU (ObTIC)

Public visé

Débutant

Durée

3 heures

Prérequis

Un ordinateur et une connexion Internet.

Chargement... Chargement...