Une intervention sur le serveur d’authentification est programmée jeudi 13 mars entre 11h30 et 13h.
Elle peut occasionner des problèmes de connexion sur Sciencesconf.
Les grands modèles de langue (LLM) génératifs se démocratisent et s’intègrent dans des chaînes de traitements de plus en plus complexes, offrant une grande variété de cas d’usage. L’évaluation de ces objets protéiformes pose cependant des problèmes sérieux : les benchmarks existants sont largement anglo-centrés (aussi bien en matière de langue que de culture), parfois eux-mêmes issus de LLM anglo-centrés (benchmarks synthétiques), et ne couvrent pas l’ensemble des usages.
La question de leur évaluation se pose en particulier pour le français et plus généralement pour des langues autres que l’anglais.
Appel à communications
Dans cet atelier, nous proposons ainsi de réunir les chercheuses et chercheurs, industriels et académiques, s’intéressant aux multiples facettes de l’évaluation des LLM génératifs sur des domaines de spécialité ou sur des langues autres que l’anglais. Nous sollicitons des propositions de communication sur tous les travaux relevant de ce périmètre.
Cela inclut notamment les recherches concernant :
l’évaluation de modèles de fondation, fine-tunés ou de systèmes complets (RAG par exemple)
la création ou adaptation de benchmarks, pour du français ou autres langues d’intérêt, qu’elles soient bien ou peu dotées, en domaine général ou spécialisé, ou pour des langues bruitées ou non standard (eg. réseaux sociaux, commandes vocales…)
l’évaluation sur des tâches de TAL (traduction, résumé, extraction d’information…)
l’adaptation des méthodologies d’évaluation existantes aux systèmes génératifs
les dimensions éthiques, biais, privacy, alignement culturel ou législatif
les dimensions de performances en temps de calcul, mémoire, frugalité énergétique
l’évaluation avec des utilisateurs, ergonomie, aspects cognitifs
l’évaluation de modèles multimodaux (eg. texte-image, texte-parole…)
Dans le cadre de l’atelier EvalLLM2025, nous proposons deux challenges centrés sur les LLM.
Le premier challenge vise à une évaluation de LLM (ou d'autres approches) par la tâche. Il s'agit d'extraction d'entités d'intérêt dans un contexte few-shot. Pour une description complète, voir la page dédiée.
Le deuxième challenge vise à évaluer l'intérêt du fine-tuning sur un domaine de compétences particulier, en l'occurrence le domaine de la défense. Pour une description complète, voir la page dédiée.
Comités et contact
Organisation :
Vincent Claveau, AMIAD, Rennes, vincent.claveau@def.gouv.fr