Une intervention sur le serveur d’authentification est programmée jeudi 13 mars entre 11h30 et 13h.
Elle peut occasionner des problèmes de connexion sur Sciencesconf. |
|
Challenge Fine-TuningPrésentationDans le cadre de l’atelier EvalLLM2025, l’AMIAD propose un challenge de fine-tuning de LLM pour produire un modèle adapté à un domaine particulier. En l’occurrence, il s’agit du domaine de la défense, riche en vocabulaire, en sigles et en connaissances métier. L’objectif est de faire émerger les meilleures pratiques et techniques pour l’adaptation de modèle, les hyper-paramètres essentiels, et de mesurer l’impact des données et les coûts associés. En pratique, des textes du domaine seront fournis aux participants, qui pourront, s’ils le souhaitent, en collecter d’autres. Les modèles de base seront imposés, les participants ayant le choix entre de deux catégories de taille (7B et 24B). Les modèles pourront prendre la forme d’un LoRa. Les performances du modèle produit seront mesurées selon 3 axes : coût en équivalent carbone (fourni par le participant), non-régression sur le domaine général, et performances sur le domaine défense. Ces évaluations de performances seront effectuées par l’AMIAD sur un ensemble de jeux d’évaluation développés au sein du Ministère des Armées. Les participants seront invités à présenter leurs travaux dans un bref article et sous forme de communication orale ou poster le jour de l’atelier. Informations techniquesDonnéesDes textes du domaine sont fournis aux participants. Ils peuvent en utiliser d'autres, collectés par leur soin dans le respect des droits d'auteur, qu'ils devront alors mentionner dans leur rapport de participation. Modèles de baseDeux tailles de modèles sont proposées, les participants sont libres de fine-tuner l'une ou l'autre ou les deux. : Mistral 7B Instruct : https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.3 Mistral Small Instruct : https://huggingface.co/mistralai/Mistral-Small-24B-Instruct-2501 EvaluationLes modèles seront évalués sur :
Remise des modèlesLes modèles fine-tunés pourront être fournis sous forme d'apatateur (LoRa) ou complet (full fine-tune). Ils devront pouvoir être mis en oeuvre par la version courante de vLLM qui servira à leur évaluation. Les modèles fine-tunés devront être transmis avant le 30 mai.
Comment participerPour participer et accéder aux données, envoyer un mail à vincent.claveau@def.gouv.fr et maxime.poulain@def.gouv.fr en indiquant :
Calendrier du challenge
|
Personnes connectées : 1 | Vie privée | Accessibilité |
![]() ![]() |