Conférence internationale sur l'optimisation et l'apprentissage (OLA2025)

Conférence internationale sur l’optimisation et l’apprentissage (OLA2025)

Lors de la Conférence internationale sur l’optimisation et l’apprentissage (OLA2025), qui s’est tenue à Dubaï du 23 au 25 avril 2025, Xavier Lessage a présenté des recherches de pointe sur l’apprentissage fédéré sécurisé. Son intervention a mis en lumière des innovations dans la compression de modèles et la distillation inverse, contribuant ainsi aux avancées dans le domaine de l’optimisation et de l’apprentissage automatique.

Date: 23 avril 2025

Domaine: Numérique et société 

A propos du projet: CyberExcellence 

Contact : Xavier Lessage

Notre expert, Xavier Lessage, a eu l’honneur de présenter les dernières avancées en matière d’apprentissage fédéré sécurisé, notamment sur la compression de modèles et la distillation inverse [1], lors de la Conférence internationale sur l’optimisation et l’apprentissage (OLA2025). Cet événement s’est tenu au Rochester Institute of Technology à Dubaï, du 23 au 25 avril 2025. La conférence s’est concentrée sur les défis futurs des méthodes d’optimisation et d’apprentissage ainsi que sur leurs applications.

Cette conférence a offert à la communauté internationale de recherche en optimisation et en apprentissage une occasion unique d’échanger sur les résultats de recherche récents et de développer de nouvelles idées et collaborations dans une ambiance conviviale et détendue. La conférence a accueilli des présentations couvrant divers aspects de la recherche en optimisation et en apprentissage, tels que :

  • Optimisation  : optimisation bayésienne, optimisation multi-objectifs, optimisation globale, optimisation discrète, optimisation mixte, optimisation hybride, optimisation parallèle, optimisation par simulation, optimisation sous incertitude, etc.
  • Apprentissage  : apprentissage supervisé, non supervisé, modèles profonds, modèles neuromorphiques, apprentissage fédéré, apprentissage parallèle/distribué, etc.
  • Apprentissagepour l’optimisation  : apprentissage profond, grands modèles de langage (LLM), apprentissage par renforcement, tuning, sélection d’algorithmes, génération d’algorithmes, etc.
  • Optimisation pour l’apprentissage  : recherche d’architecture neuronale, optimisation d’hyperparamètres, sélection de modèles, etc.
  • Applications  : informatique quantique, industrie 4.0, biomédical, recherche opérationnelle, énergie, etc.

Voir en ligne : https://ola2025.sciencesconf.org/

[1Xavier Lessage, Saïd Mahmoudi, Mathis Delehouzée, Tanguy Vansnick, Mohammed Benjelloun, Leandro Collier, and Michaël Rotulo, SFL-ID - Secure Federated Learning : model compression and Inverse Distillation, International Conference on Optimization and Learning (OLA2025), 23-25 April 2025, Dubaï