Dr Luc Julia
Directeur Scientifique
> Biographie
Le Dr. Luc JULIA est Directeur Scientifique de Renault. Il a été Directeur Technique et Vice-Président pour l’innovation chez Samsung Electronics, a dirigé Siri chez Apple, été Directeur Technique chez Hewlett-Packard et a cofondé plusieurs start-ups dans la Silicon Valley. Lorsqu’il poursuivait ses recherches à SRI International, il a participé à la création de Nuance Communications, aujourd’hui leader mondial dans le domaine de la reconnaissance vocale.Chevalier de la Légion d’Honneur et membre de l’Académie nationale des technologies, il est diplômé en mathématiques et en informatique de l’Université Pierre et Marie Curie à Paris et a obtenu un doctorat en informatique à l’Ecole Nationale Supérieure des Télécommunications de Paris.Il est l’auteur du best-seller «L’intelligence artificielle n’existe pas», détient des dizaines de brevets et est reconnu comme l’un des 100 développeurs français les plus influents dans le monde numérique.
Aaditya Ramdas
Assistant professor
> keynote
Predictive uncertainty quantification under distribution shift.
There are two dominant ways to quantify prediction uncertainty. The first is to use prediction sets, and the second to require calibrated probabilistic predictions. The two dominant paradigms for achieving these — without making distributional assumptions on the data — are conformal prediction and post-hoc binning. This talk will briefly recap these core ideas (under the setting where the data are i.i.d.) and show how to extend them to practical settings where the distribution may drift or shift over time.
> Biographie
Aaditya Ramdas (PhD, 2015) is an assistant professor at Carnegie Mellon University, in the Departments of Statistics and Machine Learning. He was a postdoc at UC Berkeley (2015–2018) and obtained his PhD at CMU (2010–2015), receiving the Umesh K. Gavaskar Memorial Thesis Award. His undergraduate degree was in Computer Science from IIT Bombay (2005-09), and he did high-frequency algorithmic trading at a hedge fund (Tower Research) from 2009-10.
Aaditya was an inaugural recipient of the COPSS Emerging Leader Award (2021), and a recipient of the Bernoulli New Researcher Award (2021). His work is supported by an NSF CAREER Award, an Adobe Faculty Research Award (2019), an ARL Grant on Safe Reinforcement Learning, a Block Center Grant for election auditing, a Google Research Scholar award (2022) for structured uncertainty quantification, amongst others. He was a CUSO lecturer (2022) and will be a Lunteren lecturer in 2023.Aaditya’s main theoretical and methodological research interests include selective and simultaneous inference (interactive, structured, online, post-hoc control of false decision rates, etc), game-theoretic statistics (sequential uncertainty quantification, confidence sequences, always-valid p-values, safe anytime-valid inference, e-processes, supermartingales, etc), and distribution-free black-box predictive inference (conformal prediction, calibration, etc). His areas of applied interest include privacy, neuroscience, genetics and auditing (elections, real-estate, financial), and his group’s work has received multiple best paper awards.
François Sillion
Directeur technique et numérique
> Biographie
Ancien élève de l’École Normale Supérieure, titulaire d’une thèse de doctorat de l’université Paris-Sud et d’une habilitation à diriger des recherches de l’université Joseph Fourier-Grenoble 1, il a occupé des fonctions de chercheur à l’université Cornell (USA), au CNRS (à Paris et Grenoble), puis à Inria. Il a également occupé des postes de chercheur invité au MIT (USA) et chez Microsoft Research (USA), ainsi que de professeur chargé de cours à l’Ecole Polytechnique. Il a suivi le cycle national de l’Institut des hautes études pour la science et la technologie en 2008-2009 (promotion Hubert Curien).
Ses recherches ont porté sur les techniques de création d’images de synthèse : modèles 3D, rendu « expressif », simulation de l’éclairage ; visualisation de très gros volumes de données et acquisition de données à partir d’images réelles. Il a encadré quinze thèses et publié une centaine d’articles de recherche sur ces sujets, ainsi que deux ouvrages sur la simulation de l’éclairage et la modélisation numérique de l’apparence. Il a reçu en 2009 pour ses travaux le prix « Outstanding Technical Contribution Award » de l’association internationale Eurographics.
Au sein d’Inria, il a fondé et dirigé l’équipe-projet ARTIS, et occupé les fonctions de délégué scientifique, puis directeur du centre de recherche Inria Rhône-Alpes. Devenu Directeur Général Délégué à la Science d’Inria, il a notamment développé des mécanismes de soutien à des projets de recherche exploratoires et des programmes transverses ou inter-disciplinaires en soutien de la stratégie scientifique de l’institut, et coordonné le volet recherche du plan gouvernemental sur l’intelligence artificielle mis en place suite au rapport Villani de mars 2018.
Il a fondé en 2019 et dirigé jusqu’en 2021 le centre de recherche « Uber Advanced Technologies Center » à Paris, dédié aux technologies numériques pour les nouvelles mobilités et en particulier la mobilité aérienne urbaine.
En 2022, il devient directeur technique et numérique du CNES.
Catuscia Palamidessi
Directrice de recherche
> keynote
Private collection of mobility data.
> Biographie
Directrice de recherche Inria au sein de l’équipe-projet Comete et membre du Laboratoire d’Informatique de l’École polytechnique (LIX – CNRS/École polytechnique/inria).
Les recherches de Catuscia Palamidessi se caractérisent par l’application de méthodes mathématiques et logiques à l’informatique. Elle a travaillé dans divers domaines, y compris la théorie de la concurrence, où elle a prouvé des résultats de séparation entre la communication synchrone et asynchrone, ainsi que dans les domaines de la sécurité et la protection de la vie privée, où elle a proposé une variante du cadre de la “differential privacy”, avec des applications à la protection des informations de localisation (“géo-indistinguishability”). Plus récemment, elle a commencé à explorer les enjeux éthiques de l’intelligence artificielle, en particulier l’équité et le contrôle des fuites d’informations dans l’apprentissage automatique.
Marouane Il Idrissi
Doctorant
> keynote
Les effets marginaux proportionnels : une réponse aux manquement des valeurs de Shapley pour la quantification d’importance.
L’utilisation des valeurs de Shapley dans le contexte de la quantification des incertitudes apporte une solution pratique lorsque les entrées (ou features) ne sont pas indépendantes. Ce mariage entre la théorie des jeux coopératifs et l’analyse de sensibilité globale a permis l’émergence des effets de Shapley, indices interprétables permettant de quantifier l’importance octroyée aux entrées d’un modèle boîte-noire. Cependant, ces indices présentent un inconvénient : une variable exogène (i.e., qui n’apparaît pas dans le modèle) peut se voir octroyer de l’importance, dès lors qu’elle présente une corrélation avec des entrées endogènes (i.e., dans le modèle). L’utilisation d’une autre allocation, les valeurs proportionnelles, permettent de pallier ce problème. Dans cette présentation, nous mettrons l’accent sur l’interface entre la théorie des jeux coopératifs et la quantification d’incertitudes. Les différences entre les effets de Shapley et les effets marginaux proportionnels seront illustrés par le biais de cas jouets et de jeux de données réels.
> Biographie
Marouane IL IDRISSI est en 3ème année de doctorat CIFRE entre la R&D d’EDF et l’Institut de Mathématiques de Toulouse. Son sujet de thèse porte sur le développement de méthodes pour interpréter les modèles d’intelligence artificielle (IA) boîtes-noires, afin de pouvoir certifier leur utilisation pour des systèmes critiques. Ses recherches gravitent autour de l’IA explicable (XAI) et de l’analyse de sensibilité, par le biais de la théorie des jeux coopératif et du transport optimal.
Gabriel Laberge
Doctorant
> keynote
Les Modèles Interprétables Hybrides : Explorer le Compromis entre Transparence et Performance.
La recherche en explicabilité des modèles d’apprentissage automatique est présentement séparée en deux familles:
1) le dévelopement de modèles simples et interpretables
2) l’invention de méthodes “post-hoc” pour expliquer des modèles complexes.
Cette dualité est souvent présentée comme une conséquence du compromis “transparence-performance”, qui suppose que les modèles interpretables ont systématiquement des performances moindres que les modèles opaques. Même si un tel compromis fait partie du folklore en explicabilité, on note que peu d’études le justifie de manière quantitative. Ainsi, la question se pose: Est ce que ce compromis existe vraiment? Si oui, pouvons nous le mesurer? Ou même l’optimiser?
Pour répondre à ces questions, nous étudions les Modèles Interpretables Hybrides faisant intervenir la coopération entre une boite noire et un modèle transparent.
Au moment de prédire sur une entré x, une porte envoit l’entrée x soit à la partie transparente ou au modèle opaque.
En definissant la transparence du modèle comme étant le ratio d’instance x qui sont envoyés à la composante interpretable, on peut quantitativement mesurer les compromis entre la performance et la transparence.
Malgré leur grand potentiel, les modèles hybrides sont présentement limités par leur algorithme d’apprentissage. En effet, l’état de l’art repose sur des heuristiques de recherche qui rendent l’apprentissage sous-optimal et instable. En se basant sur l’algorithme CORELS pour apprendre des RuleLists optimales, nous avançons l’état de l’art en entrainant des modèles hybrides optimaux à transparence fixe. Notre méthode, nommée HybridCORELS, permet ainsi d’etudier les compromis entre transparence et performance sans devoir se soucier de l’optimalité et de la stabilité des modèles.
Un résultat clé de nos expériences est qu’il est possible d’obtenir des modèles hybrides optimaux avec plus de 50% de transparence et dont la performance est equivalente (ou même meilleur) que la boite noire originale. Ces observations démontrent un constat intéressant: les boite noires, bien que performantes, sont souvent trop complexes sur certaines regions de l’espace des entrées et il est possible de les simplifier sur ces régions sans affecter la performance.
> Biographie
Gabriel Laberge a fait ses études en Génie Physique, suivi d’une maitrise en Mathématiques Appliquées où il découvrit sa passion pour l’analyse de données et les statistiques. Pour appronfondir cette passion, il entamma son Doctorat en informatique, plus spécifiquement sur l’apprentissage automatique.
Ses sujets de recherches actuels se trouvent à l’intersection entre l’explicabilité des boites noires et la quantification de l’incertitude, et ont pour but d’extraire des conclusions fiables sur les comportements des modèles complexes.