Guillaume SOUDAIN

 
EASA European Aviation Safety Agency
Senior Expert Logiciels

Guillaume Soudain a travaillé depuis 2006 comme expert en logiciels et matériels électroniques aéroportés au sein de la direction de la certification de l’Agence européenne de la sécurité aérienne (EASA). En 2014, il a été nommé expert senior en logiciels et depuis lors, il est chargé de la coordination des aspects logiciels de la certification au sein de l’Agence. Guillaume a été membre du comité conjoint EUROCAE WG-71/RTCA SC-205 chargé de produire la norme logicielle ED-12C/DO-178C et ses documents associés. Il dirige actuellement l’équipe de projet de l’EASA pour l’IA avec pour objectif de mettre en œuvre la feuille de route de l’EASA pour l’IA. Il est également membre du groupe de travail conjoint EUROCAE WG-114/SAE G-34 sur l’intelligence artificielle.

Link : https://www.linkedin.com/in/guillaume-soudain-12a7a613a

” Lignes directrices de l’EASA sur la fiabilité de l’IA “

Abstract : 

L’apprentissage automatique et profond ouvre des perspectives prometteuses dans le domaine de l’aviation comme dans de nombreux autres domaines. Il soulève toutefois la question cruciale du niveau de confiance que l’on peut accorder à ces techniques lorsqu’elles sont utilisées dans des applications critiques pour la sécurité et de leur compatibilité avec des exigences de certification strictes.
L’EASA a publié sur les “premières orientations utilisables pour les applications d’apprentissage automatique de niveau 1” en avril 2021, en vue d’anticiper les orientations et les exigences futures de l’EASA pour ces applications. Dans cette conférence, Guillaume Soudain rappellera les principaux éléments de la feuille de route de l’EASA sur l’IA, présentera les éléments clés de ces premières orientations et exposera un certain nombre de défis restants en matière de fiabilité de l’IA.

Olivier TEYTAUD

 
Facebook AI Research
Research scientist

Olivier Teytaud a commencé à travailler en intelligence artificielle au siècle dernier.
Après des travaux en statistiques et en réseaux neuronaux, il a partagé son temps entre des travaux très applicatifs autour des systèmes électriques, des transports, des jeux et des travaux plus théoriques en optimisation et contrôles. Il contribue à la plateforme Nevergrad, pour l’optimisation de systèmes (nous serions ravis d’inclure vos cas tests !) et à la plateforme Polygames (réseaux de neurones pour les jeux).
Après avoir travaillé en Russie, à l’Inria en France et à Taiwan, il a travaillé chez Google puis maintenant chez Facebook AI Research en France.

 

“L’IA pour les jeux, un pas vers les applications critiques”

Abstract :

Un système intelligent comporte typiquement des paramètres statiques (forme, volume, réglementation) et des paramètres dynamiques (contrôle temps réel). En ce sens, ils se rapprochent des jeux: ouvertures (pensez aux échecs ou à la bataille navale), puis déroulement de la partie.

On présente deux outils open source pour cela:

  • Nevergrad, déjà largement utilisé dans l’industrie. Nevergrad permet notamment la recherche directe de polices, pour des solutions robustes dans des environnements bruités.
  • Polygames, qui a permis des victoires contre humains dans des jeux où l’humain résistait encore.

Pierre OLIVIER

 
LeddarTech
chef de la technologie

Au sein de l’entreprise depuis plusieurs années, Pierre Olivier a été promu en 2017 au poste clé de chef de la technologie.  Il occupait précédemment le rôle de vice-président, Ingénierie et production.  Dans ses nouvelles fonctions, il est en charge d’établir la direction stratégique de la technologie pour l’entreprise, de développer les compétences de l’organisation au plan technologique et de fournir un soutien opérationnel en ce qui a trait aux technologies de l’information. Reconnu tant pour son savoir-faire technique que pour son côté visionnaire, Pierre compte de nombreuses années d’expérience en développement de produits à haute teneur technologique.

Dès sa sortie de l’université en 1991, il se joint à l’équipe de CML Technologies où, très tôt, sa capacité à mener des projets de façon pragmatique et efficace se fait sentir.  Il gravit les échelons rapidement tout en développant ses compétences de gestionnaire.  Concepteur de produits innovateurs, flexibles, pratiques et robustes utilisés dans le monde entier dans des applications stratégiques telles que la répartition des urgences et le contrôle de la circulation aérienne, il détient plusieurs brevets à son actif.  Il poursuivra sa carrière chez Adept Technology Canada et DAP Technologies avant de se joindre à l’équipe de LeddarTech en 2010. Pierre est titulaire d’un diplôme en génie électrique de l’Université Laval et est membre de l’Ordre des ingénieurs du Québec.

 

“IA et jeux de données pour l’aide à la conduite et la conduite autonomes”

Abstract :

L’IA est désormais essentielle dans les systèmes d’aide à la conduite et de conduite autonome.  L’entraînement et l’évaluation des algorithmes de perception utilisés dépendent largement de la disponibilité de jeux de données.  Nous aborderons les jeux de données existants, les capteurs employés, la collecte de données, ainsi les besoins d’annotation 3D. Nous finirons par la présentation du «dataset» public PixSet™.

 

Chantelle DUBOIS

 
Ingénieure de systèmes avionique & logiciel
Agence spatiale canadienne

Chantelle Dubois est ingénieur informaticien à l’Agence spatiale canadienne. Elle occupe principalement le rôle d’ingénieur en systèmes avioniques et logiciels pour le programme Lunar Gateway, facilitant la livraison du Canadarm3. Elle soutient également le programme d’accélération de l’exploration lunaire (LEAP), en fournissant un aperçu et un soutien des logiciels robotiques. Au cours de ses études de premier cycle, Chantelle a effectué trois stages d’été à l’Agence pour travailler sur le déploiement d’analogues d’exploration lunaire (LEAD), en intégrant des logiciels pour un prototype de rover utilisé dans des essais sur le terrain pour étudier le concept d’opérations d’une mission de collecte d’échantillons lunaires.

” L’Intelligence Artificielle : Faire progresser le futur de l’exploration spatiale & l’utilisation spatiale “

Abstract : 

Le Canadarm3 est la contribution du Canada à la mission Lunar Gateway dirigée par la NASA et fera partie d’un effort global visant à rendre la Lunar Gateway autonome, en gérant autant de configuration, d’entretien et d’inspection de la Gateway que possible sans intervention de l’équipage ou de l’opérateur au sol. À cette fin, le Canadarm3 sera conçu de manière à pouvoir intégrer des capacités de plus en plus complexes alimentées par l’intelligence artificielle au cours de sa durée de vie. Cette présentation abordera la feuille de route de l’IA et de l’autonomie envisagée pour le Canadarm3, la manière dont ce système contribuera à une station spatiale autonome, ainsi qu’un bref résumé, non exhaustif, de la manière dont l’IA est utilisée ailleurs au sein de l’agence.

Juliette MATTIOLI

 
Thales
Expert Sénior en Intelligence Artificielle

Juliette Mattioli a débuté sa carrière industrielle en 1990, pour une thèse en reconnaissance de formes par morphologie mathématique et réseaux de neurones à Thomson-CSF. Elle devient en 1993, ingénieur de recherche. Au fur et à mesure de ses promotions, évolutions et mutations, elle a, au travers des différents laboratoires de R&D qu’elle a dirigés, étendu son spectre de compétences du domaine du traitement d’images à la fusion d’information sémantique, de l’aide à la décision à l’optimisation combinatoire. Sa présence, tant dans les comités de programme de conférences, d’instances nationales (mission #FranceIA, plan “AI 2021” pour IdF, Hub “Data Science & AI” du pôle Systematic Paris-Région) ou internationales (G7 des innovateurs en 2017) montre également son intention de faire partager ses connaissances et de participer à l’émancipation de la recherche d’entreprise. Depuis 2010, elle est rattachée à la direction technique de Thales pour contribuer à la définition de la stratégie en recherche et innovation, pour le domaine algorithmique avec un regard particulier sur l’IA de confiance mais aussi sur l’ingénierie de l’algorithmique afin d’accélérer le déploiement industriel de solutions à base d’IA.

 

“ Quand l’IA monte à bord  ”

L’intelligence artificielle (IA) ne cesse de gagner du terrain dans l’industrie du transport. On pense aux capacités d’aide à la conduite ou au véhicule autonome (automobile, ferroviaire ou aérien). De manière plus discrète, l’IA est aussi utilisée dans la gestion de flottes de véhicules, l’optimisation des coûts liés à la maintenance, l’anticipation des risques en fonction des dangers de la route ou liés aux marchandises transportées, à la réduction de l’empreinte carbone… Mais pour concevoir et déployer de telles solutions à base d’IA, il est nécessaire de prendre en compte des exigences d’embarquabilité, de sûreté et de cyber-sécurité.

Patrick PEREZ

 
Valeo
Directeur Scientifique

Patrick Pérez est directeur scientifique de valeo.ai, un laboratoire de recherche en IA axé sur les applications automobiles de Valeo, en particulier les voitures à conduite autonome. Avant de rejoindre Valeo, Patrick Pérez a été chercheur chez Technicolor (2009-2018), Inria (1993-2000, 2004-2009) et Microsoft Research Cambridge (2000-2004). Ses recherches portent sur la compréhension des scènes multimodales et l’imagerie numérique.

 

” Quelques défis de Machine Learning pour la conduite autonome.”

Abstract : 

Les véhicules assistés et autonomes sont des systèmes essentiels à la sécurité qui doivent faire face en temps réel à des environnements complexes, difficiles à prévoir et dynamiques. La formation (et le test) des modèles sous-jacents nécessitent des quantités massives de données de conduite entièrement annotées, ce qui n’est pas viable. En se concentrant sur la perception, plusieurs projets de valeo.ai visant à former de meilleurs modèles avec une supervision limitée seront présentés. Il s’agit notamment de l’adaptation non supervisée au domaine, du pseudo-étiquetage basé sur la confiance, de la reconnaissance de l’image zéro et de l’augmentation des données d’entraînement basée sur les GAN, pour des tâches clés telles que la segmentation sémantique des scènes et la détection d’objets au niveau des instances.

 

Foutse KHOMH

 
Polytechnique Montréal
Professeur

Foutse Khomh est professeur titulaire de génie logiciel à Polytechnique Montréal et titulaire de la chaire de recherche FRQ-IVADO sur l’assurance qualité logicielle pour les applications d’apprentissage automatique. Il a obtenu un doctorat en génie logiciel de l’Université de Montréal en 2011, avec le prix d’excellence. Il a également reçu le Prix CS-Can/Info-Can du jeune chercheur exceptionnel en informatique en 2019. Ses recherches comprennent la maintenance et l’évolution des logiciels, l’ingénierie des systèmes d’apprentissage automatique, l’ingénierie du cloud, ainsi que le Machine learning/Intelligence Artificielle fiable et digne de confiance. Ses travaux ont été récompensés par quatre prix décennaux de l’article le plus influent (MIP) et six prix du meilleur article/de l’article distingué. Il a lancé et co-organisé le symposium SEMLA (Software Engineering for Machine Learning Applications) et la série d’ateliers RELENG (Release Engineering). Il fait partie du comité de rédaction de plusieurs revues internationales d’ingénierie logicielle et est membre senior de l’IEEE. Il est également membre associé académique du Mila – Institut québécois d’intelligence artificielle.

Link : http://khomh.net/

“Assurance Qualité des Systèmes Logiciel basés sur L’apprentissage Automatique”

ABSTRACT : 

Les systèmes logiciels basés sur l’apprentissage automatique sont de plus en plus utilisés dans diverses industries, y compris dans des domaines critiques. Leur fiabilité est donc désormais un enjeu essentiel. L’approche traditionnelle du développement logiciel est déductive, consistant en l’écriture de règles qui dictent le comportement du système avec un programme codé. En apprentissage automatique, ces règles sont plutôt inférées de façon inductive à partir de données d’apprentissage. Ceci rend difficiles la compréhension et la prédiction du comportement de composantes logicielles, et donc aussi leur vérification adéquate. En comparaison du logiciel traditionnel, les dimensions de l’espace de test d’un système logiciel intégrant l’apprentissage automatique sont beaucoup plus vastes.
Dans cette présentation, je parlerai des outils d’analyses de programme que nous avons développés pour permettre la localisation et correction de fautes dans les systèmes logiciels basés sur l’apprentissage automatique. Je présenterai aussi quelques techniques de génération de tests que nous avons développés.

Liam PAULL

 
Université de Montréal
Professeur Adjoint

Liam Paull est professeur adjoint à l’Université de Montréal et directeur du Laboratoire de robotique et d’intelligence artificielle incarnée de Montréal (REAL). Son laboratoire se concentre sur les problèmes de robotique, notamment la construction de représentations du monde (comme pour la localisation et la cartographie simultanées), la modélisation de l’incertitude et la construction de meilleurs flux de travail pour enseigner de nouvelles tâches aux agents robotiques (comme par la simulation ou la démonstration). Auparavant, Liam était chercheur au CSAIL MIT où il a dirigé le projet de voiture autonome financé par le TRI. Il a également un post-doctorat du laboratoire de robotique marine du MIT, où il a travaillé sur le SLAM pour les robots sous-marins. Il a obtenu son doctorat de l’Université du Nouveau-Brunswick en 2013 où il a travaillé sur la planification robuste et adaptative pour les véhicules sous-marins. Il est cofondateur et directeur de la Fondation Duckietown, qui se consacre à rendre accessibles à tous des expériences d’apprentissage robotique engageantes. La classe Duckietown a été initialement enseignée au MIT, mais la plateforme est désormais utilisée dans de nombreuses institutions dans le monde entier.

Link : liampaull.ca

 

“Quantifier l’incertitude dans les systèmes de perception basés sur le Deep Learning.”

Abstract :

Une condition préalable à l’intégration d’un système de perception dans un système autonome est qu’il puisse rapporter une certaine mesure calibrée et précise de la confiance associée à ses mesures. Ceci est crucial pour les tâches en aval comme la fusion de capteurs et la planification. C’est un défi pour les systèmes de perception qui utilisent le Deep Learning, car l’incertitude peut provenir de différentes sources. Dans cet exposé, nous couvrirons les différents types d’incertitude qui se manifestent dans les systèmes de perception basés sur le Deep Learning et nous discuterons des méthodes courantes pour quantifier et calibrer les mesures d’incertitude. Nous nous concentrerons spécifiquement sur l’application de la détection d’objets pour la conduite autonome. Dans ce contexte, nous décrirons notre méthode récemment proposée, f-Cal, qui impose explicitement la calibration.

Xavier PERROTTON

 
Valeo AI / Autonomous Driving
Manager Departement R&I & Expert Senior

15 ans d’expérience en Intelligence Artificielle, Vision par Ordinateur, Recherche & Innovation. Xavier Perrotton est responsable de la recherche et de l’innovation et expert senior en intelligence artificielle chez Valeo Driving Assistance Research. Basé à Paris, sa mission principale est de diriger les équipes de recherche afin de repousser les limites de l’intelligence artificielle pour faire de la mobilité intelligente une réalité quotidienne. Avant de rejoindre Valeo, il a été chercheur, puis chef de projet de recherche chez Airbus group innovations, travaillant sur la vision par ordinateur et la réalité augmentée, transformant les idées en produits.

Spécialités : Intelligence artificielle, vision par ordinateur, apprentissage automatique, reconnaissance d’objets, 3D, réalité augmentée, conduite autonome.

 

Mélanie DUCOFFE

 
Airbus
Chercheuse en Machine Learning 

Mélanie Ducoffe est chercheuse industrielle au centre de recherche et de technologie d’Airbus depuis 2019 et détachée à mi-temps dans le projet DEEL pour l’étude de la robustesse en machine learning et ses applications aux systèmes critiques. Avant de rejoindre Toulouse, elle a validé ses études de master par un stage sur l’apprentissage génératif avec Yoshua Bengio, puis effectué un doctorat en machine learning au CNRS de Nice Sophia Antipolis sur l’apprentissage actif des réseaux de neurones profonds. Ses principales activités de recherche actuelles sont sur la robustesse des réseaux de neurones, notamment par les méthodes formelles.

 

“ Garanties probabilistes pour les modèles surrogate ”

Abstract :

L’intégration de modèles de simulation développés lors de la conception d’une plateforme ouvre de nouvelles fonctionnalités mais est généralement très coûteuse en termes de puissance de calcul et de contraintes matérielles. Les modèles de substitution sont une alternative efficace mais nécessitent une certification supplémentaire pour garantir leur sécurité. Dans ce papier, nous étudions la sécurité d’un modèle de substitution de boîte noire (par exemple, un réseau neuronal) qui doit sur-approcher un modèle de référence de boîte noire. Nous dérivons des inégalités de déviation de type Bernstein pour prouver des limites de sécurité à haute probabilité sur le modèle de substitution et sur des versions décalées de celui-ci. Nous démontrons sa pertinence dans un cas d’utilisation industrielle. Nous prédisons la distance de freinage d’un avion dans le pire des cas et montrons comment sur-approcher de manière prouvable les prédictions d’un modèle de prédiction déjà qualifié.

Sébastien GERCHINOVITZ

 
IRT Saint Exupéry / ANITI / Institut de Mathématiques de Toulouse
Chercheur

Sébastien Gerchinovitz est chercheur à l’IRT Saint Exupéry, travaillant dans le projet DEEL en théorie du machine learning et ses applications aux systèmes critiques. Il est également chercheur associé à l’Institut de Mathématiques de Toulouse, et membre de la chaire “Game Theory and Artificial Intelligence” de l’institut ANITI. Après un doctorat en mathématiques obtenu à l’Ecole Normale Supérieure de Paris, il a occupé de 2012 à 2019 un poste de maître de conférences à l’Université Toulouse III – Paul Sabatier dont il est actuellement en détachement. Ses thématiques principales de recherche sont la théorie de l’apprentissage automatique, l’apprentissage séquentiel et l’apprentissage profond.

Lien : http://www.math.univ-toulouse.fr/~sgerchin/

 

“ Garanties probabilistes pour les modèles surrogate ”

Abstract :

L’intégration de modèles de simulation développés lors de la conception d’une plateforme ouvre de nouvelles fonctionnalités mais est généralement très coûteuse en termes de puissance de calcul et de contraintes matérielles. Les modèles de substitution sont une alternative efficace mais nécessitent une certification supplémentaire pour garantir leur sécurité. Dans ce papier, nous étudions la sécurité d’un modèle de substitution de boîte noire (par exemple, un réseau neuronal) qui doit sur-approcher un modèle de référence de boîte noire. Nous dérivons des inégalités de déviation de type Bernstein pour prouver des limites de sécurité à haute probabilité sur le modèle de substitution et sur des versions décalées de celui-ci. Nous démontrons sa pertinence dans un cas d’utilisation industrielle. Nous prédisons la distance de freinage d’un avion dans le pire des cas et montrons comment sur-approcher de manière prouvable les prédictions d’un modèle de prédiction déjà qualifié.

Serge GRATTON

 
INP Toulouse / IRIT / ANITI
Professeur

Serge Gratton est Professeur de Mathématiques Appliquées à l’Institut National Polytechnique de Toulouse. C’est au sein de l’équipe “Algorithmes Parallèles et Optimisation” de l’Institut de Recherche en Informatique de Toulouse, dont il assure la coordination depuis 2017, qu’il développe ses activités de recherche autour de l’optimisation de grande taille et les algorithmes d’assimilation de données.
Depuis 2019, il porteur de la Chaire “Data Assimilation and Machine Learning” dans l’Institut d’Intelligence Naturelle et Artificielle de Toulouse (ANITI) dans laquelle il explore les techniques permettant d’incorporer des contraintes physiques dans des algorithmes d’apprentissage machine. Ces activités trouvent des applications dans des secteurs tels que ceux de l’aéronautique et de l’espace, ou de l’environnement.

 

Sylvaine PICARD

 
Safran Electronics & Defense
Ingénieur en Chef IA

Après un début de carrière dans le monde de la PME, elle intègre, en 2004, l’entreprise Morpho (devenue Idemia), une filiale de Safran qui développe des techniques de pointe dans le domaine de la sécurité biométrique. Avec son équipe, elle développe le premier capteur au monde de reconnaissance biométrique sans contact. Les personnes pourront s’identifier en passant simplement leurs doigts devant le capteur. Cette innovation lui permet de remporter en 2012 le Trophée des Femmes de l’industrie, catégorie Femme d’innovation. Un prix qui récompense une femme à l’origine ” d’une innovation spectaculaire, bousculant les pratiques habituelles du secteur “.
Quelques années plus tard, sa carrière prend un autre tournant quand elle intègre Safran Tech, le centre R&T corporate du groupe Safran. Elle devient responsable d’une équipe de recherche en traitement d’images et intelligence artificielle. Avec ses collègues, elle développe des algorithmes capables de contrôler la qualité des pièces aéronautiques. Elle travaille également à l’entraînement des algorithmes qui équiperont des véhicules terrestres ou aériens autonomes. Elle participe activement à la mission certification du projet DEEL et fait partie pour Safran de l’équipe qui travaille la définition du programme Confiance.AI.
Récemment, elle devient Ingénieur en Chef IA à Safran Electronics and Defense.

Franck MAMALET

 
IRT Saint Exupéry
Leader Technique en Intelligence Artificielle

Franck Mamalet est expert en IA à l’IRT Saint Exupéry depuis 2018, travaillant principalement dans le projet DEEL en théorie du machine learning et ses applications aux systèmes critiques. Il est également co-animateur de la mission certification du projet visant à rassembler des spécialistes en Certification, en systèmes embarqués critiques, et en machine learning. Avant de rejoindre l’IRT, il a été de 1997 à 2006, chercheur à France Telecom R&D sur les systèmes embarqués pour le traitement d’images, de 2006 à 2015 chez Orange Labs il mené des recherches sur les réseaux de neurones à convolutions et récurrents pour l’indexation d’images et de vidéos. En 2015 il a pris la direction de la cellule R&D de Brainchip/Spikenet une startup spécialisée en réseaux de neurones à Spikes. Ses recherches actuelles portent sur la robustesse et la quantification des réseaux de neurones, et la construction du lien avec la certification du Machine Learning.

“ DEEL – Mission Certification ”

Abstract :

La mission certification est un groupe de travail au sein du projet DEEL rassemblant une vingtaine d’experts dans les domaines de la certification, de le sureté de fonctionnement, du développements de systèmes embarqués critiques, et du Machine Learning. Les membres industriels et académique du workgroup viennent des domaines de l’aéronautique, du ferroviaire, de l’automobile et de l’énergie. Certains membres du groupes sont impliqués dans  d’autres institutions ou projets sur la certification de l’IA comme AVSI (Aerospace Vehicle Systems Institute), le SOTIF (Safety Of The Intended Functionality), et le WG-114 de l’EUROCAE (European Organisation for Civil Aviation Equipment ). Ce groupe, avec sa proximité des chercheurs du projet DEEL, a pour vocation de faire le lien entre les recherches sur le Machine Learning robuste et explicable, et la certification pour les systèmes critiques. Nous présenterons les premiers résultats de ce groupe, avec en particuliers le White Paper « Machine Learning in Certified Systems » récemment publié (https://hal.archives-ouvertes.fr/hal-03176080).

Edouard PAUWELS

 
Université Toulouse 3 – Paul Sabatier
Maître de conférence

Edouard Pauwels est maître de conférences à l’université Toulouse 3 – Paul Sabatier. Il mène ses travaux à l’Institut de Recherche en Informatique de Toulouse (IRIT) dans l’équipe argumentation, décision, raisonnement, incertitude et apprentissage. Ses recherches portent sur l’optimisation numérique, ses applications en intelligence artificielle et les garanties qu’elle permet d’apporter.

 

“ Vers un modèle de la différentiation algorithmique pour l’IA ”

Abstract : 

L’opération de dérivation d’une fonction numérique donnée sous la forme d’un programme est l’une des composantes centrales de l’IA moderne, particulièrement en apprentissage profond. Dans ce cadre, la différentiation algorithmique est utilisée très largement, et de manière routinière, en dehors de son domaine de validité. La présentation introduira un modèle permettant de décrire et d’illustrer les artefacts qui entâchent ce mode de calcul et de discuter des conséquences qualitatives sur les algorithmes d’apprentissage.

 

Jean-Michel Loubes

 
IMT / Université Toulouse 3
Paul Sabatier
Professeur

Jean-Michel Loubes est Professeur de Mathématiques Appliquées à l’Institut de Mathématiques de Toulouse, porteur de la Chaire “Fair and Robust Learning” au sein de l’Institut d’Intelligence Naturelle et Artificielle de Toulouse (ANITI). Après une thèse à Toulouse et Leiden, il a été de 2001 à 2007 chercheur au CNRS à l’Université d’Orsay puis à l’Université de Montpellier. Depuis 2007, il est professeur à l’Université de Toulouse, dirigeant l’équipe de Statistique et Probabilités de 2008 à 2012. Il a travaillé en statistique mathématique sur les méthodes d’estimation et les vitesses optimales en Machine Learning. Ses recherches actuelles portent d’une part sur l’application de la théorie du transport optimal en Machine Learning et d’autre part sur les problématiques de “fairness” et de robustesse de l’Intelligence Artificielle. Très impliqué dans les liens entre le monde académique et l’industrie, il a été responsable régional de 2012 à 2017 de l’Agence de Valorisation des Mathématiques du CNRS et siège depuis 2019 au Comité Scientifique de l’Institut des Sciences Mathématiques et de leur Interaction (INSMI) du CNRS.

Mario MARCHAND

 
Université Laval
Professeur

Mario Marchand est professeur au département d’informatique et de génie logiciel de l’Université Laval. Œuvrant dans le domaine de l’apprentissage machine depuis plus de 30 ans, il s’est d’abord intéressé aux réseaux de neurones et ensuite aux garanties de performance des algorithmes d’apprentissage. Au fil des années, il a proposé plusieurs algorithmes d’apprentissage optimisant des garanties de performance tels les “set covering machines” et les “decision list machines” produisant des modèles interprétables tout en effectuant une forme de compression de données. Il a également proposé des méthodes à noyaux et des algorithmes de type “Boosting” qui optimisent des garanties PAC-Bayésiennes. Certains de ces algorithmes ont été utilisés pour prédire le type du co-récepteur utilisé par le virus du VIH et pour prédire la résistance aux antibiotiques des bactéries à partir de leur génome.

“Les défis d’apprendre des modèles prédictifs interprétables”

Abstract : 

Un modèle prédictif est interprétable s’il peut être examiné, analysé, et critiqué par un expert humain. De ce fait, c’est l’interprétabilité qui nous permet d’accroître ou de décroitre notre confiance envers un modèle; une qualité essentielle pour permettre son utilisation dans des situations ayant un impact potentiel sur la santé, la sécurité et le bien être des personnes. Inspirés par le soi-disant « compromis performance-interprétabilité », la principale direction de recherche semble être l’apprentissage de modèles performants et opaques, suivi d’une explication a posteriori au niveau des instances individuelles. Or, puisque les modèles interprétables peuvent également être performants, je vais d’abord revoir quelles sont les principales difficultés permettant un apprentissage efficace des modèles transparents tels que les arbres de décision, les formules Booléenes DNF et les listes de décision. Je proposerai ensuite trois directions de recherche qui nous permettraient de potentiellement contourner ces difficultés, particulièrement: 1) l’apprentissage de modèles interprétables stochastiques, 2) la minimisation du risque local de modèles interprétables, 3) l’apprentissage de mélanges interprétables d’experts.

François Laviolette

 
Université Laval
Directeur du Centre de recherche en données massives

François Lavioletteest professeur titulaire au département d’informatique et de génie logiciel de l’Université Laval. Ses travaux de recherches portent sur l’intelligence artificielle, en particulier l’apprentissage automatique. Chef de file de la théorie PAC-bayésienne, qui permet de mieux comprendre les algorithmes d’apprentissage automatique et d’en concevoir de nouveaux, il s’intéresse entre autres à ceux permettant de résoudre des problèmes d’apprentissage liés à la génomique, à la protéomique et à la découverte de médicaments. Il s’intéresse également à rendre les intelligences artificielles interprétables dans le but de mieux intégrer des systèmes où des humains sont dans la boucle de décision. Il est directeur du Centre de recherche en données massives (CRDM) de l’Université Laval qui regroupe plus de 50 professeurs chercheurs.

 

Louise Travé-Massuyès

 
Directrice de recherche – CNRS
Chaire sur le diagnostic – Aniti

Louise Travé-Massuyès occupe un poste de Directrice de Recherche au Laboratoire d’Analyse et d’Architecture des Systèmes, Centre National de la Recherche Scientifique (LAAS-CNRS, https://www.laas.fr), Toulouse, France. Elle a obtenu un diplôme d’ingénieur en contrôle de l’Institut National des Sciences Appliquées (INSA), Toulouse, France, en 1982 et un doctorat de l’INSA en 1984. Ses principaux intérêts de recherche portent sur le diagnostic et la supervision des systèmes dynamiques, avec un accent particulier sur les méthodes de raisonnement qualitatif et à base de modèles et sur l’exploration de données. Elle a été particulièrement active dans l’établissement de ponts entre les communautés de diagnostic de l’Intelligence Artificielle et de l’Automatique. Elle est membre du comité technique Safeprocess de l’International Federation of Automatic Control IFAC (https://www.ifac-control.org/), trésorière de la Society of Automatic Control, Industrial and Production Engineering (https://www.sagip.org). Elle est titulaire de la chaire “Synergistic transformations in model-based and data-based diagnosis” à ANITI, France (https://aniti.univ-toulouse.fr) et est rédactrice en chef adjointe du célèbre Artificial Intelligence Journal (https://www.journals.elsevier.com/artificial-intelligence).

“Le diagnostic comme élément clé de l’autonomie et de la fiabilité.”

ABSTRACT : 

Le diagnostic et le suivi d’état sont des tâches critiques pour les systèmes autonomes car ils influencent fortement les décisions qui sont prises et peuvent être essentiels à la vie du système. Ils fournissent les moyens d’identifier les fautes et de réagir aux différents dangers qui peuvent affecter le système, en atteignant le niveau de fiabilité souhaité. Dans cet exposé, je présenterai le rôle du diagnostic dans les systèmes autonomes et deux études de cas illustrant ce point dans le domaine spatial.

Adrien GAUFFRIAU

 
Airbus
Ingénieur & Data Scientist spécialisé dans les systèmes critiques

Adrien Gauffriau est diplômé de l’Ecole Centrale de Nantes. Il est titulaire d’un Master de Supaéro en Systèmes Embarqués Critiques. Il a développé le logiciel Flight By Wires de l’Airbus A350 et a exploré l’utilisation de processeurs multi-core et many-core pour les systèmes critiques. Il s’intéresse actuellement à l’avenir de l’intelligence artificielle embarquée dans les systèmes destinés à l’industrie du transport.

Baptiste LEFEVRE

 
Thales Avionics
Responsable de la réglementation des technologies avancées

Baptiste Lefevre est responsable de la réglementation des technologies avancées chez Thales Avionics. Il est en charge du développement de solutions pour la certification des produits d’Intelligence Artificielle. Il est membre de différents groupes de travail sur ce sujet, et notamment du groupe de recherche français DEEL, du groupe de travail de normalisation EUROCAE WG-114 / SAE G-34, et du groupe de recherche AVSI AFE-87.
En plus de la certification IA, Baptiste est également en charge de la représentation technique de Thales au niveau de l’OACI, et de la mise en œuvre du système de gestion de la sécurité de Thales.
Avant de rejoindre Thales, Baptiste était responsable de la qualité et de la normalisation de la Direction Générale de l’Aviation Civile française, où il veillait à la mise en œuvre cohérente et proportionnée de la réglementation dans tous les secteurs de l’aviation en France.