Ia4 – IA pour les systèmes critiques – un état des lieux 

Ia4 – IA pour les systèmes critiques – un état des lieux 

 10 places disponibles

1 visiteur connecté actuellement sur cette page

Ia4 – IA pour les systèmes critiques – un état des lieux 

D. VIGOUROUX et F. MAMALET (IRT Saint-Exupéry)

​Certifier un système qui embarquerait une IA basée sur des données d’apprentissage tels que les réseaux de neurones est pour l’instant impossible pour deux raisons. D’abord parce que les processus de certification actuels sont inadaptés et ensuite parce que les réseaux de neurones présentent par conception des problèmes de robustesse, de garanties et d’interprétabilité.

Le projet DEEL DEpendable Explainable Learning a été lancé en 2018 au sein d’un consortium international regroupant plus de 30 partenaires avec des objectifs de développement de briques technologiques d’IA fiables, robustes, explicables, applicables à des systèmes critiques et certifiables. Depuis 2018, de nombreux progrès ont été obtenus.

L’entretien sera présenté par Grégory Flandin, initiateur du projet DEEL, responsable du centre de compétence IA et systèmes critique à l’IRT Saint Exupéry et pilote industriel du programme IA certifiable d’ANITI. Il proposera une vue d’ensemble de l’organisation du projet, de ses développements, de son avancement et de ses résultats à date.

Il ouvrira la discussion en réponse aux questions de l’assistance et enjeux de développement de l’IA dans les systèmes industriels.

Dans le même domaine de discussion :
19 avril 2023 | 9h00 - 12h00
17

Ia1 – L’IA hybride vers une IA certifiable

Juliette MATTIOLI (Thales)
Résumé
20 avril 2023 | 13h30-16h30
10

Ia4 – IA pour les systèmes critiques – un état des lieux 

D. VIGOUROUX et F. MAMALET (IRT Saint-Exupéry)
Résumé
Ia4 – IA pour les systèmes critiques – un état des lieux 

Ia3 – Travaux et lignes directrices de l’EASA pour des systèmes d’IA fiables pour l’aviation

 13 places disponibles

1 visiteur connecté actuellement sur cette page

Ia3 – Travaux et lignes directrices de l’EASA pour des systèmes d’IA fiables pour l’aviation

Guillaume SOUDAIN (EASA)

L’EASA a publié sa feuille de route sur l’intelligence artificielle début 2020 en se concentrant initialement sur les techniques d’apprentissage automatique. Le premier livrable de cette feuille de route a été publié en Décembre 2021, proposant un premier ensemble de lignes directrices en vue de permettre l’approbation de solutions basées sur l’IA. L’apprentissage profond ouvre des perspectives prometteuses pour l’aviation et soulève des questions de niveau de confiance et de preuve de conformité à des exigences de certification pour des applications dans des systèmes critiques. Guillaume Soudain, Chef de programme Intelligence Artificielle à l’EASA, discutera des derniers travaux et perspectives actuelles et des pistes identifiées pour l’extension du périmètre de la feuille de route de l’EASA.

Dans le même domaine de discussion :
19 avril 2023 | 9h00 - 12h00
17

Ia1 – L’IA hybride vers une IA certifiable

Juliette MATTIOLI (Thales)
Résumé
20 avril 2023 | 13h30-16h30
10

Ia4 – IA pour les systèmes critiques – un état des lieux 

D. VIGOUROUX et F. MAMALET (IRT Saint-Exupéry)
Résumé
Ia4 – IA pour les systèmes critiques – un état des lieux 

Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

 16 places disponibles

1 visiteur connecté actuellement sur cette page

Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

François TERRIER (CEA)

L’explosion des performances de l’apprentissage machine et la potentialité de leurs applications poussent fortement à leur utilisation dans les systèmes embarqués, y compris pour des fonctions critiques, comme la prise de décision dans les véhicules autonomes. Si les processus de développement des logiciels et systèmes critiques dans les industries réglementées comme l’aérospatiale, les centrales nucléaires, les chemins de fer ou même l’automobile sont bien encadrés et maîtrisés depuis longtemps déjà, ceux-ci reposent sur des normes et des cadres réglementaires bien définis et bénéficient de techniques formelles bien établies pour évaluer et démontrer la qualité, la sûreté et la sécurité systèmes et logiciels développés. Cependant, le faible niveau de formalisation des spécifications, les incertitudes et l’opacité des composants basés sur l’apprentissage machine rendent difficiles leur validation et leur vérification via la plupart des méthodes traditionnelles d’ingénierie des systèmes critiques. Cet exposé explorera les défis et les obstacles à l’intégration de composants basés sur l’apprentissage machine dans les systèmes critiques. Il fournira également un aperçu des principales préoccupations rapportées par divers cas de collaboration avec l’industrie.

Dans le même domaine de discussion :
19 avril 2023 | 9h00 - 12h00
17

Ia1 – L’IA hybride vers une IA certifiable

Juliette MATTIOLI (Thales)
Résumé
20 avril 2023 | 13h30-16h30
10

Ia4 – IA pour les systèmes critiques – un état des lieux 

D. VIGOUROUX et F. MAMALET (IRT Saint-Exupéry)
Résumé
Ia4 – IA pour les systèmes critiques – un état des lieux 

Ia1 – L’IA hybride vers une IA certifiable

 17 places disponibles

1 visiteur connecté actuellement sur cette page

Ia1 – L’IA hybride vers une IA certifiable

Juliette MATTIOLI (Thales)

L’intelligence artificielle (IA) s’est fortement développée ces dernières années dans de nombreux domaines critiques tels que l’aéronautique, l’énergie, l’automobile, la défense, la santé… nécessitant de pouvoir démontrer leur conformité à des objectifs de qualité, de sûreté, de sécurité et de fiabilité et cela tout au long du cycle de vie des systèmes embarquant des composants à base d’IA. Mais, leur conception n’est pas neutre. En effet, l’IA est plurielle. L’IA dirigée par les données couvrant l’IA statistique et connexionniste est l’IA des sens (perception). L’IA à base de connaissances, qualifiée aujourd’hui de « Good Old Fashioned AI » (GOFAI) ou IA symbolique, est celle du sens (raisonnement). Garantir des propriétés telles que l’explicabilité, la validité, l’intégrité, la robustesse … et la responsabilité, questions encore aujourd’hui ouvertes, l’IA hybride peut  être une réponse pour aller vers la certification de l’IA. Mais, « l’addition de ces deux courants, IA symbolique et IA connexionniste, constitue le défi d’aujourd’hui » comme le souligne Nicholas Asher (Directeur scientifique de l’Institut Interdisciplinaire en Intelligence Artificielle ANITI).

Dans le même domaine de discussion :
19 avril 2023 | 9h00 - 12h00
17

Ia1 – L’IA hybride vers une IA certifiable

Juliette MATTIOLI (Thales)
Résumé
20 avril 2023 | 13h30-16h30
10

Ia4 – IA pour les systèmes critiques – un état des lieux 

D. VIGOUROUX et F. MAMALET (IRT Saint-Exupéry)
Résumé
Ia4 – IA pour les systèmes critiques – un état des lieux 

Ia4 – Développement et qualification des systèmes fondés sur l’IA dans CONFIANCE.AI

 16 places disponibles

1 visiteur connecté actuellement sur cette page

Ia4 – Développement et qualification des systèmes fondés sur l’IA dans CONFIANCE.AI

E. Escorihuela (AIRBUS)

Des verrous freinent le déploiement de l’IA dans les systèmes devant suivre des principes de confiance et de responsabilité ou démontrer qu’il sont conformes à des exigences de sécurité, de sûreté et de fiabilité. Comment établir la conformité des fonctions implantées avec des pratiques d’ingénierie de l’IA s’appuyant sur la constitution de bases de données et de connaissances et sur leur exploitation via des algorithmes non spécifiques ? Il faut repenser et outiller l’ingénierie des produits visés pour garantir leur conformité vis à vis des concepts d’emploi et des doctrines. Confiance.AI, le programme du Grand Défi comble ces attentes, en définissant des méthodes et des outils pour sécuriser l’ensemble des phases de la conception au déploiement tout en garantissant les propriétés de fiabilité, de (cyber)-sécurité du système tout au long de son cycle de vie. Emmanuel Escorihuela nous présentera ce programme, ses enjeux, ses étapes et perspectives.

Dans le même domaine de discussion :
19 avril 2023 | 9h00 - 12h00
17

Ia1 – L’IA hybride vers une IA certifiable

Juliette MATTIOLI (Thales)
Résumé
20 avril 2023 | 13h30-16h30
10

Ia4 – IA pour les systèmes critiques – un état des lieux 

D. VIGOUROUX et F. MAMALET (IRT Saint-Exupéry)
Résumé
Ia4 – IA pour les systèmes critiques – un état des lieux 

Ia3 – Approches formelles pour la certification de systèmes à base d’IA

 17 places disponibles

1 visiteur connecté actuellement sur cette page

Ia3 – Approches formelles pour la certification de systèmes à base d’IA

C. Pagetti (ONERA)

Les enjeux de certification se posent pour divers niveaux d’application et de réalisation de fonctions et systèmes utilisant l’intelligence artificielle, et notamment les fonctions ou systèmes critiques soumis à des exigences de sûreté de fonctionnement et de sécurité. De nouvelles approches sont requises pour évaluer ou qualifier certains développement d’intelligence artificielle de ce point de vue. Les méthodes formelles proposent une voie pour apporter des solutions. La certification des fonctions à base d’IA doit commencer en amont du cycle de vie d’un système dès les processus de spécification et de conception. Après un tour d’horizon des travaux en cours et résultats obtenus sur les méthodes formelles appliquées à l’IA notamment dans le cadre du projet ANITI, nous ouvrirons des perspectives pour l’avenir.

Dans le même domaine de discussion :
19 avril 2023 | 9h00 - 12h00
17

Ia1 – L’IA hybride vers une IA certifiable

Juliette MATTIOLI (Thales)
Résumé
20 avril 2023 | 13h30-16h30
10

Ia4 – IA pour les systèmes critiques – un état des lieux 

D. VIGOUROUX et F. MAMALET (IRT Saint-Exupéry)
Résumé