Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

 16 places disponibles

1 visiteur connecté actuellement sur cette page

Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

François TERRIER (CEA)

L’explosion des performances de l’apprentissage machine et la potentialité de leurs applications poussent fortement à leur utilisation dans les systèmes embarqués, y compris pour des fonctions critiques, comme la prise de décision dans les véhicules autonomes. Si les processus de développement des logiciels et systèmes critiques dans les industries réglementées comme l’aérospatiale, les centrales nucléaires, les chemins de fer ou même l’automobile sont bien encadrés et maîtrisés depuis longtemps déjà, ceux-ci reposent sur des normes et des cadres réglementaires bien définis et bénéficient de techniques formelles bien établies pour évaluer et démontrer la qualité, la sûreté et la sécurité systèmes et logiciels développés. Cependant, le faible niveau de formalisation des spécifications, les incertitudes et l’opacité des composants basés sur l’apprentissage machine rendent difficiles leur validation et leur vérification via la plupart des méthodes traditionnelles d’ingénierie des systèmes critiques. Cet exposé explorera les défis et les obstacles à l’intégration de composants basés sur l’apprentissage machine dans les systèmes critiques. Il fournira également un aperçu des principales préoccupations rapportées par divers cas de collaboration avec l’industrie.

Dans le même domaine de discussion :
24 avril 2024 | 9h00 - 12h00
6

Ia3 – Intégration de l’IA dans la préparation de mission

Rémy PRIEM (DGA)
24 avril 2024 | 13h30-16h30
9

Ia4 – IA et Développement durable 

Mohamad AKOUM (Thales)
Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

Ia1 – L’IA hybride vers une IA certifiable

 17 places disponibles

1 visiteur connecté actuellement sur cette page

Ia1 – L’IA hybride vers une IA certifiable

Juliette MATTIOLI (Thales)

L’intelligence artificielle (IA) s’est fortement développée ces dernières années dans de nombreux domaines critiques tels que l’aéronautique, l’énergie, l’automobile, la défense, la santé… nécessitant de pouvoir démontrer leur conformité à des objectifs de qualité, de sûreté, de sécurité et de fiabilité et cela tout au long du cycle de vie des systèmes embarquant des composants à base d’IA. Mais, leur conception n’est pas neutre. En effet, l’IA est plurielle. L’IA dirigée par les données couvrant l’IA statistique et connexionniste est l’IA des sens (perception). L’IA à base de connaissances, qualifiée aujourd’hui de « Good Old Fashioned AI » (GOFAI) ou IA symbolique, est celle du sens (raisonnement). Garantir des propriétés telles que l’explicabilité, la validité, l’intégrité, la robustesse … et la responsabilité, questions encore aujourd’hui ouvertes, l’IA hybride peut  être une réponse pour aller vers la certification de l’IA. Mais, « l’addition de ces deux courants, IA symbolique et IA connexionniste, constitue le défi d’aujourd’hui » comme le souligne Nicholas Asher (Directeur scientifique de l’Institut Interdisciplinaire en Intelligence Artificielle ANITI).

Dans le même domaine de discussion :
24 avril 2024 | 9h00 - 12h00
6

Ia3 – Intégration de l’IA dans la préparation de mission

Rémy PRIEM (DGA)
24 avril 2024 | 13h30-16h30
9

Ia4 – IA et Développement durable 

Mohamad AKOUM (Thales)
Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

Ia4 – Développement et qualification des systèmes fondés sur l’IA dans CONFIANCE.AI

 16 places disponibles

1 visiteur connecté actuellement sur cette page

Ia4 – Développement et qualification des systèmes fondés sur l’IA dans CONFIANCE.AI

E. Escorihuela (AIRBUS)

Des verrous freinent le déploiement de l’IA dans les systèmes devant suivre des principes de confiance et de responsabilité ou démontrer qu’il sont conformes à des exigences de sécurité, de sûreté et de fiabilité. Comment établir la conformité des fonctions implantées avec des pratiques d’ingénierie de l’IA s’appuyant sur la constitution de bases de données et de connaissances et sur leur exploitation via des algorithmes non spécifiques ? Il faut repenser et outiller l’ingénierie des produits visés pour garantir leur conformité vis à vis des concepts d’emploi et des doctrines. Confiance.AI, le programme du Grand Défi comble ces attentes, en définissant des méthodes et des outils pour sécuriser l’ensemble des phases de la conception au déploiement tout en garantissant les propriétés de fiabilité, de (cyber)-sécurité du système tout au long de son cycle de vie. Emmanuel Escorihuela nous présentera ce programme, ses enjeux, ses étapes et perspectives.

Dans le même domaine de discussion :
24 avril 2024 | 9h00 - 12h00
6

Ia3 – Intégration de l’IA dans la préparation de mission

Rémy PRIEM (DGA)
24 avril 2024 | 13h30-16h30
9

Ia4 – IA et Développement durable 

Mohamad AKOUM (Thales)
Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

Ia3 – Approches formelles pour la certification de systèmes à base d’IA

 17 places disponibles

1 visiteur connecté actuellement sur cette page

Ia3 – Approches formelles pour la certification de systèmes à base d’IA

C. Pagetti (ONERA)

Les enjeux de certification se posent pour divers niveaux d’application et de réalisation de fonctions et systèmes utilisant l’intelligence artificielle, et notamment les fonctions ou systèmes critiques soumis à des exigences de sûreté de fonctionnement et de sécurité. De nouvelles approches sont requises pour évaluer ou qualifier certains développement d’intelligence artificielle de ce point de vue. Les méthodes formelles proposent une voie pour apporter des solutions. La certification des fonctions à base d’IA doit commencer en amont du cycle de vie d’un système dès les processus de spécification et de conception. Après un tour d’horizon des travaux en cours et résultats obtenus sur les méthodes formelles appliquées à l’IA notamment dans le cadre du projet ANITI, nous ouvrirons des perspectives pour l’avenir.

Dans le même domaine de discussion :
24 avril 2024 | 9h00 - 12h00
6

Ia3 – Intégration de l’IA dans la préparation de mission

Rémy PRIEM (DGA)
24 avril 2024 | 13h30-16h30
9

Ia4 – IA et Développement durable 

Mohamad AKOUM (Thales)
Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

Ia2 – Développer l’IA de défense : des idées prometteuses jusqu’à la qualification

 10 places disponibles

1 visiteur connecté actuellement sur cette page

Ia2 – Développer l’IA de défense : des idées prometteuses jusqu’à la qualification

J. Lemaire (DGA)

L’entretien a pour objectif de donner une vision générale de la déclinaison de la feuille de route IA Défense à la DGA et d’effectuer un focus sur le sujet de la maîtrise du comportement des algorithmes permettant d’envisager la qualification de systèmes critiques. La feuille de route mise en place prend en compte de nombreuses dimensions comme les applications opérationnelles à développer, les axes R&D nécessitant un effort pour les besoins défense, les différents vecteurs permettant de favoriser les travaux de l’industrie et des laboratoires et leur intégrabilité dans les systèmes opérationnels, les moyens humains et techniques à mettre en place au sein de la DGA pour qu’elle soit à même d’exercer ses rôles de maître d’ouvrage et de garant technique. La maîtrise du comportement des modules utilisant des techniques à base d’IA nécessite une attention particulière dans le domaine de la défense tant pour des questions de sécurité que pour des questions d’éthique. Cette préoccupation partagée avec la communauté des systèmes critiques a fait l’objet de la rédaction d’un guide qui a été partagé avec l’industrie de défense et les grands centres de recherche et a vocation à être mis à jour régulièrement. 

Dans le même domaine de discussion :
24 avril 2024 | 9h00 - 12h00
6

Ia3 – Intégration de l’IA dans la préparation de mission

Rémy PRIEM (DGA)
24 avril 2024 | 13h30-16h30
9

Ia4 – IA et Développement durable 

Mohamad AKOUM (Thales)
Ia2 – Sûreté et sécurité des systèmes à base d’IA : Approches CEA sur la certification de systèmes critiques

Ia1 – Lignes directrices de l’EASA sur la fiabilité de l’Intelligence Artificielle

 10 places disponibles

1 visiteur connecté actuellement sur cette page

Ia1 – Lignes directrices de l’EASA sur la fiabilité de l’Intelligence Artificielle

G. Soudain (EASA)

L’apprentissage profond ouvre des perspectives prometteuses dans l’aviation comme dans de nombreux autres domaines. Il soulève toutefois la question cruciale du niveau de confiance que l’on peut accorder à ces techniques lorsqu’elles sont utilisées dans des applications critiques et de leur compatibilité avec des exigences de certification. L’EASA a publié sa feuille de route sur l’intelligence artificielle début 2020 en se concentrant initialement sur les techniques d’apprentissage automatique. Le premier livrable de cette feuille de route a été publié en Avril 2021, proposant un premier ensemble de lignes directrices en vue de permettre l’approbation de solutions basées sur l’IA. Guillaume Soudain, senior expert en certification logicielle et chef de projet IA à l’EASA, discutera des perspectives ouvertes par ces lignes directrices ainsi que des pistes identifiées pour l’extension du périmètre de la feuille de route de l’EASA.

Dans le même domaine de discussion :
24 avril 2024 | 9h00 - 12h00
6

Ia3 – Intégration de l’IA dans la préparation de mission

Rémy PRIEM (DGA)
24 avril 2024 | 13h30-16h30
9

Ia4 – IA et Développement durable 

Mohamad AKOUM (Thales)