index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

AI-Based Systems Deep Reinforcement Learning Data Analysis Arcadia Method Neural Network Case-based Computer Vision and Pattern Recognition Counterfactuals FOS Computer and information sciences Automated vehicle Contextual Evaluation Adversarial examples Anomaly Trustworthiness Assessment Assurance case Adversarial Attacks Neural ODEs Explicability Data Stream Processing Explainable AI Conformal prediction AI-based systems System Identification Generative Models Custom search space Robustness Enalty Bayesian Neural Networks Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Confiance explicabilité Distribution based method Concepts Data trustworthiness Explainability Christoffel functions Sûreté de fonctionnement Artificial Intelligence Explicabilité Anomaly Detection Long Short-Term Memory Branch-and-Bound algorithm Complexity Example-based ODD Adversarial physical attack Bayesian inference Machine learning Deep neural network classifiers Recurrent Neural Networks Embedded AI XAI Robustesse Data-driven reachability Conformal Prediction Data Stream AI engineering Evaluation Semantic segmentation Distributed learning Deployment Artificial intelligence Adversarial attack AI component evaluation methodology Anomaly detection Attack transferability AI System Characterization Distributed Machine Learning Adversarial attacks ED-324/ARP6983 Computer Vision Edge computing AI-Based Critical Systems Data Visualization AI Sûreté Explanations Bias Detection Certification Cryptography and Security Data Quality Mixed Integer Programming Bayesian Optimization Adversarial Training Realization theory Neural network Calibration AI-Systems Engineering Machine Learning Trustworthiness Attributes Monitoring Computer vision Reliability Deep learning Critical systems Confiance Embarqué Decision tree Cycle-accurate simulator Dempster Shafer theory Engineering Processes Intelligence Articifielle