Les applications de l'IA pénètrent de plus en plus de domaines de l'économie et de la société, où l'on tire parti de ses avantages, par exemple pour prédire des résultats à partir de jeux de données. De nombreuses applications, que ce soit en médecine, dans les transports ou dans l'agriculture, reposent sur l'IA. Parallèlement, l'IA comporte de nouveaux risques, notamment ceux liés à l'intelligence artificielle adverse (AAI), c'est-à-dire l'IA hostile. Cette IA hostile exploite les faiblesses d'autres systèmes d'IA pour manipuler des technologies clés telles que la voix et la vidéo ou pour compromettre des modèles d'IA existants. Pour relever ces défis, les risques liés à l'IA doivent être pris en compte dans l'évaluation des infrastructures critiques et des mécanismes de protection appropriés doivent être développés. Il est également essentiel de renforcer la résistance des modèles d'IA à la manipulation.

Défis à relever 

  • Risque de manipulation par AAI : les cybercriminels peuvent manipuler les modèles d'IA de manière ciblée, par exemple par des portes dérobées cachées ou des données d'entrée hostiles qui provoquent de mauvaises décisions. Les exemples incluent les fakes profonds, les cyberattaques automatisées et l'interprétation erronée des données de trafic dans les véhicules autonomes. 

  • Manque de transparence et de traçabilité : avec la complexité croissante des modèles d'IA, en particulier dans le cas de l'apprentissage profond, la contrôlabilité et la traçabilité humaines des décisions diminuent. 

  • Dépendances et infrastructures critiques : l'IA joue un rôle croissant dans les infrastructures critiques. Des dysfonctionnements ou des manipulations peuvent avoir des conséquences importantes. 

  • Pénurie de personnel qualifié et transfert de connaissances : le développement de l'expertise en IA en Suisse reste essentiel pour garantir les compétences technologiques et la cybersécurité. 

Recommandations pour la politique, l'économie et la société 

  • Intégration de la sécurité dans les infrastructures critiques : les risques liés à l'IA doivent faire partie de l'évaluation des risques des infrastructures critiques.  

  • Renforcer la recherche et l'éducation : Promouvoir les filières de formation et les pipelines de talents dans le domaine de l'IA et de la cybersécurité. Des incitations de la part du SBFI sont nécessaires pour lutter contre la pénurie de personnel qualifié. 

  • Augmenter la résilience face aux AAI : Développer de nouvelles protections contre les AAI et intégrer la robustesse des modèles d'IA comme critère de qualité. 

  • Garantir l'éthique et la transparence : Créer des règles claires pour l'utilisation de l'IA afin d'aborder les questions éthiques et de renforcer la confiance de la société. 

Auteur·rice·s et responsables thématiques

Umberto Annino, Microsoft | Stefan Frei, EPF Zurich | Martin Leuthold, Switch

Comité de lecture

Endre Bangerter, HESB | Alain Beuchat, Banque Lombard Odier & Cie SA | Matthias Bossardt, KPMG | Dani Caduff, AWS | Adolf Doerig, Doerig & Partner | Roger Halbheer, Microsoft | Katja Dörlemann, Switch | Pascal Lamia, BACS | | Hannes Lubich, conseil d'administration et consultant | Luka Malisa, SIX Digital Exchange | Adrian Perrig, EPF Zurich | Raphael Reischuk, Zühlke Engineering AG | Ruedi Rytz, BACS | Riccardo Sibilia, DDPS | Bernhard Tellenbach, armasuisse | Daniel Walther, Swatch Group Services | Andreas Wespi, IBM Research