Anwendungen der Künstlichen Intelligenz (KI) durchdringen immer mehr Bereiche der Wirtschaft und Gesellschaft, in denen man sich ihre Vorteile, zum Beispiel aus Datensätzen Ergebnisse vorherzusagen, zu Nutze macht. Zahlreiche Anwendungen, sei es in der Medizin, im Verkehr oder in der Landwirtschaft beruhen auf KI. Gleichzeitig bringt KI neue Risiken mit sich, insbesondere durch Adversarial Artificial Intelligence (AAI), also feindliche KI. Diese feindliche KI nutzt Schwächen in anderen KI-Systemen, um Schlüsseltechnologien wie Sprache und Video zu manipulieren oder bestehende KI-Modelle zu kompromittieren. Um diese Herausforderungen zu bewältigen, müssen KI-Risiken in die Bewertung kritischer Infrastrukturen einbezogen und geeignete Schutzmechanismen entwickelt werden. Ebenso ist es essenziell, die Widerstandsfähigkeit von KI-Modellen gegen Manipulation zu stärken.

Herausforderungen 

  • Manipulationsgefahr durch AAI: Cyberkriminelle können KI-Modelle gezielt manipulieren, etwa durch versteckte Hintertüren oder feindliche Eingabedaten, die falsche Entscheidungen provozieren. Beispiele sind Deepfakes, automatisierte Cyberangriffe und die Fehlinterpretation von Verkehrsdaten in autonomen Fahrzeugen. 
  • Mangelnde Transparenz und Nachvollziehbarkeit: Mit der zunehmenden Komplexität der KI-Modelle, insbesondere bei Deep Learning, sinkt die menschliche Kontrollierbarkeit und Nachvollziehbarkeit von Entscheidungen. 
  • Abhängigkeiten und Kritische Infrastrukturen: KI spielt in kritischen Infrastrukturen eine zunehmende Rolle. Fehlfunktionen oder Manipulationen können weitreichende Konsequenzen haben. 
  • Fachkräftemangel und Wissenstransfer: Der Aufbau von KI-Expertise in der Schweiz bleibt zentral, um technologische Kompetenz und Cybersicherheit zu gewährleisten. 

Empfehlungen für die Politik, Wirtschaft und Gesellschaft 

  • Sicherheitsintegration in Kritischen Infrastrukturen: KI-Risiken müssen Teil der Risikobewertung von kritischen Infrastrukturen werden.  
  • Forschung und Bildung stärken: Förderung von Ausbildungsgängen und Talent-Pipelines im Bereich KI und Cybersicherheit. Anreize durch das SBFI sind erforderlich, um den Fachkräftemangel zu bekämpfen. 
  • Resilienz gegenüber AAI erhöhen: Entwicklung neuer Schutzmechanismen zur Abwehr von AAI und Integration der Robustheit von KI-Modellen als Qualitätskriterium. 
  • Ethik und Transparenz sicherstellen: Klare Regeln für den Einsatz von KI schaffen, um ethische Fragestellungen zu adressieren und das Vertrauen der Gesellschaft zu stärken. 

Autor:innen und Themenverantwortung:

Umberto Annino, Microsoft | Stefan Frei, ETH Zürich | Martin Leuthold, Switch 

Review Board:

Endre Bangerter, BFH | Alain Beuchat, Banque Lombard Odier & Cie SA | Matthias Bossardt, KPMG | Dani Caduff, AWS | Adolf Doerig, Doerig & Partner | Roger Halbheer, Microsoft | Katja Dörlemann, Switch | Pascal Lamia, BACS | | Hannes Lubich, Verwaltungsrat und Berater | Luka Malisa, SIX Digital Exchange | Adrian Perrig, ETH Zürich | Raphael Reischuk, Zühlke Engineering AG | Ruedi Rytz, BACS | Riccardo Sibilia, VBS | Bernhard Tellenbach, armasuisse | Daniel Walther, Swatch Group Services | Andreas Wespi, IBM Research