Während die Bedrohung durch Künstliche Intelligenz (KI) international massiv zunimmt, offenbart die Bayerische Staatsregierung gefährliche Lücken bei der Kontrolle und Bekämpfung von KI-Missbrauch. Antworten auf zwei Landtagsanfragen des SPD-KI-Experten Florian von Brunn und der innenpolitischen Sprecherin Christiane Feichtmeier zeigen: Die Regierung investiert zwar massiv in Technik, vernachlässigt aber ein systematisches Sicherheits-Controlling und steht KI-Straftaten ohne ausreichende technische Werkzeuge gegenüber.
Bayern hat von 2020 bis 2025 rund 360 Millionen Euro in KI-Maßnahmen der Hightech Agenda investiert. Dennoch räumt die Staatsregierung ein, dass eine systematische Aufschlüsselung, welcher Anteil davon in Sicherheitsforschung oder Risikomanagement fließt, nicht möglich ist. Möglicherweise soll damit kaschiert werden, dass nahezu nichts für die KI-Sicherheit ausgegeben wird. Gleichzeitig bremst Bayern auf politischer Ebene: Über einen Bundesratsantrag fordert der Freistaat ein sofortiges Moratorium für die EU-KI-Verordnung (AI Act). Nach Auffassung der SPD-Landtagsfraktion ist Bayern bei KI-Kriminalität bislang weitestgehend schutzlos. Die SPD-Landtagsfraktion fordert deswegen:
Der wirtschaftspolitische Sprecher Florian von Brunn betont: „Die Staatsregierung spielt mit der Sicherheit der Menschen. Wer 360 Millionen Euro für KI ausgibt, aber keine systematischen Investitionen in die Sicherheit nachweisen kann, handelt verantwortungslos. Wir brauchen eine Strategie, die Innovation und Schutz vor Missbrauch zusammenbringt.“
Die innenpolitische Sprecherin Christiane Feichtmeier ergänzt: „Unsere bayerische Polizei braucht im Kampf gegen KI-Kriminelle mehr als nur die Expertise einzelner Fachleute. Wer keine Statistik führt und moderne Detektions-Tools vorenthält, lässt die Ermittler gegen die organisierte Kriminalität im Regen stehen. Wir brauchen Technik auf Augenhöhe mit den Tätern.“
Wie die Anfragen ergeben, weißt die sicherheitspolitische Bilanz kritische Defizite auf:
• Statistik-Lücke: In der Kriminalstatistik gibt es derzeit weder eine KI-Kennzeichnung noch spezifische Deepfake-Kategorien; belastbare Zahlen sind daher nicht automatisiert auswertbar.
• Analoge Abwehr gegen digitale Fälschung: Dem Landeskriminalamt fehlen technische Kapazitäten zur Deepfake-Erkennung. Die Regierung verweist auf eine Studie (Zitis-Studie), wonach die manuelle Prüfung durch Fachleute derzeit noch bessere Ergebnisse erzielt als Software – eine Methode, die mit der rapiden steigenden Masse an digitalen Fälschungen schlicht nicht Schritt halten kann.
• Naive Risikobewertung: Die Staatsregierung erklärt Diskriminierung durch KI in Behörden für „ausgeschlossen“, da stets Menschen entscheiden. Dass Menschen Computer-Ergebnissen oft unkritisch vertrauen und so algorithmische Verzerrungen (Bias) verstärken, bleibt unberücksichtigt.
Die internationale Bedrohungslage ist alarmierend. Laut dem Cybersecurity-Report der Transferstelle Cybersicherheit im Mittelstand – einer vom Bundeswirtschaftsministerium geförderten Initiative – stiegen Deepfake-Angriffe in Deutschland im ersten Quartal 2025 gegenüber dem Vorjahr um 1100 Prozent. Spektakuläre Fälle wie der Betrug an dem britischen Konzern Arup in dessen Hongkonger Niederlassung zeigen die Professionalität der Täter: Ein Mitarbeiter überwies nach einer Deepfake-Videokonferenz rund 25 Millionen US-Dollar an Kriminelle.
Anfragen