SPD fordert wirksame Strategie gegen KI-Kriminalität

30. Dezember 2025

Während die Bedrohung durch Künstliche Intelligenz (KI) international massiv zunimmt, offenbart die Bayerische Staatsregierung gefährliche Lücken bei der Kontrolle und Bekämpfung von KI-Missbrauch. Antworten auf zwei Landtagsanfragen des SPD-KI-Experten Florian von Brunn und der innenpolitischen Sprecherin Christiane Feichtmeier zeigen: Die Regierung investiert zwar massiv in Technik, vernachlässigt aber ein systematisches Sicherheits-Controlling und steht KI-Straftaten ohne ausreichende technische Werkzeuge gegenüber.

Bayern hat von 2020 bis 2025 rund 360 Millionen Euro in KI-Maßnahmen der Hightech Agenda investiert. Dennoch räumt die Staatsregierung ein, dass eine systematische Aufschlüsselung, welcher Anteil davon in Sicherheitsforschung oder Risikomanagement fließt, nicht möglich ist. Möglicherweise soll damit kaschiert werden, dass nahezu nichts für die KI-Sicherheit ausgegeben wird. Gleichzeitig bremst Bayern auf politischer Ebene: Über einen Bundesratsantrag fordert der Freistaat ein sofortiges Moratorium für die EU-KI-Verordnung (AI Act). Nach Auffassung der SPD-Landtagsfraktion ist Bayern bei KI-Kriminalität bislang weitestgehend schutzlos. Die SPD-Landtagsfraktion fordert deswegen:

  1. Rechtssicherheit statt Moratorium: Wir lehnen das von der Regierung Söder geforderte KI-Moratorium ab; der AI Act muss als Schutzschild für Bürger und Unternehmen konsequent umgesetzt werden. Aber Verbesserungen, die Innovation und Sicherheit gleichzeitig fördern, unterstützen wir.
  2. Verbindliches Sicherheits-Budget: Wir fordern ein klares Controlling. Es darf nicht so weitergehen, dass KI mit Millionen gefördert wird, ohne die Sicherheit zu berücksichtigen. Deswegen muss ein fester Anteil der KI-Förderung von bis zu einem Drittel zwingend in Sicherheitsforschung fließen.
  3. Modernisierung der Strafverfolgung: Das BLKA und große Polizeipräsidien brauchen spezialisierte KI-Einheiten mit moderner Detektions-Software sowie zusätzliche IT-Forensiker und Sachverständige. Zudem müssen KI-Delikte systematisch in der Kriminalstatistik erfasst werden, um ein belastbares Lagebild zu erhalten.
  4. Landesweite Präventionsstrategie: Bayern braucht einen verbindlichen Maßnahmenplan gegen KI-Kriminalität mit klaren Zuständigkeiten und messbaren Zielen. Dazu gehören gezielte Aufklärungskampagnen, die Verankerung von KI-Kompetenz in Lehrplänen sowie Beratungsstellen für Opfer von Deepfakes und digitaler Gewalt.

Der wirtschaftspolitische Sprecher Florian von Brunn betont: „Die Staatsregierung spielt mit der Sicherheit der Menschen. Wer 360 Millionen Euro für KI ausgibt, aber keine systematischen Investitionen in die Sicherheit nachweisen kann, handelt verantwortungslos. Wir brauchen eine Strategie, die Innovation und Schutz vor Missbrauch zusammenbringt.“

Die innenpolitische Sprecherin Christiane Feichtmeier ergänzt: „Unsere bayerische Polizei braucht im Kampf gegen KI-Kriminelle mehr als nur die Expertise einzelner Fachleute. Wer keine Statistik führt und moderne Detektions-Tools vorenthält, lässt die Ermittler gegen die organisierte Kriminalität im Regen stehen. Wir brauchen Technik auf Augenhöhe mit den Tätern.“

Wie die Anfragen ergeben, weißt die sicherheitspolitische Bilanz kritische Defizite auf:

• Statistik-Lücke: In der Kriminalstatistik gibt es derzeit weder eine KI-Kennzeichnung noch spezifische Deepfake-Kategorien; belastbare Zahlen sind daher nicht automatisiert auswertbar.

• Analoge Abwehr gegen digitale Fälschung: Dem Landeskriminalamt fehlen technische Kapazitäten zur Deepfake-Erkennung. Die Regierung verweist auf eine Studie (Zitis-Studie), wonach die manuelle Prüfung durch Fachleute derzeit noch bessere Ergebnisse erzielt als Software – eine Methode, die mit der rapiden steigenden Masse an digitalen Fälschungen schlicht nicht Schritt halten kann.

• Naive Risikobewertung: Die Staatsregierung erklärt Diskriminierung durch KI in Behörden für „ausgeschlossen“, da stets Menschen entscheiden. Dass Menschen Computer-Ergebnissen oft unkritisch vertrauen und so algorithmische Verzerrungen (Bias) verstärken, bleibt unberücksichtigt.

Die internationale Bedrohungslage ist alarmierend. Laut dem Cybersecurity-Report der Transferstelle Cybersicherheit im Mittelstand – einer vom Bundeswirtschaftsministerium geförderten Initiative – stiegen Deepfake-Angriffe in Deutschland im ersten Quartal 2025 gegenüber dem Vorjahr um 1100 Prozent. Spektakuläre Fälle wie der Betrug an dem britischen Konzern Arup in dessen Hongkonger Niederlassung zeigen die Professionalität der Täter: Ein Mitarbeiter überwies nach einer Deepfake-Videokonferenz rund 25 Millionen US-Dollar an Kriminelle.

Anfragen

KI-Straftaten (PDF, 267 kB)

KI-Sicherheitsstrategie (PDF, 441 kB)

Teilen