KI aus der Sicht eines Strafrechtslehrers

Die technische Entwicklung von KI, also von digitalen Systemen, die sich durch Zugriff auf eine unübersehbare Menge weiterer digitaler Inhalte selbständig weiterentwickeln („lernen“), bedeutet einen zusätzlichen großen Schritt im Bereich der Digitalisierung. Dadurch öffnen sich bisher kaum vorstellbare Möglichkeiten des Einsatzes digitaler Systeme. Dieser Einsatz kann – wie stets – zum Nutzen, aber auch zum Schaden von Menschen erfolgen. Gewiss ist KI der menschlichen Intelligenz in vielem überlegen, vor allem in der Reichweite der Recherche und der Geschwindigkeit der Verarbeitung. Allerdings war jeder Computer von Anfang an dem menschlichen Denken in Geschwindigkeit und Genauigkeit weit überlegen. Auch gehen die Anwendungen des Internet weit über das dem einzelnen Menschen Mögliche hinaus.

Our Yearly Focus

All dies ändert andererseits nichts daran, dass auch KI letztlich nur ein lebloser, programmierter digitaler Ablauf ist. Trotz aller technischer Entwicklung kann KI noch vieles nicht, was menschliches Denken ausmacht: KI scheitert schon an der Berücksichtigung nicht digitaler Informationsquellen. Menschliches Denken zeichnet sich darüber hinaus durch das umfassende Einfließen der gesamten Lebenserfahrung und der menschlichen Emotionen aus, neuartige Ideen gehen oft gerade auf diesen menschlichen Background zurück. Der probeweise Auftrag an ChatGPT, zu einem speziellen strafrechtlichen Thema eine kurze wissenschaftliche Arbeit zu verfassen, führte zu einem wohlklingenden Text, dessen Sätze nicht falsch waren und auch schlüssig klangen. Überwiegend bestand der Text aber aus kompliziert formulierten, pseudowissenschaftlichen Satzhülsen, ein wirklich weiterführender Inhalt war aus fachlicher Sicht nicht zu erkennen.

An den Strafrechtler richtet sich zunächst die Frage, ob der Einsatz von KI neue zusätzliche Strafvorschriften erfordert. Gewiss bedarf der Einsatz von KI in sensiblen Bereichen, in denen durch die Verarbeitung personenbezogener Daten eine Benachteiligung von Menschen oder Menschgruppen droht, rechtlicher (einschränkender) Regelungen. Diese finden sich zum Teil im Zivilrecht (Urheber-, Datenschutz- und Schadenersatzrecht), spezifische Einschränkungen sind ferner im aktuellen Entwurf der EU zu einem AI-Act vorgesehen. Dort sind auch hohe Geldsanktionen geplant (bis zu 35 Mio € gemäß Art 99 AI-Act), die aber einen eher verwaltungsrechtlichen Charakter aufweisen. Der zusätzliche Einsatz von (Kriminal-)Strafrecht sollte dagegen – zumindest vorerst – nur zurückhaltend erfolgen. Wenn neue gesellschaftliche Probleme auftauchen, darf Strafrecht – entgegen der häufigen Forderung von Politikern – nicht das erste Mittel der Wahl sein. Vielmehr ist Strafrecht wegen der damit verbundenen weitgehenden Grundrechtseingriffe stets nur als „ultima ratio“ einzusetzen, wenn andere, weniger einschneidende Mittel nicht ausreichen, um gesellschaftlich unerträgliche Verhaltensweisen zu verhindern. Zu beachten ist auch, dass gravierende Rechtsverletzungen schon unabhängig davon, ob sie mit oder ohne KI begangen werden, durch Straftatbestände erfasst werden, sodass in diesen Bereichen keine KI-spezifischen Strafvorschriften erlassen werden müssen. Möglicherweise wird sich allerdings herausstellen, dass für einen durch Deep-Fake-Videos begangenen „Identitätsdiebstahl“, in dem angebliche Bild- oder Tonaufnahmen von realen Menschen gefälscht und anderen zugänglich gemacht werden, wenn daraus massive Nachteile drohen, ein eigenes Strafbedürfnis besteht. Zwar werden solche Fälle grundsätzlich schon von den Strafvorschriften des Datenschutzgesetzes (§ 63 DatenschutzG, Freiheitsstrafe bis zu einem Jahr) erfasst. Gegenüber solch einer allgemein gehaltenen, eher farblosen Strafvorschrift wäre ein auf Identitätsdiebstahl im Zusammenhang mit Bild- und Tonaufnahmen zugeschnittener Strafrechtsschutz aber  plastischer und pointierter.

Im Bereich des Strafverfahrens kann KI wertvolle Hilfestellungen bei Ermittlungsansätzen leisten und sollte insoweit im Ermittlungsverfahren auch eingesetzt werden. Sofern die KI allerdings auf personenbezogene Daten zugreift, muss ihr Einsatz strafprozessualen Beschränkungen unterliegen, wie dies derzeit auch schon für einen Datenabgleich (§ 141 StPO) vorgesehen ist; Anhaltspunkte für die Zulässigkeitsgrenze ergeben sich insoweit aus dem Entwurf des AI-Act der EU (Anhang II). KI kann im Strafverfahren allerdings nur Ermittlungsanstöße geben, nicht jedoch strafprozessuale Ergebnisse liefern. Denn die Ergebnisse von KI sind idR mit der „Blackbox“-Problematik behaftet, dh es kann im Nachhinein nicht mehr nachvollzogen werden, wie die KI zu den ausgeworfenen Ergebnissen gekommen ist. Daraus ergibt sich, dass KI im Strafverfahren weder zu einem tauglichen Beweismittel führen kann (denn bei jedem Beweismittel muss nachvollzogen werden können, wie es zustande gekommen ist) noch als ein Ersatz für eine – im Einzelnen zu begründende – menschliche Entscheidung in Betracht kommt (das Ergebnis von KI kann nicht nachvollziehbar begründet werden). Es wäre rechtsstaatlich nicht akzeptabel, eine rechtliche Entscheidung oder auch nur eine ihrer Komponenten schlicht auf das Ergebnis eines (im Einzelnen nicht nachvollziehbaren) digitalen Vorgangs zu stützen.

An der Universität wäre es gewiss kontraproduktiv, die Verwendung von KI einschränken zu wollen. Sie ist weder in der Lehre noch in der wissenschaftlichen Tätigkeit als Störfaktor anzusehen, sondern bietet – wie die fortschreitende Digitalisierung insgesamt – insoweit wichtige Hilfestellungen. Sowohl bei der Material- als auch der Ideensammlung oder um sich über einen bestimmten Bereich rasch einen Überblick zu verschaffen, kann jede digitale Anwendung erhebliche Erleichterung bringen. Allerdings muss man sich auch bewusst sein, dass KI die wissenschaftliche Tätigkeit zwar maßgeblich unterstützen, nicht aber für sich selbst hinreichend belegte und verlässliche wissenschaftliche Erkenntnisse liefern kann. Ergebnisse aus dem Einsatz von KI müssen, sofern es um wissenschaftliche Forschung geht, vom Menschen kontrolliert, nachgeprüft und evaluiert werden; jeder wirkliche Wissenschaftsfortschritt erfordert zusätzlich innovative Ideen. Auch Studierende sollen keineswegs von KI ferngehalten werden, sondern vielmehr von Anfang an deren Hilfe in Anspruch nehmen. Prüfungsaufgaben sind freilich so zu stellen, dass sie nicht allein durch den Einsatz von KI beantwortet werden können. Mündliche oder handschriftliche Prüfungen eröffnen ohnehin wenig Möglichkeiten zum Einsatz von KI. Anderes gilt für studentische Seminar- oder Hausarbeiten wie Bachelor-, Master- oder Diplomarbeiten sowie Dissertationen. Durch den Einsatz von KI als Hilfsmittel kann sich deren Niveau erhöhen. Gefordert sind in diesem Zusammenhang aber die wissenschaftlichen Betreuer(innen): Ihnen obliegt es, durch innovative Themenstellung, das Einfordern hoher fachlicher Qualität, intensiver Betreuung während des Zeitraums der Entstehung und nachprüfender Kontrolle sicherzustellen, dass allein das Ergebnis eines Einsatzes von KI die vorgegebenen Prüfungsanforderungen nicht erreichen kann.

 

Zur Person

O.Univ.-Prof. Dr. Kurt Schmoller ist Fachbereichsleiter Strafrecht und Strafverfahrensrecht an der Paris Lodron Universität Salzburg.

Von: o.Univ. Prof. Dr. Kurt Schmoller - Bildnachweis: Luigi Caputo
Veröffentlicht: 24.06.2024