Veröffentlicht von Prof. Dr. jur. Burkhard Oexmann am 04.02.2026

Künstliche Intelligenz in der Neonatologie

Medizinische Evidenz, ethische Grenzen und haftungsrechtliche Verantwortung

Einleitung

Die Neonatologie ist ein Bereich maximaler medizinischer Verdichtung: hochfrequente Datenströme, vitale Entscheidungen unter Zeitdruck und ein Patientenkollektiv ohne eigene Entscheidungsfähigkeit. Kaum ein medizinisches Fach scheint daher für den Einsatz künstlicher Intelligenz prädestiniert. Zugleich ist kaum ein Bereich rechtlich und ethisch sensibler. Der vorliegende Beitrag untersucht kritisch, ob und unter welchen Voraussetzungen der Einsatz künstlicher Intelligenz in der Neonatologie medizinisch evidenzbasiert, ethisch legitim und rechtlich verantwortbar ist. Er verbindet medizinische Evidenzkritik mit einer dogmatischen Analyse der ärztlichen Organisationspflichten und der Herstellerhaftung unter besonderer Berücksichtigung der höchstrichterlichen Rechtsprechung.

 

Teil I – Medizinisch-wissenschaftliche Analyse und Evidenzkritik

1. Methodische Grundlagen und strukturelle Schwächen der Evidenzlage

Die überwiegende Zahl neonatologischer Systeme künstlicher Intelligenz basiert auf überwachten Lernverfahren, die physiologische Parameter wie Herzfrequenz, Atemfrequenz, Sauerstoffsättigung und Blutdruck auswerten. Die wissenschaftliche Literatur zeigt jedoch ein konsistentes Bild: Die Validierung erfolgt überwiegend retrospektiv, häufig monozentrisch und ohne robuste externe Prüfung. Eine systematische Übersichtsarbeit von Kelly et al. kommt zu dem Ergebnis, dass nur ein sehr geringer Anteil der publizierten Modelle prospektiv evaluiert wurde und kein einziges Modell randomisiert-kontrolliert mit patientenrelevanten Endpunkten geprüft ist (Kelly et al., Journal of the American Medical Association 2019, Seiten 1351 folgende). Die medizinisch zentrale Kritik lautet daher: Prognostische Leistungsfähigkeit wird mit therapeutischem Nutzen verwechselt. Ein statistisch valides Warnsignal ersetzt keine klinische Wirksamkeitsprüfung.

2. Sepsisfrüherkennung als paradigmatisches Anwendungsfeld

Besonders intensiv untersucht ist der Einsatz künstlicher Intelligenz zur Früherkennung neonataler Sepsis. Modelle auf Basis der Herzfrequenzvariabilität zeigen in mehreren Studien eine signifikante Vorverlagerung der Warnzeitpunkte (Moorman et al., The Journal of Pediatrics 2011, Seiten 900 folgende). Gleichzeitig weisen neuere Arbeiten darauf hin, dass diese Frühwarnungen mit einer erheblichen Zunahme empirischer Antibiotikatherapien einhergehen (Adams et al., Pediatric Research 2020, Seiten 110 folgende). Die Folgen sind:

  • erhöhte Resistenzentwicklung,
  • Störung der Darmmikrobiota,
  • verlängerte Hospitalisationsdauer.

Damit wird deutlich: Die medizinische Bewertung künstlicher Intelligenz darf nicht isoliert auf Sensitivitätskennzahlen abstellen, sondern muss iatrogene Sekundärfolgen berücksichtigen.

3. Verzerrung durch interventionsgeprägte neonatologische Intensivdaten sind keine natürlichen Krankheitsverläufe, sondern Ergebnisse permanenter Intervention. Künstliche Intelligenz lernt daher nicht Krankheit, sondern Behandlungsentscheidungen. Sendak et al. sprechen zutreffend von einer „Verflechtung von Algorithmus und Versorgungspraxis“ (Sendak et al., British Medical Journal Quality and Safety 2020, Seiten 281 folgende). Diese Verflechtung führt zu systematischer Verzerrung und gefährdet die Übertragbarkeit der Modelle.

4. Fehlende Kausalität und klinische Entscheidungsentleerung

Nahezu alle eingesetzten Systeme beruhen auf korrelativen Zusammenhängen. Die klinische Bedeutung eines Signals bleibt häufig unklar. Obermeyer und Emanuel warnen vor einer schleichenden Ersetzung ärztlicher Urteilskraft durch statistische Wahrscheinlichkeit (Obermeyer, Emanuel, New England Journal of Medicine 2016, Seiten 1216 ff.). In der Neonatologie droht dadurch eine Entleerung ärztlicher Verantwortung: Die Entscheidung wird formal menschlich getroffen, faktisch jedoch algorithmisch vorstrukturiert.

 

Teil II – Rechtlich-dogmatische Analyse

1. Ärztliche Organisationspflichten beim Einsatz künstlicher Intelligenz

Nach ständiger Rechtsprechung des Bundesgerichtshofs ist der Krankenhausträger verpflichtet, eine Behandlung organisatorisch so auszugestalten, dass vermeidbare Risiken ausgeschlossen werden. Diese Organisationspflichten umfassen:

  • Auswahl geeigneter medizinischer Verfahren,
  • Sicherstellung fachlicher Qualifikation,
  • Überwachung technischer Systeme.

Der Einsatz künstlicher Intelligenz verschärft diese Pflichten. Ein System, dessen Funktionsweise nicht verstanden oder kontrolliert werden kann, ist organisatorisch nicht beherrschbar und damit pflichtwidrig.

2. Haftungsdogmatik bei algorithmisch beeinflussten Behandlungsentscheidungen

Der Bundesgerichtshof hat in seiner sogenannten Navigationsgeräte-Entscheidung klargestellt, dass technische Assistenzsysteme den Nutzer nicht von eigener Verantwortung entlasten. Übertragen auf die Neonatologie bedeutet dies:

  • Ärztliche Entscheidungen müssen algorithmische Empfehlungen kritisch prüfen.
  • Das ungeprüfte Folgen eines Systems kann einen Behandlungsfehler begründen.
  • Die Nutzung künstlicher Intelligenz kann den fachärztlichen Standard anheben.

Katzenmeier beschreibt diese Entwicklung als Herausbildung eines „digitalen Sorgfaltsmaßstabs“ (Katzenmeier, Medizinrecht 2022, Seiten 321 ff.).

3. Beweislast und Dokumentationspflichten

Die Rechtsprechung des Bundesgerichtshofs misst der Dokumentation zentrale Bedeutung bei. Bei fehlender oder unzureichender Dokumentation wird vermutet, dass eine Maßnahme unterblieben ist. Beim Einsatz künstlicher Intelligenz folgt daraus:

  • Dokumentation der Systemempfehlung,
  • Dokumentation der ärztlichen Bewertung,
  • Dokumentation der Entscheidungsabweichung.

Fehlt diese Dokumentation, kehrt sich die Beweislast faktisch zulasten des Behandlers um.

4. Herstellerhaftung und europäische Rechtsprechung

Nach der neuen europäischen Produkthaftungsrichtlinie sind Softwareprodukte ausdrücklich erfasst. Ein Produkt ist fehlerhaft, wenn es nicht die Sicherheit bietet, die berechtigterweise erwartet werden darf. Der Gerichtshof der Europäischen Union hat mehrfach betont, dass bei Produkten für besonders schutzbedürftige Personengruppen ein erhöhter Sicherheitsmaßstab gilt (Gerichtshof der Europäischen Union, Urteil vom 5. März 2015 – Rechtssache C-503/13). Für neonatologische Systeme bedeutet dies:

  • besondere Anforderungen an Validierung,
  • klare Kommunikation von Leistungsgrenzen,
  • kontinuierliche Nachmarktüberwachung.

5. Schlussfolgerung

Der Einsatz künstlicher Intelligenz in der Neonatologie ist medizinisch nur dann gerechtfertigt, wenn ein patientenrelevanter Nutzen nachgewiesen ist, und rechtlich nur dann zulässig, wenn ärztliche Verantwortung uneingeschränkt erhalten bleibt. Künstliche Intelligenz darf in der Neonatologie weder Entscheidungssubjekt noch Verantwortungsersatz sein. Sie ist – rechtlich wie medizinisch – ein Instrument unter verschärften Sorgfaltsanforderungen.

 

04.02.2026

Autorisiert durch Prof. Dr. Burkhard Oexmann, Gattendorf