Die algorithmische Sprechstunde: Eine kritische Analyse von ChatGPT Health im Spannungsfeld zwischen technologischer Innovation und klinischer Evidenz

Vor wenigen Tagen hat OpenAI ChatGPT Health vorgestellt. Es gibt nun ein eigenen Gesundheitsbereich innerhalb von ChatGPT, der medizinische Unterlagen und Befunde ebenso einbindet wie Daten aus Fitness- und Ernährungs-Apps, In den USA wird das Produkt als Meilenstein gefeiert: Eine KI, die persönliche Gesundheitsdaten auswerten, Befunde erklären und Menschen durch das komplexe Gesundheitssystem navigieren soll. In Europa jedoch ist es gesperrt – nicht aus Vorsicht, sondern aus Notwendigkeit.

Der Grund liegt nicht nur in der Technik. Er liegt auch im Gesundheitssystem.

Zwei Welten, ein Produkt

Das US-amerikanische Gesundheitssystem ist marktwirtschaftlich organisiert. Versorgung ist dort eine Ware. Patienten sind Kunden, Ärzte Dienstleister, Versicherungen Vertragspartner. Wer krank ist, entscheidet selbst, welche Hilfe er sich leisten kann – und trägt die finanziellen Folgen.

In diesem System ist ChatGPT Health logisch. Eine KI, die erklärt, vergleicht, Empfehlungen gibt und sogar Versicherungsoptionen vorschlägt, passt perfekt zu einer Welt, in der medizinische Entscheidungen individualisiert und kommerzialisiert sind.

Deutschland hingegen folgt einem anderen Prinzip: dem Solidarprinzip. Medizin ist hier kein Konsumprodukt, sondern eine gesellschaftliche Pflichtleistung. Ärzte sind keine Dienstleister, sondern Träger einer besonderen Verantwortung. Sie haften persönlich für Behandlungsfehler, müssen evidenzbasiert handeln und dürfen Entscheidungen nicht an Dritte delegieren – auch nicht an KI.

Genau hier beginnt das Problem.

Wenn Statistik auf Verantwortung trifft

Moderne KI-Systeme wie ChatGPT arbeiten nicht medizinisch, sondern statistisch. Sie berechnen, welche Antwort in einer bestimmten Situation wahrscheinlich klingt. Studien zeigen, dass solche Modelle in realistischen medizinischen Dialogen nur in etwa 60 % der Fälle korrekt liegen. In 40 % liefern sie falsche, unvollständige oder irreführende Informationen.

In einem marktbasierten System wie den USA bedeutet das ein finanzielles Risiko. In einem regulierten System wie Deutschland bedeutet es ein Sicherheitsproblem.

Denn wenn ein deutscher Arzt KI-Empfehlungen nutzt, haftet er für jeden Fehler. Wenn ein Patient sich auf KI verlässt und nicht zum Arzt geht, fällt er aus dem Schutzsystem heraus. Die KI schafft damit ein paralleles Entscheidungssystem ohne rechtliche oder medizinische Kontrolle.

Datenschutz ist kein Nebenthema

In den USA gelten Gesundheitsdaten nur dann als besonders geschützt, wenn sie bei Ärzten oder Krankenhäusern liegen. Gibt ein Nutzer seine Daten freiwillig an eine Tech-Plattform, gelten diese Schutzregeln nicht mehr. Das nennt man den „HIPAA-Gap“.

In Europa ist das undenkbar. Gesundheitsdaten gehören zur höchsten Schutzklasse der DSGVO. Sie dürfen nicht frei analysiert, kombiniert oder wirtschaftlich verwertet werden. Genau das aber ist das Geschäftsmodell von Plattformen wie ChatGPT Health.

Dass OpenAI den europäischen Markt vorerst ausgeschlossen hat, ist deshalb kein Zufall. Das Produkt ist nicht mit dem europäischen Rechts- und Wertesystem kompatibel.

Die eigentliche Gefahr

ChatGPT Health ist technisch beeindruckend. Aber es ist auf ein System zugeschnitten, in dem der Einzelne Risiken selbst trägt. In Deutschland hingegen ist medizinische Sicherheit kollektiv organisiert.

Wenn KI hier unkontrolliert eingeführt würde, würde sie genau das untergraben: die ärztliche Verantwortung, die Leitlinienmedizin und den Schutz der Patienten vor Fehlentscheidungen.

Oder anders gesagt:
In den USA ist ChatGPT Health ein Service.
In Deutschland wäre es ein Risiko.

Die entscheidende Frage lautet daher nicht: „Was kann diese KI?“
Sondern: „In welchem System darf sie überhaupt eingesetzt werden?“

Quellen:

Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF): S3-Leitlinie Hämorrhoidalleiden (AWMF-Registernummer 081/007). 2019. https://register.awmf.org/de/leitlinien/detail/081-007 (abgerufen am 12.08.2025).

Deutsches Ärzteblatt: Smartphone-Nutzung auf der Toilette erhöht Risiko für Hämorrhoiden. 2025. https://www.aerzteblatt.de/news/rubriken/medizin/smartphone-nutzung-auf-der-toilette-erhoht-risiko-fur-hamorrhoiden-78b7c3ba-cf32-48f6-9fd5-94d0849e6952 (abgerufen am 05.09.2025).

Ramprasad, C. et al. (2025): Smartphone use on the toilet and the risk of hemorrhoids. PLOS One. https://doi.org/10.1371/journal.pone.0329983

Auch interessant:
Bild zum Artikel„Der Faktor Mensch im Cockpit“

Worin sind Menschen besonders gut? Worin weniger gut? Welche Rückschlüsse lassen die Antworten auf Entscheidungen im Cockpit zu? Darum und um manches mehr ging es bei einem Seminar der Flugschule Advanced Aviation Training in Bonn/Hangelar zum Thema Ressourcen Management im Single Pilot Cockpit.

Bild zum Artikel„Dexpanthenol im Fokus: Wie moderne Hautmodelle innovative Einsatzgebiete für die Wund- und Heilsalbe aufdecken“

Die regenerativen Kräfte von Dexpanthenol zeigen sich in modernen Hautmodellen: Innovationen bei der Wundheilung und Nachbehandlung nach Lasertherapien eröffnen neue Perspektiven.

Bild zum Artikel„Feine Nadeln – große Wirkung: Der Siegeszug des Microneedlings“

Von Anti-Aging bis zu Narbenheilung – als minimalinvasive Methode erobert das Microneedling viele Felder der Dermatologie. Erfahren Sie mehr über Technik, Sicherheit und innovative Anwendungen.

Navigation Schließen Suche E-Mail Telefon Kontakt Pfeil nach unten Pfeil nach oben Pfeil nach links Pfeil nach rechts Standort Download Externer Link Startseite