Die algorithmische Sprechstunde: Eine kritische Analyse von ChatGPT Health im Spannungsfeld zwischen technologischer Innovation und klinischer Evidenz
Vor wenigen Tagen hat OpenAI ChatGPT Health vorgestellt. Es gibt nun ein eigenen Gesundheitsbereich innerhalb von ChatGPT, der medizinische Unterlagen und Befunde ebenso einbindet wie Daten aus Fitness- und Ernährungs-Apps, In den USA wird das Produkt als Meilenstein gefeiert: Eine KI, die persönliche Gesundheitsdaten auswerten, Befunde erklären und Menschen durch das komplexe Gesundheitssystem navigieren soll. In Europa jedoch ist es gesperrt – nicht aus Vorsicht, sondern aus Notwendigkeit.
Der Grund liegt nicht nur in der Technik. Er liegt auch im Gesundheitssystem.
Zwei Welten, ein Produkt
Das US-amerikanische Gesundheitssystem ist marktwirtschaftlich organisiert. Versorgung ist dort eine Ware. Patienten sind Kunden, Ärzte Dienstleister, Versicherungen Vertragspartner. Wer krank ist, entscheidet selbst, welche Hilfe er sich leisten kann – und trägt die finanziellen Folgen.
In diesem System ist ChatGPT Health logisch. Eine KI, die erklärt, vergleicht, Empfehlungen gibt und sogar Versicherungsoptionen vorschlägt, passt perfekt zu einer Welt, in der medizinische Entscheidungen individualisiert und kommerzialisiert sind.
Deutschland hingegen folgt einem anderen Prinzip: dem Solidarprinzip. Medizin ist hier kein Konsumprodukt, sondern eine gesellschaftliche Pflichtleistung. Ärzte sind keine Dienstleister, sondern Träger einer besonderen Verantwortung. Sie haften persönlich für Behandlungsfehler, müssen evidenzbasiert handeln und dürfen Entscheidungen nicht an Dritte delegieren – auch nicht an KI.
Genau hier beginnt das Problem.
Wenn Statistik auf Verantwortung trifft
Moderne KI-Systeme wie ChatGPT arbeiten nicht medizinisch, sondern statistisch. Sie berechnen, welche Antwort in einer bestimmten Situation wahrscheinlich klingt. Studien zeigen, dass solche Modelle in realistischen medizinischen Dialogen nur in etwa 60 % der Fälle korrekt liegen. In 40 % liefern sie falsche, unvollständige oder irreführende Informationen.
In einem marktbasierten System wie den USA bedeutet das ein finanzielles Risiko. In einem regulierten System wie Deutschland bedeutet es ein Sicherheitsproblem.
Denn wenn ein deutscher Arzt KI-Empfehlungen nutzt, haftet er für jeden Fehler. Wenn ein Patient sich auf KI verlässt und nicht zum Arzt geht, fällt er aus dem Schutzsystem heraus. Die KI schafft damit ein paralleles Entscheidungssystem ohne rechtliche oder medizinische Kontrolle.
Datenschutz ist kein Nebenthema
In den USA gelten Gesundheitsdaten nur dann als besonders geschützt, wenn sie bei Ärzten oder Krankenhäusern liegen. Gibt ein Nutzer seine Daten freiwillig an eine Tech-Plattform, gelten diese Schutzregeln nicht mehr. Das nennt man den „HIPAA-Gap“.
In Europa ist das undenkbar. Gesundheitsdaten gehören zur höchsten Schutzklasse der DSGVO. Sie dürfen nicht frei analysiert, kombiniert oder wirtschaftlich verwertet werden. Genau das aber ist das Geschäftsmodell von Plattformen wie ChatGPT Health.
Dass OpenAI den europäischen Markt vorerst ausgeschlossen hat, ist deshalb kein Zufall. Das Produkt ist nicht mit dem europäischen Rechts- und Wertesystem kompatibel.
Die eigentliche Gefahr
ChatGPT Health ist technisch beeindruckend. Aber es ist auf ein System zugeschnitten, in dem der Einzelne Risiken selbst trägt. In Deutschland hingegen ist medizinische Sicherheit kollektiv organisiert.
Wenn KI hier unkontrolliert eingeführt würde, würde sie genau das untergraben: die ärztliche Verantwortung, die Leitlinienmedizin und den Schutz der Patienten vor Fehlentscheidungen.
Oder anders gesagt:
In den USA ist ChatGPT Health ein Service.
In Deutschland wäre es ein Risiko.
Die entscheidende Frage lautet daher nicht: „Was kann diese KI?“
Sondern: „In welchem System darf sie überhaupt eingesetzt werden?“
Quellen:
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF): S3-Leitlinie Hämorrhoidalleiden (AWMF-Registernummer 081/007). 2019. https://register.awmf.org/de/leitlinien/detail/081-007 (abgerufen am 12.08.2025).
Deutsches Ärzteblatt: Smartphone-Nutzung auf der Toilette erhöht Risiko für Hämorrhoiden. 2025. https://www.aerzteblatt.de/news/rubriken/medizin/smartphone-nutzung-auf-der-toilette-erhoht-risiko-fur-hamorrhoiden-78b7c3ba-cf32-48f6-9fd5-94d0849e6952 (abgerufen am 05.09.2025).
Ramprasad, C. et al. (2025): Smartphone use on the toilet and the risk of hemorrhoids. PLOS One. https://doi.org/10.1371/journal.pone.0329983
Offene Fußverletzungen sind oft hartnäckig, komplex, infektanfällig und heilen schwer ab. Doch mit Platelet-Rich Plasma zieht die regenerative Medizin ein Ass aus dem Ärmel: Fallberichte zeigen schnellere Wundheilung und kaum Komplikationen.
Seit seiner Erfindung im Jahr 1924 hat das Elektroenzephalogramm (EEG) die Neurowissenschaft revolutioniert. Heute ist es ein Hightech-Instrument, das mit künstlicher Intelligenz (KI), mobiler Überwachung und präziser Signalverarbeitung die Grenzen der Medizin erweitert. 100 Jahre später blicken wir auf die Evolution des EEGs und seine bahnbrechenden Anwendungen in der modernen Therapie.
Hoffnung für Ekzem-Patient:innen: Ein neues Purslane-Tanninsäure-Gel zeigt in experimentellen Studien herausragende Ergebnisse. Diese bahnbrechende Therapie vereint traditionelle chinesische Medizin mit modernster Technologie, um Hautheilung zu fördern, Entzündungen zu lindern und antimikrobielle Wirkung zu bieten.