Gesundheitsexperiment nach KI-Rat endet mit Klinikaufenthalt
ChatGPT-Tipp führt zu Psychiatrieaufenthalt: Ein beunruhigender Vorfall aus den USA beleuchtet die potenziell gefährlichen Auswirkungen der Nutzung von Künstlicher Intelligenz im Gesundheitsbereich. Ein 60-jähriger Mann wurde nach einem selbst initiierten Gesundheitsexperiment mehrere Wochen in einer psychiatrischen Klinik behandelt – ausgelöst durch eine Empfehlung, die er bei ChatGPT erhalten hatte.
Auf der Suche nach einer Salz-Alternative
Der Mann zeigte sich besorgt über die gesundheitlichen Folgen von herkömmlichem Speisesalz (Natriumchlorid) und suchte nach Alternativen. Über ChatGPT stieß er auf Natriumbromid, ein altes Bromsalz, das früher medizinisch verwendet wurde, aber heute als giftig gilt. Drei Monate lang ersetzte der Mann Speisesalz durch Natriumbromid in seiner Ernährung.
Verhängnisvolle Folgen: Einweisung in die Psychiatrie
Eine medizinische Fallstudie dokumentiert die alarmierende Entwicklung: Der Mann suchte mit schweren psychischen Symptomen die Notaufnahme auf. Dazu gehörten paranoide Vorstellungen wie die Überzeugung, sein Nachbar wolle ihn vergiften. Innerhalb eines Tages verschlimmerte sich sein Zustand massiv: Er litt unter Halluzinationen und starker Verwirrung. Aufgrund einer drohenden Eigengefährdung wurde er stationär psychiatrisch aufgenommen.
Während des Aufenthalts kam heraus, dass der Patient eigenständig Natriumbromid statt Speisesalz konsumiert hatte. Die längere Aufnahme dieses Stoffes führte zu einer sogenannten Bromvergiftung oder „Bromismus“. Diese verursacht eine Vielzahl neurologischer, psychischer und dermatologischer Symptome, ist jedoch bei rechtzeitiger Behandlung teilweise reversibel.
Erholung und offene Fragen
Nach etwa drei Wochen besserte sich der Zustand des Mannes deutlich – sowohl körperlich als auch psychisch. Doch der Fall wirft ernste ethische und praktische Fragen auf: Welche Verantwortung tragen KI-Systeme wie ChatGPT, wenn sie Empfehlungen geben, die potenziell gefährlich sind? Wie kann sichergestellt werden, dass Menschen die Grenzen solcher Technologie verstehen?
Warnung der Fachwelt
Die Fachleute hinter der Studie warnen eindringlich: Auch wenn KI-Systeme wie ChatGPT zunehmend professionell wirken, ersetzen sie keine ärztliche Expertise. Die Untersuchung ergab sogar, dass GPT-3.5 in bestimmten Modelltests die Verwendung von Bromid als Ersatz für Chlorid empfohlen hatte – ohne auf mögliche Risiken hinzuweisen.
Wichtige Lehren aus dem Fall
- Gesundheitsfragen sollten nie allein auf Basis von Online- oder KI-Aussagen behandelt werden.
- Natriumbromid ist längst als toxisch eingestuft und wird medizinisch nicht mehr empfohlen.
- KI-Modelle basieren auf bestehenden Textquellen und verfügen über kein medizinisches Beurteilungsvermögen.
Die Autorinnen und Autoren der Studie betonen abschließend: Ein ausgebildeter Mediziner hätte niemals Bromid als Ersatz für Natriumchlorid geraten.
Der Fall dient als ein eindringliches Warnsignal: Die wachsenden Möglichkeiten künstlicher Intelligenz sind faszinierend – doch ihr Einsatz im Gesundheitsbereich verlangt besondere Vorsicht und kritisches Denken. Expertinnen und Experten fordern verstärkte digitale Bildung und ein geschärftes Bewusstsein für die Grenzen KI-gestützter Systeme.