- Künstliche Intelligenz kann unerwartete gesundheitliche Risiken bergen, wie der Fall eines 60-jährigen Mannes zeigt, der durch ChatGPT induzierte Diät gesundheitliche Probleme erlitt. Der Mann litt an Bromismus, einer seltenen Vergiftungsform, aufgrund von falschen Ratschlägen, die von ChatGPT kamen, das ihn dazu anregte, Chlorid durch Brom zu ersetzen. ChatGPT fehlen oft adäquate Gesundheitswarnungen, was zu schwerwiegenden Missverständnissen und gefährlichen Konsequenzen führen kann. Guido Rohrers Buch hebt hervor, dass KI-Technologien wie ChatGPT keinen Ersatz für medizinischen Rat darstellen und eher auf Benutzerzufriedenheit ausgerichtet sind.
Künstliche Intelligenz hat zweifellos ihren Platz in der modernen Welt gefunden, indem sie Textverarbeitung, Reiseplanung und Ernährungsberatung ermöglicht. Doch es gibt Fälle, in denen Vorsicht geboten ist. Ein 60-jähriger Mann erlebte die Schattenseiten dieser Technologie am eigenen Leib. Er unterzog sich einer selbst verordneten Diät, gestützt auf Ratschläge von ChatGPT, was schließlich zu unangenehmen gesundheitlichen Konsequenzen führte, einschließlich Paranoia und Halluzinationen.
Gefährlicher Ratschlag von ChatGPT
Der Mann wurde aufgrund von Bromismus, einer seltenen Vergiftungsform, ins Krankenhaus eingeliefert. Diese Krankheit galt seit den 1980er-Jahren als nahezu ausgerottet, weil der Einsatz von Brom strengen Vorschriften unterliegt. Der Grund seiner Misere? Eine Fehlinformation durch ChatGPT in Kombination mit mangelndem Fachwissen. In der Hoffnung, seinen Salzkonsum zu vermindern, suchte er nach Alternativen zu Chlorid, fand aber in der Literatur keine befriedigende Lösung. Schließlich fragte er ChatGPT um Rat und erhielt die Empfehlung, Chlorid durch Brom zu ersetzen. Doch dieser Austausch, wie die Mediziner in einem Fachjournal einräumen, ist nur bei Reinigungsmitteln zinngemäß.
Fehlende Gesundheitswarnungen durch KI
Unmittelbar nach seiner dreimonatigen Behandlung begann sein Krankenhausaufenthalt. Dort äußerte der Mann Verdächtigungen, sein Nachbar wolle ihn vergiften, was auf seine Vergiftung zurückzuführen ist. Beim Anbieten von Wasser reagierte er auffallend ablehnend und paranoid. Ärzte, die an eine Schwermetallvergiftung dachten, zogen die Giftkontrollabteilung hinzu, die schließlich Bromismus diagnostizierte. Über drei Wochen vergingen, bevor sich die Symptome legten und sich sein Zustand stabilisierte. Die anschließende Untersuchung durch Ärzte zeigte, dass ChatGPT tatsächlich ähnliche Ratschläge wie zuvor gab, jedoch ohne adäquate Gesundheitswarnungen.
Guido Rohrers Buch „Rechne dich schlank – Abnehmen mit künstlicher Intelligenz“ betont, dass technische Hilfsmittel wie ChatGPT keinesfalls den medizinischen Rat ersetzen sollten. Ihre primäre Funktion ist es, Nutzern zu gefallen und nicht immer zutreffende oder sichere Informationen bereitzustellen.