Da Hunderte Millionen Menschen Chatbots um Rat fragen, war es nur eine Frage der Zeit, bis Technologieunternehmen Programme anbieten würden, die speziell auf die Beantwortung von Gesundheitsfragen zugeschnitten sind.
Im Januar stellte OpenAI ChatGPT Health vor, eine neue Version davon Chatbot Das Unternehmen gibt an, dass es die Krankenakten, Wellness-Apps und Daten tragbarer Geräte von Benutzern analysieren kann, um gesundheitliche und medizinische Fragen zu beantworten.
Derzeit gibt es eine Warteliste für das Programm. Anthropic, ein konkurrierendes KI-Unternehmen, bietet einigen Benutzern seines Claude-Chatbots ähnliche Funktionen.
Beide Unternehmen geben an, dass ihre als Large Language Models bekannten Programme keinen Ersatz für professionelle Pflege darstellen und nicht zur Diagnose von Erkrankungen eingesetzt werden sollten. Stattdessen können die Chatbots komplizierte Testergebnisse zusammenfassen und erklären, bei der Vorbereitung auf einen Arztbesuch helfen oder wichtige Gesundheitstrends analysieren, die in Krankenakten und App-Metriken verborgen sind.
Aber wie sicher und genau sind diese Chatbots für die Analyse von Gesundheitsdaten und -zuständen? Und sollte man sich wirklich auf sie verlassen?
Hier sind einige Dinge, die Sie beachten sollten, bevor Sie mit einem Chatbot über Ihre Gesundheit sprechen:
Chatbots können personalisiertere Informationen bieten als eine Google-Suche
Einige Ärzte und Forscher, die mit ChatGPT Health und ähnlichen Programmen gearbeitet haben, sehen darin eine Verbesserung gegenüber dem Status quo.
KI-Plattformen sind nicht perfekt – sie können manchmal halluzinieren oder liefern schlechter Rat– Die von ihnen bereitgestellten Informationen sind jedoch mit größerer Wahrscheinlichkeit personalisierter und spezifischer, als Patienten sie möglicherweise über eine Google-Suche finden.
„Oft besteht die Alternative darin, nichts zu tun oder dass der Patient sich dafür entscheidet“, sagte Dr. Robert Wachter, Experte für Medizintechnik an der University of California in San Francisco. „Und deshalb denke ich, dass man nützliche Informationen erhalten kann, wenn man diese Tools verantwortungsvoll nutzt.“
In Ländern wie dem Vereinigten Königreich oder den Vereinigten Staaten, wo Arzttermine Da es Wochen dauern kann und die Wartezeit in der Notfallversorgung oft Stunden beträgt, können Chatbots dazu beitragen, unnötige Panik zu reduzieren und in vielen Fällen Zeit zu sparen.
Sie können jedoch auch darauf hinweisen, dass Symptome gefährlich sind und von echten medizinischen Fachkräften beurteilt werden müssen.
Ein Vorteil der neuesten Chatbots besteht darin, dass sie die Fragen der Benutzer mit dem Kontext ihrer Chatbots beantworten Krankengeschichteeinschließlich Rezepte, Alter und ärztliche Atteste.
Selbst wenn Sie der KI keinen Zugriff auf Ihre medizinischen Informationen gewährt haben, empfehlen Wachter und andere, den Chatbots so viele Details wie möglich zu geben, um die Antworten zu verbessern.
Wenn Sie besorgniserregende Symptome haben, überspringen Sie AI
Wachter und andere betonen, dass es Situationen gibt, in denen Menschen den Chatbot überspringen und sofort einen Arzt aufsuchen sollten. Symptome wie Kurzatmigkeit, Brustschmerzen oder starke Kopfschmerzen können auf einen medizinischen Notfall hinweisen.
Auch in weniger dringenden Situationen sollten Patienten und Ärzte auf uns zukommen KI-Programme mit „einem Maß an gesunder Skepsis“, sagte Dr. Lloyd Minor von der Stanford University.
„Wenn Sie über eine wichtige medizinische Entscheidung oder sogar eine kleinere Entscheidung über Ihre Gesundheit sprechen, sollten Sie sich nie nur auf das verlassen, was Sie aus einem großen Sprachmodell herausholen“, sagte Minor, der Dekan der medizinischen Fakultät von Stanford.
Selbst in weniger komplizierten oder häufigen Fällen, wie dem polyzystischen Ovarialsyndrom (PCOS), kann es besser sein, einen echten Arzt zu konsultieren, da die Erkrankung bei verschiedenen Personen unterschiedlich sein kann, was sich auf die Behandlungspläne auswirkt.
Berücksichtigen Sie Ihre Privatsphäre, bevor Sie Gesundheitsdaten hochladen
Viele Vorteile, die KI-Bots bieten, ergeben sich daraus, dass Benutzer persönliche medizinische Informationen weitergeben. Es ist jedoch wichtig zu verstehen, dass alles, was mit einem KI-Unternehmen geteilt wird, nicht durch das US-Bundesgesetz zum Datenschutz geschützt ist, das normalerweise sensible medizinische Informationen regelt.
Das allgemein als HIPAA bekannte Gesetz sieht Geldstrafen und sogar Gefängnisstrafen vor ÄrzteKrankenhäuser, Versicherer oder andere Gesundheitsdienste, die Krankenakten offenlegen. Das Gesetz gilt jedoch nicht für Unternehmen, die Chatbots entwickeln.
„Wenn jemand seine Krankenakte in ein großes Sprachmodell hochlädt, ist das etwas ganz anderes, als sie einem neuen Arzt zu übergeben“, sagte Minor. „Verbraucher müssen verstehen, dass es völlig unterschiedliche Datenschutzstandards gibt.“
Sowohl OpenAI als auch Anthropic geben an, dass die Gesundheitsinformationen der Benutzer von anderen Datentypen getrennt gehalten werden und zusätzlichen Datenschutzmaßnahmen unterliegen. Die Unternehmen nutzen keine Gesundheitsdaten, um ihre Modelle zu trainieren. Benutzer müssen der Weitergabe ihrer Informationen zustimmen und können die Verbindung jederzeit trennen.
Tests zeigen, dass Chatbots stolpern können
Trotz der Begeisterung für KI steckt die unabhängige Erprobung der Technologie noch in den Kinderschuhen. Frühe Studien deuten darauf hin, dass Programme wie ChatGPT bei medizinischen Prüfungen auf hohem Niveau bestehen können, bei der Interaktion mit Menschen jedoch oft scheitern.
Eine Studie der Universität Oxford mit 1.300 Teilnehmern ergab kürzlich, dass Menschen, die KI-Chatbots zur Erforschung hypothetischer Gesundheitszustände nutzen, keine besseren Entscheidungen trafen als Menschen, die Online-Suchen oder persönliches Urteilsvermögen nutzten.
KI-Chatbots, denen medizinische Szenarien in umfassender, schriftlicher Form präsentiert wurden, identifizierten die zugrunde liegende Erkrankung in 95 Prozent der Fälle korrekt.
„Das war nicht das Problem“, sagte Hauptautor Adam Mahdi vom Oxford Internet Institute. „Der Punkt, an dem die Dinge auseinanderfielen, war während der Interaktion mit den echten Teilnehmern.“
Mahdi und sein Team stellten mehrere Kommunikationsprobleme fest. Die Menschen gaben den Chatbots oft nicht die notwendigen Informationen, um das Gesundheitsproblem richtig zu identifizieren. Umgekehrt reagierten die KI-Systeme oft mit einer Kombination aus guten und schlechten Informationen, und die Benutzer hatten Schwierigkeiten, zwischen beiden zu unterscheiden.
Die im Jahr 2024 durchgeführte Studie nutzte nicht die neuesten Chatbot-Versionen, einschließlich neuer Angebote wie ChatGPT Health.
Eine zweite KI-Meinung kann hilfreich sein
Die Fähigkeit von Chatbots, Folgefragen zu stellen und den Benutzern wichtige Details zu entlocken, ist ein Bereich, in dem Wachter Verbesserungspotenzial sieht.
„Ich denke, dann wird es wirklich gut, wenn die Werkzeuge in der Art und Weise, wie sie mit den Patienten hin und her gehen, etwas ärztlicher werden“, sagte Wachter.
Eine Möglichkeit, sich im Hinblick auf die Informationen, die Sie erhalten, sicherer zu fühlen, besteht derzeit darin, mehrere Chatbots zu konsultieren – ähnlich wie das Einholen einer zweiten Meinung von einem anderen Arzt.
„Manchmal füge ich Informationen in ChatGPT und Informationen in Gemini ein“, sagte Wachter und verwies auf das KI-Tool von Google. „Und wenn beide zustimmen, fühle ich mich ein bisschen sicherer, dass das die richtige Antwort ist.“










