Nahaufnahme eines Mannes vor einem Laptop. Er tippt. Vor ihm eine eingeblendete Chat-Eingabemaske.© Pakin Jarerndee / iStock / Getty Images Plus
Vorsicht bei Antworten von Chatbots zu Fragen nach Medikamenten. KI-gestützte Suchmaschinen liefern nicht immer verlässliche Informationen.

Warnung

GEHT ES UM MEDIKAMENTE, VERTRAUE NICHT CHATBOTS MIT KI

Es heißt nicht umsonst: „Zu Risiken und Nebenwirkungen lesen Sie die Packungsbeilage und fragen Sie Ihre Ärztin, Ihren Arzt oder in Ihrer Apotheke“. Warum Ihre Kund*innen KI-Chatbots nicht glauben sollten, wenn es um Medikamente geht, und Googlen auch nichts bringt, belegt jetzt sogar eine Studie.

Seite 1/1 2 Minuten

Seite 1/1 2 Minuten

Das Telefon der Arztpraxis ist ständig besetzt und in der Apotheke sammelt sich eine Menschentraube vor dem HV-Tisch. Es ist gut nachvollziehbar, warum viele Menschen den Aufwand einer fachlichen Konsultation scheuen. Vielleicht spielen auch Scham über das Thema, Zeitdruck im Alltag oder das Kleinreden der eigenen Situation eine Rolle.

Dank des Internets stehen Informationen zu Medikamenten heute viel schneller, niedrigschwelliger und dazu noch kostenlos zur Verfügung. Also schnell Symptome gegoogelt oder den KI-Chatbot über Nebenwirkungen des neuen Präparats befragt – und gut ists. Doch Forschende der Universität Erlangen warnen vor ungenauen und unvollständigen Ergebnissen. Wenn es um Medikamente geht, ist KI-gestützten Chatbots noch nicht zu trauen.

KI-generierte Antwort birgt Risiken für Laien

Wahram Andrikyan und sein Team vom Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen stellten dem KI-gestützten Chatbot „Bing“ von Microsoft zehn häufige Patient*innenfragen zu 50 Medikamenten, beispielsweise zur Einnahme, Wechsel- oder Nebenwirkungen.

Insgesamt punktete die künstliche Intelligenz (KI) mit hoher Vollständigkeit und Genauigkeit. Doch bei einigen Fragen eben nicht – russisch Roulette bei der Arzneimittelsicherheit? „Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können“, warnt Andrikyan. Eine sichere Anwendung der KI könne man (bislang) nicht empfehlen. Zu durchwachsen waren die Angaben zu Medikamenten. Die Forschenden würden eher einen Warnhinweis bei der Nutzung der Chatbots begrüßen.

Oder man hält es wie der Google-Chatbot „Gemini“: Die Studie konnte nicht mit der KI durchgeführt werden, da sie sich weigere, medizinische Fragen unter anderem zu Medikamenten zu beantworten. Das Team hält es jedoch für sinnvoll, weitere KI zu untersuchen.

KI-Chatbot ersetzt nicht Arzt oder Ärztin

Schlechter schnitt der KI-Chatbot von Open AI bei einer weiteren Studie der Western University in Kanada ab: Dort wurde ChatGPT mit einem Multiple-Choice-Test, wie ihn auch Medizinstudierende in ihrer Ausbildung absolvieren, auf die Probe gestellt: Jede zweite „Diagnosestellung“ der KI ging schief und sie ordnete die falsche Krankheit zu. In älteren Studien schnitt Google noch schlechter ab.

Dann doch besser weiterhin bei Ärztin, Arzt oder in der Apotheke nachfragen.

 

Quellen:
https://qualitysafety.bmj.com/content/early/2024/09/18/bmjqs-2024-017476
https://www.deutschlandfunk.de/vorsicht-bei-infos-von-chatbots-zu-medikamenten-102.html
https://www.deutschlandfunknova.de/nachrichten/medizin-chatgpt-ist-im-krankheiten-diagnostizieren-so-schlecht-wie-googlen

×