Warnung
GEHT ES UM MEDIKAMENTE, VERTRAUE NICHT CHATBOTS MIT KI
Seite 1/1 2 Minuten
Das Telefon der Arztpraxis ist ständig besetzt und in der Apotheke sammelt sich eine Menschentraube vor dem HV-Tisch. Es ist gut nachvollziehbar, warum viele Menschen den Aufwand einer fachlichen Konsultation scheuen. Vielleicht spielen auch Scham über das Thema, Zeitdruck im Alltag oder das Kleinreden der eigenen Situation eine Rolle.
Dank des Internets stehen Informationen zu Medikamenten heute viel schneller, niedrigschwelliger und dazu noch kostenlos zur Verfügung. Also schnell Symptome gegoogelt oder den KI-Chatbot über Nebenwirkungen des neuen Präparats befragt – und gut ists. Doch Forschende der Universität Erlangen warnen vor ungenauen und unvollständigen Ergebnissen. Wenn es um Medikamente geht, ist KI-gestützten Chatbots noch nicht zu trauen.
KI-generierte Antwort birgt Risiken für Laien
Wahram Andrikyan und sein Team vom Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen stellten dem KI-gestützten Chatbot „Bing“ von Microsoft zehn häufige Patient*innenfragen zu 50 Medikamenten, beispielsweise zur Einnahme, Wechsel- oder Nebenwirkungen.
Insgesamt punktete die künstliche Intelligenz (KI) mit hoher Vollständigkeit und Genauigkeit. Doch bei einigen Fragen eben nicht – russisch Roulette bei der Arzneimittelsicherheit? „Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können“, warnt Andrikyan. Eine sichere Anwendung der KI könne man (bislang) nicht empfehlen. Zu durchwachsen waren die Angaben zu Medikamenten. Die Forschenden würden eher einen Warnhinweis bei der Nutzung der Chatbots begrüßen.
Oder man hält es wie der Google-Chatbot „Gemini“: Die Studie konnte nicht mit der KI durchgeführt werden, da sie sich weigere, medizinische Fragen unter anderem zu Medikamenten zu beantworten. Das Team hält es jedoch für sinnvoll, weitere KI zu untersuchen.
Mehr zum Thema KI:
KI-Chatbot ersetzt nicht Arzt oder Ärztin
Schlechter schnitt der KI-Chatbot von Open AI bei einer weiteren Studie der Western University in Kanada ab: Dort wurde ChatGPT mit einem Multiple-Choice-Test, wie ihn auch Medizinstudierende in ihrer Ausbildung absolvieren, auf die Probe gestellt: Jede zweite „Diagnosestellung“ der KI ging schief und sie ordnete die falsche Krankheit zu. In älteren Studien schnitt Google noch schlechter ab.
Dann doch besser weiterhin bei Ärztin, Arzt oder in der Apotheke nachfragen.
Quellen:
https://qualitysafety.bmj.com/content/early/2024/09/18/bmjqs-2024-017476
https://www.deutschlandfunk.de/vorsicht-bei-infos-von-chatbots-zu-medikamenten-102.html
https://www.deutschlandfunknova.de/nachrichten/medizin-chatgpt-ist-im-krankheiten-diagnostizieren-so-schlecht-wie-googlen