Neuste Studienergebnisse deuteten darauf hin, dass KI-gestützte Chatbots und Suchmaschinen bei der Bereitstellung von Informationen über Medikamente nicht verlässlich sind. Forscher des Instituts für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen haben in ihrer Untersuchung herausgefunden, dass die Antworten der Chatbots oft ungenau und schwer verständlich sind. Diese Mängel stellen ein großes Risiko für Patienten dar, die auf diese Informationen angewiesen sind.
Um die Genauigkeit der Informationen zu prüfen, testeten die Wissenschaftler im April 2023 den KI-Chatbot der Microsoft-Suchmaschine Bing. Dabei stellten sie zehn häufige Fragen zu den 50 meistverordneten Medikamenten in den USA, darunter Aspekte wie Anwendung, Nebenwirkungen und Wechselwirkungen. Auch wenn der Chatbot sehr viele Anliegen fast vollständig beantwortete, gab es doch Fragen, bei denen die Informationen fehlerhaft waren. „Die Laien können nicht erkennen, ob die bereitgestellten Informationen korrekt sind“, erklärte Wahram Andrikyan, Erstautor der Studie.
Die Sorge um die Patientensicherheit
Wahram Andrikyan betonte, dass trotz der enormen Fortschritte in der KI-Technologie seit der letzten Untersuchung, die Sicherheitsrisiken für Patienten weiterhin bestehen blieben. „Die Qualität der Chatbot-Antworten ist für die sichere Anwendung durch die Nutzer derzeit nicht ausreichend“, erklärte er weiter. Die Forscher fordern daher die Einführung von Warnhinweisen für Nutzer, um sie vor möglicherweise falschen oder unvollständigen Informationen zu schützen.
Das Problem ist ernsthaft: Patienten, die sich selbstständig online über ihre verschriebenen Medikamente informieren, könnten falschen Informationen vertrauen und dadurch gefährliche Entscheidungen treffen. Deswegen sei es nach Andrikyans Meinung unabdingbar, dass die Informationen von Chatbots niemals den professionellen Rat von Fachleuten ersetzen sollten.
Zusätzlich unterstrichen die Forscher, dass es wichtig sei, weitere Systeme zu überprüfen, da Chatbots auf unterschiedlichen Datensätzen trainiert werden. Die Vielfalt dieser Daten kann die Qualität der gelieferten Informationen beeinflussen, und es könnte nötig sein, die Funktionalität verschiedener Systeme eingehender zu analysieren. Das Ziel ist es, sicherzustellen, dass die von ihnen bereitgestellten Informationen für die User sicher und verlässlich sind.
Die Studie, veröffentlicht im Fachjournal "BMJ Quality & Safety", verdeutlicht die Notwendigkeit einer kritischen Betrachtung der Quellen, aus denen Patienten ihre Gesundheitsinformationen beziehen. In einer Zeit, in der der Zugang zu Informationen erleichtert, jedoch gleichzeitig die Risiken steigen, ist es unerlässlich, dass sowohl Anbieter als auch Nutzer von KI-Tecnologien Verantwortung übernehmen.
Für vertiefte Informationen über die Thematik und die dahinterliegenden Studienergebnisse empfiehlt sich eine Lektüre auf www.abendzeitung-muenchen.de.
Details zur Meldung