Das zeigt eine aktuelle Studie der Medizinischen Hochschule Hannover (MHH), die jetzt im „British Journal of Clinical Pharmacology“ veröffentlicht wurde. Die Fehler der frei verfügbaren Version 3.5 von ChatGPT waren teilweise haarsträubend: So war für die KI das Antibiotikum Tazobactam ein Sedativum, für das es eine Wechselwirkung mit Hydromorphon annahm, das Insulin-Analogon Actrapid wurde zu einem Analgetikum und unter der Therapie mit direkten oralen Antikoagulanzien sei laut ChatGPT eine Überwachung des INR-Werts nötig.
KI untauglich
Bei der Studie wurden Antworten auf 70 echte pharmakotherapeutische Fragestellungen, meist zu konkreten Patientenfällen, analysiert. Die Fragen, die von Mediziner:innen aus dem Krankenhaus gestellt wurden, betrafen am häufigsten Interaktionen, Indikationen/Kontraindikationen, Nebenwirkungen und Dosisanpassungen. Bearbeitet wurden sie von einem Team aus Ärzt:innen und Apotheker:innen des Arzneimittelinformationszentrums.
Das Studienteam stellte dann ChatGPT 3.5 dieselben Fragen und ließ sowohl die KI-Antworten als auch die der Fachleute des Arzneimittelinformationszentrums verblindet von drei Evaluator:innen bewerten. ChatGPT schloss deutlich schlechter ab, es machte mehr sachliche und zudem schwerwiegendere Fehler als die Fachleute. Auch qualitativ war die menschliche Information höher. Die Studie demonstriert eindeutig, dass ChatGPT in der Arzneimitteltherapie (noch) nichts verloren hat.