Viele Studien behaupten, dass die künstliche Intelligenz ist so gut wie (oder besser als) menschlichen Experten bei der Interpretation medizinischer Bilder sind von schlechter Qualität und sind wohl übertrieben, Sie stellen auch eine Gefahr für die Sicherheit von „Millionen von Patienten“, warnen die Forscher im BMJheute.
Ihre Ergebnisse werfen Zweifel an der Qualität der Beweise, die das untermauern viele dieser Studien, und unterstreichen die Notwendigkeit der Verbesserung Ihrer design-und reporting-standards.
Die künstliche Intelligenz (KI) ist eine innovative und schnelllebige Feld mit dem Potenzial, die Patientenversorgung zu verbessern und entlasten Sie überlastete Gesundheitsdienste. Deep learning ist ein Zweig der KI hat gezeigt, dass bestimmte Versprechen, in der medizinischen Bildgebung.
Das Volumen der veröffentlichten Forschung, die auf deep learning wächst, und einige Schlagzeilen in den Medien, die behaupten, überlegene Leistung zu ärzte geschürten hype für die schnelle Umsetzung. Aber die Methoden und verzerrungspotenzial der Studien hinter diesen Schlagzeilen wurden nicht im detail untersucht.
Um dies zu beheben, ein team von Forscher überprüft die Ergebnisse der veröffentlichten Studien in den letzten 10 Jahren, vergleicht die Leistung eines deep learning-Algorithmus in der medizinischen Bildgebung mit Experten Kliniker.
Sie fanden nur zwei der berechtigten randomisierten klinischen Studien und 81 nicht-randomisierten Studien.
Der nicht-randomisierten Studien, nur neun waren prospektive (tracking und das sammeln von Informationen über Personen im Laufe der Zeit), und nur sechs wurden getestet, die in einer ‚realen Welt‘ klinischen Einstellung.
Die Durchschnittliche Anzahl von menschlichen Experten in die Komparator-Gruppe war gerade vier, während der Zugriff auf raw-Daten und-code (ermöglichen unabhängige Prüfung der Ergebnisse) stark eingeschränkt war.
Mehr als zwei Drittel (58 von 81) Studien beurteilt wurden, werden bei hohen Risiko für bias (Probleme im Studiendesign, die einen Einfluss auf die Ergebnisse), und die Einhaltung der anerkannten reporting-standards war oft schlecht.
Drei Viertel (61 Studien) festgestellt, dass die Leistung der KI war mindestens vergleichbar mit (oder besser als) der Kliniker, und nur 31 (38%) Gaben an, dass weitere prospektive Studien oder Studien benötigt wurden.
Die Wissenschaftler weisen auf einige Einschränkungen, wie etwa die Möglichkeit, die verpassten Studien und der Schwerpunkt auf deep-learning-medical imaging-Studien, so dass die Ergebnisse möglicherweise nicht für andere Arten von AI.
Dennoch, sagen Sie, dass derzeit „viele wohl übertrieben Ansprüche bestehen über die Gleichwertigkeit mit (oder überlegenheit über) ärzte, die eine potenzielle Gefahr für die Sicherheit der Patienten und die Gesundheit der Bevölkerung auf der gesellschaftlichen Ebene.“
Overpromising Sprache „verlässt Studien anfällig gegen falsch interpretiert von den Medien und der öffentlichkeit, und als Ergebnis die möglichen Bereitstellung von ungeeigneten Pflege, die nicht unbedingt ausrichten mit Patienten, die „besten Interessen“, warnen Sie.