Gesundheit

Geschlecht unausgewogene Datensätze können Auswirkungen auf die Leistung von AI Pathologie Klassifikation

Ein team von Forschern der Universidad Nacional del Litoral–Consejo Nacional de Investigaciones Cientıficas und der Universidad Nacional de Entre Rııos, beide in Argentinien, hat Beweise dafür gefunden, gender unausgewogene Datensätze beeinträchtigen die Leistung Pathologie Klassifikation mit KI-basierte Diagnose-Systeme. In Ihrem Papier veröffentlicht in Verfahren der National Academy of Sciences, die Gruppe beschreibt den Tests werden drei open-source-Maschine-algorithmen verwendet für die Analyse von X-ray Bilder zu erkennen, die verschiedene medizinische Bedingungen, und was Sie fanden.

Auch wenn es vielleicht nicht wissen, KI-Systeme sind derzeit in einer Vielzahl von kommerziellen Anwendungen, einschließlich der Auswahl der Artikel auf der news-und social-media-Websites, die Filme zu bekommen,und die Karten erscheinen auf unsere Telefone—KI-Systeme haben werden Vertrauenswürdige tools, die von großen Unternehmen. Aber Ihr Einsatz ist nicht immer unumstritten. In den letzten Jahren haben Forscher herausgefunden, dass AI-apps verwendet, um zu genehmigen, Hypotheken und andere Darlehen Anwendungen, die voreingenommen sind, zum Beispiel, zu Gunsten der weißen Männer. Dieser Forscher fand, war, da das dataset für die Ausbildung der system umfassten meist weißen, männlichen profile. In dieser neuen Bemühung, die Forscher gefragt, ob das gleiche könnte wahr sein, für KI-Systeme verwendet, um zu helfen ärzte diagnostizieren Patienten.

Die Arbeit umfasste die Auswertung von drei open-source-KI-Systeme, die sich noch in der experimentellen Phase. Jeder war ausgebildet auf der Brust X-Strahlen erhalten von den NIH und der Stanford University Datenbanken, die beide enthalten etwas mehr männliche profile. Um herauszufinden, ob die Systeme produzieren würde verfälschte Ergebnisse, die Forscher verzerrt die Daten auf verschiedene Weise. In einigen Fällen, Sie in Erster Linie nur die männlichen profile, die in anderen, in Erster Linie weiblich.

Im Blick auf Ihre Ergebnisse, die Forscher fanden heraus, dass es war eine deutliche Voreingenommenheit—wenn die Daten war meist Männlich, die Fehlerraten für die Verarbeitung weiblichen profile rose. Gleiches galt, wenn die Verhältnisse Umgekehrt waren. Sie fanden auch, dass über-repräsentiert ein Geschlecht oder das andere Taten, die nicht verleihen, einen Vorteil—die Fehler-raten blieben relativ stabil.