ProtoTree: Entscheidungen von Künstlicher Intelligenz nachvollziehbar machen

Künstliche Intelligenz ist in der Lage, Vorhersagen zu treffen. Aber häufig kann nicht in Detail nachvollzogen werden, wie Entscheidungsprozesse ablaufen. Dann spricht man von einer Blackbox. In vielen Kontexten ist es aber wichtig zu wissen, welche Argumentation ein Algorithmus verwendet, um zu einer bestimmten Vorhersage zu gelangen, zum Beispiel bei medizinischen Diagnosen. Meike Nauta hat darum ein Modell entwickelt, das KI-Entscheidungsprozesse transparent macht. Sie ist Doktorandin an der Universität Twente, Niederlande, und Gastwissenschaftlerin am Institut für Künstliche Intelligenz in der Medizin in Essen (IKIM) der Medizinischen Fakultät der Universität Duisburg-Essen.
Das Verständnis des Entstehungsprozesses einer Entscheidung kann wichtig sein, wenn zum Beispiel Ärzt:innen die von Künstlicher Intelligenz (KI) gestellten Diagnosen verstehen müssen, um sie validieren zu können. Bislang wurde in der Forschung zur sogenannten erklärbaren KI meist rückschauend interpretiert, wie Entscheidungen zustande gekommen sind. Relativ neu, aber noch wenig erforscht, ist das sogenannte intrinsisch interpretierbare maschinelle Lernen, bei dem die Erklärbarkeit bereits Teil des Modells ist. So in dem von Meike Nauta entwickelten Neural Prototype Tree, kurz ProtoTree, zur Interpretation von Bilddateien.

Laut Christin Seifert, Professorin am IKIM und Mitautorin der Studie, ähnelt der zugrundeliegende Prozess dem, wie man einem Kind neue Dinge beibringt: „Man sagt einem Kind zum Beispiel, dass das Tier auf einem Foto ein Hund ist, aber man erklärt nicht im Detail, welche körperlichen Merkmale Hunde haben. Das Kind lernt, andere Hunde nur auf Grundlage von solchen Beispielen zu erkennen.“

Die Wissenschaftlerinnen haben ProtoTree u.a. mit Bildern von Vögeln und Autos trainiert und es kann in Bildern nach übereinstimmenden physischen Merkmalen suchen. „Für die Anwendenden ist jeder Schritt in der Argumentation nachvollziehbar. Und da man sieht, worauf Entscheidungen fußen, können Verzerrungen entdeckt werden“, erklärt Meike Nauta. Solches Entscheidungsbaumlernen gibt es zwar schon seit Jahrzehnten, jedoch nicht für die Klassifikation von Bildern. In dem von Nauta entwickelten Modell ist entsprechend auch jeder Entscheidungspunkt in einem Bild dokumentiert und damit für den Menschen leicht zu interpretieren.

Prof. Dr. Christin Seifert: „Jetzt werden wir die Anwendung von ProtoTree im medizinischen Bereich erforschen.“ Eine interdisziplinäre Studie zwischen der Universität Twente, der Twente Hospital Group, dem IKIM und der Universität Münster wird aktuell vorbereitet.

Nautas Paper wird über die Computer Vision Foundation veröffentlicht, eine Non-Profit-Organisation, die alle CVPR-Publikationen open-access zur Verfügung stellt. Das Paper/Der Artikel ist Open Access / frei verfügbar unter: Neural Prototype Trees for Interpretable Fine-Grained Image Recognition.

Hier klicken um den ganzen Artikel zu lesen.

Dieser Artikel wurde automatisch von Uni D/E News geladen.