HNI Forum am 2. Mai 2024

 |  Heinz Nixdorf Institut

Das Thema des Forums am 2. Mai im Heinz Nixdorf Institut lautet "Pragmatische Opazität von Maschinen aus technikphilosophischer und -ethischer Sicht". Das HNI-Forum ist eine Vortragsreihe, die sich mit aktuellen Forschungstrends und Projekten beschäftigt. Dabei sollen Ideen, Herausforderungen und Lösungsansätze auf allgemeinverständliche Art vermittelt werden.

Eine differenzierte Auseinandersetzung mit dieser Problematik beginnt damit, verschiedene Typen von Opazität zu unterscheiden: Für wen stellt sich eine Maschine/Software aus welchen Gründen als opak dar? Der Grund des Geschäftsgeheimnis kann Systeme für nicht eingeweihte aus rechtlichen Gründen opak erscheinen lassen. Systeme können für User opak sein, weil sie nicht über das Wissen und die praktischen Kenntnisse verfügen, um diese einschätzen zu können (Bildungsfrage). Davon ist die epistemische Opazität zu unterscheiden, die eine prinzipielle Undurchsichtigkeit der Systeme meint, selbst für Expert*innen — aufgrund der genuinen Eigenschaften der Systeme. 

Zwei Vorträge zum Thema geben eine Einführung in die Forschung: Die erste Präsentation stellt einen wichtigen, von der epistemischen Opazität abzugrenzenden Typ der Opazität vor, den Prof. Dr. Andreas Kaminski "pragmatische Opazität" nennt. Die zweite Präsentation befasst sich mit der ethischen Diskussion um opake ML-Systeme und diskutiert wie auf "pragmatische Opazität" reagiert werden sollte.

Um die Opazität von (einigen) ML-Systemen ist in den letzten Jahren über die Informatik hinaus eine gesellschaftliche Debatte entfacht. Die Undurchsichtigkeit von KI kann in verschiedenen Hinsichten problematisch werden. Zunächst kann es aus Sicht von Entwickler*innen und Hersteller*innen herausfordernd sein, Systeme, die auf nicht-linearen Modellen basieren und/oder eine gewisse Komplexität übersteigen, in ihrem Verhalten hinreichend einschätzen zu können, um (a) diese zielgerichtet zu optimieren und (b) zu evaluieren (Verlässlichkeit, Sicherheit). Mit der Verbreitung von Software, deren Verhalten sich insgesamt als opak darstellt, in diverse, insbesondere auch sensitive Anwendungsfelder wie der Medizin stellen sich darüber hinaus weitere Fragen: Wie können Mediziner*innen ihre Entscheidungen verifizieren und rechtfertigen, wenn sie zu diesen Entscheidungen mithilfe von Empfehlungen eines für sie opaken, ML-basierten Systems gekommen sind? Vor diesem Hintergrund ist von politischer, gesellschaftlicher und wissenschaftlicher Seite der Ruf nach Transparenz und Erklärbarkeit dieser ML-Systeme laut geworden. Ein ganzes Forschungsfeld hat sich dieser Aufgabe angenommen, das der erklärbaren KI.

HNI-Forum