Ein Handy zeigt ein Bild eines gescannten Raumes (Foto: IMAGO / YAY Images)

Saar-Forscher wollen Künstliche Intelligenz erklärbar machen

Jan Henrich   06.03.2022 | 08:25 Uhr

Von der Handy-Kamera bis zur Krebs-Diagnostik - Künstliche Intelligenz gehört längst zum Alltag und trifft dabei auch eigenständig Entscheidungen. Oft ist nicht nachvollziehbar, wie die KI im Einzelfall vorgeht. Im Thinktank „Algoright“ setzen sich junge Forschende aus dem Saarland deshalb für mehr Transparenz ein.

Wenn eine Smartphone-App per Knopfdruck alte Schwarz-Weiß-Fotos in Farbe erstrahlen lässt, dann steckt oftmals Künstliche Intelligenz (KI) dahinter. Solche und ähnliche Möglichkeiten zur automatischen Foto-Bearbeitung gibt es mittlerweile zuhauf.

Video [aktueller bericht, 25.02.2022, Länge: 3:19 Min.]
Junge Saar-Forscher arbeiten an größerer Transparenz in KI-Systemen

Die Software analysiert eigenständig Bilder und entscheidet in Sekundenschnelle über die Bearbeitung. Wie genau die KI dabei zu ihrer Einschätzung kommt wird nicht erklärt und ist meist für Nutzerinnen und Nutzer gar nicht nachvollziehbar.

Vom Smartphone bis zur Krebs-Diagnostik

Genau das kann problematisch werden, insbesondere wenn sensible Bereiche betroffen sind. Denn was bei der Handy-App noch Spielerei ist, wird in anderen Bereichen lebenswichtig.

Zum Beispiel beim autonomen Fahren, wenn KI-Systeme automatisch Fahrzeuge steuern oder in der Medizin, wo künstliche Intelligenz zur Krebs-Diagnostik eingesetzt wird.

„Algoright“ setzt sich für mehr Transparenz ein

Für die Forscher Markus Langer und Timo Speith von der Universität des Saarlandes ist es deswegen ein zentrales Anliegen, KI-Entscheidungen transparenter zu machen. Die Erklärbarkeit sei entscheidend um zu wissen, wann der Mensch auf die Systeme vertrauen kann und wann nicht.

Die beiden haben sich im Verein „Algoright“ mit anderen jungen Forscherinnen und Forschern aus dem Saarland zusammengetan, um das Verständnis über automatisierte Systeme zu verbessern. Expertise aus den Bereichen Informatik, Jura, Philosophie und Psychologie kommen in der Gruppe zusammen.

Technische Grenzen der Erklärbarkeit

Doch die Entscheidungswege einer künstlichen Intelligenz sichtbar zu machen, ist technisch nicht einfach, wie die Gruppe erklärt. KI-Systeme lernen anhand riesiger Datenmengen. Dabei werden die Programme so komplex, dass selbst der Blick hinter die Kulissen nicht mehr erkennen lässt, wie ein Ergebnis im Einzelfall zustande kommt.

Die KI folgt auch nicht immer einer menschlich nachvollziehbaren Logik. Mit einzelnen Methoden kann meist nur annäherungsweise überprüft werden, welche Faktoren für das System eine Rolle gespielt haben.

Breite Diskussion um den Einsatz von KI

Neben technischen Lösungen für die Erklärbarkeit von KI-Entscheidungen fordert die Forschergruppe aus dem Saarland daher einen breiten Ansatz, der Entwickler, Unternehmen und auch Nutzer einbindet.

Vor kurzem haben sie ein umfassendes Auditierungskonzept für die Entwicklung neuer KI-Programme veröffentlicht. Danach soll unter anderem bereits die Auswahl der Daten besser dokumentiert werden, mit denen ein KI-System trainiert wird.

Vor allem aber will die Gruppe das Bewusstsein über den Einsatz der Systeme schärfen und aus ihrer Sicht eine dringend notwendige Diskussion anstoßen. Auch über die Frage ob wirklich alles, was die künstliche Intelligenz möglich macht, auch Einzug in den Alltag finden sollte.


Was ist Künstliche Intelligenz?

Künstliche Intelligenz ist ein Überbegriff für Anwendungen, die auf Grundlage großer Datenmengen relativ eigenständig Probleme lösen können. Darunter fallen beispielsweise die Technologien „maschinelles Lernen“ oder „künstliche neuronale Netze“.

Über dieses Thema hat auch der aktuelle bericht im SR Fernsehen am 25.02.2022 berichtet.

Artikel mit anderen teilen


Push-Nachrichten von SR.de
Benachrichtungen können jederzeit in den Browser Einstellungen deaktiviert werden.

Datenschutz Nein Ja