KI - Symbolbild (Foto: Pixabay)

Was riskant ist, wenn Maschinen Entscheidungen treffen

Tabea Prünte   06.08.2022 | 11:16 Uhr

Künstliche Intelligenz schleicht sich immer mehr in den Alltag vieler Menschen ein. Spracherkennungssoftware, Smart-Home-Geräte oder automatisch generiertes Musikstreaming. Die Möglichkeiten scheinen nahezu grenzenlos - doch man sollte ihr nicht blind vertrauen.

Sie sorgt für personalisierte Werbung beim Online-Shopping, reguliert die Temperatur bei uns Zuhause oder wählt den nächsten Song auf der Playlist aus: Künstliche Intelligenz kann immer mehr.

KIs, Algorithmen und Entscheidungen durch Computer scheinen mittlerweile so fest im Alltag verankert zu sein, dass immer mehr Menschen auf deren Entscheidungen vertrauen. Das hat zumindest eine aktuelle psychologische Studie der Universität des Saarlandes herausgefunden. Ist dieses Vertrauen berechtigt?

"Es kommt darauf an", sagt der Computerethiker Kevin Baum von der Universität des Saarlandes und erklärt: Das Vertrauen in Computer und Maschinen nennt man "Automation Bias". Dieses Vertrauen sei erstmal komplett nachvollziehbar im Gegensatz zum Vertrauen in menschliche Entscheidungen. "Wir alle wissen, dass Menschen nicht perfekt entscheiden", so Baum.

Algorithmen sind nicht neutral

Denn Menschen sind anfällig für äußere Einflüsse, sogenannte Störgeräusche. Wenn zum Beispiel ein Richter über ein Urteil entscheidet, kann es eine Rolle spielen, wie er geschlafen hat, ob an dem Tag die Sonne scheint oder der Lieblingsverein am Vortag gewonnen hat. "Denken wir aber an Maschinen, denken wir an Code und Mathematik oder Programmierung, sehen wir vielleicht Excel-Tabellen vor uns. Die sehen erstmal unbestechlich aus", so Baum.

Das weckt die Erwartung, dass Algorithmen absolut neutral seien. Dieses Vertrauen ist tückisch und kann zu Manipulierung führen. Zum Beispiel durch die Algorithmen bei Sozialen Medien, mit denen man in thematischen Filterblasen landen kann.

KI muss erklärbar bleiben

Damit das nicht passiert, muss KI für Menschen nachvollziehbar und erklärbar bleiben. Das Problem: KIs zeichnen sich auch dadurch aus, dass sie selbstständig lernen können. Je mehr Daten sie zur Verfügung haben, desto besser können sie daraus Analysen und Prognosen erstellen. Und da sie daraufhin selbst neue Daten generieren, wächst ihr Datenschatz automatisch weiter.

Die Gefahr liegt darin, dass Menschen diese Entwicklung irgendwann nicht mehr überblicken können und die Nachvollziehbarkeit verloren geht. Entscheidungen oder Empfehlungen von KI lassen sich dann nur noch schwer hinterfragen. Dafür sensibilisiert auch der Verein Algoright, den Baum mitgegründet hat.

Verstärkung von Diskriminierung

Ein weiteres Problem: Selbstlernende Programme können Diskriminierung reproduzieren oder sogar noch verstärken. Baum nennt dafür ein Beispiel: Setzt ein Unternehmen bei einer Personalentscheidung auf einen Algorithmus, der anhand bereits angestellter Mitarbeiterinnen und Mitarbeiter eine Vorauswahl unter neuen Bewerberinnen und Bewerbern trifft, bildet diese Entscheidung ziemlich genau die bisherigen Strukturen des Unternehmens ab. Bislang unterrepräsentierte Minderheiten bleiben dann auch unterrepräsentiert oder verschwinden mit der Zeit sogar komplett.

Konkret könnte das für einige Unternehmen etwa heißen, dass weniger Frauen in Führungspositionen kommen oder weniger Migrantinnen und Migranten eingestellt werden.

Digitalisierung in Unternehmen

Einige "gruselige Beispiele" von ethisch nicht konformen KIs habe es in Unternehmen bereits gegeben, sagt Tobias Greff vom Mittelstand 4.0-Kompetenzzentrum Saarbrücken (Komzet Saar). "Eine Gesichtserkennungs-KI zum Beispiel, die nur weiße Menschen erkennt. Oder eine Sprachsoftware mit rassistischen Tendenzen, der ein historischer Datensatz zugrunde liegt", zählt Greff auf und betont: "Eine KI muss auf heutigen Werten und Normen aufbauen."

Anne Blum, Projektleiterin des Komzet Saar, fügt einen wichtigen Punkt für die Entwicklung von KI-Systemen hinzu: "Die zugrundeliegenden Daten müssen vor allem die Realität abbilden."

Dann könne KI für Unternehmen auch einen großen Mehrwert bringen. Das Ziel bei den Beratungen und Workshops des Komzet Saar ist, die Arbeitsabläufe mithilfe von KI effizienter zu machen. "Wir wollen Jobs erhalten und Menschen von stupider Arbeit befreien", erklärt Greff, der den Schwerpunkt Digitale Geschäftsmodelle vertritt.

Bewachtes Lernen

"Man darf KI aber nicht als Allheilmittel oder als einen selbstdenkenden Menschen sehen." Besser sollte man sie als eine Assistenz und Hilfestellung für viele Bereiche verstehen, ähnlich einer guten Handy-App.

Der Lernprozess einer KI müsse daher strikt überwacht ablaufen. Entwicklerinnen und Entwickler müssen die KI "ab und zu in ihre Schranken weisen und erziehen, wie man auch ein Kind erzieht", sagt Greff. Aber: "Man darf die KI auch nicht zu sehr einschränken."

Wichtig sei, die Verantwortlichkeiten festzulegen. "Wenn Menschen die Möglichkeit haben, sich frei zu entscheiden und eine KI das nun auch kann, dann muss auch eine KI zur Verantwortung gezogen werden können", sagt Greff. Beziehungsweise wäre das dann das jeweilige Unternehmen.

Mensch als Kontrollinstanz

Letztlich müsse der Mensch als Kontrollinstanz immer eine wichtige Rolle spielen, sagt Kevin Baum. Auch hierfür nennt er ein Beispiel: Empfiehlt eine KI im Krankenhaus die risikoärmere Behandlungsmethode für eine Schulterverletzung, mit der aber die Nebenwirkung einhergeht, etwas vom Gefühl in den Fingerspitzen zu verlieren, kann das für den Durchschnitt der Bevölkerung die beste Behandlungsmethode sein. Ist der Patient allerdings Pianist, wäre die Nebenwirkung für ihn persönlich deutlich gravierender.

Entscheidungen von KIs gehen also zugunsten des Durchschnitts - können sich aber zulasten des Individuums auswirken. Hier müssen Ärztinnen und Ärzte in der Lage bleiben, die Empfehlung der KI nachvollziehen und sich gegebenenfalls darüber hinwegsetzen zu können.

Gesellschaft aufklären

Die Gesellschaft müsse besser über KI aufgeklärt werden, damit ein Bewusstsein für ihre Chancen und Risiken entsteht. Dass Informatik im Saarland künftig zum Pflichtfach ab der siebten Klasse werden soll, sei bereits ein wichtiger Schritt, findet Baum. Im Unterricht müssten dann auch ethische Fragestellungen diskutiert werden. "Generell muss man den Leuten das naive Übervertrauen nehmen, genauso aber unbegründete Skepsis."

Außerdem schlägt er vor, in der Ausbildung von Informatikerinnen und Informatikern KI übergreifend zu betrachten: aus rechtlicher, psychologischer, moralischer, soziologischer und mathematischer Perspektive. Gerade das Saarland hat dabei seiner Meinung nach einen Vorteil: "Wir haben hier eine sehr starke Informatik. Wenn wir jetzt dieses Know-How aufbauen, kann das Saarland zum Saatkorn der digitalen Zukunft werden." Dafür sei aber noch deutlich mehr Förderung notwendig.

Digitalisierung richtig machen

Es komme darauf an, wie man die Digitalisierung vorantreibt - und das müsse vor allem mit einem ganzheitlichen und auch moralischen Blick geschehen. Gerade da, wo besonders sensible Entscheidungen getroffen werden: im Gesundheitssektor, beim Zugang zum Arbeitsmarkt, Zugang zu Bildung, "aber auch Algorithmen in Sozialen Medien, die darüber entscheiden, was wir dort sehen und vielleicht darüber entscheiden, was unser Blick auf die Wirklichkeit ist".

Ähnlich sieht es letztlich auch Tobias Greff vom Komzet Saar: "Vorsicht ist dann geboten, wenn die KI zur Blackbox wird, wenn sie also nicht mehr nachvollziehbar ist. Dann sollte man sie auch nicht mehr anwenden." Es gebe gewisse Bereiche, da müsse man den Einsatz von automatisierten Entscheidungsträgern hinterfragen: "Die Steuerung von einem Atomkraftwerk würde ich einer 'Blackbox'-KI zum Beispiel nicht anvertrauen", sagt er.

Regulierung von KI

Die Grenzen von KI werden darüber hinaus auch EU-weit diskutiert. Dazu hat die EU-Kommission einen Rechtsrahmen vorgeschlagen. Besonders risikoreiche Anwendungsformen von KI sollen demnach stark reguliert und vor ihrer Anwendung sorgfältig überprüft werden. Systeme mit noch höherem Risiko sollen sogar komplett verboten werden. Dazu zählt zum Beispiel das sogenannte Social Scoring, also Systeme, mit denen soziale Bewertung durch Behörden stattfinden kann.

Artikel mit anderen teilen

Push-Nachrichten von SR.de
Benachrichtungen können jederzeit in den Browser Einstellungen deaktiviert werden.

Datenschutz Nein Ja