Forscher warnen eindringlich vor KI-Risiken
Zahlreiche internationale Experten aus dem Bereich der Künstlichen Intelligenz (KI) haben angesichts der rasanten Weiterentwicklung eine eindringliche Warnung vor den Gefahren von KI-Systemen unterzeichnet. Sie fordern die Politik zum Handeln auf. Auch Joachim Weickert von der Universität des Saarlandes gehört dazu. DFKI-Direktor Slusallek sieht in dem Aufruf allerdings ein Ablenkungsmanöver internationaler KI-Größen.
Das Szenario könnte aus einem Science-Fiction-Film stammen: Computer übernehmen die Herrschaft auf der Erde und unterwerfen die Menschheit. Doch die drastische Warnung ist ernstgemeint: „Das Risiko einer Vernichtung durch KI zu verringern, sollte globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“
Rasante Entwicklung
Diesen Aufruf haben führende Experten auf dem Gebiet der Künstlichen Intelligenz (KI) auf der Internetseite des Zentrums für KI-Sicherheit (Center for AI Safety) veröffentlicht, einer Nichtregierungsorganisation. Unterzeichnet haben unter anderem Sam Altman, der Chef des ChatGPT-Erfinders Open AI, der Chef der Google-Tochter DeepMind Demis Hassabis und Professor Geoffrey Hunter, einer der führenden Forscher im KI-Bereich.
Auch Joachim Weickert, Professor für Mathematik und Computerwissenschaften an der Universität des Saarlandes, gehört zu den Unterzeichnern. Die Forscher seien von der Schnelligkeit der KI-Entwicklung überrascht worden, sagte er im SR-Interview.
„Die Überraschung ist, dass so etwas wie ChatGPT, was im Grunde eigentlich ein sehr, sehr dummes System ist, weil es an riesigen Sprachmengen trainiert wurde, auf einmal so mächtig ist, dass es doch eine ganze Reihe an vernünftigen Antworten gibt.“ In zwei von drei Fällen seien die Antworten des Systems „absolut verwertbar“.
Diese Risiken birgt KI
Weickert sieht vier Risikofelder, die sich durch die rasante Weiterentwicklung Künstlicher Intelligenz ergeben:
- Umwälzungen am Arbeitsmarkt: Viele Berufe werden sich laut Weickert durch den Einsatz von KI stark verändern. Viele Jobs würden auch wegfallen – auch kreative und hochqualifizierte Berufe.
- Destabilisierung von Gesellschaften durch Desinformation: „Früher war es Geheimdiensten, autoritären Staaten oder radikalen Parteien vorbehalten, Falschinformationen zu streuen“, so Weickert. „Mit generativen Systemen, die im Nu Texte, Bilder, Videos zu allen möglichen Vorgaben erzeugen können, können das jetzt Lieschen Müller oder Otto Meier ganz genauso tun, ohne jegliche Fachkenntnis.“
- Kontrollverlust, Intransparenz und Einseitigkeit: „Wenn KI-Systeme Entscheidungen treffen oder vorgeben, die Menschen nicht bestätigen oder nachvollziehen können, ist das eine Riesengefahr“, warnt Weickert. „Ein KI-System ist praktisch eine riesige Blackbox, die an Daten trainiert wurde.“ Wenn die Daten einseitig und mit Vorurteilen behaftet seien, egal ob beabsichtigt oder nicht, „dann wird das KI-System genau solche Vorurteile in seine Empfehlungen einbauen“.
- Schädliche Verselbstständigung: „Ein System, das intelligenter ist als wir Menschen, birgt natürlich die Gefahr, dass es sich irgendwann selbstständig macht“, so der Professor. Es sei eine völlig natürliche Sache, dass intelligentere Lebensformen die weniger intelligenten beherrschen. „Da kann man nur hoffen, dass KI-Systeme mit Menschen nicht so umgehen wie Menschen die ganze Zeit mit weniger intelligenten Lebewesen umgegangen sind.“
Forderungen an Politik und Gesellschaft
Um solche Schreckensszenarien zu verhindern, sieht Weickert drei Handlungsfelder, auf denen die Politik aktiv werden muss:
- KI reglementieren: Weickert vergleicht es mit der Ächtung von ABC-Waffen oder dem Klonverbot für Menschen. Bei Künstlicher Intelligenz seien die Gefahren ähnlich groß. KI müsse transparent gemacht werden. Es müsse klar sein, welche Daten zum Training eines Systems verwendet werden.
- Menschen als finale Entscheidungsinstanz beibehalten: „Bei kritischen Fragen, bei Fragen um Leben oder Tod, oder bei wirklich existenziellen Konsequenzen muss immer der Mensch die letzte Entscheidungsinstanz sein“, so Weickert. „Ein KI-System kann das nicht vorwegnehmen.“
- Sex-Verbot für KI-Systeme: Was zunächst lustig klingt, hat ebenfalls einen ernsten Hintergrund. KI-Systeme dürfen sich nach Einschätzung Weickerts nicht vermehren. Die Gefahren dadurch sehe man seit Jahrzehnten bei Computerviren. „Wenn Programme sich selbstständig reproduzieren können, kann das unbegrenzt schädliche Auswirkungen haben.“
Aber ist es nicht merkwürdig, dass ausgerechnet die Forscher und Fachleute, die KI-Systeme entwickelt haben, jetzt davor warnen? „Es ist merkwürdig“, sagt Weickert. „Aber wer sollte sonst davor warnen.“ Die Experten sähen die Konsequenzen, jetzt könne die Gesellschaft noch reagieren. „Ich sehe es als etwas sehr Positives.“
Ein Ablenkungsmanöver?
Doch es gibt auch Kritik an dem internationalen Aufruf. Philipp Slusallek, Professor für Computergrafik an der Saar-Uni und wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken, wirft den Initiatoren und prominenten Unterstützern wie Elon Musk Panikmache vor.
„Hier wird schlicht und einfach von den eigentlichen Problemen abgelenkt“, erklärte Slusallek im SR-Interview. „Damit geht der Fokus weg von den eigentlichen Arbeiten, für die diese Herren selbst verantwortlich sind und wo sie selber ganz viele Dinge tun könnten, um Risiken, die absolut dort existieren, zu mildern oder vielleicht sogar zu eliminieren.“
Slusallek: Anwendungen sind das Problem, nicht die KI
Durch namhafte Unterstützer werde dem Aufruf Gewicht gegeben, so Slusallek. Dieses Vorgehen könne er in keinster Weise verstehen. KI berge zwar Gefahren, etwa durch gefälschte Audios, Videos und Bilder. „Das ist ein echtes Problem, aber das führt nicht unmittelbar zur Auslöschung der Menschheit. Und das sind Probleme, die hier, jetzt und heute insbesondere von diesen Firmen selber beseitigt werden können“, sagt Slusallek und meint damit IT-Riesen wie OpenAI (Microsoft), Google oder Musks neues KI-Unternehmen.
So könnten etwa Texte und Bilder, die von einer KI erschaffen wurden, bereits heute entsprechend markiert werden. Die größte Gefahr, so Slusallek, gehe nicht von der KI selbst aus. Dort fordert der Informatiker Regulierung, wie sie etwa in der EU bereits vorbereitet wird. „Letztlich sind es die Anwendungen, die das Problem sind, nicht die KI dahinter.“
Über dieses Thema hat auch die SR 2 Bilanz am Abend vom 31.05.2023 berichtet.