Der Einsatz Künstlicher Intelligenz (KI) im Bereich der politischen Kommunikation wird derzeit kontrovers diskutiert. Denn daraus resultierende mögliche Gefahren für die Demokratie sind nicht von der Hand zu weisen. Ein Blick nach China zeigt: Das Social-Scoring-System, das dort gegenwärtig entwickelt wird, kombiniert Überwachung, massenhafte Datenspeicherung und Künstliche Intelligenz.

Welchen negativen Einfluss hat Künstliche Intelligenz auf Debatten im Internet? Und wie kann die Macht der Algorithmen sinnvoll genutzt werden? Diesen Fragen widmet sich Holger Geißler, Mitgründer von Debatoo.

Was hat zum schlechten Ruf von Algorithmen in der politischen Kommunikation beigetragen?

Holger Geißler: Bei den Präsidentschaftswahlen in den USA oder der Brexit-Abstimmung wurden detaillierte Persönlichkeitsprofile von Millionen Facebook-Nutzern verwendet, um zielgenaue Botschaften zu versenden, positive Emotionen und Einstellungen zu bestimmten politischen Positionen und Parteien zu stärken und die Gegenseite herabzuwürdigen. So eine Manipulation kann – gerade bei knappen Abstimmungen wie in den USA und Großbritannien – die ausschlaggebenden Stimmen gebracht haben. Auch Bots, also automatisch agierende Algorithmen, werden immer wieder eingesetzt, um Meinungen zu manipulieren, zum Beispiel indem automatisierte Kommentare in Internetforen platziert werden.

Wie schätzen Sie den Einfluss von sogenannten Filterblasen ein?

Holger Geißler: Filterblasen gibt es eigentlich schon immer. Die meisten waren in der Vergangenheit selbst gewählt. Neu ist jetzt, dass Algorithmen auf Basis des Nutzungsverhalten einzelne Inhalte bevorzugen und dadurch andere Meinungen in den Hintergrund rücken. Und man diese Filterblasen nicht so einfach abschalten kann, wenn man das will. Dadurch versperren sie dem Nutzer zunächst den Blick auf ein breiteres Meinungsspektrum. So sehen unterschiedliche Nutzer ganz andere Ergebnisse beim googlen oder in ihrer Facebook-Timeline.

Allerdings gibt es hierzu unterschiedliche Auffassungen: Während einige meinen, dass die durch Algorithmen gesteuerte Inhaltsselektion die einseitige Meinungsbildung verstärkt, betonen andere den subjektiven Wahrnehmungswunsch des einzelnen, der auch aus einem breiteren Meinungsspektrum nur die Informationen auswählt, die sein Weltbild eben bestätigen. Das macht die Sache für den Nutzer ja auch viel leichter und überschaubarer.

Online-Debatten leiden aktuell sehr an Überhitzung. Ist das der Grund, warum Online-Medien wie die „Süddeutsche Zeitung“ und die Deutsche Welle ihre Kommentarfunktionen ganz oder zeitweise abgeschaltet haben?

Holger Geißler: Tatsächlich haben mittlerweile rund 60 Prozent der Online-Medien ihre Kommentarfunktionen ganz oder zeitweise abgeschaltet. Zu viel Hass, zu viel Arbeit für Redaktionen, die große Menge an Kommentaren durchzusehen, zu moderieren und auf strafbare Inhalte zu prüfen.

Wie könnte die Situation verbessert werden?

Holger Geißler: Künstliche Intelligenz könnte dabei helfen, die Anzahl von Nutzerbeiträgen in den Griff zu bekommen, indem zum Beispiel Posts und Kommentare zunächst darauf geprüft werden, ob bereits ähnliche Antworten vorhanden sind. Das würde verhindern, dass sich eine Diskussion im Kreis dreht, weil immer und immer wieder die gleichen Argumente genannt werden.

Wie funktioniert diese Überprüfung?

Holger Geißler: Die KI berechnet die Ähnlichkeit von Antworten untereinander, indem sie jede Antwort in einen multi-dimensionalen Vektor zerlegt und Distanzmaße zwischen den Antworten errechnet. Die Antworten mit der geringsten Distanz zum neuen Argument werden dem Nutzer dann zur Auswahl vorgelegt. Damit ist es auch möglich, die Struktur der Diskussion zu verändern, indem neue Argumente eigene Diskussionspfade erhalten. Auf ähnliche Art und Weise können mittels KI auch zentrale Argumente identifiziert werden, anhand derer Diskussionen zusammengefasst und beschrieben werden können.

Kann KI Hate Tweets erkennen?

Holger Geißler: KI kann neue Argumente mit bestehenden Wort-Datenbanken vergleichen und die Wahrscheinlichkeit errechnen, ob ein Post verletzende Sprache enthält. Forscher sind aktuell damit beschäftigt, Merkmale wie Schimpfwörter, Wörter, die häufig im Zusammenhang mit Schimpfwörtern stehen, mit Hassbotschaften verlinkte Hashtags oder kritische Emojis zu identifizieren, anhand derer entsprechende Algorithmen trainiert werden können.

Dann kann KI darüber entscheiden, ob ein Post nur unbequem (und daher zuzulassen) oder rechtswidrig (und damit abzulehnen) ist?

Holger Geißler: Nein, diese Entscheidung sollten am Ende dann doch Menschen fällen. Wir brauchen eine sorgsame Abwägung zwischen „noch erlaubt“ und „rechtswidrig“, um auf keinen Fall die Meinungsfreiheit einschränken oder zur Zensur führen. Die KI macht aber die Arbeit einfacher, weil sie aus dem Wust der Antworten diejenigen identifizieren kann, die gecheckt werden müssen.

Welche Rahmenbedingungen sehen Sie beim Einsatz von Algorithmen als erforderlich?

Holger Geißer: Wir benötigen eine Form der öffentlichen Kontrolle von Algorithmen. Bis es soweit ist, sind Anbieter von technischen Lösungen in diesem Bereich gut beraten, ethische Leitplanken zu definieren und die Algorithmen immer wieder auf einschränkende Tendenzen abzuklopfen. Informatikprofessor Oren Etzioni bringt es auf den Punkt: „AI is neither good nor evil. It’s a tool. It’s a technology for us to use.”

Holger Geißler

Holger Geißler

Holger Geißler ist von der Ausbildung Diplom-Psychologe, hat viele Jahre in der Markt- und Meinungsforschung gearbeitet, zum Beispiel als Vorstand von YouGov Deutschland. Er ist aktuell Präsident des Marketing Club Köln-Bonn. Er ist Mitgründer und Gesellschafter der Debatoo GmbH.

Nachgehakt: 7 Fragen an Holger Geißler

Mit welcher Persönlichkeit würden Sie gerne einmal debattieren und worüber?

Mit Bundespräsident Frank-Walter Steinmeier darüber, was er genau tun will, um die digitale Demokratie zu verbessern. Ich finde es gut, dass er das Thema immer wieder auf die Agenda hebt. Aber, was passiert eigentlich, um die aktuelle Situation zu verändern?

Wie würden Sie Ihren Diskussionsstil beschreiben?

Ich versuche in der Regel zunächst zuzuhören und mein Gegenüber zu verstehen. Um dann besser argumentieren zu können.

Was machen Sie am liebsten nach einer anstrengenden Diskussion?

Erst einmal zur Ruhe kommen. Sei es beim Musikhören, eine Runde um den Block laufen oder bei einem Feierabendbier.

Ergänzen Sie bitte diesen Satz: " In Diskussionen kann ich überhaupt nicht leiden,.."

…wenn man konstant aneinander vorbeiredet, zu viel Redezeit für sich selbst beansprucht oder ständig laut wird.

Wer ist Ihr Vorbild im Debattieren?

Da ich lange in der Marktforschung gearbeitet habe, fallen vor allem Marktforschungskollegen ein: Zum einen Olaf Hofmann. Das ist der Gründer und Geschäftsführer von Skopos, ein Marktforschungsinstitut aus Köln. Mit ihm machten Diskussionen in der DGOF definitiv Spaß und führten zu guten Ergebnissen. Und zum anderen Hartmut Scheffler, langjähriger Vorstand des ADMs und Geschäftsführer von Kantar Deutschland.

Wer hat Sie in einer Debatte besonders überrascht?

Ich bin weniger von einem speziellen Menschen überrascht, sondern eher davon, wie hilfreich immer wieder Visualisierung, z.B. mit Flipcharts, in hitzigen Diskussionen,sein kann. Das hilft oft ungemein, die Dinge einfach mal bildlich zu strukturieren.

Welche(r) TV-Moderatorin/ TV-Moderator überzeugt Dich in Debatten am meisten? Sandra Maischberger, Tilo Jung (Jung & Naiv), Michel Friedman oder Anne Will?

Eigentlich jeder Moderator, der seine Rolle auf die des Moderators beschränkt und nicht wie Markus Lanz oder Michel Friedman ständig versuchen, ständig ihre eigene Meinung in die Diskussion einzubringen. Und Moderatoren, die offene Fragen verwenden – und nicht immer geschlossene Fragen -, finde ich ebenfalls gut.

Photos: Bild von Holger Geißler: Alex Schelbert.