Navigation

Können KI und direkte Demokratie nebeneinander bestehen?

Mithilfe des Bot Dog-Algorithmus sollen Hassnachrichten in den sozialen Medien aufgespürt und markiert werden. stophatespeech.ch

Künstliche Intelligenz wird von den einen als Gefahr für die Demokratie gesehen, von den anderen als Chance. Expert:innen erklären, wie Algorithmen und Big Data in der Schweiz zum Einsatz kommen – und wie nicht.

Dieser Inhalt wurde am 20. Juni 2022 - 11:10 publiziert
Katharina Wecker

Alle drei Monate wird in der Schweiz abgestimmt. Die Debatten vor den Referenden werden hart geführt, im Internet wird der Ton oft besonders rau. Beleidigungen, blanker Hass und sogar Morddrohungen sind keine Seltenheit. Das ist ein Problem für die Demokratie, sagt Sophie Achermann, Direktorin von Alliance F, dem grössten Frauendachverband der Schweiz.

„Es ist wichtig, harte, aber sachliche Diskussionen zu führen. Doch Hass im Netz behindert Meinungsvielfalt“, sagt Achermann. „Menschen haben Angst vor Hassnachrichten und äussern sich lieber nicht.“ Vor der Abstimmung über die Pestizid- und Trinkwasserinitiative 2021 beispielsweise erhielten einige Politikerinnen so viele Hassmails, dass sie öffentlich nicht mehr auftreten mochten, erzählt sie. Das ist nicht nur ein Schweizer Phänomen: Weltweit werden Politiker:innen vermehrt online angefeindet und bedroht, vor allem FrauenExterner Link und Minderheiten.

Alliance F hat deswegen einen Algorithmus gegen hate speech entwickelt. Der Algorithmus heisst Bot DogExterner Link, denn wie ein Hund spürt er Hassnachrichten in den sozialen Medien auf und markiert sie. Eine Gruppe von Freiwilligen antwortet dann auf jede einzelne Nachricht. Die Idee: Hass im Netz bleibt nicht unwidersprochen und die Diskussion kann sachlich weitergeführt werden.

Noch ist der Bot Dog in der Testphase. Aber erste Versuche zeigten Erfolg: Forschende der ETH Zürich und Universität ZürichExterner Link begleiteten das Pilotprojekt und fanden heraus, dass Antworten, die an das Mitgefühl mit den von der Hassrede Betroffenen appellierten, besonders erfolgreich waren. Sätze wie „Ihr Post ist für Jüdinnen und Juden sehr schmerzhaft“ brachten die Hassredner dazu, sich zu entschuldigen oder die Nachricht zu löschen.

Im Juli soll der Bot Dog offiziell online gehen. Jeder, der Lust hat, kann sich an dem Projekt beteiligen, sagt Achermann. Entweder, indem Kommentare bewertet werden – und so dem Algorithmus hilft, genauer zu erkennen, welche Kommentare Hass enthalten. Oder man indem auf die markierten Hassnachrichten antwortet.

Zusammenarbeit zwischen Algorithmen und Menschen

Der Bot Dog ist nur ein Beispiel, wie künstliche Intelligenz (KI) die Demokratie stärken kann. Dirk Helbing, der an der ETH Zürich als Professor für Computational Social Sciences arbeitet, sieht das immense Potential einer digitalen Demokratie. Er denke etwa an ein partizipatives Budget, bei dem Bürger:innen gemeinsam bestimmen, wie das Geld ihrer Stadt oder Gemeinde ausgegeben werden soll.

Im Zürcher Quartier Wipkingen wird dieser Ansatz bereits getestet, die Anwohner:innen haben sich über eine digitale PlattformExterner Link für Stadtgärten, einen Skatepark, ein Streetfood-Festival entschieden – jedes Projekt wird mit 40’000 Franken Steuergeldern unterstützt.

Eine weitere Idee für die digitale Demokratie: Städte und Regionen aus der ganzen Welt könnten sich vernetzen und in einen sportlichen Wettbewerb um die besten Lösungen für nachhaltiges Wirtschaften, CO2-Reduktion oder friedliches Zusammenleben treten – eine Art Städteolympiade. Die Lösungen und zugehörigen Daten wären open source, also für alle frei zugänglich, und könnten als Grundlage für KI-Modelle dienen. „Ich denke, wir steuern auf eine Art digitale Mitmachgesellschaft zu“, sagt Helbing. Also eine Zusammenarbeit aus KI und Menschen.

Das Potential von KI für die direkte Demokratie sei immens. Doch rein datengetriebene Anwendungen „haben auch grosses Zerstörungspotential für demokratische, rechtsstaatliche, menschenrechtsbasierte Gesellschaftsformen“, warnt Helbing.

Nicht alles zum Guten 

Denn Algorithmen bestimmen zunehmend, welche Informationen wir erhalten, welche Produkte wir angezeigt bekommen, und zu welchem Preis. Sie bestimmen, was wir von der Welt sehen und welche Probleme wir als wichtig erachten. Dadurch werde auch unser politisches Denken und unser Wahlverhalten gesteuert, so Helbing.

Das zeigte sich bei Donald Trumps US-Präsidentschaftswahlkampf 2016, bei dem sein Team Big-Data-Algorithmen nutzte, um personalisierte Inhalte für seine Zielgruppe zu erstellen. „Wir bombardierten sie mit Blogs, Websites, Artikeln, Videos, Werbung, bis sie die Welt so sahen, wie wir wollten. Bis sie unseren Kandidaten wählten“, sagte Brittany Kaiser in der Netflix-Dokumentation ‘The Great Hack‘ über ihre Arbeit für den Wahlkampf. Kaiser arbeitete für die Firma Cambridge Analytica, die vor den US-Präsidentschaftswahlen private Daten von 87 Millionen Facebook-Profilen abgesaugt hatte und damit einen der bisher grössten Datenskandale auslöste.

Auch während der zweiten Präsidentschaftskampagne von Barack Obama 2012 wurde die Wählerschaft gezielt angesprochen. Obamas Team sammelte so viele Daten wie möglich und schickte jedem Wähler eine personalisierte Botschaft.

Wie hoch der Anteil solcher KI-basierten Wahlkampfmethoden am jeweiligen Erfolg der Kandidaten war, lässt sich nicht mit Sicherheit sagen. Doch Hebling und seine KollegenExterner Link sehen in diesen Methoden eine grosse Gefahr. Vor allem die Kombination aus gezieltem Ansprechen (microtargeting) und Nudging mit Big Data über unser Verhalten, unsere Gefühle und Interessen könne eine totalitäre Macht entstehen lassen, sagt Helbing. Nudging ist ein Begriff aus der Psychologie und bedeutet, Menschen zu etwas zu animieren oder sie in eine bestimmte Richtung zu stupsen.

KI-Wahlkampf in der Schweiz    

Eine KI benötigt vor allem eins: Daten. Und je mehr sie davon hat, desto besser funktioniert sie. In der Schweiz sind Datenschutz und Privatsphäre ein kostbares Gut. Wären Wahlkampfmethoden wie in den USA hier möglich? Könnten Schweizer Parteien Wähler:innen mit microtargeting ansprechen?

Lucas Leemann, der sich an der Universität Zürich unter anderem damit beschäftigt, wie man die öffentliche Meinung mit Hilfe von maschinellem Lernen messen kann, glaubt das nicht.

Wir hätten in der Schweiz keine vergleichbare Situation wie in den USA, sagt er. Das hätte unter anderem damit zu tun, dass solche Rohdaten, wie sie die Trump- und Obama-Kampagnen verwendet haben, in der Schweiz nicht da sind. „Sie hatten fast für jeden Bürger und jede Bürgerin in der USA einen Datenpunkt. Das ist in der Schweiz komplett anders,“ sagt er.

Leemann hat während seines Studiums kurz für ein Modeunternehmen in den USA gearbeitet und hatte dort nicht nur Zugriff auf die Datenbank der Kunden, also Namen, Adresse und Geburtstag, sondern konnte auch sehen, wie hoch ihr geschätztes Jahreseinkommen war, wie viele Kinder sie haben, welches Auto sie fahren und ob sie zur Miete oder in einem Eigenheim wohnen.

„In den USA kann man diese Daten einfach kaufen und sie werden auch politisch verwendet. In der Schweiz werden solche Daten für politische Kampagnen meines Wissens nicht beziehungsweise noch nicht verwendet“, sagt er.

Ist das Stichwort „noch nicht“? Wird es solche Daten auch bald in der Schweiz zu kaufen geben? Laut Helbing von der ETH Zürich ist die Datafizierung der Welt sehr viel weiter vorangeschritten ist, als den meisten Menschen bewusst ist.

Als Beispiel nennt er das Centre for Cybersecurity vom Weltwirtschaftsforum (WEF) mit Sitz in Genf, an dem Organisationen und Firmen aus aller Welt beteiligt sind, unter anderem Amazon, MasterCard und Huawei Technologies. Dort werden „extrem viele Daten gesammelt“, sagt Helbing. Die Daten, die zusammenkommen, würden mit dem Segen der Vereinten Nationen genutzt, um unter anderem die Agenda 2030 für nachhaltige Entwicklung umzusetzen.

„Das mag zwar gut gemeint sein, aber es stellt sich die Frage, wie das umgesetzt wird und was mit den Daten sonst noch alles möglich ist“, sagt Helbing. „Da hier so viele Firmen beteiligt sind, besteht die Gefahr, dass kommerzielle Interessen die gesellschaftlichen überwiegen könnten.“

Mehr Transparenz

Um zu vermeiden, dass KI zu einer Gefahr für die Demokratie wird, müssen jetzt Gesetze und Regulierungen geschaffen werden, warnen Expert:innen.

Doch um funktionierende Regeln zu erstellen, muss man wissen, wie genau die Algorithmen funktionieren. Hier liegt das Problem. Denn Plattformen wie Facebook sind eine Black Box, sagt Anna Mätzener, Direktorin von AlgorithmWatch Schweiz: „Wir wissen nicht, wie die Algorithmen im Detail arbeiten. Wir wissen auch nicht genau, welche Daten über wen gesammelt werden.“

Die KI, die die Inhalte auf sozialen Medien kuratiert, ist ein gut gehütetes Geheimnis. Um herauszufinden, wie sich der Algorithmus auf Wahlkämpfe auswirkt, startete AlgorithmWatch zusammen mit der Süddeutschen Zeitung ein RechercheprojektExterner Link. Sie riefen hunderte Freiwillige dazu auf, vor der deutschen Bundestagswahl 2021 Daten zu ihrer Instagram-Timeline zu spenden. Die Freiwilligen sollten Profile sämtlicher Parteien abonnieren. Ein Browser-Plug-in registrierte, wo und wie die Inhalte dieser Profile in den Newsfeeds der Nutzer:innen erschienen und übermittelte diese Informationen an AlgorithmWatch.

Die Analyse zeigte: Inhalte der rechtsradikalen Partei Alternative für Deutschland (AfD) landeten im Instagram-Newsfeed weiter oben als die von anderen Parteien. Warum das so ist, konnte die Recherche nicht beantworten.

Offenbar war Meta (ehemals Facebook), zu dem Instagram gehört, diese Forschung unangenehm: Der Konzern hat AlgorithmWatch gedroht, „formelle Schritte einzuleiten“, wenn das Projekt nicht eingestellt wird. Die Datenspende wurde daraufhin vorzeitig abgebrochen.

„Solange diese Art von Forschung nicht möglich ist, können wir nicht fundiert etwas darüber sagen, welchen Einfluss die von KI kuratierten Plattformen-Inhalte auf die Gesellschaft haben – und damit auf die politische Meinungsbildung und sehr direkt auf die Demokratie", sagt Mätzener.

In Übereinstimmung mit den JTI-Standards

In Übereinstimmung mit den JTI-Standards

Mehr: JTI-Zertifizierung von SWI swissinfo.ch

Kommentare unter diesem Artikel wurden deaktiviert. Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!

Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch.

Diesen Artikel teilen

Passwort ändern

Soll das Profil wirklich gelöscht werden?