Decoding Antisemitism
Experte: Künstliche Intelligenz kann Antisemitismus im Netz bekämpfen
Mit künstlicher Intelligenz sagt Steffen Jost Antisemitismus im Netz den Kampf an. Im Rahmen eines Forschungsprojekts sollen Algorithmen trainiert werden, rechtsextreme und antisemitische Kommentare zu erkennen.
Von Franziska Hein Dienstag, 01.06.2021, 5:22 Uhr|zuletzt aktualisiert: Montag, 31.05.2021, 15:05 Uhr Lesedauer: 2 Minuten |
Der Berliner Antisemitismus-Experte Steffen Jost setzt zur Bekämpfung von Judenhass auf Künstliche Intelligenz. „Künstliche Intelligenz kann uns dabei helfen, Antisemitismus im Netz zu bekämpfen“, sagte der Programmdirektor der Berliner Alfred Landecker Foundation dem „Evangelischen Pressedienst“. Die Stiftung will mit dem von ihr geförderten Projekt „Decoding Antisemitism“ (Deutsch: Antisemitismus entschlüsseln) vor allem versteckte Hetze erkennbar machen.
Das Internet sei kein sicherer Raum für Jüdinnen und Juden, sagte Jost. Studien zeigten, dass 70 bis 90 Prozent der befragten Jüdinnen und Juden im Netz häufig Hass und Anfeindungen erleben. Das Problem habe in den vergangenen Jahren offline wie online zugenommen. Beides sei nicht voneinander zu trennen.
„Im Internet zeigen sich besonders die subtilen Formen des Antisemitismus stärker“, erklärte der Experte. In Kommentarspalten von Nachrichtenportalen oder sozialen Netzwerken werde nicht nur direkt auf Nationalsozialismus und Holocaust angespielt, sondern immer häufiger auf Thesen einer jüdischen Weltverschwörung. Leser und Community-Manager der Plattformen könnten diese Metaphern nicht immer auf Anhieb dechiffrieren.
Algorithmen trainieren
Bei „Decoding Antisemitism“, das von einem interdisziplinären Expertenteam des Zentrums für Antisemitismusforschung der Technischen Universität Berlin und des King s College London umgesetzt wird, gehe es darum zu erkennen, welche Codes im Internet verwendet werden, um gegen Juden zu hetzen, erläuterte Jost.
In einem nächsten Schritt solle ein digitales Programm entstehen, das auf Basis einer Datenbank für antisemitische Codes Plattformen dabei helfen soll, solche Kommentare schneller zu erkennen. „Wir können Algorithmen trainieren, Kommentare zu erkennen, die problematisch sind.“
Frühwarn-System für Rechtsextremismus
Ein weiteres von der Stiftung geförderte Projekt ist ein Thinktank, der ein Frühwarn-System für rechtsextreme Radikalisierungsprozesse etablieren will. Das „Center für Monitoring, Analyse und Strategie“ (CeMAS) habe dabei beispielsweise den Messengerdienst Telegram im Blick.
In offenen Chatgruppen tauschten Tausende Mitglieder antisemitische und verschwörungsideologische Inhalte aus, darunter der ehemalige Kochbuchautor Attila Hildmann, sagte Jost. „Was in diesen Gruppen passiert, müssen wir frühzeitig öffentlich machen, damit wir der Radikalisierung Einzelner und Taten wie die versuchte Erstürmung des Reichstags Ende August vergangenen Jahres möglichst vorbeugen.“ (epd/mig) Aktuell Panorama
Wir informieren täglich über das Wichtigste zu Migration, Integration und Rassismus. Dafür wurde MiGAZIN mit dem Grimme Online Award ausgezeichnet. Unterstüzte diese Arbeit und verpasse nichts mehr: Werde jetzt Mitglied.
MiGGLIED WERDEN- Fachkräftemangel vs. Abschiebung Pflegeheim wehrt sich gegen Ausweisung seiner Pfleger
- „Diskriminierend und rassistisch“ Thüringer Aktion will Bezahlkarte für Geflüchtete aushebeln
- Verwaltungsgerichtshof Nürnberg muss Allianz gegen rechts verlassen
- Ein Jahr Fachkräftegesetz Bundesregierung sieht Erfolg bei Einwanderung von…
- Brandenburg Flüchtlingsrat: Minister schürt Hass gegen Ausländer
- Chronisch überlastet Flüchtlingsunterkunft: Hamburg weiter auf Zelte angewiesen