Insights KI Neuigkeiten KI gegen Antisemitismus im Gaming: Entwickler stoppen Hetze
post

KI Neuigkeiten

25 März 2026

Read 8 min

KI gegen Antisemitismus im Gaming: Entwickler stoppen Hetze

KI gegen Antisemitismus im Gaming erkennt Hassrede schnell und stärkt Moderation für Kinder weltweit.

Junge Entwicklerinnen und Entwickler in Israel bauen über Nacht KI-Tools, um Hass in Games einzudämmen. Der Fokus liegt auf KI gegen Antisemitismus im Gaming: Prototypen sollen Hassrede früh erkennen und Moderationsteams stärken. Aus Sicherheitsgründen arbeiten die Teams verteilt aus Schutzräumen – verbunden über Zoom, begleitet von erfahrenen Mentorinnen und Mentoren.

KI gegen Antisemitismus im Gaming: Der nächtliche Buildathon

Ein US‑amerikanisches Tech‑Nonprofit namens ADIR und Fiverr bündeln Kräfte für eine durchgehende Entwicklungsnacht. Rund 40 Studierende und junge Tech‑Profis arbeiten in zehn Teams an Prototypen, die Hassrede, Aufrufe zur Gewalt und antisemitische Beschimpfungen in digitalen Räumen erkennen sollen. Das Ziel: mit KI gegen Antisemitismus im Gaming sichtbare, schnelle Abhilfe schaffen – besonders dort, wo viele Kinder und Jugendliche spielen. Die Veranstaltung findet wegen der aktuellen Sicherheitslage dezentral statt. Teilnehmende entwickeln in Schutzräumen (Mamads) in ganz Israel und sind via Zoom verbunden. ADIR setzt die Initiative gemeinsam mit Colors, der philanthropischen Stiftung von Fiverr, und dem Center for the Study of Antisemitism der New York University um. Wer das Programm abschließt, erhält ein gemeinsames Zertifikat von NYU und ADIR.

Warum es jetzt dringend ist

Die Organisatoren verweisen auf eine starke Zunahme antisemitischer Inhalte seit Beginn des Iran‑Konflikts. Laut Blue Square Alliance stieg die antisemitische Online‑Diskussion um 264 Prozent. Dehumanisierende Sprache legte um 668 Prozent zu. Verschwörungserzählungen über angebliche „zionistische Kontrolle“ schnellten um 749 Prozent in die Höhe, begleitet von erneutem Extremismus, der den Nationalsozialismus preist. Ein Beispiel verdeutlicht die Lage in der Spielewelt: Eltern eines 12‑jährigen Israelis teilten einen Screenshot, wonach ihr Sohn aus einem Roblox‑Spiel entfernt wurde, weil er jüdisch ist. Solche Vorfälle zeigen, warum KI gegen Antisemitismus im Gaming dringend greift, bevor Übergriffe eskalieren.

Was die Teams konkret entwickeln

Laut Ankündigung konzentrieren sich die Teams auf generative KI‑Mechanismen, die sich in bestehende Trust‑and‑Safety‑Systeme globaler Tech‑Unternehmen integrieren lassen. Der Fokus liegt auf Tools, die
  • antisemitische Hassrede und Aufstachelung identifizieren,
  • Missbrauch gegen junge Nutzerinnen und Nutzer sichtbar machen,
  • Moderation und Meldesysteme schneller unterstützen.
  • Diese Bausteine für KI gegen Antisemitismus im Gaming sollen nicht nur erkennen, sondern auch priorisieren helfen, damit Teams Inhalte zügig prüfen können. So entsteht ein technischer Schutzschirm für Communities, in denen viele Minderjährige unterwegs sind.

    Mentoring, Partner und Ausblick

    Die Teilnehmenden erhalten Begleitung durch Mentorinnen und Mentoren sowie Jurys von Fiverr, Overwolf, Tech7, MoonActive und Earth & Beyond Ventures. Später im Frühling veranstalten ADIR und Fiverr den Abschluss der Fellowship und küren die Gewinner. Die ausgewählten Teams können in ADIRs Labor weiterentwickeln und im Herbst beim New York GameChanger‑Event auftreten. Damit verankert die Fellowship KI gegen Antisemitismus im Gaming über den Hackathon hinaus im praktischen Aufbau leistungsfähiger Lösungen.

    Stimmen aus der Initiative

    ADIR‑Gründerin und CEO Morielle Lotan betont die Symbolik: Trotz Raketenbedrohung werde die Arbeit nicht abgesagt, sondern aus Schutzräumen fortgeführt. Sie verweist auf „Operation Roaring Lion“ und sagt: Während Israels Innovation am physischen Schlachtfeld helfe, wirke online eine organisierte Maschinerie der Aufstachelung. ADIR mobilisiere junge Talente, um das digitale Umfeld – besonders Games – für alle sicherer zu machen. Sharon Steiner, Chief Human Resources Officer bei Fiverr, sieht in der Zusammenarbeit einen Beitrag zu messbarer gesellschaftlicher Wirkung. In Zeiten intensiver internationaler Anfeindung müsse man modernste Technologien nutzen, um echte Veränderung zu erzielen. Fiverr unterstütze die Jugendlichen mit Werkzeugen und Mentoring – im Alltag wie auch in Krisen.

    Warum Plattformen jetzt handeln sollten

    Die Datenlage zeigt deutliche Ausschläge in kurzer Zeit. Plattformen, die viele Jugendliche erreichen, stehen unter Druck, schneller und präziser zu reagieren. Systeme, die generative Modelle mit klaren Trust‑and‑Safety‑Prozessen verbinden, können Moderation entlasten und Muster von Hetze früher erkennen. Wer dabei auf geprüfte Prototypen setzt, stärkt KI gegen Antisemitismus im Gaming und schützt Community‑Standards nachhaltig. Der Buildathon von ADIR und Fiverr setzt deshalb ein klares Zeichen: Junge Entwicklerinnen und Entwickler liefern praxisnahe Prototypen, Unternehmen bringen Reichweite und Erfahrung ein, Forschungseinrichtungen sorgen für die nötige fachliche Tiefe. Aus dieser Verbindung entsteht Tempo, ohne die Sorgfalt zu verlieren, die gerade bei gefährdeter Jugend wichtig ist. Am Ende zählt Wirkung im Alltag der Nutzerinnen und Nutzer: weniger Hetze in Chats und Lobbys, bessere Sichtbarkeit für Moderation, mehr Sicherheit für Kinder und Jugendliche. Genau hier setzt KI gegen Antisemitismus im Gaming an – mit konkreten Werkzeugen, gemeinsamer Verantwortung und dem Mut, auch unter Druck weiterzuarbeiten. (p) (Source: https://www.jpost.com/israel-news/article-890621)

    For more news: Click Here

    FAQ

    Q: Was war das Ziel des ADIR- und Fiverr-Buildathons? A: Ziel war, dass etwa 40 Studierende und junge Tech‑Profis in zehn Teams Prototypen entwickeln, die Hassrede in Games und digitalen Räumen erkennen und Moderationsteams stärken. Damit setzte die Veranstaltung auf KI gegen Antisemitismus im Gaming, um schnelle, sichtbare Hilfe vor allem für Kinder und Jugendliche zu schaffen. Q: Wer nahm an der Veranstaltung teil und wie war sie organisiert? A: Rund 40 Studierende und junge Tech‑Profis arbeiteten in zehn Entwicklungsteams, begleitet von Mentorinnen und Mentoren sowie Jurys aus Unternehmen wie Fiverr, Overwolf, Tech7, MoonActive und Earth & Beyond Ventures. Die Initiative wurde von ADIR in Zusammenarbeit mit Colors und dem Center for the Study of Antisemitism der NYU umgesetzt. Q: Warum fanden die Arbeiten dezentral in Schutzräumen statt? A: Wegen der aktuellen Sicherheitslage arbeiteten die Teilnehmenden dezentral aus Schutzräumen (Mamads) in ganz Israel und waren per Zoom verbunden. Die Organisatoren betonten, dass das Weiterarbeiten trotz Raketenbedrohung auch eine symbolische Bedeutung habe. Q: Welche konkreten Probleme sollen die Prototypen lösen? A: Die Prototypen sollen antisemitische Hassrede, Aufrufe zur Gewalt und gezielte Beschimpfungen erkennen sowie Missbrauch gegen junge Nutzer sichtbar machen. Solche Werkzeuge gehören zu Ansätzen von KI gegen Antisemitismus im Gaming, um Moderation und Meldesysteme schneller und effizienter zu unterstützen. Q: Welche KI-Techniken stehen im Mittelpunkt der Entwicklung? A: Im Mittelpunkt stehen generative KI‑Mechanismen, die sich in bestehende Trust‑and‑Safety‑Systeme globaler Tech‑Unternehmen integrieren lassen. Ziel ist es, Erkennung und Priorisierung von Hetzinhalten zu automatisieren, ohne die menschliche Moderation vollständig zu ersetzen. Q: Welche Daten belegen die Dringlichkeit des Projekts? A: Die Blue Square Alliance verzeichnete nach Angaben der Organisatoren einen Anstieg antisemitischer Online‑Diskussionen um 264 Prozent, dehumanisierende Sprache um 668 Prozent und eine 749‑prozentige Zunahme von Verschwörungserzählungen über angebliche „zionistische Kontrolle“, begleitet von erneutem Extremismus, der den Nationalsozialismus preist. Außerdem nannten die Organisatoren einen Fall, bei dem Eltern berichteten, ihr 12‑jähriger Sohn sei aus einem Roblox‑Spiel entfernt worden, weil er jüdisch ist. Q: Welche Unterstützung und Auszeichnungen können Teilnehmende erwarten? A: Teilnehmende, die das Programm abschließen, erhalten ein gemeinsames Zertifikat von NYU und ADIR, und die Gewinnerteams haben die Möglichkeit, ins ADIR‑Labor weiterzuarbeiten und beim New York GameChanger‑Event im Herbst aufzutreten. Während des Buildathons werden sie zudem von Mentorinnen und Mentoren sowie Jurys aus Industriepartnern begleitet. Q: Wie können Plattformen von den entwickelten Prototypen profitieren? A: Plattformen können die Prototypen in ihre Trust‑and‑Safety‑Systeme integrieren, um Hetz‑Muster früher zu erkennen, Inhalte nach Dringlichkeit zu priorisieren und Moderationsteams zu entlasten. Solche Instrumente stärken konkret die Wirkung von KI gegen Antisemitismus im Gaming und tragen zum besseren Schutz jugendlicher Nutzerinnen und Nutzer bei.

    Contents