Die moderne digitale Landschaft ermöglicht die Verbreitung von Verschwörungstheorien und Hassreden mit beispielloser Geschwindigkeit und Reichweite. Dadurch wird es für NGOs, Journalisten und Forscher immer schwieriger, die Ausbreitung dieser Phänomene zu überwachen, zu analysieren oder ihnen sogar entgegenzuwirken. KI-Modelle können in dieser Hinsicht ein nützliches Werkzeug sein. In diesem Vortrag wird gezeigt, wie maskierte (kleine) Sprachmodelle und autoregressive große Sprachmodelle verwendet werden können, um kurze Texte von Online-Plattformen hinsichtlich des Vorhandenseins von Verschwörungstheorien oder antisemitischen Inhalten zu klassifizieren. Diskutiert werden die spezifischen Herausforderungen verschiedener Plattformen und sprachlicher Ausdrücke für die algorithmische Erkennung sowie die Chancen und Hürden für einen sinnvollen Einsatz solcher Modelle im sozialen Kontext.
Die Veranstaltung findet im Rahmen der zweiwöchentlichen HEIBRiDS Lecture Series statt.
Veranstaltungsort:
Einstein Center Digital Future
Konferenzraum im 1. Stock
Wilhelmstraße 67
10117 Berlin
Die Veranstaltung findet im Hybridmodus statt. Um Anmeldung per E-Mail bei Sandra Pravica (sandra.pravica@tu-berlin.de) wird gebeten. Die Veranstaltung findet auf Englisch statt.