Awesome
Plenum First Said
Plenum First Said ist ein Twitterbot, der neue Wörter twittert, die zum ersten Mal während einer Bundestagsdebatte gesagt wurden. Das Projekt ist noch im Aufbau und es wird in keiner Weise Korrektheit garantiert.
Das Projekt wurde durch den Twitter-Account @NYT_first_said von Max Bittker inspiriert und dessen Code als Startpunkt genutzt, jedoch zum großen Teil verändert.
Funktionsweise
Über eine vom Bundestag bereitgestellte OpenData-API wird täglich nach einem neuen Plenarprotokoll des Bundestags gesucht. Wird es gefunden, wird jedes einzelne Wort mit einer selbsterstellten Datenbank abgeglichen, die aus allen veröffentlichten Plenarprotokollen aufgebaut wurde. Sollte das Wort nicht in der Datenbank gefunden werden, wird dieses zu einer Warteschlange hinzugefügt und zu einem bestimmten Zeitpunkt getwittert und besagter Datenbank selber hinzugefügt. Der Account @FSBT_Kontext antwortet automatisiert auf jeden Tweet mit weiterem Kontext zum Wort.
Unregelmäßigkeiten entstehen z.B. durch Silbentrennungen, die nicht gut von Wortverbindungen getrennt werden können (z.B. Know- (neue Zeile) how).
Architektur
plenar.py
ist die Hauptfunktion, die den Rest orchestriert. Sie wird stündlich aufgerufen. database.py
erlaubt eine Verbindung zur lokalen Redis Datenbank.
post_queue.py
, twitter_creds.py
und mastodon_creds.py
packt neue Wörter in eine Warteliste und twittert diese in unterschiedlichen Zeitintervallen.
dpi_api.py
verbindet den Bot mit den Servern des Bundestags und sucht nach neuen Protokollen über weiterlaufende IDs. optv_api.py
ist eine Einbindung der Open Parliament TV API zur Zweitprüfung, ob das Wort wirklich noch nicht existiert und gibt dem Kontext-Bot noch mehr Kontext. api_functions.py
hilft bei der Abfrage.
xml_processing.py
verarbeitet das Protokoll, sodass eine Analyse möglich ist.
text_parse.py
ist für die Worttrennung und Normalisierung da, sowie die Verbindung zum Abgleich mit der Datenbank über database.py
.
Im Ordner utilities finden sich Skripte, die bei dem Aufbau der Datenbank geholfen haben.
Über das Paket python-dotenv werden API-Schlüssel durch Umgebungsvariablen bereitgestellt. Dazu muss eine .env
Datei in der Basis des Projektes existieren. In dem Repo liegt die Datei example.env
, die alle Variabeln aufzählt und den momentan öffentlichen API Key des Bundestags beinhaltet.
DPI API
Das Dokumentations- und Informationssystem für Parlamentsmaterialien stellt jährlich einen neuen öffentlichen Key aus. Der aktuelle bis Mai 2023 gültige Key ist unter example.env
hinterlegt. Bei dauerhafter Nutzung empfiehlt es sich jedoch, einen eigenen Key zu beantragen.
Open Parliament TV API
Open Parliament TV bereitet selber die Protokolle für ihr eigenes Projekt auf, den Text mit der Videoaufzeichung zu verbinden. Dies nutze ich:
- Zum erneuten Abgleich ob das Wort wirklich noch nicht gesagt wurde (seit 2017).
- Um dem Wort mehr Kontext zu geben.
Hierbei gibt es einige Limitierungen. Da die Protokolle weiterhin nicht vollkommen automatisiert verarbeitet werden können, hat OPTV immer wieder einen Delay von ein paar Tagen. Außerdem wird nur der Text verarbeitet, der wirklich gesagt wurde und nicht die Teile, die schriftlich eingereicht werden.
Webseite zur API
Webseite zum Projekt
GitHub
Mastodon und Twitter
Für den Zugang zu Twitter benutze ich die Library Tweepy und für Mastodon benutze ich Mastodon.py. Dort gibt es auch eine Dokumentation, wie man die Keys richtig erstellt.
Die Mastodon Account findet man je unter <a rel="me" href="https://mastodon.social/@BT_First_Said">@BT_First_Said@mastodon.social</a> und <a rel="me" href="https://mastodon.social/@FSBT_Kontext">@FSBT_Kontext@mastodon.social</a>.
Was bedeutet "neues Wort"?
Aus Gründen der Unterhaltung werden einige Worte aussortiert, die zwar tatsächlich zum ersten Mal so gesagt werden, aber nur bedingt an sich einen Informationswert haben. Folgendes wird z.B. versucht, herauszufiltern:
- Plural
- Genitiv
- gegenderte Formen
- Wörter unter 4 Buchstaben
- Gesetzesabkürzungen
Einige Schwierigkeiten machen hier immer noch die Flexion von Wörtern. Grundregeln der Grammatik sind als Filter hardgecodet, jedoch werden dadurch nicht alle Begriffe erfasst. Lemmatization-Pakete wie HanTa, Spacy und Simplemma kommmen mit Neologismen oder eher seltenen Wörtern wie 'Buttersäureanschläge' nicht wirklich zurecht.
TODOs
Lizenz und Danksagung
Das Projekt steht unter der GNU General Public License 3.
Das Projekt entsteht im Rahmen eines Nachwuchs-Stipendiums des Bayerische Staatministeriums für Wissenschaft und Kunst zur Förderung der künstlerischen Entfaltung. Außerdem noch ein großes Danke an jk, der meinen Bot deutlich aufmerksamer beobachtet als ich selbst.