Der GWÖ-Antragsprüfer bewertet Parlamentsanträge automatisch nach der Gemeinwohl-Ökonomie Matrix 2.0 für Gemeinden. Jede Bewertung analysiert drei Dimensionen: GWÖ-Treue, Übereinstimmung mit Wahlprogrammen und Übereinstimmung mit Grundsatzprogrammen der Parteien.
Alle Bewertungen werden durch ein KI-Sprachmodell erzeugt und anschließend automatisch verifiziert — Zitate werden gegen die Originaltexte der Wahlprogramme geprüft, nicht-verifizierbare Zitate werden verworfen.
Die Matrix besteht aus 5 Berührungsgruppen (Zeilen) und 5 Werten (Spalten) = 25 Themenfelder:
Jedes Feld wird auf einer Skala von -5 (fundamental widersprechend) bis +5 (stark fördernd) bewertet. Der Gesamtscore (0-10) gewichtet die Matrix-Bewertungen und berücksichtigt Ausschlusskriterien:
| Symbol | Rating | Bedeutung |
|---|---|---|
| ++ | +4 bis +5 | Stark fördernd, vorbildlich |
| + | +1 bis +3 | Fördernd |
| ○ | 0 | Neutral / nicht berührt |
| − | -1 bis -3 | Widersprechend |
| −− | -4 bis -5 | Stark widersprechend |
Die Matrix basiert auf dem Arbeitsbuch der Gemeinwohl-Ökonomie. Die Adaption für Gemeinden fokussiert auf kommunale Handlungsfelder: Beschaffung, Haushalt, Verwaltung, Daseinsvorsorge und überregionale Wirkung.
Jede Bewertung durchläuft fünf Schritte:
| Eigenschaft | Wert |
|---|---|
| Modell | {{ model_name }} |
| Anbieter | DashScope (Alibaba Cloud) |
| Retry bei Parse-Fehlern | 3 Versuche mit steigender Temperatur |
| Embedding-Modell | text-embedding-v3 (1024 Dimensionen) |
| Chunk-Größe | 400 Wörter, 50 Wörter Overlap |
Für jede Fraktion der aktuellen Wahlperiode wird die Passung des Antrags zu zwei Programmen bewertet:
Aktuell sind {{ programme_count }} Programme indexiert ({{ chunk_count }} Textabschnitte). Die vollständige Liste ist auf der Quellen-Seite einsehbar.
Ein automatisierter Property-Test prüft für jedes in der Datenbank gespeicherte Zitat, ob der zitierte Text tatsächlich auf der angegebenen Seite des Wahlprogramm-PDFs vorkommt (Substring- oder 5-Wort-Anker-Match). Dieses Verfahren hat im April 2026 drei halluzinierte Zitate aufgedeckt und zur Implementierung der server-seitigen Verifikation geführt.
Das Sprachmodell darf keine Quellenangaben (Programmname, Seitenzahl) frei erfinden. Nach jeder Analyse wird jedes Zitat gegen die tatsächlich vorgelegten Textabschnitte abgeglichen. Quellenangabe und URL werden aus dem gefundenen Treffer server-seitig konstruiert — die Modell-Ausgabe für diese Felder wird verworfen.
Wenn ein Nutzer auf ein Zitat klickt und die Textstelle im PDF nicht auffindbar ist (z.B. bei älteren Bewertungen vor der Verifikations-Einführung), wird der Antrag automatisch mit der aktuellen Pipeline neu analysiert.
{{ adapter_count }} Parlamente sind angebunden:
| Parlament | Doku-System |
|---|---|
| {{ bl.name }} ({{ bl.code }}) | {{ bl.doku_system }} |
Vollständige Programm-Liste · Technische Adapter-Vergleichsmatrix · Architektur-Entscheidungen (ADRs)