{{ app_name }}

Bewertungen Auswertungen Quellen Methodik

Wie funktioniert der GWÖ-Antragsprüfer?

Der GWÖ-Antragsprüfer bewertet Parlamentsanträge automatisch nach der Gemeinwohl-Ökonomie Matrix 2.0 für Gemeinden. Jede Bewertung analysiert drei Dimensionen: GWÖ-Treue, Übereinstimmung mit Wahlprogrammen und Übereinstimmung mit Grundsatzprogrammen der Parteien.

Alle Bewertungen werden durch ein KI-Sprachmodell erzeugt und anschließend automatisch verifiziert — Zitate werden gegen die Originaltexte der Wahlprogramme geprüft. Wörtliche Treffer werden als verifiziert markiert, paraphrasierte Stellen als nicht wörtlich im Programm gekennzeichnet.

Die GWÖ-Matrix 2.0

Die Matrix besteht aus 5 Berührungsgruppen (Zeilen) und 5 Werten (Spalten) = 25 Themenfelder:

Menschen­würde
Solidarität
Ökologische Nachhaltig­keit
Soziale Gerechtig­keit
Transparenz & Demokratie
A · Lieferanten
A1
A2
A3
A4
A5
B · Finanzen
B1
B2
B3
B4
B5
C · Verwaltung
C1
C2
C3
C4
C5
D · Bürger
D1
D2
D3
D4
D5
E · Gesellschaft
E1
E2
E3
E4
E5

Jedes Feld wird auf einer Skala von -5 (fundamental widersprechend) bis +5 (stark fördernd) bewertet. Der Gesamtscore (0-10) gewichtet die Matrix-Bewertungen und berücksichtigt Ausschlusskriterien:

SymbolRatingBedeutung
+++4 bis +5Stark fördernd, vorbildlich
++1 bis +3Fördernd
0Neutral / nicht berührt
-1 bis -3Widersprechend
−−-4 bis -5Stark widersprechend
Mehr zur GWÖ-Matrix

Die Matrix basiert auf dem Arbeitsbuch der Gemeinwohl-Ökonomie. Die Adaption für Gemeinden fokussiert auf kommunale Handlungsfelder: Beschaffung, Haushalt, Verwaltung, Daseinsvorsorge und überregionale Wirkung.

Analyse-Pipeline

Jede Bewertung durchläuft fünf Schritte:

1
Antrags-Text herunterladen
Der Volltext wird automatisch aus dem jeweiligen Landtags-Portal geholt ({{ adapter_count }} Parlamente angebunden). Der PDF-Text wird via PyMuPDF extrahiert.
2
Relevante Wahlprogramm-Passagen suchen
Für alle Fraktionen der Wahlperiode werden per Embedding-Suche (Qwen text-embedding-v3) die thematisch relevantesten Passagen aus Wahl- und Grundsatzprogrammen gesucht (Top-5 pro Partei, Cosinus-Ähnlichkeit ≥ 0.45).
3
KI-Bewertung
Ein Sprachmodell ({{ model_name }}) bewertet den Antrag anhand der GWÖ-Matrix und vergleicht ihn mit den gefundenen Programm-Passagen. Der Prompt enthält strikte Regeln für die Quellenangabe (nur wörtliche Zitate aus den vorgelegten Passagen).
4
Zitat-Verifikation
Jedes vom Modell genannte Zitat wird server-seitig verifiziert: Der zitierte Text muss als Substring (oder 5-Wort-Sequenz) in einem der vorgelegten Chunks auffindbar sein. Nicht-verifizierbare Zitate werden verworfen — Quellenangabe und Seitenzahl werden aus dem echten Treffer rekonstruiert, nicht aus der Modell-Ausgabe übernommen.
5
Persistierung & Darstellung
Die verifizierte Bewertung wird gespeichert. Klick auf ein Zitat öffnet das Original-Wahlprogramm-PDF mit gelb markierter Fundstelle.
Technische Details zum Sprachmodell
EigenschaftWert
Modell{{ model_name }}
AnbieterDashScope (Alibaba Cloud)
Retry bei Parse-Fehlern3 Versuche mit steigender Temperatur
Embedding-Modelltext-embedding-v3 (1024 Dimensionen)
Chunk-Größe400 Wörter, 50 Wörter Overlap

Beispiel einer Bewertung

Am Beispiel eines fiktiven Antrags "Kostenfreies Schulessen in allen Grundschulen":

1
Antragstext wird geladen
"Der Landtag wolle beschließen: Die Landesregierung wird aufgefordert, ein Programm für kostenfreies Mittagessen in allen Grundschulen …"
2
Embedding-Suche findet relevante Passagen
Für jede Fraktion (z.B. SPD, CDU, GRÜNE, FDP, AfD) werden die thematisch nächsten Abschnitte aus den Wahlprogrammen gesucht. Beispiel: "Wir setzen uns für gesunde Ernährung in Kitas und Schulen ein" (GRÜNE Wahlprogramm, S. 47).
3
KI bewertet den Antrag
GWÖ-Score: 7/10 — berührt D4 (Soziale öffentliche Leistung, ++), E3 (Ökologische Auswirkungen, +), B2 (Gemeinnutz im Finanzgebaren, +). Wahlprogramm-Passung GRÜNE: 9/10 mit Zitat aus S. 47.
4
Zitat wird verifiziert
Der Server prüft: steht "gesunde Ernährung in Kitas und Schulen" wirklich auf S. 47 des GRÜNE-Wahlprogramms? ✓ Ja → Zitat wird übernommen. Quellenangabe wird aus dem echten Treffer konstruiert.

Wahlprogramm-Vergleich

Für jede Fraktion der aktuellen Wahlperiode wird die Passung des Antrags zu zwei Programmen bewertet:

Aktuell sind {{ programme_count }} Programme indexiert ({{ chunk_count }} Textabschnitte). Die vollständige Liste ist auf der Quellen-Seite einsehbar.

Wichtig: Wenn für eine Fraktion kein Programm im Index vorhanden ist, wird kein Score vergeben — stattdessen erscheint ein Hinweis. Bewertungen basieren ausschließlich auf verifizierbaren Quellen, nicht auf dem Trainingswissen des Sprachmodells.

Qualitätssicherung

Zitat-Verifikation (Sub-D)

Ein automatisierter Property-Test prüft für jedes in der Datenbank gespeicherte Zitat, ob der zitierte Text tatsächlich auf der angegebenen Seite des Wahlprogramm-PDFs vorkommt (Substring- oder 5-Wort-Anker-Match). Dieses Verfahren hat im April 2026 drei halluzinierte Zitate aufgedeckt und zur Implementierung der server-seitigen Verifikation geführt.

Server-seitige Quellen-Rekonstruktion

Das Sprachmodell darf keine Quellenangaben (Programmname, Seitenzahl) frei erfinden. Nach jeder Analyse wird jedes Zitat gegen die tatsächlich vorgelegten Textabschnitte abgeglichen. Quellenangabe und URL werden aus dem gefundenen Treffer server-seitig konstruiert — die Modell-Ausgabe für diese Felder wird verworfen.

Automatische Neu-Analyse

Wenn ein Nutzer auf ein Zitat klickt und die Textstelle im PDF nicht auffindbar ist (z.B. bei älteren Bewertungen vor der Verifikations-Einführung), wird der Antrag automatisch mit der aktuellen Pipeline neu analysiert.

Einschränkungen

Datenquellen

{{ adapter_count }} Parlamente sind angebunden:

{% for bl in bundeslaender %} {% endfor %}
ParlamentDoku-System
{{ bl.name }} ({{ bl.code }}) {{ bl.doku_system }}

Vollständige Programm-Liste · Technische Adapter-Vergleichsmatrix · Architektur-Entscheidungen (ADRs)