"""GWÖ-Antragsprüfer — FastAPI Webapp.""" import logging import uuid from pathlib import Path from typing import Optional from fastapi import FastAPI, File, Form, UploadFile, Request, BackgroundTasks, HTTPException, Depends from fastapi.responses import HTMLResponse, FileResponse, JSONResponse, Response from starlette.middleware.base import BaseHTTPMiddleware from fastapi.staticfiles import StaticFiles from fastapi.templating import Jinja2Templates from slowapi import Limiter, _rate_limit_exceeded_handler from slowapi.util import get_remote_address from slowapi.errors import RateLimitExceeded from .validators import ( MAX_SEARCH_QUERY_LEN, validate_drucksache, validate_search_query, ) # Strukturiertes Logging für die ganze App. uvicorn registriert seinen # eigenen Root-Handler erst beim Start; wir setzen ein neutrales Format # für unsere Module früh, damit logger.exception() auch beim Boot greift. logging.basicConfig( level=logging.INFO, format="%(asctime)s %(levelname)-7s %(name)s: %(message)s", ) logger = logging.getLogger(__name__) from .config import settings from .database import ( init_db, get_job, create_job, update_job, get_all_assessments, get_assessment, delete_assessment, upsert_assessment, import_json_assessments, search_assessments, toggle_bookmark, get_bookmarks, add_comment, get_comments, delete_comment, ) from .parlamente import get_adapter, ADAPTERS from .bundeslaender import alle_bundeslaender from .analyzer import analyze_antrag from .auth import get_current_user, require_auth, require_admin, keycloak_login_url, _is_auth_enabled def _pick_best_title(llm_title: str, doc_title: Optional[str], drucksache: str) -> str: """Wähle den besten Titel aus LLM-Output und Adapter-Metadata. Priorität: 1. doc_title, wenn ein echter Titel (nicht "Drucksache XX") 2. llm_title, wenn nicht leer und nicht generisch 3. Generischer Fallback "Drucksache XX" """ generic_prefix = f"Drucksache {drucksache.split('/')[0]}" # doc_title gut? (nicht generisch, nicht leer) if doc_title and not doc_title.startswith("Drucksache ") and len(doc_title) > 5: return doc_title # LLM-Titel gut? (nicht generisch) if llm_title and not llm_title.startswith("Drucksache ") and len(llm_title) > 5: return llm_title # doc_title als Fallback (auch wenn generisch) return doc_title or llm_title or f"Drucksache {drucksache}" from .report import generate_html_report, generate_pdf_report from .embeddings import ( init_embeddings_db, get_programme_info, get_indexing_status, index_programm, render_highlighted_page, PROGRAMME, ) app = FastAPI( title=settings.app_name, version=settings.app_version, docs_url=None, # Disable /docs in production redoc_url=None, # Disable /redoc in production openapi_url=None, # Disable /openapi.json in production ) # Rate-Limiter — fängt Resource-Exhaustion auf den teuren POST-Endpoints # (LLM-Calls + Indexing). Issue #57 Befund #1 (HIGH). Default in-memory # Storage; für mehrere Worker müsste man auf Redis umstellen, solange wir # auf einem Container laufen reicht das Default-Storage. limiter = Limiter(key_func=get_remote_address, default_limits=[]) app.state.limiter = limiter app.add_exception_handler(RateLimitExceeded, _rate_limit_exceeded_handler) # Security Headers Middleware class SecurityHeadersMiddleware(BaseHTTPMiddleware): async def dispatch(self, request: Request, call_next): response = await call_next(request) response.headers["X-Content-Type-Options"] = "nosniff" response.headers["X-Frame-Options"] = "DENY" response.headers["X-XSS-Protection"] = "1; mode=block" response.headers["Referrer-Policy"] = "strict-origin-when-cross-origin" response.headers["Permissions-Policy"] = "geolocation=(), microphone=(), camera=()" # CSP: Allow self, inline styles (for templates), and PDF viewer response.headers["Content-Security-Policy"] = ( "default-src 'self'; " "style-src 'self' 'unsafe-inline'; " "script-src 'self' 'unsafe-inline'; " "img-src 'self' data:; " "frame-ancestors 'none';" ) return response app.add_middleware(SecurityHeadersMiddleware) # Setup directories settings.data_dir.mkdir(exist_ok=True) settings.reports_dir.mkdir(exist_ok=True) # Static files and templates static_dir = Path(__file__).parent / "static" templates_dir = Path(__file__).parent / "templates" static_dir.mkdir(exist_ok=True) templates_dir.mkdir(exist_ok=True) app.mount("/static", StaticFiles(directory=static_dir), name="static") templates = Jinja2Templates(directory=str(templates_dir)) @app.on_event("startup") async def startup(): await init_db() init_embeddings_db() # Job-Queue Worker starten (#95) from .queue import start_worker, re_enqueue_pending await re_enqueue_pending() start_worker() @app.on_event("shutdown") async def shutdown(): """Graceful Shutdown: warte auf laufende Queue-Jobs bevor der Container stirbt.""" from .queue import graceful_shutdown await graceful_shutdown(timeout=900) # 15 min — passend zu stop_grace_period # JSON import disabled - all assessments now live in SQLite DB only # Legacy import would overwrite new v5 assessments with old format # count = await import_json_assessments(settings.data_dir / "assessments") # if count > 0: # print(f"Imported {count} assessments from JSON files") @app.get("/", response_class=HTMLResponse) async def index(request: Request): """Landing page with upload form.""" # Frontend-Liste: synthetischer "ALL"-Eintrag (Bundesweit) zuerst, dann # die echten Bundesländer aus der Konfig. Der "ALL"-Code ist eine reine # Frontend/API-Konvention, kein Eintrag in bundeslaender.py. bl_list = [{"code": "ALL", "name": "🌍 Bundesweit", "active": True}] bl_list.extend( {"code": bl.code, "name": bl.name, "active": bl.aktiv} for bl in alle_bundeslaender() ) # Map code → parlament_name, damit das Frontend ohne extra Backend-Call # für jeden Antrag den Parlamentsnamen anzeigen kann. parlament_names = { bl.code: bl.parlament_name for bl in alle_bundeslaender() } from .models import MATRIX_LABELS return templates.TemplateResponse("index.html", { "request": request, "app_name": settings.app_name, "bundeslaender": bl_list, "parlament_names": parlament_names, "matrix_labels": MATRIX_LABELS, }) @app.post("/analyze") @limiter.limit("10/minute") async def start_analysis( request: Request, background_tasks: BackgroundTasks, text: Optional[str] = Form(None), file: Optional[UploadFile] = File(None), bundesland: str = Form("NRW"), model: str = Form("qwen-plus"), user: dict = Depends(require_auth), ): """Start analysis job.""" if not text and not file: raise HTTPException(status_code=400, detail="Entweder Text oder PDF-Datei erforderlich") # Extract text from PDF if uploaded if file and file.filename: import fitz # PyMuPDF pdf_bytes = await file.read() doc = fitz.open(stream=pdf_bytes, filetype="pdf") text = "" for page in doc: text += page.get_text() doc.close() # Create job job_id = str(uuid.uuid4()) await create_job(job_id, text[:500], bundesland, model) # Start background analysis background_tasks.add_task(run_analysis, job_id, text, bundesland, model) return JSONResponse({"job_id": job_id, "status": "queued"}) async def run_analysis(job_id: str, text: str, bundesland: str, model: str): """Background task for analysis.""" try: await update_job(job_id, status="processing") # Run LLM analysis assessment = await analyze_antrag(text, bundesland, model) # Generate reports html_path = settings.reports_dir / f"{job_id}.html" pdf_path = settings.reports_dir / f"{job_id}.pdf" await generate_html_report(assessment, html_path, bundesland=bundesland) await generate_pdf_report(assessment, pdf_path, bundesland=bundesland) await update_job( job_id, status="completed", result=assessment.model_dump_json(), html_path=str(html_path), pdf_path=str(pdf_path), ) except Exception as e: await update_job(job_id, status="failed", error=str(e)) @app.get("/status/{job_id}") async def get_status(job_id: str): """Get job status.""" job = await get_job(job_id) if not job: raise HTTPException(status_code=404, detail="Job nicht gefunden") return JSONResponse({ "job_id": job_id, "status": job["status"], "created_at": job["created_at"], }) @app.get("/result/{job_id}", response_class=HTMLResponse) async def get_result(request: Request, job_id: str): """Get analysis result as HTML.""" job = await get_job(job_id) if not job: raise HTTPException(status_code=404, detail="Job nicht gefunden") if job["status"] != "completed": raise HTTPException(status_code=400, detail=f"Job noch nicht fertig: {job['status']}") html_path = Path(job["html_path"]) if html_path.exists(): return HTMLResponse(html_path.read_text()) raise HTTPException(status_code=500, detail="Report nicht gefunden") @app.get("/result/{job_id}/pdf") async def get_pdf(job_id: str): """Download PDF report.""" job = await get_job(job_id) if not job: raise HTTPException(status_code=404, detail="Job nicht gefunden") if job["status"] != "completed": raise HTTPException(status_code=400, detail=f"Job noch nicht fertig: {job['status']}") pdf_path = Path(job["pdf_path"]) if pdf_path.exists(): return FileResponse( pdf_path, media_type="application/pdf", filename=f"gwoe-bericht-{job_id[:8]}.pdf" ) raise HTTPException(status_code=500, detail="PDF nicht gefunden") # ─── Queue-Status (#95) ───────────────────────────────────────────────────── @app.get("/api/queue/status") async def queue_status(): """Aktueller Queue-Stand: wartende Jobs, geschätzte Wartezeit.""" from .queue import get_queue_status return get_queue_status() # ─── Auth-Endpoints (#43) ─────────────────────────────────────────────────── @app.get("/api/auth/me") async def auth_me(user=Depends(get_current_user)): """User-Info oder null wenn nicht eingeloggt. Das Frontend ruft diesen Endpoint beim Load auf, um zu entscheiden ob "Bewerten" aktiv oder ausgegraut ist. """ if user: return {"authenticated": True, **user} return {"authenticated": False} @app.get("/api/auth/callback") async def auth_callback(request: Request, code: str = "", state: str = ""): """OIDC Authorization Code → Access Token Exchange. Keycloak redirects hierher nach Login mit ?code=... Parameter. Wir tauschen den Code gegen ein Access Token und setzen es als Cookie. """ if not _is_auth_enabled() or not code: from fastapi.responses import RedirectResponse return RedirectResponse("/") from .auth import _keycloak_issuer token_url = f"{_keycloak_issuer()}/protocol/openid-connect/token" # Construct the same redirect_uri used for the auth request base = str(request.base_url).rstrip("/").replace("http://", "https://") redirect_uri = f"{base}/api/auth/callback" import httpx as _httpx async with _httpx.AsyncClient(timeout=10) as client: resp = await client.post(token_url, data={ "grant_type": "authorization_code", "client_id": settings.keycloak_client_id, "code": code, "redirect_uri": redirect_uri, }) if resp.status_code != 200: logger.error("Token exchange failed: %s %s", resp.status_code, resp.text[:200]) raise HTTPException(status_code=401, detail="Login fehlgeschlagen") tokens = resp.json() access_token = tokens.get("access_token", "") expires_in = tokens.get("expires_in", 3600) # HTML-Response statt RedirectResponse: setzt Cookie UND redirected. # RedirectResponse mit Set-Cookie wird von manchen Browsern bei # 307/302 ignoriert (insb. hinter Reverse-Proxies). return HTMLResponse( f"""
Anmeldung erfolgreich, Weiterleitung...
""", headers={ "Set-Cookie": ( f"access_token={access_token}; Path=/; Secure; HttpOnly; " f"SameSite=Lax; Max-Age={expires_in}" ) }, ) @app.get("/api/auth/login-url") async def auth_login_url(request: Request, redirect: str = "/"): """Keycloak-Login-URL für den Browser-Redirect.""" if not _is_auth_enabled(): return {"enabled": False, "url": ""} # redirect_uri muss auf den Callback-Endpoint zeigen, nicht auf die # Zielseite — der Callback tauscht den Code gegen ein Token. base = str(request.base_url).rstrip("/").replace("http://", "https://") url = keycloak_login_url(f"{base}/api/auth/callback") return {"enabled": True, "url": url} # ─── Bookmarks + Comments (#94) ───────────────────────────────────────────── @app.post("/api/bookmark") async def bookmark_toggle( drucksache: str = Form(...), user: dict = Depends(require_auth), ): """Toggle bookmark für einen Antrag.""" is_bookmarked = await toggle_bookmark(user["sub"], drucksache) return {"bookmarked": is_bookmarked, "drucksache": drucksache} @app.get("/api/bookmarks") async def bookmarks_list(user=Depends(get_current_user)): """Liste aller Bookmarks des aktuellen Users.""" if not user: return [] return await get_bookmarks(user["sub"]) @app.post("/api/comment") async def comment_add( drucksache: str = Form(...), text: str = Form(...), visibility: str = Form("all"), user: dict = Depends(require_auth), ): """Kommentar hinzufügen.""" if len(text) > 2000: raise HTTPException(status_code=400, detail="Kommentar zu lang (max 2000 Zeichen)") return await add_comment(user["sub"], user.get("name", ""), drucksache, text, visibility) @app.get("/api/comments") async def comments_list(drucksache: str, user=Depends(get_current_user)): """Kommentare für einen Antrag.""" user_id = user["sub"] if user else None return await get_comments(drucksache, user_id) @app.delete("/api/comment/{comment_id}") async def comment_delete(comment_id: int, user: dict = Depends(require_auth)): """Eigenen Kommentar löschen.""" deleted = await delete_comment(comment_id, user["sub"]) if not deleted: raise HTTPException(status_code=404, detail="Kommentar nicht gefunden oder nicht Ihr Kommentar") return {"status": "deleted"} # API: Load assessments from database @app.get("/api/assessments") async def list_assessments(bundesland: Optional[str] = None): """Return assessments from database, optionally filtered by Bundesland. ``bundesland="ALL"`` and missing parameter both mean "no filter". """ rows = await get_all_assessments(bundesland) # Convert DB format to frontend format assessments = [] for row in rows: assessments.append({ "drucksache": row.get("drucksache"), "title": row.get("title"), "fraktionen": row.get("fraktionen", []), "datum": row.get("datum"), "link": row.get("link"), "bundesland": row.get("bundesland"), "gwoeScore": row.get("gwoe_score"), "gwoeBegründung": row.get("gwoe_begruendung"), "gwoeMatrix": row.get("gwoe_matrix", []), "gwoeSchwerpunkt": row.get("gwoe_schwerpunkt", []), "wahlprogrammScores": row.get("wahlprogramm_scores", []), "verbesserungen": row.get("verbesserungen", []), "stärken": row.get("staerken", []), "schwächen": row.get("schwaechen", []), "empfehlung": row.get("empfehlung"), "empfehlungSymbol": row.get("empfehlung_symbol"), "verbesserungspotenzial": row.get("verbesserungspotenzial"), "themen": row.get("themen", []), "antragZusammenfassung": row.get("antrag_zusammenfassung"), "antragKernpunkte": row.get("antrag_kernpunkte", []), "updatedAt": row.get("updated_at"), "source": row.get("source"), "model": row.get("model"), }) return assessments # API: Get single assessment (use query param for drucksache with /) @app.get("/api/assessment") async def get_single_assessment(drucksache: str): """Get a single assessment by drucksache ID.""" drucksache = validate_drucksache(drucksache) row = await get_assessment(drucksache) if not row: raise HTTPException(status_code=404, detail="Assessment nicht gefunden") return { "drucksache": row.get("drucksache"), "title": row.get("title"), "fraktionen": row.get("fraktionen", []), "datum": row.get("datum"), "link": row.get("link"), "bundesland": row.get("bundesland"), "gwoeScore": row.get("gwoe_score"), "gwoeBegründung": row.get("gwoe_begruendung"), "gwoeMatrix": row.get("gwoe_matrix", []), "gwoeSchwerpunkt": row.get("gwoe_schwerpunkt", []), "wahlprogrammScores": row.get("wahlprogramm_scores", []), "verbesserungen": row.get("verbesserungen", []), "stärken": row.get("staerken", []), "schwächen": row.get("schwaechen", []), "empfehlung": row.get("empfehlung"), "empfehlungSymbol": row.get("empfehlung_symbol"), "verbesserungspotenzial": row.get("verbesserungspotenzial"), "themen": row.get("themen", []), "antragZusammenfassung": row.get("antrag_zusammenfassung"), "antragKernpunkte": row.get("antrag_kernpunkte", []), "updatedAt": row.get("updated_at"), "source": row.get("source"), "model": row.get("model"), } # API: Delete assessment for re-analysis (#97) @app.delete("/api/assessment/delete") async def delete_assessment_endpoint( drucksache: str, user: dict = Depends(require_admin), ): """Löscht ein Assessment, damit es neu analysiert werden kann.""" drucksache = validate_drucksache(drucksache) deleted = await delete_assessment(drucksache) if not deleted: raise HTTPException(status_code=404, detail="Assessment nicht gefunden") return {"status": "deleted", "drucksache": drucksache} # API: Generate PDF on demand for an assessment @app.get("/api/assessment/pdf") async def download_assessment_pdf(drucksache: str): """Generate and download PDF for an assessment.""" from .models import Assessment drucksache = validate_drucksache(drucksache) row = await get_assessment(drucksache) if not row: raise HTTPException(status_code=404, detail="Assessment nicht gefunden") # Check if PDF already exists safe_name = drucksache.replace("/", "-") pdf_path = settings.reports_dir / f"{safe_name}.pdf" if not pdf_path.exists(): # Convert DB row to Assessment model for report generation assessment_data = { "drucksache": row.get("drucksache"), "title": row.get("title"), "fraktionen": row.get("fraktionen", []), "datum": row.get("datum"), "link": row.get("link"), "gwoe_score": row.get("gwoe_score") or 0, "gwoe_begruendung": row.get("gwoe_begruendung") or "", "gwoe_matrix": row.get("gwoe_matrix", []), "gwoe_schwerpunkt": row.get("gwoe_schwerpunkt", []), "wahlprogramm_scores": row.get("wahlprogramm_scores", []), "verbesserungen": row.get("verbesserungen", []), "staerken": row.get("staerken", []), "schwaechen": row.get("schwaechen", []), "empfehlung": row.get("empfehlung") or "", "empfehlung_symbol": row.get("empfehlung_symbol") or "", "verbesserungspotenzial": row.get("verbesserungspotenzial") or "", "themen": row.get("themen", []), "antrag_zusammenfassung": row.get("antrag_zusammenfassung") or "", "antrag_kernpunkte": row.get("antrag_kernpunkte", []), } try: assessment = Assessment(**assessment_data) await generate_pdf_report( assessment, pdf_path, bundesland=row.get("bundesland"), ) except Exception as e: raise HTTPException(status_code=500, detail=f"PDF-Generierung fehlgeschlagen: {e}") return FileResponse( pdf_path, media_type="application/pdf", filename=f"gwoe-{safe_name}.pdf" ) # API: Search internal DB only @app.get("/api/search") async def search_internal( q: str, bundesland: str = "NRW", limit: int = 50 ): """ Search internal assessments database only. """ q = validate_search_query(q) db_results = await search_assessments(q, bundesland, limit) results = [] for row in db_results: results.append({ "drucksache": row.get("drucksache"), "title": row.get("title"), "fraktionen": row.get("fraktionen", []), "datum": row.get("datum"), "link": row.get("link"), "bundesland": bundesland, "gwoeScore": row.get("gwoe_score"), "themen": row.get("themen", []), "status": "checked", }) return results # API: Search external parliament portal (Landtag) @app.get("/api/search-landtag") async def search_landtag( q: str, bundesland: str = "NRW", limit: int = 20 ): """ Search external parliament portal (e.g., NRW OPAL). Returns results that can be analyzed with "Jetzt prüfen". Requires a concrete Bundesland — the special "ALL" / Bundesweit mode cannot pick a single Landtag adapter and is rejected with HTTP 400. """ q = validate_search_query(q) if not bundesland or bundesland == "ALL": raise HTTPException( status_code=400, detail="Landtag-Suche benötigt ein konkretes Bundesland", ) adapter = get_adapter(bundesland) if not adapter: return {"error": f"Bundesland {bundesland} noch nicht unterstützt"} try: external = await adapter.search(q, limit) results = [] for doc in external: results.append({ "drucksache": doc.drucksache, "title": doc.title, "fraktionen": doc.fraktionen, "datum": doc.datum, "link": doc.link, "bundesland": bundesland, "typ": doc.typ, "gwoeScore": None, "status": "unchecked", }) return results except Exception as e: logger.exception("Landtag search error for q=%r bundesland=%s", q, bundesland) return {"error": f"Suchfehler: {str(e)}"} # API: Batch-Analyse (#44) — enqueued ungeprüfte Drucksachen eines BL @app.post("/api/batch-analyze") @limiter.limit("3/minute") async def batch_analyze( request: Request, bundesland: str = Form(...), limit: int = Form(10), user: dict = Depends(require_admin), ): """Sucht die neuesten Drucksachen im Landtag-Portal und enqueued alle, die noch nicht in der DB bewertet sind. Returns: Liste der enqueued Drucksachen + Queue-Position. """ from .queue import enqueue, QueueFullError if limit < 1 or limit > 100: raise HTTPException(status_code=400, detail="limit muss 1-100 sein") adapter = get_adapter(bundesland) if not adapter: raise HTTPException(status_code=400, detail=f"Bundesland {bundesland} nicht unterstützt") # Neueste Drucksachen vom Landtag holen. Multiplier 10× weil die # meisten Adapter Anfragen+Gesetzentwürfe+Anträge gemischt liefern # und der Antrag-Anteil nur ~10-30% ist. drucksachen = await adapter.search("", limit=limit * 10) enqueued = [] skipped = 0 for doc in drucksachen: if len(enqueued) >= limit: break # Schon bewertet? existing = await get_assessment(doc.drucksache) if existing: skipped += 1 continue # Text herunterladen text = await adapter.download_text(doc.drucksache) if not text: continue # Enqueue job_id = str(uuid.uuid4()) await create_job(job_id, text[:500], bundesland, "qwen-plus") try: position = await enqueue( job_id, run_drucksache_analysis, job_id, doc.drucksache, text, bundesland, "qwen-plus", doc, drucksache=doc.drucksache, ) enqueued.append({ "drucksache": doc.drucksache, "title": doc.title, "job_id": job_id, "queue_position": position, }) except QueueFullError: break return { "status": "batch_enqueued", "bundesland": bundesland, "enqueued": len(enqueued), "skipped_existing": skipped, "jobs": enqueued, } # API: Analyze a document from parliament portal @app.post("/api/analyze-drucksache") @limiter.limit("10/minute") async def analyze_drucksache( request: Request, background_tasks: BackgroundTasks, drucksache: str = Form(...), bundesland: str = Form("NRW"), model: str = Form("qwen-plus"), user: dict = Depends(require_auth), ): """ Download a document from parliament portal and analyze it. """ drucksache = validate_drucksache(drucksache) # Check if already analyzed existing = await get_assessment(drucksache) if existing: return {"status": "already_checked", "drucksache": drucksache} # Get adapter and download adapter = get_adapter(bundesland) if not adapter: raise HTTPException(status_code=400, detail=f"Bundesland {bundesland} nicht unterstützt") # Download text text = await adapter.download_text(drucksache) if not text: raise HTTPException(status_code=404, detail=f"Dokument {drucksache} nicht gefunden") # Get document metadata doc = await adapter.get_document(drucksache) # Create job and enqueue (#95) from .queue import enqueue, QueueFullError job_id = str(uuid.uuid4()) await create_job(job_id, text[:500], bundesland, model) try: position = await enqueue( job_id, run_drucksache_analysis, job_id, drucksache, text, bundesland, model, doc, drucksache=drucksache, ) except QueueFullError: await update_job(job_id, status="rejected", error="Queue voll") raise HTTPException( status_code=429, detail="Analyse-Queue ist voll. Bitte später erneut versuchen.", headers={"Retry-After": "60"}, ) return { "status": "queued", "job_id": job_id, "drucksache": drucksache, "queue_position": position, } async def run_drucksache_analysis( job_id: str, drucksache: str, text: str, bundesland: str, model: str, doc ): """Background task for drucksache analysis.""" try: await update_job(job_id, status="processing") # Run LLM analysis assessment = await analyze_antrag(text, bundesland, model) # Prepare data for DB assessment_data = { "drucksache": drucksache, # Titel-Priorität: LLM-generierter Titel > doc.title, # ABER nur wenn doc.title ein echter Titel ist (nicht "Drucksache XX", # wie NRW's get_document zurückgibt). Sonst überschreibt der # generische doc.title den echten LLM-Titel. "title": _pick_best_title(assessment.title, doc.title if doc else None, drucksache), "fraktionen": assessment.fraktionen, "datum": assessment.datum or (doc.datum if doc else ""), "link": doc.link if doc else "", "bundesland": bundesland, "gwoeScore": assessment.gwoe_score, "gwoeBegründung": assessment.gwoe_begruendung, "gwoeMatrix": [m.model_dump() for m in assessment.gwoe_matrix], "gwoeSchwerpunkt": assessment.gwoe_schwerpunkt, "wahlprogrammScores": [w.model_dump() for w in assessment.wahlprogramm_scores], "verbesserungen": [v.model_dump() for v in assessment.verbesserungen], "stärken": assessment.staerken, "schwächen": assessment.schwaechen, "empfehlung": assessment.empfehlung, "empfehlungSymbol": assessment.empfehlung_symbol, "verbesserungspotenzial": assessment.verbesserungspotenzial, "themen": assessment.themen, "antragZusammenfassung": assessment.antrag_zusammenfassung, "antragKernpunkte": assessment.antrag_kernpunkte, "source": "webapp", "model": model, } # Save to DB await upsert_assessment(assessment_data) # Generate reports html_path = settings.reports_dir / f"{job_id}.html" pdf_path = settings.reports_dir / f"{job_id}.pdf" await generate_html_report(assessment, html_path, bundesland=bundesland) await generate_pdf_report(assessment, pdf_path, bundesland=bundesland) await update_job( job_id, status="completed", result=assessment.model_dump_json(), html_path=str(html_path), pdf_path=str(pdf_path), ) except Exception as e: # Volltext-Stack via logger.exception, NICHT via print — landet so im # strukturierten Container-Log und wird vom logging-Framework formatiert logger.exception("run_drucksache_analysis failed for drucksache=%s", drucksache) await update_job(job_id, status="failed", error=str(e)) # API: List available Bundesländer @app.get("/api/bundeslaender") async def list_bundeslaender(): """List available bundesländer with their status. Includes the synthetic "ALL" / Bundesweit entry as the first item so that the frontend can render it directly. ``parlament_name`` is added so the detail view can show the source parliament without an extra backend round-trip. """ out = [{ "code": "ALL", "name": "🌍 Bundesweit", "parlament_name": None, "active": True, }] out.extend({ "code": bl.code, "name": bl.name, "parlament_name": bl.parlament_name, "active": bl.aktiv, } for bl in alle_bundeslaender()) return out # === Quellen / Programme === @app.get("/methodik", response_class=HTMLResponse) async def methodik_page(request: Request): """Transparenz-/Methodik-Seite (#96).""" from .bundeslaender import aktive_bundeslaender, BUNDESLAENDER from .embeddings import get_indexing_status bl_list = [] for bl in aktive_bundeslaender(): bl_list.append({ "code": bl.code, "name": bl.name, "doku_system": bl.doku_system, }) status = get_indexing_status() return templates.TemplateResponse("methodik.html", { "request": request, "app_name": settings.app_name, "adapter_count": len(ADAPTERS), "model_name": settings.llm_model_default, "programme_count": status.get("total", 0), "chunk_count": sum(p.get("chunks", 0) for p in status.get("programmes", [])), "bundeslaender": sorted(bl_list, key=lambda x: x["name"]), }) @app.get("/quellen", response_class=HTMLResponse) async def quellen_page(request: Request): """Quellen-Seite mit allen Wahl- und Parteiprogrammen, nach BL gruppiert.""" from .bundeslaender import BUNDESLAENDER programmes = get_programme_info() status = get_indexing_status() # Wahlprogramme nach Bundesland gruppieren by_bl: dict[str, list] = {} grundsatz = [] for prog in programmes: if prog["typ"] == "parteiprogramm": grundsatz.append(prog) else: bl = prog.get("bundesland") or "Sonstige" bl_name = BUNDESLAENDER[bl].name if bl in BUNDESLAENDER else bl by_bl.setdefault(bl_name, []).append(prog) # Sortieren: alphabetisch nach BL-Name wahlprogramme_grouped = sorted(by_bl.items()) return templates.TemplateResponse("quellen.html", { "request": request, "app_name": settings.app_name, "programmes": programmes, "wahlprogramme_grouped": wahlprogramme_grouped, "grundsatzprogramme": grundsatz, "status": status, }) @app.get("/api/wahlprogramm-cite") async def wahlprogramm_cite( request: Request, background_tasks: BackgroundTasks, pid: str = "", pdf: str = "", seite: int = 1, q: str = "", ds: str = "", bl: str = "", ): """Render eine Wahlprogramm-Seite mit gelb hervorgehobener Zitat-Stelle. Issue #47: Klick auf eine Zitat-Quelle im Report soll direkt zur Stelle im Wahlprogramm-PDF springen, mit dem zitierten Snippet visuell markiert. Statt das ganze PDF auszuliefern (Browser scrollt auf #page=N und Leser muss von Hand suchen), liefern wir hier ein 1-Seiten-PDF mit ``add_highlight_annot``-Annotation auf den per ``page.search_for`` gefundenen Bounding-Boxes. Akzeptiert ``pid`` (PROGRAMME-Key) ODER ``pdf`` (Dateiname wie ``spd-grundsatzprogramm.pdf``). Letzterer ermöglicht die retroaktive Nutzung von Pre-#47-URLs im Frontend, wo nur der statische Pfad ``/static/referenzen/Der Antrag {ds} wird mit der aktuellen Pipeline
neu analysiert, um verifizierte Zitate zu erzeugen.
Automatische Weiterleitung in 15 Sekunden…