Doku-Strategie: Standards & Strukturen für AI-assisted Pflege ohne Drift #62
Labels
No Milestone
No project
No Assignees
1 Participants
Notifications
Due Date
No due date set.
Dependencies
No dependencies set.
Reference: tobias/gwoe-antragspruefer#62
Loading…
Reference in New Issue
Block a user
No description provided.
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Frage
Welche anerkannten Standards und Strukturen gibt es für Doku-Pflege in einem AI-assisted Codebase, sodass es kein Aktualisierungsproblem gibt? Pflege im Code + Generierung, oder was ist sinnvoll?
Diskussion (Sessionsprotokoll 2026-04-10)
Kurzantwort: Kein anerkannter Standard für "LLM generiert Doku autoritativ" — das ist Antipattern (nicht-deterministisch, teuer, drift-anfällig). Der etablierte Sweet-Spot ist Pflege im Code → Generieren via Tooling, LLM nur als Schreib-Assistent für Drafts und Konsistenz-Reviews.
Anerkannte Bausteine
Diátaxis Framework (https://diataxis.fr) — vier Doku-Quadranten Tutorials/How-to/Reference/Explanation. Verwendet von Django, FastAPI, NumPy. Klare Trennung welcher Teil generiert wird (Reference) und welcher manuell.
Docstring-as-source-of-truth + Auto-Generation:
Architecture Decision Records (ADRs) — kurze immutable Markdown-Files in mit Context/Decision/Consequences. Bei Änderung superseded (neuer ADR ersetzt alten), nie überschrieben. Drift-immun.
Doctest — Code-Beispiele in Docstrings sind echte Tests via .
CLAUDE.md / agent-instructions als AI-Onboarding-Layer (Anthropic/Cursor/Aider Konvention).
README-Driven Development + Changelog (Keep-a-Changelog, Conventional Commits).
Wo LLM hilft / wo NICHT
Konkret für gwoe-antragspruefer
Aktueller Stand:
Empfohlene Schritte (priorisiert)
-Folder einführen, wichtige Entscheidungen retrospektiv festhalten:
Klein, einmalig, danach immutable.
mkdocs + mkdocstrings aufsetzen → Reference-Site aus Adapter-Docstrings. ~1h Setup, danach null Pflegeaufwand.
** und archivieren oder ersetzen** durch generated reference + ADR-Index + knappes README.
Doctest-Cleanup-Pass auf bestehende Docstring-Examples (ein paar im embeddings.py).
Pre-commit-Hook für LLM-Doku-Review als nice-to-have.
Acceptance Criteria (Vorschlag)
Phase 1+3 done (ADRs + Archiv). Phase 2 live (mkdocs + nginx + docs.toppyr.de). Feld-Mapping, API-Ref, How-to deployed.