Skip to content
Zurück zum Blog
·3 min Lesezeit

Agentische KI: Wie Claude Code meine Art zu entwickeln verändert hat

Erfahrungsbericht über die Integration agentischer KI in einen professionellen Entwicklungs-Workflow. Konkrete Beispiele, Grenzen und Best Practices.

AIClaude CodeAgenticProductivityDeveloper Experience

KI ist kein Copilot mehr — sie ist ein Agent

Vor 18 Monaten nutzte ich KI wie eine verbesserte Autovervollständigung. Heute starte ich Agenten, die ein Projekt auditieren, GitHub-Issues erstellen, Fixes implementieren und deployen — in einer einzigen Session.

Das ist keine Science-Fiction. Das ist mein täglicher Workflow mit Claude Code seit Januar 2026.

Was sich konkret verändert hat

Vorher: der klassische Zyklus

1. Problem identifizieren
2. Lösung suchen (Docs, Stack Overflow, Ausprobieren)
3. Implementieren
4. Testen
5. Debuggen
6. Committen

Durchschnittliche Zeit für ein Feature: 2–4 Stunden.

Jetzt: der agentische Zyklus

1. Problem und Kontext beschreiben
2. Der Agent erkundet den Code, versteht die Architektur
3. Er schlägt einen Plan vor, ich bestätige oder passe an
4. Er implementiert, testet und committet
5. Ich reviewe das Diff

Durchschnittliche Zeit für dasselbe Feature: 30–60 Minuten.

Der Gewinn liegt nicht nur in der Geschwindigkeit — sondern in der kognitiven Last. Ich muss den Kontext von 15 Dateien nicht mehr im Kopf tragen. Das übernimmt der Agent.

Konkretes Beispiel: GEO-Audit in einer Session

Für mein Portfolio (riggi.tech) habe ich mit Claude Code ein vollständiges GEO-Audit (Generative Engine Optimization) durchgeführt:

  1. Erkundung — der Agent hat die gesamte Codebase gescannt, bestehende JSON-LD-Schemas identifiziert, die robots.txt analysiert, kanonische URLs überprüft
  2. Diagnose — 8 Issues wurden automatisch auf GitHub erstellt, priorisiert von P0 bis P3
  3. Implementierung — KI-Crawler in der robots.txt, kanonische URLs auf allen Seiten, Schemas für Service, FAQ, CollectionPage und Speakable
  4. Kritisches Review — ein zweiter Opus-Agent hat den Code des ersten Agenten auditiert und einen Bug durch flaches Merging bei den Hreflang-Tags gefunden
  5. Fix + Deployment — Korrektur angewendet, Build verifiziert, in Produktion deployt

Ergebnis: 8 Issues, 12 geänderte Dateien, 3 Commits. In einer Session.

Die Grenzen — seien wir ehrlich

Agentische KI ist kein Allheilmittel. Folgendes funktioniert noch nicht gut:

Das Visuelle

Der Agent „sieht" das Rendering nicht. Er kann valides CSS schreiben, das visuell miserable Ergebnisse liefert. Die visuelle Feedback-Schleife braucht noch einen Menschen.

Design-Entscheidungen

Der Agent schlägt technisch korrekte Lösungen vor, die manchmal überkonstruiert sind. Er muss eingegrenzt werden: „einfach, keine unnötigen Abstraktionen, keine Features, die niemand angefragt hat."

Der redaktionelle Ton

Als ich den Agenten bat, die Texte meiner Website umzuschreiben, war das Ergebnis zu marketinglastig, zu amerikanisch. Mein Feedback: „Ich bin jemand, der einfach, bescheiden und effizient ist." KI neigt dazu, zu übertreiben.

Best Practices

Nach 60+ Sessions und 229 Commits mit Claude Code:

1. Kontext geben, keine Anweisungen

Statt „füge eine Button-Komponente mit Variant primary und secondary hinzu" sage ich: „Wir brauchen einen CTA-Button auf den Service-Seiten — schau, wie die anderen Komponenten strukturiert sind, und mach es genauso."

2. Planen vor dem Ausführen

Der Plan-Modus von Claude Code wird zu wenig genutzt. Den Ansatz vor der Implementierung bestätigen zu lassen verhindert 80 % der Fehlstarts.

3. Kritische Agenten einsetzen

Einen Opus-Agenten den Code eines ersten Agenten reviewen zu lassen ist wie eine automatische Code Review. Er findet Bugs, Inkonsistenzen und Edge Cases.

4. Nicht alles akzeptieren

Der Agent schlägt vor, der Mensch entscheidet. Ich lehne etwa 20 % der Vorschläge ab — nicht weil sie technisch falsch sind, sondern weil sie nicht zum Stil oder zur Philosophie des Projekts passen.

Die Zukunft

Agentische KI verhält sich zur Softwareentwicklung wie IDEs zum Notepad: ein Paradigmenwechsel, kein Ersatz. Der Entwickler verschwindet nicht — er steigt eine Abstraktionsebene höher.

Mein Workflow 2026: Ich bin Architekt und Reviewer. Der Agent ist der Entwickler. Und es funktioniert.