IA agentique : comment Claude Code a changé ma façon de développer
Retour d'expérience sur l'intégration de l'IA agentique dans un workflow de développement professionnel. Cas concrets, limites et bonnes pratiques.
L'IA n'est plus un copilote — c'est un agent
Il y a 18 mois, j'utilisais l'IA comme un autocomplete amélioré. Aujourd'hui, je lance des agents qui auditent un projet, créent des issues GitHub, implémentent les fixes, et déploient — en une seule session.
Ce n'est pas de la science-fiction. C'est mon workflow quotidien avec Claude Code depuis janvier 2026.
Ce qui a changé concrètement
Avant : le cycle classique
1. Identifier un problème
2. Chercher la solution (docs, Stack Overflow, essais)
3. Implémenter
4. Tester
5. Debugger
6. Commiter
Temps moyen pour une feature : 2-4 heures.
Maintenant : le cycle agentique
1. Décrire le problème et le contexte
2. L'agent explore le code, comprend l'architecture
3. Il propose un plan, je valide ou j'ajuste
4. Il implémente, teste, et commite
5. Je review le diff
Temps moyen pour la même feature : 30-60 minutes.
Le gain n'est pas que la vitesse — c'est la charge cognitive. Je ne porte plus le contexte de 15 fichiers dans ma tête. L'agent le fait.
Cas concret : audit GEO en une session
Sur mon portfolio (riggi.tech), j'ai lancé un audit GEO (Generative Engine Optimization) complet avec Claude Code :
- Exploration — l'agent a scanné toute la codebase, identifié les schemas JSON-LD existants, analysé le robots.txt, vérifié les canonical URLs
- Diagnostic — 8 issues créées automatiquement sur GitHub, priorisées P0 à P3
- Implémentation — AI crawlers dans robots.txt, canonical URLs sur toutes les pages, schemas Service, FAQ, CollectionPage, Speakable
- Review critique — un second agent Opus a audité le code du premier, trouvé un bug de shallow merge sur les hreflang
- Fix + déploiement — correction appliquée, build vérifié, déployé en prod
Total : 8 issues, 12 fichiers modifiés, 3 commits. En une session.
Les limites — soyons honnêtes
L'IA agentique n'est pas magique. Voici ce qui ne marche pas encore bien :
Le visuel
L'agent ne « voit » pas le rendu. Il peut écrire du CSS parfaitement valide qui produit un résultat visuellement raté. La boucle feedback visuel nécessite encore un humain.
Les choix de design
L'agent propose des solutions techniquement correctes mais parfois sur-engineerées. Il faut le cadrer : « simple, pas abstractions inutiles, pas de features que personne n'a demandées. »
Le ton éditorial
Quand j'ai demandé à l'agent de réécrire la copy de mon site, le résultat était trop marketing, trop américain. Mon retour : « Je suis quelqu'un de simple, humble et efficace. » L'IA a tendance à surcompenser.
Bonnes pratiques
Après 60+ sessions et 229 commits avec Claude Code :
1. Donner le contexte, pas les instructions
Au lieu de « ajoute un composant Button avec variant primary et secondary », je dis « on a besoin d'un bouton CTA sur les pages service — regarde comment les autres composants sont structurés et fais pareil. »
2. Planifier avant d'exécuter
Le mode Plan de Claude Code est sous-utilisé. Faire valider l'approche avant l'implémentation évite 80% des faux départs.
3. Utiliser des agents critiques
Lancer un agent Opus pour reviewer le code d'un premier agent, c'est comme avoir une code review automatique. Ça attrape les bugs, les incohérences, et les edge cases.
4. Ne pas tout accepter
L'agent propose, l'humain dispose. Je refuse environ 20% des suggestions — pas parce qu'elles sont techniquement fausses, mais parce qu'elles ne correspondent pas au style ou à la philosophie du projet.
L'avenir
L'IA agentique est à l'ingénierie logicielle ce que les IDE étaient au Notepad : un changement de paradigme, pas un remplacement. Le développeur ne disparaît pas — il monte d'un niveau d'abstraction.
Mon workflow en 2026 : je suis architecte et reviewer. L'agent est le développeur. Et ça marche.