Skip to content
Retour au blog
·4 min de lecture

IA agentique : comment Claude Code a changé ma façon de développer

Retour d'expérience sur l'intégration de l'IA agentique dans un workflow de développement professionnel. Cas concrets, limites et bonnes pratiques.

AIClaude CodeAgenticProductivityDeveloper Experience

L'IA n'est plus un copilote — c'est un agent

Il y a 18 mois, j'utilisais l'IA comme un autocomplete amélioré. Aujourd'hui, je lance des agents qui auditent un projet, créent des issues GitHub, implémentent les fixes, et déploient — en une seule session.

Ce n'est pas de la science-fiction. C'est mon workflow quotidien avec Claude Code depuis janvier 2026.

Ce qui a changé concrètement

Avant : le cycle classique

1. Identifier un problème
2. Chercher la solution (docs, Stack Overflow, essais)
3. Implémenter
4. Tester
5. Debugger
6. Commiter

Temps moyen pour une feature : 2-4 heures.

Maintenant : le cycle agentique

1. Décrire le problème et le contexte
2. L'agent explore le code, comprend l'architecture
3. Il propose un plan, je valide ou j'ajuste
4. Il implémente, teste, et commite
5. Je review le diff

Temps moyen pour la même feature : 30-60 minutes.

Le gain n'est pas que la vitesse — c'est la charge cognitive. Je ne porte plus le contexte de 15 fichiers dans ma tête. L'agent le fait.

Cas concret : audit GEO en une session

Sur mon portfolio (riggi.tech), j'ai lancé un audit GEO (Generative Engine Optimization) complet avec Claude Code :

  1. Exploration — l'agent a scanné toute la codebase, identifié les schemas JSON-LD existants, analysé le robots.txt, vérifié les canonical URLs
  2. Diagnostic — 8 issues créées automatiquement sur GitHub, priorisées P0 à P3
  3. Implémentation — AI crawlers dans robots.txt, canonical URLs sur toutes les pages, schemas Service, FAQ, CollectionPage, Speakable
  4. Review critique — un second agent Opus a audité le code du premier, trouvé un bug de shallow merge sur les hreflang
  5. Fix + déploiement — correction appliquée, build vérifié, déployé en prod

Total : 8 issues, 12 fichiers modifiés, 3 commits. En une session.

Les limites — soyons honnêtes

L'IA agentique n'est pas magique. Voici ce qui ne marche pas encore bien :

Le visuel

L'agent ne « voit » pas le rendu. Il peut écrire du CSS parfaitement valide qui produit un résultat visuellement raté. La boucle feedback visuel nécessite encore un humain.

Les choix de design

L'agent propose des solutions techniquement correctes mais parfois sur-engineerées. Il faut le cadrer : « simple, pas abstractions inutiles, pas de features que personne n'a demandées. »

Le ton éditorial

Quand j'ai demandé à l'agent de réécrire la copy de mon site, le résultat était trop marketing, trop américain. Mon retour : « Je suis quelqu'un de simple, humble et efficace. » L'IA a tendance à surcompenser.

Bonnes pratiques

Après 60+ sessions et 229 commits avec Claude Code :

1. Donner le contexte, pas les instructions

Au lieu de « ajoute un composant Button avec variant primary et secondary », je dis « on a besoin d'un bouton CTA sur les pages service — regarde comment les autres composants sont structurés et fais pareil. »

2. Planifier avant d'exécuter

Le mode Plan de Claude Code est sous-utilisé. Faire valider l'approche avant l'implémentation évite 80% des faux départs.

3. Utiliser des agents critiques

Lancer un agent Opus pour reviewer le code d'un premier agent, c'est comme avoir une code review automatique. Ça attrape les bugs, les incohérences, et les edge cases.

4. Ne pas tout accepter

L'agent propose, l'humain dispose. Je refuse environ 20% des suggestions — pas parce qu'elles sont techniquement fausses, mais parce qu'elles ne correspondent pas au style ou à la philosophie du projet.

L'avenir

L'IA agentique est à l'ingénierie logicielle ce que les IDE étaient au Notepad : un changement de paradigme, pas un remplacement. Le développeur ne disparaît pas — il monte d'un niveau d'abstraction.

Mon workflow en 2026 : je suis architecte et reviewer. L'agent est le développeur. Et ça marche.