Image de couverture : 3 humains, 100 agents IA : ce que cette équipe nous apprend sur le futur du développement logiciel
tech

3 humains, 100 agents IA : ce que cette équipe nous apprend sur le futur du développement logiciel

17 May 2026
6 min de lecture
2 vues
Sébastien Muler

3 humains, 100 agents IA : ce que cette équipe nous apprend sur le futur du développement logiciel

Et si votre équipe de trois développeurs pouvait gérer simultanément 100 processus de développement en parallèle ? C'est exactement ce que fait Peter Steinberger, fondateur du projet open source OpenClaw, avec son équipe chez OpenAI. Une configuration qui interroge profondément nos modèles d'organisation — et qui mérite qu'on s'y attarde sérieusement.

Ce que fait concrètement cette équipe de 3 personnes

Selon un article publié par The Decoder en mai 2026, l'équipe de Steinberger maintient en permanence une centaine d'instances Codex (l'agent de codage d'OpenAI) actives dans le cloud. Ces agents ne sont pas de simples assistants passifs : ils travaillent en continu, en autonomie, sur des tâches concrètes de développement logiciel.

Concrètement, voici ce que ces agents font :

  • Revue de Pull Requests : des agents analysent chaque PR soumise, vérifient la cohérence du code, signalent les problèmes.
  • Détection de failles de sécurité : certains agents scannent les commits à la recherche de vulnérabilités.
  • Déduplication d'issues : d'autres identifient les doublons dans le backlog pour éviter le travail redondant.
  • Rédaction de correctifs : les agents ne se contentent pas de signaler, ils proposent — et parfois ouvrent directement — des PRs avec les corrections.
  • Surveillance de benchmarks : des agents monitent les performances et alertent l'équipe sur Discord en cas de régression.
  • Écoute des réunions : certains agents assistent aux réunions d'équipe et créent automatiquement des PRs pour les fonctionnalités évoquées à l'oral.

L'équipe complète ce dispositif avec des outils spécialisés : Clawpatch.ai, Vercel Deepsec et Codex Security pour l'analyse de sécurité.

1,3 million de dollars par mois : cher ou pas cher ?

La facture API OpenAI sur 30 jours : 1,3 million de dollars, pour 603 milliards de tokens et 7,6 millions de requêtes. Le modèle le plus utilisé est GPT-5.5. Précision importante : c'est OpenAI qui règle la note, dans le cadre d'un usage interne.

Steinberger a défendu ce coût avec un argument qui mérite réflexion : il explore comment le logiciel serait construit si le coût des tokens n'était pas un frein. Il ajoute que désactiver le "Fast Mode" seul réduirait la facture de 70 %. Ce n'est donc pas une configuration optimisée pour la rentabilité — c'est une expérience sur les limites de ce qui est possible.

Quant au ROI, sa réponse est directe : tout ce que l'équipe produit est open source, compatible avec les grands modèles comme avec les modèles ouverts. "Je dirais que c'est assez élevé."

Pour une TPE ou PME, les chiffres bruts sont hors de portée. Mais la logique de cette organisation, elle, est parfaitement transposable à une échelle bien plus modeste.

Ce que les TPE/PME doivent retenir de ce modèle

Le vrai enseignement n'est pas financier, il est structurel. Steinberger ne remplace pas des développeurs par des agents — il redéfinit ce que trois développeurs peuvent accomplir. C'est un changement de paradigme.

Dans un cabinet de développement web classique, une équipe de trois personnes gère un pipeline séquentiel : on développe, on teste, on revoit, on livre. Les goulots d'étranglement sont humains et temporels. Avec des agents IA bien configurés, ce pipeline devient massivement parallèle.

Pour une agence PHP/Symfony comme MulerTech, voici les questions concrètes que ce modèle pose :

1. Quelles tâches répétitives peuvent être déléguées à des agents ? La revue de code systématique, la vérification des normes PSR, la détection de régressions sur une suite de tests, la génération de documentation — autant de tâches à forte valeur de vérification mais faible valeur créative.

2. Comment reconfigurer les rôles humains ? Si les agents gèrent la surveillance et la vérification, les développeurs humains se concentrent sur l'architecture, les décisions métier et la relation client. Le ratio n'est pas 1 humain pour 33 agents — c'est 1 humain qui supervise 33 processus plutôt que d'en exécuter un seul à la fois.

3. Quel niveau d'autonomie accorder aux agents ? Steinberger permet à ses agents d'ouvrir des PRs. C'est un niveau d'autonomie élevé qui suppose une confiance dans les garde-fous mis en place. Pour une équipe qui débute avec ces outils, commencer par des agents qui suggèrent sans agir est une approche plus prudente.

Par où commencer concrètement ?

Inutile de viser 100 agents dès le départ. Une adoption progressive et ciblée est bien plus efficace.

Étape 1 — Identifier un processus répétitif coûteux en temps. La revue de PRs est souvent le meilleur point de départ : elle est structurée, ses critères sont formalisables, et son automatisation partielle libère immédiatement du temps développeur.

Étape 2 — Mettre en place un agent de surveillance. Un agent qui monitore les métriques de performance ou les erreurs en production et alerte sur un canal Slack ou Discord reproduit une partie de ce que fait l'équipe OpenClaw, à coût très raisonnable.

Étape 3 — Mesurer avant d'étendre. Avant de multiplier les agents, mesurer l'impact réel sur le temps d'équipe et la qualité livrable. L'enthousiasme ne remplace pas la rigueur.

Conclusion : ce n'est pas une question de budget, c'est une question de vision

L'expérience de Peter Steinberger est extrême dans ses moyens, mais elle illustre une tendance de fond : la productivité en développement logiciel n'est plus seulement une affaire de nombre de développeurs, mais d'architecture d'équipe.

Les TPE et PME qui réfléchissent dès maintenant à la façon dont elles intègrent des agents IA dans leurs workflows — pas pour remplacer leurs équipes, mais pour démultiplier leur capacité d'action — seront mieux positionnées que celles qui attendent que le sujet devienne incontournable.

La question n'est plus "est-ce que l'IA peut coder ?" mais "comment est-ce que je structure mon équipe pour tirer parti de ce que l'IA peut faire en parallèle ?"

Source originale : The Decoder, mai 2026

Partager cet article