Aliénation ou autonomisation ?

Chaque révolution technologique apporte son lot d’avancées et promet de nous libérer

Au quel coût ? On l’oublie souvent dans les livres d’histoire.

Aujourd’hui, la promesse s’appelle intelligence artificielle.
Elle écrit, elle code, elle raisonne.
Elle semble tout comprendre, tout accélérer, tout simplifier.

Mais derrière la fascination, une question demeure : que devient l’humain dans un monde où la machine pense pour lui ?

Le logiciel n’est pas un produit industriel.

C’est un organisme vivant, tissé d’intentions humaines, de contraintes, de dialogues, de choix.
Et l’IA, si nous n’y prenons garde, risque d’en faire une matière inerte.

Ce texte n’est pas une dénonciation de la technologie.
C’est une invitation à la réconciliation, une incitation au discernement.

Parce que la question n’est pas de savoir si la machine va nous remplacer.
Elle est de savoir qui est au service de qui.

I. La promesse et le vertige

Depuis quelques mois, une nouvelle promesse traverse la tech : celle d’une machine qui code à notre place.
Les démonstrations sont bluffantes. Quelques phrases en langage naturel, et un agent te génère une application fonctionnelle, des tests, parfois même le déploiement complet. C’est magique. Presque inquiétant.

Je me souviens de ma première expérience.
Une claque.
La sensation de voir s’ouvrir un monde sans friction : plus besoin de chercher, de comprendre, de peiner.
Juste formuler une intention, et la machine exécute.

Et puis, très vite, le doute.
Un malaise diffus, comme si quelque chose d’essentiel m’échappait.
À mesure que la machine avançait seule, je réalisais que je ne comprenais plus vraiment ce qu’elle faisait.
Les tests passaient, mais le sens s’échappait.
Je corrigeais des bugs sans savoir d’où ils venaient. Voire parfois, elle les corrige elle-même sans que je ne comprenne ce qu’elle fait. Mais qu’importe : ça marche. Du moins, ça semble marcher.
J’avais l’impression d’être spectateur de mon propre métier.

C’est là que le vertige s’installe.
Parce qu’on ne parle pas seulement d’efficacité, mais de rapport au travail, de place de l’humain dans la création.
Cette promesse d’automatisation totale — séduisante, rationnelle, économique — soulève une question plus profonde : Que reste-t-il de notre savoir-faire quand la machine prétend le reproduire ?

Quelle est notre rôle ?

On nous vend la liberté : “Fais confiance à l’agent, concentre-toi sur la vision.”
Mais cette délégation sans discernement a un prix : celui de la compréhension.
Et quand on cesse de comprendre, on perd la maîtrise.

C’est ce paradoxe qui me hante.
L’IA nous offre une puissance inédite, mais si nous ne l’abordons pas avec lucidité, elle pourrait nous transformer en simples opérateurs d’un système que nous ne maîtrisons plus.
La promesse de libération pourrait devenir une nouvelle forme d’asservissement.

Et si, finalement, le vrai progrès ne consistait pas à remplacer le développeur, mais à réinventer la relation entre l’humain et la machine ?
À faire de cette alliance une source d’autonomie, pas d’aliénation.

II. Une vieille histoire : de Jacquard à Toyota

Cette tension entre promesse et vertige n’a rien de nouveau.
Chaque révolution industrielle a porté le même rêve : automatiser pour libérer l’humain — et, presque toujours, ce rêve a flirté avec son contraire.

Au début du XIXᵉ siècle, un tisserand lyonnais du nom de Joseph-Marie Jacquard invente une machine extraordinaire.

Un métier à tisser capable de reproduire des motifs complexes grâce à des cartes perforées.
Chaque trou, chaque carte, correspond à une instruction.
Changer de motif, c’est simplement changer le jeu de cartes.

Pour la première fois, un artisan pouvait déléguer l’exécution répétitive à la machine tout en gardant la maîtrise du dessin.
La machine ne créait pas à sa place — elle prolongeait son geste.
Elle exécutait avec fidélité ce que l’esprit humain avait conçu.

C’était une véritable libération.
Comme plus tard la machine à laver, l’électricité, ou le moteur thermique, l’automatisation a, dans bien des cas, tenu ses promesses.
Elle a libéré du temps, du corps, de la fatigue.
Je ne regrette pas l’époque où il fallait laver son linge à la main ou fendre du bois pour se chauffer.
Ces révolutions-là ont allégé la vie.

Mais le logiciel, lui, n’obéit pas aux mêmes lois.
Il ne relève pas de la mécanique, mais du sens.
Son énergie n’est pas physique : elle est cognitive.
Et c’est précisément cette énergie que l’automatisation tente aujourd’hui de remplacer.

Ce que la machine nous “épargne” ici — la compréhension, la conception, la structuration — c’est la matière même du métier.
Là où l’automatisation mécanique remplace l’effort, l’automatisation logicielle risque de remplacer la pensée.
Elle ne lave pas mieux : elle désapprend à comprendre.

Dans le linge, la machine a tenu promesse.
Dans le code, elle fabrique un leurre.
Un mirage de productivité qui repousse sans cesse la compréhension, jusqu’à ce que plus personne ne sache vraiment ce qui se passe.
Un monde où le code se reproduit plus vite qu’on ne peut le lire, où la complexité ne diminue pas — elle s’accumule.

Un siècle après Jacquard, au Japon, Toyota voyait les choses autrement : le Jidoka était né.
L’idée que la machine doit pouvoir s’arrêter d’elle-même quand quelque chose ne va pas.
Non pas pour produire sans pause, mais pour préserver la maîtrise humaine.
L’humain reste le centre du système, non son esclave.

C’est là toute la différence entre automatisation et autonomisation.
Entre un monde où la machine exécute pour nous, et un monde où la machine nous aide à mieux faire.

Et aujourd’hui, avec l’intelligence artificielle, cette bifurcation se rejoue.
Voulons-nous des machines qui tissent pour nous — ou des machines qui nous aident à tisser mieux ?

III. De l’usine au cloud : la tentation de l’automatisation totale

Ce que le XIXᵉ siècle a vécu dans les usines, nous le vivons aujourd’hui dans le cloud.
Même logique, mêmes promesses, mêmes illusions : produire plus, plus vite, à moindre coût.
Sauf qu’au lieu de rouages et de métiers à tisser, nos machines sont virtuelles, distribuées, connectées en permanence.

L’industrie logicielle a hérité des réflexes de la révolution industrielle : le culte de la productivité, la fascination pour la vitesse, la croyance que tout processus peut être optimisé jusqu’à l’effacement de l’humain.
Et l’intelligence artificielle ne fait que pousser cette logique à son extrême.

Le discours est séduisant :
“Ne perds plus ton temps à coder, laisse faire l’agent.”
“L’humain doit se concentrer sur les tâches à plus forte valeur ajoutée.”

Mais derrière cette rhétorique, un autre mouvement s’opère : une dépossession progressive du savoir.
Ce que les ingénieurs savaient faire par compréhension, ils sont tentés de le déléguer par commodité.

Et c’est vite l’impasse.
On n’a pas attendu l’intelligence artificielle pour en arriver là.
Depuis longtemps déjà, des équipes maintiennent du code qu’elles ne comprennent plus vraiment, des applications fonctionnent “par habitude”, et les bugs sont devenus des phénomènes émergents plus que des erreurs identifiables.
L’IA ne crée pas ce problème — elle l’accélère.

Certains y verront une répétition de la logique décrite par Marx : la machine qui dépossède l’ouvrier de son savoir-faire, le capital qui cherche à réduire sa dépendance à une main-d’œuvre rare et coûteuse.
Cette lecture n’est pas fausse, mais elle n’est pas la mienne.
Là où Marx analysait une aliénation politique, je vois surtout une inefficacité systémique.

Car, dans le logiciel, la promesse de substitution se heurte à une loi plus implacable que le marché : la croissance exponentielle de la complexité.
Plus on délègue à la machine la production du code, plus les interactions se multiplient, plus les dépendances deviennent invisibles, plus la maintenance explose — et avec elle les coûts, les délais, les risques de sécurité.

L’histoire industrielle cherchait à produire toujours plus avec toujours moins d’humains.
Mais dans le logiciel, l’humain n’est pas un rouage à remplacer : il est le seul capable de contenir la complexité.
Je ne crois pas à l’IA qui code à notre place, non par peur du progrès, mais par lucidité : la machine ne peut pas maîtriser ce qu’elle amplifie.

Et même si, un jour, elle y parvenait — même si elle pouvait coder seule, traduire des besoins complexes, écrire des architectures entières —, à quel coût énergétique ?
Chaque ligne générée, chaque modèle entraîné, chaque itération de plus, exigerait une puissance colossale, des fermes de calcul toujours plus vastes, des ressources naturelles toujours plus rares.
L’efficacité locale deviendrait une inefficacité planétaire.
L’énergie qu’il faut pour remplacer la compréhension humaine serait, elle aussi, exponentielle.

Et ce coût ne serait pas que matériel.
À mesure que les systèmes s’opacifient, moins de gens comprennent ce qui se passe réellement.
Le pouvoir se concentre entre les mains de quelques acteurs capables d’interpréter ou d’influencer ces boîtes noires.

C’est là que la question cesse d’être technique.
Elle (re-)devient politique.

Parce qu’un monde où la compréhension disparaît, où la décision est déléguée à des systèmes opaques, où les ressources de la planète sont brûlées pour automatiser des tâches que des humains savaient faire avec discernement — ce n’est pas un progrès.

C’est une régression maquillée en efficacité.

Je ne veux pas de ce monde.
Celui où l’on pille les ressources pour remplacer des humains qu’on aliène de leurs compétences, où l’on appelle “gain de productivité” la perte de savoir-faire.

Si la machine doit nous aider, alors qu’elle le fasse à notre mesure : qu’elle nous augmente, sans nous effacer.
Qu’elle élargisse notre liberté, au lieu de la réduire.

Le reste — cette course à la substitution — n’est qu’une illusion d’efficacité.

IV. Le logiciel : un être vivant, pas un produit industriel

On continue trop souvent à parler du logiciel comme d’un produit : quelque chose qu’on “fabrique”, qu’on “livre”, qu’on “maintient”.
Mais le logiciel ne se comporte pas comme une voiture ou un meuble.
Il ne sort pas d’une chaîne d’assemblage.
Il naît, il grandit, il s’adapte, il se transforme.
Et, s’il n’est pas entretenu, il meurt.

Un code n’existe jamais seul : il vit dans un écosystème – dépendances, données, équipes, outils, infrastructure.
Il réagit à son environnement, il évolue au contact du réel.
Chaque commit, chaque mise à jour, chaque correctif vient réécrire une part de son ADN.
C’est pour cela que deux applications identiques sur le papier ne le sont jamais dans les faits.
Leur contexte, leur histoire, leurs cicatrices les rendent uniques.

Croire qu’on peut “industrialiser” un être vivant, c’est oublier la nature même du vivant. Les phénomènes à l’œuvre ne sont pas linéaires, mais exponentiels, les interactions ne sont pas causales, mais en boucle de rétro-actions et complexes.

L’IA ne change rien à cela – au contraire, elle accélère le cycle.
Elle permet de produire plus vite, donc de complexifier plus vite.
Chaque génération automatique, chaque agent autonome ajoute des couches de code plus ou moins bien pensées et comprises.
Et chaque ligne incomprise augmente l’entropie du système.

C’est là le grand paradoxe : la machine qui devait nous libérer du travail répétitif devient une fabrique d’imprévisible.
Plus on la laisse produire seule, plus le coût de la maintenance explose.
Plus elle écrit vite, plus elle détruit lentement la lisibilité.
Le gain apparent se transforme en dette.

Le logiciel, comme tout organisme, demande de l’attention, du soin, de la sobriété.
Il faut l’observer, le comprendre, l’élaguer régulièrement.
Il faut lui permettre de respirer, de se simplifier.
C’est un travail vivant, un art de la continuité, pas une course à la livraison.

Alors, non, le code n’est pas un produit industriel.
C’est une matière organique, tissée d’intentions humaines.
Tirer sur une tomate ne la fait pas pousser plus vite.

V. L’IA : la nouvelle machine à entropie

On croyait que l’IA allait simplifier le développement.

Qu’elle allait écrire le code à notre place, corriger nos erreurs, documenter nos intentions.
Mais à bien y regarder, elle ne simplifie pas : elle accélère.
Et l’accélération, dans un système déjà complexe, ne fait pas disparaître la complexité — elle la démultiplie.

Chaque ligne générée automatiquement, chaque refactor fait par un agent autonome, ajoute une petite dose de désordre.
Pas toujours visible au début, mais bien réel.
Des dépendances mal comprises, des tests contournés, des morceaux de logique réécrits sans cohérence.
Le tout finit par produire ce que les anciens appelaient déjà la dette technique, mais à une échelle et une vitesse inédites.

C’est une loi simple : chaque automatisation qui ne s’accompagne pas de compréhension augmente l’entropie du système.

L’IA est une machine à produire du code, pas du sens.
Elle écrit, mais elle ne voit pas.
Elle optimise localement sans percevoir la cohérence globale.
Si elle écrit plus vite que nous ne lisons, le stock de code “non assimilé” grandit.
Ce stock, c’est la matière noire du logiciel moderne : personne ne la comprend, mais tout en dépend.

À court terme, tout semble fluide : la productivité explose, les prototypes jaillissent.
Mais sous la surface, l’entropie s’accumule.

Et un jour, elle se manifeste :

  • les temps de build qui s’allongent,
  • les bugs inexplicables,
  • les équipes paralysées par la peur de casser l’existant,
  • les coûts de maintenance qui dépassent la création.

C’est ce que j’appelle le mur entropique.
Ce point où la vitesse de production cesse d’apporter de la valeur, parce que chaque ajout de code coûte plus cher à stabiliser qu’à écrire.
Un mur invisible, qu’on ne voit qu’après l’avoir percuté.

Et plus on délègue à l’IA, plus on s’en rapproche vite.

Parce que ce qui faisait notre boussole — la compréhension, la structure, l’intention — s’efface derrière des lignes générées sans compréhension.

Alors oui, l’IA est puissante.
Mais laissée seule, elle devient une machine à entropie.
Une machine qui accélère la perte de lisibilité du monde qu’elle fabrique.

Et si l’on veut éviter ce mur, il va falloir changer de logique : non plus courir après la vitesse, mais redonner de la valeur à la compréhension, à la sobriété et à l’autonomie humaine.

VI. L’autre voie : vers un logiciel écologique

Si le logiciel est vivant, alors il mérite d’être traité comme tel.
Pas optimisé, pas pressé, pas forcé à croître sans limite — mais accompagné, soigné, élagué.

Cette idée d’un logiciel écologique n’est pas une métaphore poétique : c’est une nécessité systémique.

Dans un écosystème logiciel, la dette n’est pas une fatalité.
Elle devient un symptôme : celui d’un système qui consomme plus d’énergie qu’il n’en restitue.
À l’inverse, un système écologique produit de la valeur régénérative : chaque action renforce la cohérence, améliore la lisibilité, augmente la résilience.

Concrètement, cela veut dire :

  • écrire moins de code, mais mieux ;
  • supprimer avant d’ajouter ;
  • comprendre avant d’automatiser ;
  • concevoir des agents capables de s’arrêter, de signaler leurs doutes, de demander de l’aide ;
  • intégrer la sobriété logicielle dans nos critères de qualité au même titre que la performance ou la sécurité.

L’écologie du logiciel, c’est aussi une écologie du travail.
Des équipes plus petites, plus conscientes de leurs flux, où chaque membre comprend la finalité de ce qu’il construit.
Des boucles de feedback courtes, des tests clairs, des décisions explicites.
Tout ce qui rend le système humain lisible et respirable.

L’IA a toute sa place dans cette vision, à condition qu’on l’utilise comme un outil de soin plutôt que de prolifération.
Un assistant qui aide à diagnostiquer la complexité, à détecter les redondances, à révéler les dépendances cachées.
Un compagnon de maintenance, pas une usine à features.

Le logiciel écologique, c’est le retour de l’intention dans la technique.
C’est redire : “Je comprends ce que je fais, et pourquoi je le fais.”
C’est refuser la course à la production pour retrouver la conscience du geste.

Il ne s’agit pas de ralentir pour le plaisir de ralentir, mais de ralentir pour durer.
Car dans un monde où tout s’accélère, la véritable puissance n’est plus dans la vitesse — elle est dans la maîtrise.

VII. Une responsabilité collective

Le logiciel n’est pas qu’une affaire d’ingénieurs.
C’est la colonne vertébrale du monde moderne.
Et la manière dont nous le concevons, l’entretenons, le gouvernons, dit beaucoup de la société que nous construisons.

L’IA, sous couvert d’efficacité, a concentré le pouvoir entre les mains de quelques acteurs : les détenteurs des modèles, des données, des plateformes.
Ce sont eux qui décident de ce que nous comprenons.
Cette centralisation n’est pas neutre.
Elle crée une dépendance cognitive, une nouvelle forme de colonisation : celle du savoir technique.

Reprendre la main sur nos outils, c’est d’abord refuser cette dépendance.
C’est retrouver la maîtrise de notre infrastructure mentale. Cela passe par des choix très concrets :

  • préférer les modèles ouverts quand c’est possible ;
  • comprendre les outils avant de les intégrer ;
  • conserver la capacité à auditer, à corriger, à expliquer.

C’est aussi garder un sens de l’effort pour continuer à comprendre ce que fait la machine pour en rester maître et non pas devenir son serviteur.

Le but n’est pas de freiner le progrès, mais de redonner au progrès un sens humain.

Reprendre la main, ce n’est pas revenir en arrière.
C’est redonner à la technique sa juste place : un prolongement de notre discernement, pas un substitut à notre jugement.

A nous d’utiliser les outils qui nous augmentent au lieu de ceux qui nous remplacent.

La machine n’est pas notre ennemie.
Elle n’a pas d’intention propre. Du moins pas encore.
Elle amplifie simplement celle de ceux qui la conçoivent.

Le logiciel n’est pas une matière inerte.
Il est le miroir de notre manière d’habiter le monde.
S’il devient chaotique, c’est souvent que nous le sommes aussi.
Le soigner, c’est apprendre à nous soigner nous-mêmes.

L’enjeu, désormais, n’est plus de produire plus vite.
Il est de comprendre plus profondément.
De ralentir pour écouter ce que le système nous dit, de retrouver l’intelligence du geste, la satisfaction de bien faire son travail.

L’IA ne nous condamne pas à la passivité.
Elle nous met au défi d’être à la hauteur de ce que nous inventons.

Alors oui, utilisons la machine.
Mais gardons la main.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.