Essai d’épistémologie appliquée (2)
Résumé. L’empirisme est une tare atavique de l’humanité dont le géocentrisme, la Terre plate et l’Économie politique constituent les succès emblématiques. Muré dans l’instant et l’immédiat, enfermant le futur dans une projection du passé, il ne supplantera jamais la faculté d’abstraction. Intellectualisé par les Lumières, il entre aujourd’hui dans la machine avec « l’Intelligence artificielle ». L’IA construit elle-même, empiriquement, sa fonction opérative; mais une fonction dénuée de sens, relevant uniquement du tâtonnement opportuniste. C’est là sa limite.
Introduction
Ayant entrepris de combattre l’obscurantisme, les philosophes des Lumières ont cru le débusquer dans les rituels et légendes de la religion. Pour preuve, la persécution des découvreurs de l’héliocentrisme par l’Église. Mais celle-ci n’avait pas inventé le géocentrisme. Elle ne faisait que se rendre à l’évidence de l’apparente course circumterrestre du soleil, comme toute l’humanité depuis les temps les plus anciens. Elle y était d’autant plus incitée que le géocentrisme attestait l’hypothèse raisonnable selon laquelle Dieu ne pouvait pas avoir placé sa créature préférée ailleurs qu’au centre de l’univers. Avant elle, selon Plutarque, les stoïciens avaient voulu traduire en justice l’Aristarque de Samos qui prétendait que la Terre sur laquelle les dieux coexistaient avec les hommes était un objet errant (planètès). En attribuant à cette tradition l’évidente origine de l’obscurantisme, les philosophes humanistes commettaient le même péché.
Les conséquences de cette bévue se font encore sentir à notre époque qui n’a toujours pas révoqué l’empirisme atavique. Cela se manifeste notamment à propos de l’innovation dite de « l’intelligence artificielle ». Technologie au demeurant tout à fait légitime et dont l’utilité ne fait aucun doute. Mais l’état d’esprit qui l’entoure, non seulement de la part du public mais aussi de ses promoteurs et encenseurs et des politiciens en mal de solutions aux problèmes qui les dépassent, menace de mettre à exécution des projets aussi pervers que le remplacement par les machines des enseignants, des médecins généralistes, des pilotes de ligne et, pourquoi pas, des avocats et des juges. Croire que l’IA est vraiment une forme d’intelligence, c’est l’abdication de l’intelligence. Croire qu’elle va remplacer le travail humain en temps réel, c’est compromettre le retour d’expérience et, partant, l’avenir de l’innovation.
1. Psychanalyse de l’empirisme
Qu’est-ce qui conduit spontanément le psychisme humain à prendre pour vraie sa perception première du monde extérieur ? Bachelard répond par le « réalisme », ou « substantialisme », qu’il qualifie de « seule philosophie innée ». Marx l’appelle « matérialisme » et en fait la base de sa philosophie. Bachelard en fait quant à lui « un instinct » et en propose « une psychanalyse spéciale ». L’instinct est celui de l’appropriation infantile de tout ce qui se voit, se touche, se sent. L’avarice en est la rémanence emblématique. « C’est donc dans l’acte même de connaître qu’il nous faut déceler le trouble produit par le sentiment de l’avoir. »[i]
Cette imputation ne pouvait manquer de choquer un épistémologue matérialiste comme Canguilhem :
« Mais une entreprise qui consiste, de l’aveu même de son auteur, à rechercher dans la psychanalyse des obstacles épistémologiques les conditions psychologiques du progrès de la science, ne risque-t-elle pas de disqualifier la science dans sa prétention à l’objectivité ? »[ii]
Précisément, cette prétention n’est pas de mise. La science n’est pas objective. Elle est téléologique, et ses intentions sont parfois obscures, comme l’obstination à conclure à la responsabilité humaine dans le réchauffement climatique, à partir d’une simple coïncidence de dates entre la fin d’un cycle de refroidissement et le début de la Révolution industrielle. La croyance en l’objectivité de la science autorise à qualifier d’« ennemie du progrès » toute opposition aux thèses officielles. Elle accompagne par ailleurs la métaphysique d’un progrès univoque et prédestiné.
Seule la méthode permet de palier le défaut d’objectivité de la science. Descartes en eut l’intuition, mais en fondant sa méthode sur « l’évidence » il demeurait dans l’ornière. Il faut renoncer à l’objectivité et se contenter d’hypothèses, de théories et de vérification des prédictions théoriques par la mesure physique ou statistique des phénomènes observés. On en tire des vérités relatives et changeantes, mais aussi des outils pour agir et des énigmes pour penser.
2. Dépassements de l’empirisme
L’intelligence, c’est-à-dire l’acte de comprendre, de discerner, procède par déduction et induction. La première consiste à poser des hypothèses, à en déduire des théorèmes, à tirer des prédictions de ces derniers, puis à en vérifier la concordance avec la mesure physique ou statistique du phénomène observé. Quant aux inférences de l’induction, elles aboutissent à un résultat qui peut être exploitable, mais elles doivent être traitées a priori comme des hypothèses qui seront ou non validées.
Jusque dans les années 1990, les programmes complexes de gestion des données, appelés « systèmes experts », émulaient la méthode déductive. La programmation consistait à traiter les données à l’aide d’une fonction prédéterminée. Le résultat recherché était en quelque sorte prémédité, voulu. Pour l’IA, c’est l’inverse. D’un certain nombre d’observations, elle tire une fonction opérative. Mais cette dernière ne présente aucun caractère conceptuel comme les fonctions créées par les mathématiques. C’est un bricolage purement empirique, qui n’enseigne rien du phénomène concerné. Intellectualisé par les Lumières, l’empirisme retrouve ainsi, avec l’IA, un statut opérationnel qu’il avait perdu au bénéfice de créations abstraites.
Longtemps, les hommes ont additionné les objets ou entités pour en connaître la somme à partir d’objets étalons, par exemple les doigts de la main. Mais ils devaient recommencer le décompte à chaque sommation. Et ce, jusqu’à ce que soient découverts les nombres et la récurrence mathématique de l’addition, qui permettent de connaître directement n’importe quelle sommation. Entre les deux méthodes, s’est donc produit un saut qualitatif. La méthode empirique s’approchait de la solution définitive, mais de manière asymptotique sans pouvoir y accéder. Il y a fallu une autre démarche intellectuelle, celle de l’abstraction.
Confrontés aux phénomènes du vieillissement, de l’hystérésis et de l’entropie, nous intégrons empiriquement le temps comme une donnée naturelle au même titre que l’espace. Ce qui autorise l’imagination à envisager des retours en arrière, jusqu’à « la machine à remonter le temps ». Mais alors que l’espace est mesurable avec de l’espace donné comme tel par la nature, celle-ci ne nous offre rien qui ressemble à du temps. Notre âge n’est autre que le nombre de fois que la terre a fait le tour du soleil depuis notre naissance : le temps est mesurable avec de l’espace. C’est-à-dire qu’il n’existe pas. C’est un concept inventé par les hommes. Son irréversibilité est la condition même de son utilité.
De la pesanteur et de la précipitation des corps céleste les uns vers les autres, l’empirisme avait conclu à l’existence d’une force d’attraction mutuelle. Elle s’explique aujourd’hui par la courbure de l’espace où toute trajectoire soumet le mobile à une accélération centripète structurelle plus ou moins compensée par une réaction centrifuge conjoncturelle. À partir d’observations et d’expériences, Isaac Newton avait empiriquement construit une formule de la gravitation qui lui semblait universelle, mais qui en réalité ne couvrait pas toutes les occurrences et se révélait dénuée de tout apport heuristique. Son premier défaut consistait en un postulat implicite selon lequel les interactions dans l’espace seraient instantanées. Or l’on sait aujourd’hui qu’elles se propagent à la « vitesse de la lumière ». Pour englober tous les aspects du domaine gravitationnel, y compris certaines anomalies comme la dérive du périhélie de Mercure, il a fallu une abstraction : la relativité générale d’Albert Einstein.
En 1958, un économiste néo-zélandais du nom de William Phillips a publié un article sur le thème de la relation entre le chômage et la variation des salaires. Cette relation s’est rapidement élargie à l’inflation, du fait de la croyance ambiante selon laquelle ladite inflation dépendrait des salaires. L’article de Phillips présentait une courbe construite à partir de données statistiques montrant une évolution du chômage inverse de celle des prix. Elle eut un certain succès, parce qu’elle semblait demeurer stable dans le temps. Son auteur en avait empiriquement tiré une équation mélangeant des variables d’ordres inégaux, qui tout comme celle de Newton n’apportait aucun éclaircissement sur le phénomène concerné. À la fin des années 1960, la courbe devint irrémédiablement instable et sombra dans l’oubli. Elle était entachée de l’empirisme général de l’Économie politique. En fait, les salaires sont concurrents des bénéfices et ne participent donc de « l’inflation » que selon le degré de rigidité à la baisse de ces derniers.
3. Limite de l’IA
L’IA se limite à l’induction. Elle peut brasser d’énormes quantités de données, et c’est probablement ce qui en restera après dissipation des illusions. Mais ce n’est pas là l’une de ses caractéristiques, car la programmation déductive le peut tout autant. Ce qui la caractérise, c’est l’apprentissage. Dans la programmation classique, la machine fonctionne selon une ou plusieurs fonctions qui lui sont implémentées. Dans la programmation inductive, la machine effectue elle-même son propre apprentissage à partir d’échantillons et de caractéristiques enregistrées issues de l’observation. Elle est alors censée en tirer la fonction opérative, comme dans les équations empiriques de Newton et de Phillips et, aujourd’hui, la chaîne informatique qui relie les marchés financiers. Les afficionados de l’IA y voient la preuve de l’intelligence :
« La capacité d’apprendre est une caractéristique du comportement intelligent, c’est pourquoi toute tentative de comprendre l’intelligence en tant que phénomène doit inclure une compréhension de l’apprentissage. Plus concrètement, l’apprentissage fournit potentiellement une méthodologie pour construire des systèmes à hautes performances. »[iv]
Mais seule la conceptualisation des phénomènes observés permet d’inventer des outils pour agir sur le réel. La mécanique du levier, par exemple, a pu être empiriquement découverte, mais ses diverses applications n’ont été rendues possibles que grâce aux notions physiques abstraites de force et de moment de force. Pas plus que les équations précitées de Newton et de Phillips, la fonction induite n’a la moindre chance d’apporter une clarification conceptuelle des phénomènes. L’empirisme se heurtera toujours à la limite que seule peut franchir l’abstraction. En d’autres termes, les croyants en un avenir illimité de l’IA envisagent une machine capable de s’approprier cette spécificité humaine. On entre alors dans le domaine fantasmatique du transhumanisme.
« La nature (l’art par lequel Dieu a fait le monde et le gouverne) est si bien imitée par l’art de l’homme, en ceci comme en de nombreuses autres choses, que cet art peut fabriquer un animal artificiel. Car, étant donné que la vie n’est rien d’autre qu’un mouvement de membres, dont le commencement est en quelque partie principale intérieure, pourquoi ne pourrions-nous pas dire que tous les automates (des engins qui se meuvent eux-mêmes, par des ressorts et des roues, comme une montre) ont une vie artificielle ? Car qu’est-ce que le cœur, sinon un ressort, les nerfs, sinon de nombreux fils, et les jointures, sinon autant de nombreuses roues qui donnent du mouvement au corps entier, comme cela a été voulu par l’artisan. »[v]
Plus concrètement, se profile une autre limite qui, elle, peut être franchie et entraîner une irréversible dégénérescence de l’humanité. Elle n’est pas inhérente à l’IA, mais à l’usage que certains apprentis sorciers comptent en faire. Il est motivé par la croyance générale dans le remplacement du travail humain par celui des machines, par la conviction que l’enrichissement des bases de données épuisera le futur et par l’espoir politique de confier à une instance dénuée de subjectivité la solution de problèmes non maîtrisés : la gouvernance algorithmique[vi].
En fait, la technologie déplace le travail mais ne le remplace pas[vii]. Elle renvoie en amont la gestion du travail en temps réel. Quand un robot se voit confier une tâche d’exécution en remplacement d’un humain, il a mobilisé du travail pour sa conception, sa production, sa maintenance, la mise à jour du logiciel et sa surveillanvce. Mais incapable d’affronter des situations non répertoriées dans sa base de données, le robot ne peut pas faire face à l’imprévu. Seule la plasticité du cerveau humain permet cette faculté. Ce qui signifie que la machine ne peut pas assumer le nécessaire retour d’expérience sans lequel il n’y aurait pas de progrès. Autrement dit, le déplacement du travail vers l’amont de la chaîne économique menace tout simplement l’avenir de l’innovation.
Conclusion
L’empirisme artificiel ne constitue pas en lui-même un plus ou moins grand danger que sa version humaine. La menace vient du cognitivisme transhumaniste et de la gouvernancer algorithmique. Les adeptes du premier se prennent pour Dieu, prétendant artificiellement créer une forme de vie et maîtriser l’éternité. Eux non plus ne sont pas intrinsèquement dangereux, mais ils peuvent apporter leur expertise technologique au service d’un empirisme politique. La croyance en une intelligence artificielle se voit alors offrir la possibilité concrète d’éteindre des fonctions économiques et sociales, les filières de formation y afférentes et l’innovation.
Romain Kroës, octobre 2024
[i] Gaston Bachelard, La formation de l’esprit scientifique, Vrin, 1983, p. 131-132.
[ii] Georges Canguilhem, Études d’histoire et de philosophie des sciences concernant les vivants et la vie, Vrin, 1983, p. 204.
[iii]Voir sur ce blog “Monnaie politique et politique monétaire”
[iv] John Ross Quinlan, Induction of Decision Tree, Kluwer Academic Publishers, 1986.
[v] Thomas Hobbs (1588-1679), introduction au Léviathan, 1651.
[vi]Matteo Pasquinelli, Anomaly Detection: The Mathematization of the Abnormal in the Metadata Society.
[vii]Romain Kroës, Face au désordre, Clivages, 2024, p.183-218.