L'intelligence artificielle il y a trente ans et aujourd'hui
En 1993, au département de philosophie et de psychologie de l'université d'Oviedo, j'ai présenté ma thèse pour l'obtention du titre de docteur en philosophie. Mon travail s'intitulait "Gnoseología de la Psicología Cognitiva" (Gnoséologie de la psychologie cognitive) et, dans ses différents chapitres, je traitais assez longuement du statut des disciplines qui - déjà à l'époque - promettaient de révolutionner la science et la technologie et, en fin de compte, de modifier la condition humaine elle-même. Mon analyse, réalisée en grande partie avec les outils de la théorie de la clôture catégorielle (Gustavo Bueno), ne se limitait pas à cette école de psychologie qui utilisait ce qu'on appelle la "métaphore informatique", qui comprenait l'esprit humain (et animal) comme un système de traitement de l'information. Au-delà, j'ai estimé que l'analyse devait inclure une critique de cette sorte de "club" de connaissances qui - aux États-Unis - commençait à s'appeler "sciences cognitives". Il s'agissait d'un ensemble de connaissances très hétérogènes, mais unies par une approche et des méthodologies dites "computationnelles".
L'intelligence artificielle (I.A.), née bien avant le "club" des sciences cognitives, se sentait ici (nous parlons des années 1980) comme la maîtresse de maison, la reine qui pouvait faire la leçon et donner des mandats aux autres sciences (c'est-à-dire la psychologie, la linguistique, l'anthropologie, les neurosciences...). C'est elle, l'I.A. régnante, qui offrirait un cadre commun, une vision du monde, une méthodologie, etc. aux autres. Même la philosophie (qui, dans le monde anglo-saxon, était avant tout la philosophie analytique, la philosophie de l'esprit) devait intégrer ses arguments et ses analyses dans la sphère informatique (Fodor, Dennet).
A l'époque, mes collègues du département et mes étudiants ne comprenaient pas l'importance d'une telle analyse. Il ne s'agissait pas seulement de critiquer le "mentalisme" d'une telle vision du monde et de l'homme. Gustavo Bueno, au sujet de la gnoséologie de la psychologie, avait des vues très crues, curieusement très proches du béhaviorisme. Cela explique la présence dans mon comité de thèse, outre le célèbre philosophe (en tant que président), d'une paire de psychologues philosophes (Marino Pérez et Juan Bautista Fuentes), qui entendaient par matérialisme en psychologie exactement ceci: le "béhaviorisme". Ils étaient - ou sont peut-être encore - deux disciples de Bueno qui appliquaient certaines bonnes théories aux sciences du comportement. Dans ces années-là, ils hybridaient Skinner avec Ortega et Bueno, c'est-à-dire qu'ils étaient déterminés à faire la quadrature du cercle et à fabriquer des fers à repasser en bois. Une absurdité typique des universités hispaniques, si enclines à l'arbitraire et à la stérilité. Le comportementalisme qui leur plaît tant n'est rien d'autre qu'une idéologie d'origine américaine qui ne produit qu'une vision mécanique et aliénante de l'être humain; cette vision comportementaliste et mécanique était également cachée, dès le début, dans toute l'approche computationnelle, de sorte qu'à Oviedo (Fuentes est professeur à la Complutense, mais a été "adopté" par Oviedo dans plusieurs aspects), il n'y avait pas beaucoup d'instruments ni de personnes pour faire une critique adéquate.
L'application de cette méthode d'analyse des sciences et des connaissances que Gustavo Bueno a conçue, la théorie de la fermeture, a nécessité la rectification et le remaniement des outils utilisés, en fonction des connaissances en question. L'intelligence artificielle, celle qui intéresse vraiment le philosophe (et non une simple technologie de programmation, de simulation de comportements, etc.) n'est pas une science : c'est un projet ontologique transformateur, enfant du capitalisme le plus destructeur et prédateur, aujourd'hui dirigé par la Silicon Valley, Big Tech, les GAFAM... Ce n'était pas une simple métaphore au service du mentalisme des cognitivistes.
Si ces philosophes et psychologues "matérialistes" m'ont lu calmement, je ne pense pas qu'ils aient jamais saisi ma proposition. Une proposition que je n'ai pas pu approfondir après 1993, faute de soutien pour ma carrière universitaire. Dans ma thèse de doctorat, je mettais en garde contre l'émergence dangereuse d'un "humanisme computationnel" selon lequel les frontières entre la machine, l'être vivant et l'être humain deviendraient floues. Un "humanisme computationnel" se présentait comme un cadre philosophique pour la promesse d'un monde plus confortable et plus heureux, où les humains seraient mécanisés. Ainsi, le processus de réification se poursuivrait, le capitalisme verrait de nouvelles barrières tomber : tout peut être marchandisé, tout entre sur le marché. Non seulement la terre, l'eau, l'air, la sueur humaine, les organes et les vies organiques. Même les processus mentaux et l'intimité de l'homme sont destinés à être commercialisés. L'idéologie transhumaniste dont nous parlons tant aujourd'hui n'est rien d'autre qu'une mise à jour du projet des "sciences cognitives et informatiques" que j'ai analysé dans les années 1980.
Un "humanisme computationnel" proclamé comme cadre philosophique pour la promesse d'un monde plus confortable et plus heureux, où les humains seraient mécanisés. Ainsi, le processus de réification se poursuivrait, le capitalisme verrait de nouvelles barrières tomber : tout peut être marchandisé, tout entre sur le marché. Non seulement la terre, l'eau, l'air, la sueur humaine, les organes et les vies organiques. Même les processus mentaux et l'intimité de l'homme sont destinés à être commercialisés. L'idéologie transhumaniste dont nous parlons tant aujourd'hui n'est rien d'autre qu'une mise à jour de ce projet de "sciences cognitives et informatiques" que j'ai eu la chance d'analyser dans les années 1980.
L'intelligence artificielle n'était pas une véritable "science", mais elle n'était pas non plus une simple "technologie", entendue comme l'application pratique de la science. Elle impliquait plutôt la création d'une ontologie alternative. Mais il ne s'agissait pas d'un simple jeu académique. Au MIT, à Carnegie Mellon, dans les universités californiennes, etc., il n'y avait pas un simple désir d'être moderne et de dire au monde : "Arrêtez avec la vieille métaphysique européenne poussiéreuse. Nous sommes en train de dompter la métaphysique avec des ordinateurs ! Il n'en est rien. Il s'agissait de quelque chose de bien pire, de terrible.
L'ontologie alternative qu'ils proposaient avait un caractère viral et usurpateur. Il s'agissait de s'introduire dans toutes les branches du savoir, scientifique-technique et humaniste, pour se nourrir du noyau vivifiant de chacune d'entre elles et, tel un parasite, la supplanter définitivement en jetant les parties inutiles dans l'évier. Par exemple, l'Intelligence Artificielle a converti en qualia, c'est-à-dire en subjectivité résiduelle, non calculable, tout ce qui signifiait sentiment, expérience, phénomène interne, le plus caractéristique de toute psychologie philosophique non comportementaliste. Mais le projet qui se forgeait, je le répète, véritable prélude au transhumanisme d'aujourd'hui, allait beaucoup plus loin. Comme s'il s'agissait d'un véritable attrape-nigaud, l'Intelligence Artificielle de l'époque (rappelons que trois décennies se sont écoulées depuis que j'ai fait ce travail) promettait de réduire les figures de l'Esprit Objectif, au sens de Hegel, à de simples structures symboliques manipulables : la Culture, non pas au sens subjectif, c'est-à-dire la formation d'un individu, mais au sens objectif et suprapersonnel, allait être dévorée par les algorithmes.
Je ne pense pas que mes supérieurs, mes collègues enseignants ou mes étudiants l'aient vu. C'est une occasion manquée. Ils n'ont pas saisi les implications d'une critique de l'Intelligence Artificielle à l'époque, une critique centrée non seulement sur sa faiblesse épistémique, mais sur sa "férocité" ontologique. Il ne s'agissait pas de dénoncer l'I.A. comme une simple pseudo-science (ce qu'elle est), ni d'en rester à une simple critique idéologique (dire que c'est un mécanicisme aliénant, une aberration où l'homme se dégrade en se réduisant à une chose, une machine). Comme je le dis, il y a beaucoup plus de cire que de cire qui brûle. Ces critiques épistémologiques et idéologiques sont des critiques valables, et elles sont également présentes dans mon travail, mais j'étais beaucoup plus intéressé à remettre en question le statut ontologique (pas seulement gnoséologique) de ces technologies et pseudo-technologies au service du Grand Capital, bien payé à l'époque par l'argent des Yankees. Des pratiques et des discours qui allaient conduire l'humanité à son détrônement définitif et à son asservissement ultérieur.
Vers l'esclavage. Un monde où il n'y a plus de Droit, parce que les algorithmes jugent ; un monde où il n'y a plus d'Art, parce que les algorithmes créent ; un monde où il n'y a plus d'Etat, parce que le monde entier est régi par des programmes "qui font et défont" ce qui convient au Grand Capital... De quel monde s'agit-il ?
Face aux prétentions d'un prétendu "humanisme informatique", le véritable humanisme est un retour à l'artisanat. Le bon professeur donne des cours de maître, qui sont uniques, personnels et intransmissibles. Aucun ordinateur ne remplacera les architectes des cathédrales gothiques. Aucun robot ne remplacera le travailleur manuel qui met du soin et de l'expérience dans les objets qui sortent de ses mains. L'approche mécaniste, comme l'approche "biocentrique", ou toute autre approche qui met l'être humain en marge, est une alliée du totalitarisme. En tant qu'"artisan" et penseur anthropocentrique, j'ai déclaré la guerre aux technologues et aux économistes depuis de nombreuses années. Le monde est celui que l'homme transforme avec ses mains, son amour, son expérience. La science et la technologie qui ne nous permettent pas d'être des personnes sont des déchets et de la camelote.
Source: Naves en Llamas, nº 22 (2023), 21-24
Traduction par Robert Steuckers