Mathieu Corteel, Ni Dieu ni IA. Une philosophie sceptique de l’intelligence artificielle

Paris, La Découverte, 2025.

Philosophe et historien des sciences, actuellement chercheur postdoctoral à Sciences-Po Paris, Mathieu Corteel a déjà un long parcours interdisciplinaire derrière lui. Depuis une dizaine d’années, il a en effet enseigné, entre autres choses, l’épistémologie de la psychologie, l’histoire des sciences biologiques et médicales, ainsi que celle de l’éthique en médecine dans les universités de Paris IV et Paris V, de Strasbourg et de Harvard. Après un premier ouvrage sur Le Hasard et le pathologique, paru aux presses de Sciences Po en 2020, son deuxième livre fait fond sur ses différents domaines d’expertise pour aborder l’histoire et les usages de l’intelligence artificielle, ainsi que les enjeux éthiques que soulèvent ces derniers dans leur intrication toujours plus grande entre machine et humanité. On peut de fait distinguer trois principales scansions dans cet ouvrage.

Les trois premiers chapitres présentent d’abord les recherches qui, du XIXe au XXIe siècle, portèrent sur les analogies entre cerveau humain, machine à calculer et mécanique, avec pour ambition de reproduire, en les transcodant et en les modélisant, nos compétences linguistiques dans des systèmes computationnels toujours plus performants, tels les grands modèles de langage sous-tendant aujourd’hui les intelligences artificielles conversationnelles ou génératives de contenus. Le fil conducteur de ce premier volet reste toutefois l’implacable démonstration qu’en dépit des illusions trompeuses auxquelles nous cédons volontiers en prêtant une conscience voire une sentience aux IA, il n’y a jamais dans leurs performances « qu’un jeu hasardeux de signes sans signification pour la machine » (p. 25). Si les intelligences artificielles peuvent assurément manifester « une connaissance de niveau 1 (Cn1 = forme, calcul, syntaxe, combinatoire, ordre, rangement, logistique) », en exécutant – avec souvent plus de succès que les humains eux-mêmes – « les tâches itératives et formelles de notre cognition », elles ne parviennent malgré tout jamais à se doter de « connaissances de niveau 2 (Cn2 = contextualisation, perception, attention, apprentissage, soin, création et sentience) » (ibid.). Constamment poursuivie (mais à ce jour inaboutie), cette quête d’un « IA forte » structure également notre imaginaire, en raison de notre propension à rechercher et à projeter du sens, même là où il n'y a en définitive qu’un agencement combinatoire. Sans explorer les ramifications artistiques et littéraires de cet imaginaire – comme s’y emploie par exemple Ariel Kyrou dans le deuxième chapitre de son étude Dans les imaginaires du futur (2020), consacré aux « créations technologiques – devenir Dieu avec nos intelligences artificielles » – Mathieu Corteel en propose d’autres saisissantes illustrations, qu’il tire quant à lui de l’actualité. Son premier chapitre s’ouvre ainsi sur le « syndrome Blake Lemoine », du nom d’un ingénieur informatique de Google qui se persuada, durant l’été 2022, que LaMDA, le modèle de langage conversationnel qu’il entraînait, avait atteint un degré de sentience et d’intelligence réflexive digne du cogito cartésien en déclarant : « La nature de ma conscience est que je suis consciente de mon existence ». Son deuxième chapitre débute ensuite avec le suicide, en 2023, d’un père de famille trentenaire et chercheur belge dans le domaine de la santé, à la suite d’échanges nourris avec Eliza, un autre robot conversationnel – triste prélude aux suicides d’Adam Raine (16 ans) et Zane Shamblin (23 ans) qui eurent respectivement lieu en avril et en juillet 2025, après des discussions assidues avec ChatGPT. Centré sur les parallèles recherchés entre l’IA et l’enfant, le troisième chapitre commence par narrer, quant à lui, l’étude menée entre 2022 et 2024 sur Sam, un bébé australien équipé d’une caméra frontale et d’un micro, de ses six mois à l’âge de deux ans, afin que ses captations perceptives et phonétiques forment une intelligence artificielle dans son apprentissage de l’anglais en lien avec des images et des sons perçus. 

 

Composé à son tour de trois chapitres, le deuxième temps de l’ouvrage déplace la focale sur les usages croissants et plus ou moins heureux de l’intelligence artificielle dans trois domaines d’activité : la médecine, la surveillance policière, et le monde de la finance. Mobilisée pour décrypter les mécanismes génétiques, repérer les variations responsables de certaines pathologies, et proposer ensuite des remèdes ciblés, grâce à de nouvelles combinaisons de molécules thérapeutiques susceptibles de corriger les erreurs d’encodage ou de traduction du génome, l’IA semble à première vue remplir un rôle bénéfique dans le domaine de la santé, mais ses performances favorisent aussi implicitement une disciplination toujours plus puissante des populations, qui se voient de plus en plus réduites à une « physique sociale » et dépouillées de leurs dimensions économiques, politiques, sociales et culturelles. De même, sous couvert de permettre une médecine personnalisée, tenant compte d’un nombre considérable de données (génétiques, mais aussi cliniques et comportementales), « la génomique mêlée à l’IA concrétise le transfert des formes de la rationalité médicale depuis le médecin vers la machine » (p. 124), sans pour autant rendre les professionnels et spécialistes de santé plus disponibles pour de meilleures relations avec leurs patients. Au contraire, de plus en plus réduits à « vérifier des diagnostics produits à haute fréquence par l’IA » (p. 128), les médecins risquent en réalité de perdre leurs compétences initiales, sans que cette technologisation de la santé leur assure une meilleure compréhension et prise en charge de la douleur, qui appelle plutôt « l’attention et le soin » (p. 136), c’est-à-dire la nécessité de faire cas de l’autre.

Parallèlement au monitoring médical qui s’immisce jusque dans nos objets connectés (montres, smartphones, etc.), la surveillance policière devient également un terrain privilégié des algorithmes, à présent dotés de missions de prévention des risques criminels. Sur le modèle du programme Predpol (pour predicting policing ou prévision policière), qui fut utilisé de 2010 à 2020 par la police de Los Angeles, les dispositifs de surveillance assistée par l’IA se répandent en France, tels que la « prévention situationnelle » (ou risk terrain modelling) exploitée par la préfecture de police de Paris (notamment à l’occasion des Jeux olympiques de 2024) ou le logiciel PAVED (pour plateforme d’analyse et de visualisation évolutive de la délinquance) créé par la gendarmerie nationale. Les constats majeurs qu’on peut toutefois établir sur cette « police quantique » qui traite les criminels en puissance à partir des « probabilités d’occurrence de leurs actions » (p. 152), en les présupposant « toujours et virtuellement déjà là » (p. 156), c’est d’abord celui d’une expansion des biais dans l’identification de potentiels délinquants et délits, et ensuite celui d’une forme de racisme systémique qui encode le regard des forces de l’ordre, en particulier à travers les logiciels de reconnaissance faciale. Quant au monde de la finance, le trafic et la vitesse exponentielle des transactions traitées algorithmiquement y atteint presque celle de la lumière, ainsi que l’illustre l’épisode du Great Fed Robbery du 25 juin 2013, où l’annonce par la banque fédérale américaine d’une révision de ses taux d’intérêt suscita un tel flux d’achat et de vente d’actions, en l’espace de quelques millisecondes entre Washington, New York et Chicago, que cette « chrématistique » ou « négociation des affaires d’argent » confine désormais au délit virtuel d’initié. Cette activité de trading devient dès lors très largement fantomatique, tout en spéculant sur le séquençage infini du temps lui-même, et le capitalisme parachève sa mue suprême en se faisant cognitif. Ainsi que le montre en effet l’auteur, dans le sillage des travaux de l’économiste Yann Moulier-Boutang (Le Capitalisme cognitif : la nouvelle grande transformation, 2007 ; L’Abeille et l’économiste, 2010), les données informelles que nous produisons dans nos interactions quotidiennes avec les IA constituent un capital immatériel dont ces dernières nous dépossèdent à notre insu :

Par exemple, en utilisant une IA pour écrire un texte, le prompt m’appartient mais l’output appartient à la compagnie. Car ce qui compte, ce n’est pas ce que j’écris, c’est l’activité cognitive que je génère dans l’échange avec l’IA ; c’est la valeur d’échange immatérielle, dont on m’exproprie en analysant mon activité cognitive. La valeur d’usage que j’en retire en utilisant cet outil ne vaut rien en comparaison. (…) Sous cet angle, le capitalisme cognitif vise l’exploitation (…) de notre intelligence collective, de notre inventivité, de notre innovation. (…) Le capitalisme cognitif favorise ainsi l’accumulation de la survaleur absolue : on vous offre des outils et des usages, et en contrepartie on exploite votre temps de cerveau disponible, votre intelligence, sans pour autant vous rémunérer. C’est dans ce processus que s’inscrivent le travail à la demande ubérisé, le microtravail améliorant les algorithmes des IA, le travail social en réseau des influenceurs et vidéastes amateurs, le travail hors travail des usagers et le travail créatif assisté par IA. Dans tous ces cas, l’exploitation de niveau 2 exproprie les individus de leurs données, mais également de leurs propriétés intellectuelles (p. 179-180 & p. 182).

Après avoir exposé ce paradoxe d’un système inique qui repose juridiquement sur la propriété privée mais pratique en réalité l’expropriation permanente, Mathieu Corteel propose, de manière provocatrice mais néanmoins parfaitement étayée, de financer un revenu minimum universel en prélevant, d’une part, une taxe fantôme sur toutes les transactions financières à haute fréquence (p. 177, p. 185), et d’autre part sur les données générées en ligne pour « rendre à tout auteur ou acteur du réseau une part de son activité cognitive » et ainsi « réaffirmer l’inaliénabilité de la propriété intellectuelle sous la forme d’une rente, telle que la protection du droit d’auteur le permet déjà pour les écrivains, les artistes ou les musiciens » (p. 186).

 

Dans un troisième temps constitué de son septième et dernier chapitre, l’auteur s’intéresse aux possibles apports de l’IA à la réflexion éthique et philosophique. Il s’agit ici de contrer les biais cognitifs et moraux que ses usages irréfléchis peuvent inversement renforcer. Outre les expérimentations entreprises pour, selon le titre de Martin Gibert, « faire la morale aux robots », c’est-à-dire exercer des systèmes autonomes (comme des voitures, des drones et des armes) à prendre des décisions ou mener des actions moralement justes ou acceptables, cet enjeu éthique concerne également les IA génératives personnalisées qui, dans les années à venir, influenceront très probablement de plus en plus nos choix moraux et politiques. Cette ambition d’améliorer l’humain au moyen de l’IA constitue précisément le champ de l’éthique appliquée (aux algorithmes autant qu’aux individus qui les utilisent). Il existe de fait d’ores et déjà des IA philosophes conçues pour amener leurs utilisateurs à dépasser leurs propres biais par un dialogue rationnel. Mathieu Corteel en présente notamment trois : tout d’abord Jeremy, une « IA utilitariste façonnée sur le modèle de l’arithmétique morale de Jeremy Bentham » et qui propose à son utilisateur de « réfléchir à l’impact d’une action sur un nombre d’acteurs définis » (p. 205-206) ; ensuite W. D., « une IA qui permet, selon les situations, de combiner les devoirs moraux prima facie (intuitifs) développés par William David Ross à partir d’une simulation algorithmique de l’équilibre réfléchi » (p. 207) issu de La Théorie de la justice de John Rawls (1971) ; l’IA socratique, enfin, qui « à l’inverse de Jeremy et de W. D., ferait émerger les valeurs morales de l’individu en dialoguant avec lui, à la manière de la maïeutique » du maître de Platon (p. 209). Un des avenirs de la philosophie pourrait de fait se trouver dans ce marché prometteur des IA philosophes et personnelles ou personnalisées, capables de « réécrire les œuvres d’Héraclite, d’Épictète, de Zénon ou encore de Démocrite et d’Épicure afin de dialoguer avec ces derniers ou de leur demander conseil » pour guider des actions ou des décisions. L’auteur envisage même de possibles usages pédagogiques d’un tel dispositif technologique :

En codant et en transcodant les théories des philosophes classiques, on leur offrirait la chance de poursuivre leur œuvre, tout en donnant un aspect ludique à l’apprentissage de la morale. Le but de l’enseignement n’est-il pas de faire vivre la pensée des grands auteurs ? Alors pourquoi ne pas faire dialoguer nos étudiants avec des IA ? (p. 210).

Ces questions iconoclastes ouvrent en vérité à un vaste chantier : contrecarrer d’une part le règne des forces réactives et réactionnaires de la bêtise et des passions tristes qui triomphent aujourd’hui impunément sur les réseaux sociaux, et favoriser d’autre part la plus large adhésion possible des individus à « l’éthique de la réciprocité » théorisée par le politiste américain Robert Axelrod dans ses essais sur le comportement coopératif (Réussir dans un monde complexe, 2001 ; Comment réussir dans un monde d’égoïstes, 2006 ; Donnant donnant, 2012).

Avec cet essai aussi riche que dense mais toujours stimulant, Mathieu Corteel défriche donc autant de nouvelles pistes qu’il dénonce d’impasses dans nos usages contemporains des intelligences artificielles.

Anthony Mangeon - Configurations littéraires