Gaspard Koenig, La fin de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle

Paris, Éditions de l’Observatoire / Le Point, coll. De Facto, 2019

Voilà un livre à mettre entre toutes les mains, à commencer par celles des jeunes gens curieux de leur avenir ! Endossant les habits d’un faux Candide sans se draper dans la toge d’une Cassandre, le philosophe Gaspard Koenig y dresse un exhaustif état de la question, assorti d’une solide réflexion sur les usages actuels et futurs de l’intelligence artificielle. Pour cela, il part à la rencontre des meilleurs spécialistes européens, américains, asiatiques, israéliens du domaine, que ces derniers soient professeurs, entrepreneurs, investisseurs, intellectuels, artistes, technocrates ou diplomates (liste en fin d’ouvrage). Au terme de 125 interviews et d’un tour du monde mené de Cambridge à Paris en passant par Oxford, Boston, New York, Washington, San Francisco, Los Angeles, Pékin, Tel-Aviv et Copenhague, ce « voyage d’un philosophe au pays de l’IA » débouche sur une profession de foi humaniste autant qu’éthique : si l’IA est déjà partout dans nos vies, au prétexte que ses applications industrielles contribueraient à optimiser notre bien-être, il convient, pour mener une vie véritablement bonne, de continuer à défendre les principes de l’autonomie et de la responsabilité humaines en ne laissant pas uniquement les algorithmes orienter nos choix, voire prendre des décisions à notre place. Il faut donc cultiver notre libre arbitre autant que l’intelligence artificielle : cette leçon philosophique n’a toutefois rien d’un conte, tant on peut légitimement s’inquiéter de la nouvelle géopolitique qui se dessine aujourd’hui avec les développements exponentiels de l’IA. Mais au fait, de quoi parle-t-on exactement ?

La science-fiction et notamment le cinéma nous ont habitués à identifier l’intelligence artificielle à l’émergence d’un super ordinateur qui, omniscient, omnipotent et doté d’une conscience propre, détrônera bientôt l’humanité voire détruira cette dernière grâce aux robots et autres machines. C’est la hantise des Skynet (Terminator) et autres Matrices (Matrix) qui irrigue tant de fictions et qui a son pendant scientiste avec la « théorie de la singularité », selon laquelle la croissance technologique donnera inévitablement naissance à une intelligence informatique supérieure à l’intelligence humaine. La première vertu du livre de Gaspard Koenig est de déconstruire ce mythe, tant littéraire que scientifique, en rappelant cette simple évidence : pour qu’une pensée et a fortiori une intelligence se développent, il leur faut un substrat organique ; et si la conscience est un épiphénomène de l’évolution, elle n’est jamais indépendante des mécanismes biochimiques qui ordonnent la vie de nos neurones, ni des interactions continues entre nos différents systèmes nerveux (dont le cerveau et l’intestin) et l’ensemble de nos organes. S’appuyant sur l’Éthique de Spinoza autant que sur les travaux du neuroscientifique Antonio Damasio, l’auteur démontre qu’il ne saurait y avoir d’esprit détaché d’un corps, ni donc de superintelligence sans superorganisme. C’est dans les faits une manifestation de l’anthropomorphisme que de prêter à l’intelligence artificielle le pouvoir de développer une compréhension, une conscience et des intentions : s’il y a là une forme inavouée d’animisme, cette erreur commune – qui n’est jamais qu’une facilité cognitive – s’explique aussi par les capacités exponentielles des programmes informatiques à simuler nos processus mentaux, notamment dans les interactions que nous avons avec eux. La réussite du « test de Turing » consistait précisément dans la possibilité de mener une conversation à distance sans pouvoir déterminer si l’interlocuteur était un ordinateur ou un être humain : les développements du traitement automatique des langues (Natural Language Processing) sont parvenus à créer aujourd’hui cette illusion d’une conversation naturelle, alors que les chatbots et autres logiciels dialogueurs reposent en réalité toujours sur des algorithmes, c’est-à-dire sur des suites d’instruction et des réponses établies en fonction d’occurrences et de récurrences.

Ce qu’on appelle communément intelligence artificielle n’est finalement rien d’autre que la capacité des systèmes informatiques à apprendre par eux-mêmes, sans suivre de règles prédéterminées, à partir de l’accumulation et du traitement d’une multitude de données : c’est donc fondamentalement une technique, et non point l’exercice d’une pensée et moins encore la manifestation d’une conscience. Cet apprentissage automatique a pu se développer considérablement grâce à Internet, sa mise à disposition de milliards de données, et sa mise en réseau de milliers d’ordinateurs pour pouvoir les traiter : les connexions informatiques imitent de ce point de vue les connexions neuronales au sein de notre cerveau, qui sont toujours interdépendantes des autres. Mais l’analogie s’arrête là, même si l’on peut bien sûr distinguer plusieurs niveaux ou modes d’apprentissage automatique : de l’apprentissage supervisé (sous le contrôle d’un informaticien) à l’apprentissage profond (qui crée de vastes circuits d’informations, à l’image des réseaux neuronaux) en passant par l’apprentissage de renforcement (où la machine est « récompensée » selon la qualité de ses résultats, et apprend aussi de ses propres erreurs pour atteindre finalement l’objectif fixé), un processus d’intellection est bien à l’œuvre, qui élabore des règles sans qu’on puisse tout à fait l’expliquer ; mais cet apprentissage automatique, aussi puissant soit-il, ne saurait pour autant produire de concepts sous lesquels subsumer l’infinité des exemples et des données que l’intelligence artificielle parvient à ingurgiter. C’est d’autant plus vrai qu’elle a dans les faits toujours besoin d’existences et d’intelligences humaines pour fournir ou catégoriser correctement les données qu’elle traite, ou simplement pour définir les critères préalables aux usages et aux finalités de ses algorithmes.

Le danger n’est donc pas que l’intelligence artificielle en vienne un jour à remplacer l’intelligence humaine, mais plutôt que la puissance et l’efficience de ses opérations algorithmiques nous épargne progressivement la nécessité de faire usage de notre libre arbitre : pourquoi s’en remettre en effet au jugement humain et à ses nombreux biais cognitifs quand les machines, en traitant pour nous une infinité de données, peuvent guider l’automobiliste dans ses itinéraires, le financier dans ses placements, le consommateur dans ses achats, le médecin dans ses diagnostics ou le juge dans ses verdicts ? Et pourquoi ne pas se fier passivement aux orientations qui nous sont ainsi fournies (en matière de santé, de vie pratique voire de vie amoureuse) quand les algorithmes, à force d’accumulation de données, nous connaissent souvent mieux que nous ne nous connaissons nous-mêmes ? Le véritable danger, c’est finalement le « nudge universel », où l’individu semble disposer de multiples options possibles, mais se trouve en réalité subrepticement « poussé du coude » (nudge en anglais) vers celle qui semble optimale parce qu’elle prend certes en compte son bien-être, d’une part, mais également une utilité collective indépendante de sa volonté, d’autre part. Cette possibilité de contrôle voire de manipulation sociale offerte par l’intelligence artificielle suscite précisément l’intérêt des régimes les moins démocratiques, et l’avenir qui se profile n’est plus seulement celui d’un Big Brother is watching you, par l’accumulation et la circulation de nos données, mais aussi désormais celle d’une Strong IA is nudging you… La Chine ne s’y trompe pas, qui développe massivement les applications industrielles et urbaines de l’intelligence artificielle, à la grande satisfaction de ses citoyens qui, imbus de traditions bureaucratiques et confucéennes, s’en remettent volontiers aux prescriptions sociales, politiques et économiques donnant la préséance à « l’intérêt général » plutôt qu’à la liberté individuelle. Il n’en va évidemment pas de même dans les sociétés européennes, pétries d’individualisme et dont l’obsession pour le respect de la vie privée a débouché sur des « règlements généraux sur la protection des données » (RGPD) et une défiance envers les usages de l’intelligence artificielle qui obère un véritable développement de ce secteur en Europe, où nous n’investissons actuellement que des sommes dérisoires par rapport aux fonds levés à cette fin aux États-Unis ou en Chine. Dans cette géopolitique de l’IA, l’Europe aurait pour l’instant choisi « le suicide stoïcien », nous démontre ainsi Gaspard Koenig sans pour autant se résoudre au fatalisme.

Il existe en effet selon lui une voie médiane entre la « transparence parfaite » (p. 267) que vise la Chine, via l’accumulation et l’utilisation incessantes de données, et notre hantise de la surveillance qui nous conduit à multiplier les dispositifs de protection, lesquels nous mènent à leur tour à multiplier les autorisations et autres consentements à leur collecte, dès lors que nous nous connectons au moindre site ou service commercial…

De même, il est certainement une alternative au « nudge universel » qui nous influence en permanence, en fonction de ces données recueillies à notre insu, en fonction de nos habitudes ou, au contraire, avec notre consentement résigné à de sibyllines clauses d’usage et de protection. Cette solution, que le philosophe tire de ses discussions avec d’un côté Matthieu Ricard, le moine bouddhiste français de formation scientifique, et de l’autre Harry Kloor, le savant touche-à-tout américain, c’est la « Prime Directive ». Empruntée à la série télévisée Star Trek, qui désignait par là l’obligation faite à l’équipage du fameux vaisseau spatial de ne pas utiliser, dans son exploration d’autres mondes, son haut niveau de développement technologique pour imposer ses valeurs à d’autres êtres, la « directive première » en matière d’intelligence artificielle consiste à renverser les rapports de force : plutôt que laisser le nudge nous guider à notre insu, il nous incomberait de « définir nous-mêmes ce nudge, en lui adjoignant les composantes éthiques nées de nos délibérations intérieures » (p. 348). Se trouve ainsi réaffirmée l’importance d’une « éthique personnelle » (p. 350) qui consiste à « exercer sa prérogative morale en déterminant par avance son nudge, de manière consciente et volontaire », et en décidant ainsi « par avance des normes qu’on souhaite imposer aux algorithmes qui nous gouvernent » (p. 351). On pourrait dès lors déléguer à l’intelligence artificielle la mise en œuvre de nos décisions quotidiennes, « mais non le processus qui a conduit à les prendre » (ibid.) ; on bénéficierait de sa puissance de calcul, mais en agissant sur les critères qui la régissent, et en la canalisant dans des orientations que l’on souhaite véritablement. Beaucoup de questions éthiques soulevées par les possibles usages de l’intelligence artificielle (voitures autonomes, suivi médical, inclinations amoureuses, changements professionnels, etc.) se trouveraient ainsi « réglées » par le choix de restaurer l’individu moral dans ses droits, et partant dans ses responsabilités. Gaspard Koenig montre en définitive comment, en matière d’intelligence artificielle, l’autonomie peut continuer de primer sur le déterminisme, et l’éthique sur les TIC.

Anthony Mangeon
Professeur de littératures francophones à l’Université de Strasbourg , Directeur de Configurations littéraires (UR1337), Coordinateur de l’Institut Thématique Interdisciplinaire Lethica