Jean-Gabriel Ganascia, Servitudes virtuelles

Paris, Éditions du Seuil, 2022

À la fois informaticien et philosophe, spécialiste des questions éthiques et de l’intelligence artificielle, à laquelle il a déjà consacré plusieurs ouvrages importants (citons entre autres : Le Mythe de la singularité : faut-il craindre l’intelligence artificielle et L’Intelligence artificielle : vers une domination programmée ? parus en 2017), Jean-Gabriel Ganascia aborde ici la question des usages du numérique dans une perspective à la fois originale et exigeante – en un mot critique, au sens fort du terme. Revendiquant dès les premières pages une position de moraliste, l’auteur commence par proposer une « rose des vents numérique » susceptible d’aider le lecteur à naviguer dans un monde aux coordonnées transformées : les nouveaux points cardinaux seraient aujourd’hui l’on line (véritable étoile polaire de nos vies quotidiennes), opposé à l’off line (toujours temporaire et partiel), l’on life (néologisme emprunté au philosophe italien Luciano Floridi pour désigner les transformations du tissu social dans un monde hyperconnecté : contentons-nous ici de citer l’exemple éloquent du « partage » qui désignait autrefois, comme dans l’histoire de Saint-Martin partageant son manteau, un don et un sacrifice, tandis que dans le monde numérique, « celui qui partage ne perd rien, tout en en faisant profiter d’autres »…) et l’off life (autrement dit l’anticipation d’une fin de l’humanité telle que nous la connaissons, remise en cause par l’essor de l’intelligence artificielle et des technologies de l’information). Partant de ces analyses étayées de nombreux exemples, Jean-Gabriel Ganasciase place dans la filiation de La Boétie pour montrer comment, plus proche d’Ulysse succombant au chant des sirènes que des grands navigateurs, nous nous trouvons pris dans un réseau de servitudes volontaires contemporaines – de celles qui nous incitent par exemple à recourir aux services zélés de chatbots et autres « perroquets stochastiques », tels qu’Alexa ou Siri. Tout en donnant le sentiment d’un luxe facile et somme toute peu coûteux, ces majordomes de notre quotidien collectent en réalité une foule de données, enregistrant « toutes nos conversations familiales, les moindres de nos gestes, les bruits de table, les ouvertures et les fermetures de portes, les échanges téléphoniques » pour les transmettre à Amazon, Google ou Apple, ainsi immiscés au cœur de notre vie privée. Certes, en Occident, l’objectif de cet espionnage en apparence bénin n’est pas le contrôle des individus par un État autoritaire, qui concrétiserait les appréhensions formulées par George Orwell : il en va autrement en Chine, où l’auteur rappelle que les citoyens sont soumis à un système de surveillance permanent, aboutissant à l’établissement, pour chacun, d’un « score de civilité […] obtenu par agrégation des mauvais points causés par les manquements et des bons points consécutifs aux bonnes actions, comme les dénonciations justifiées ». La servitude à laquelle nous consentons est d’un autre ordre : elle consiste en une soumission immédiate et sans réserve à tous nos désirs (notamment consuméristes) et en l’affaiblissement consécutif de notre volonté. Poussant à l’extrême le principe des publicités ciblées, le patron de Facebook, Marc Zuckerberg, exprime ainsi en 2019 le souhait « d’utiliser les interfaces cerveau-ordinateur pour lire dans nos pensées, identifier nos désirs et en profiter pour “fluidifier” la relation du réseau social avec ses utilisateurs » : en coiffant un bonnet de bain équipé d’électrodes, nous pourrions nous dispenser du langage et de ses chausse-trappes pour passer nos commandes en direct. Selon Jean-Gabriel Ganascia, les dangers de l’intelligence artificielle existent donc bel et bien : ils ne résident cependant pas dans la peur d’une prise de pouvoir des machines, dépeinte dans tant de fictions (sur ce point, l’auteur insiste sur la nécessité de ne pas confondre, comme c’est trop souvent le cas, autonomie et automatisation : ainsi une arme dite « autonome » ne choisit-elle pas elle-même sa cible, elle est simplement capable d’exécuter un certain nombres d’opérations prédéterminées pour aboutir à un résultat lui-même fixé en amont). Le risque se situe ailleurs – dans le renforcement des logiques consuméristes, dans la prise de pouvoir accrue de grandes entreprises privées comme Facebook, Amazon ou Google, ou, pis encore, dans la remise en question de la science et de la morale, l’une et l’autre supplantées par l’analyse algorithmique d’un flot de données (c’est ce que suggère un article de Chris Anderson cité à plusieurs reprises par l’auteur, « La fin de la théorie : le déluge des données rendra-t-il la méthode scientifique obsolète ? ») . 

Si les entreprises et les institutions concernées se dotent volontiers de chartes et de commissions d’éthique, ces dernières ne semblent constituer qu’une maigre défense, voire un simple faux semblant. Véritable couteau suisse conceptuel, le présent ouvrage associe à ce titre le compas numérique à un marteau philosophique, que l’auteur utilise efficacement pour démontrer l’insuffisance ou l’inadéquation des textes censés réguler les usages de l’IA. Les reproches qu’il adresse à ces dispositions pléthoriques (un article paru en 2019 dans la revue Nature Machine Intelligence mentionne un total de 84 rapports sur le sujet) sont de deux ordres au moins. Le premier tient à une forme d’aveuglement qui conduirait les rédacteurs à se complaire dans l’évocation de problèmes fictifs (comme celui d’un hypothétique avènement des robots, sous-jacent dans la préconisation récurrente d’une IA « centrée sur l’humain » et non sur la supposée volonté des machines), négligeant en revanche les enjeux actuels et réels de la question. Le second découle de l’inadéquation des principes le plus souvent invoqués pour réguler l’IA, empruntés pour la plupart au vocabulaire des droits fondamentaux ou de la bioéthique, notamment au rapport Belmont de 1978. Le présent ouvrage démontre par le menu que ces grands principes – autonomie de la personne, bienfaisance (ou non-malfaisance), justice et transparence – ne sont pas nécessairement pertinents pour relever les défis éthiques posés par l’IA : de fait, quelle autonomie prêter à un sujet signataire de CGU indiscutables et souvent peu intelligibles ? Peut-on exiger simultanément la transparence et le respect de la vie privée ? L’exploitation des données personnelles, par exemple pour empêcher la diffusion d’une épidémie, est-elle bienfaisante ou malfaisante ? La réponse à cette dernière question varie-t-elle selon que le traitement des données est confié à un État souverain ou à une entreprise privée ? Un jugement algorithmique, rendu en dehors des institutions étatiques, mérite-t-il encore le nom de justice ?

L’essayiste nous invite à ne pas nous payer de mots et nous rappelle en guise de vademecum les vertus qui devaient, selon le jeune Camus, nourrir toute enquête journalistique : la lucidité, le refus de relayer des informations erronées, l’ironie « qui aide à dire plaisamment la vérité » et l’obstination. Lui-même en fait assurément montre dans ce stimulant opus, où le sens de la synthèse n’exclut pas le plaisir de l’écriture, souvent nourrie de références philosophiques et littéraires. Il est vrai que notre auteur ne nie pas son tropisme camusien : le roman qu’il cite malicieusement pour illustrer le thème de l’offlife et des fantasmes de vie post-mortem autorisés par IA n’est-il pas intitulé Ce matin, maman a été téléchargée ? On ne sera guère surpris d’apprendre que l’écrivain, qui signe sous le pseudonyme de Gabriel Naëj, n’est pas étranger à Jean-Gabriel Ganascia…

Ninon Chavoz
Maître de conférence Université de Strasbourg, coordinatrice du DU Lethica