Pour le philosophe Miguel Benasayag, le développement d’intelligences artificielles grand public pourrait amener l’humain à déléguer de plus en plus de fonctions à la machine et donc à s’appauvrir intrinsèquement. Face à cette colonisation du vivant, il faut réussir à expliquer « ce qu’il y a d’immensément plus grand d’exister plutôt que de fonctionner ».
On parle beaucoup d’intelligence artificielle depuis l’apparition récente de ChatGPT. Cela fait pourtant de nombreuses années que tu étudies le sujet, car l’intelligence artificielle est apparue bien avant cette application. Qu’est-ce qu’une intelligence artificielle et en quoi ChatGPT change la donne ?
Jusqu’à présent, l’intelligence artificielle était utilisée dans des secteurs bien précis, comme celui de la médecine, où l’IA sert à faire des diagnostics depuis au moins 15 ans. Avec ChatGPT et les autres applications du même type, cela touche le grand public.
Une intelligence artificielle est constituée d’algorithmes qui fonctionnent par recoupements statistiques de données. Tu l’interroges sur le ciel et, par densité statistique, il ne va pas dire « orange », il ne va pas dire « chien », il va dire « bleu ». Mais tout ça, désormais, se fait de façon très sophistiquée, donc il pourra dire un tas d’autres choses très sensées sur le ciel.
En quoi l’IA constitue-t-elle un danger pour l’humain ?
La clé de tout, c’est le phénomène qu’on appelle la délégation de fonction, en l’occurrence entre l’humain, autrement dit le vivant, et l’intelligence artificielle. Une délégation de fonction, c’est un mécanisme normal dans l’évolution des espèces. Il y a par exemple eu coévolution et délégation de fonctions entre l’humain et le chien. Les chiens ont compris qu’en vivant avec les humains, ils allaient pouvoir manger leurs déchets alimentaires. En contrepartie, les chiens se sont mis à les aider à chasser en se spécialisant dans la tâche consistant à suivre des pistes. Ils ont ainsi développé leurs capacités olfactives. Quant aux humains, libérés de cette fonction, ils ont pu la recycler et en développer d’autres, par exemple celle du langage. Cette coévolution s’est faite sur des millions d’années.
Ce à quoi on assiste depuis une cinquantaine d’années, c’est un mécanisme massif de délégation de fonctions cérébrales et sociales vers la machine, mais sans aucun type de recyclage, parce que le temps n’est pas suffisant. On délègue donc des fonctions à la machine et, pour le moment – non pas par une méchanceté intrinsèque de la machine mais de par la rapidité du phénomène de délégation –, il n’y a pas de régulation, grâce à laquelle les zones libérées du cerveau se recyclent, font autre chose, développent d’autres possibles. Cela provoque un appauvrissement et une dépendance accrue du vivant envers la machine. Avec le développement de l’intelligence artificielle, ce phénomène risque d’être considérablement plus rapide qu’il ne l’est déjà.
Pourquoi n’y aurait-il pas, à terme, de recyclage ? Grâce au GPS, le chauffeur de taxi n’a plus besoin de chercher sa route. Peut-être qu’il va ainsi pouvoir parler philosophie avec le passager qu’il transporte et donc développer de nouvelles capacités intellectuelles…
J’ai justement travaillé sur le GPS avec deux groupes de nouveaux chauffeurs de taxis. Ceux du premier groupe commençaient à travailler à Londres et ceux du second groupe commençaient à travailler à Paris. Les chauffeurs parisiens avaient un GPS, pas les Londoniens. J’ai choisi Londres et Paris car ce sont deux villes labyrinthiques qui nécessitent beaucoup d’attention pour se repérer et s’orienter.
Contrairement au groupe des Londoniens, les chauffeurs parisiens, au bout de trois ans, présentaient tous des atrophies des noyaux sous-corticaux, qui s’occupent de cartographier le temps et l’espace. Voilà une délégation de fonction très claire : une perte de la notion spatio-temporelle, puisque les chauffeurs se fiaient à leur GPS et ne faisaient donc plus ce travail. Quand tu te déplaces, il y a un rapport entre le temps, l’effort réalisé, les mouvements, les repères spatiaux, etc. Tout ça se perd. Et qu’est devenue la zone cérébrale ainsi libérée ? Rien ! C’est ce que nous avons constaté. Il ne s’agit donc pas d’une question de technophobie : il n’y a pas eu de recyclage. Les phénomènes de coévolution se font sur des millions d’années, alors que là, on délègue des fonctions de façon trop subite pour qu’il y ait un recyclage.
Dans les années 90, le champion Garry Kasparov a perdu, de justesse, sa partie d’échecs contre l’ordinateur Deeper Blue, capable de calculer 200 millions de positions par seconde. Ça a abouti au mythe de la supériorité de la machine sur l’humain. Mais est-ce vraiment un mythe ?
Depuis que le programme AlphaGo a battu le champion du monde du jeu de go, il est absolument clair que la rapidité de calcul de l’ordinateur est plus forte que celle de l’humain. Mais il faut se demander ce que ça signifie… J’habite au 6e étage et, heureusement, il y a un ascenseur. Cet ascenseur peut monter sans problème vingt fois plus de poids que moi sur les 6 étages. Et alors ? L’ascenseur ne « monte » pas et ne « descend » pas, c’est une mécanique sans aucun sens. Monter, descendre, se fatiguer, comme jouer aux échecs ou au jeu de Go, ce sont des choses que la machine ne peut pas faire. La machine calcule, elle ne joue pas. De la même façon que la machine ne monte pas mes valises : elle fonctionne en dehors de tout sens. Il faut distinguer le fait de jouer aux échecs et les possibles de la machine, le monde réel qui est le monde du sens et le monde virtuel avec ses possibles. Jouer, ce sera toujours une histoire de cerveaux soumis à des pulsions, à des peurs, à un environnement, etc., qui donnent un sens à ce qu’ils sont en train de faire. Les animaux, les plantes, tout le vivant donne du sens à l’environnement. La machine, elle, calcule, fonctionne, en dehors de tout sens.
Ce qu’on appelle « intelligence » artificielle n’a donc rien à voir avec l’intelligence humaine ?
La machine fonctionne de façon dualiste : il y a le corps qui est le hardware (le matériel) et l’âme, qui est le software (logiciels, algorithmes…). Avec le cerveau humain, il n’y a pas de séparation entre hardware et software. L’humain fonctionne par une compréhension corporelle, qui permet que les informations qu’il reçoit prennent sens selon son vécu. Un pianiste pourra avoir oublié la partition d’une « Nocturne » de Chopin mais, assis devant le piano, ses doigts s’en souviendront mieux que le cerveau et pourront le jouer. Avec le vivant, il n’y a pas de séparation entre le corps et le contenu de la pensée. En permanence, la pensée modifie le corps et le corps modifie la pensée, sans aucun dualisme. Par exemple, avec les travaux récents sur le biotope intestinal, on s’est rendu compte que le corps de chaque être humain est un écosystème très complexe dans lequel des bactéries présentes dans les intestins ont une incidence cérébrale très importante et peuvent être impliquées dans des cas de schizophrénies, de dépressions, etc. Le problème, c’est que le mode d’élaboration d’une réponse par l’intelligence artificielle ne tient pas compte de tout cela. D’un côté, l’IA est fantastique, parce qu’elle nous donne des éléments très intéressants. Mais dans le même temps, ça laisse beaucoup de choses de côté, parce que cette espèce de perfection de la machine ne prend pas en compte la connerie du vivant !
Face à l’intelligence artificielle, la connerie du vivant ?
Quand quelqu’un me demande la différence entre intelligence artificielle et intelligence humaine, je lui réponds la chose suivante : « Toi, non, car tu es très intelligent (je ménage mon interlocuteur…), mais je suis sûr que tu connais des gens qui commettent dix fois la même erreur, qui tombent toujours amoureux des femmes ou des hommes impossibles, qui fument en sachant qu’il ne faut pas fumer, etc. Cette connerie-là fait partie du vivant. Et la machine, en étant trop intelligente, ne peut pas comprendre la connerie ! »
En fait, entre la machine et le vivant, il y a une séparation, qui est la séparation de la fragilité. Il y avait un livre de science-fiction qui s’intitulait Un bonheur insoutenable [d’Ira Levin, publié en 1970, Ndlr]. Et effectivement, un monde où tout est calculé à la perfection, est un monde non-vivable pour l’humain. Le grand défi aujourd’hui, c’est donc d’arrêter deux secondes d’être fasciné par les possibles de la machine et de chercher à savoir ce qu’est la singularité du vivant. Parce que selon la doxa dominante, à laquelle adhèrent absolument tous mes collègues chercheurs, la machine peut absorber toutes les fonctions du vivant. Et moi je dis que c’est une horreur. Ce qu’il faut, c’est non pas dire que la machine est bonne ou mauvaise, c’est identifier les singularités du vivant, parce qu’elles ne pourront pas être absorbées par la machine.
Ces collègues dont vous parlez, qui sont parfois d’éminents chercheurs, sont donc prêts à se livrer corps et âme à l’intelligence artificielle, et nous avec ?
Ces collègues ne disent pas que je raconte des conneries, ils disent quelque chose de pire : oui, on est dans un pivot évolutif, et dorénavant, l’humain va occuper des segments dans un réseau constitué d’intelligence artificielle et de vivant. Ils pensent donc la même chose que moi, mais leur conclusion est à l’opposé : « désormais, on va fonctionner » [par opposition à « exister »], Miguel Benasayag ayant notamment écrit le livre Fonctionner ou exister, Ndlr]. Très concrètement, ils n’osent pas le dire, mais ils adhèrent plus ou moins consciemment au transhumanisme. Prenons par exemple Jean Petitot. C’est un grand épistémologue français, qui a fait partie dans les années 70 du « Groupe des dix », avec Michel Rocard, Jacques Attali et d’autres. Ce groupe faisait la promotion de la cybernétique, en expliquant qu’il fallait mettre en place une gouvernementalité technique. Selon eux, cette gouvernementalité est la seule qui peut garantir la « démocratie », sous-entendu que le peuple ne peut pas comprendre la complexité des problèmes techniques. Ils présentent tout ça de façon très utopique. Selon Jean Petitot, grâce à l’exactitude de l’algorithme, on sortira du monde imaginaire de l’individu et idéologique du collectif, pour atteindre une société à peu près parfaite… De la même manière, des collègues me parlent de la voiture automatique de Google. Lorsqu’elle roule sur autoroute, selon certaines projections, elle réduirait le risque d’accidents mortels par 100 ou par 1000. Alors ils me disent « et toi, tu fais quoi ? Tu veux des accidents mortels ? » Nous, les évolutions technologiques nous interrogent, mais les technophiles ne réfléchissent pas comme ça. Ils voient ça comme un idéal, un monde pacifié.
Que répondre à ça ? Si l’IA diagnostique mieux les cancers, qu’il y a moins de tués sur les routes… Pourquoi s’en passer ?!
Cette utopie algorithmique est un cauchemar pour le vivant. Bien entendu, si on peut réduire le nombre de morts sur autoroute, très bien. Mais les technophiles donnent toujours des exemples isolés pour tenter de démonter que, d’une façon agrégative, tout ça donnerait un monde idéal. Moi, je dis prenons chaque exemple pour voir comment on l’intègre à la vie. Mais leur monde pacifié, parce qu’il est ainsi pacifié, n’est pas humain. C’est pour ça que j’ai écrit avec Angélique [la philosophe Angélique del Rey, Ndlr] L’éloge du conflit : on pense qu’il ne faut pas viser « la paix universelle » mais plutôt réguler et contrôler les niveaux de conflits. Et donc accepter la négativité.
C’est ce que je réponds à ces collègues : dans leur modèle, il leur manque un élément fondamental du vivant qui est la négativité. C’est l’exemple de la grenouille et du scorpion. [Dans cette histoire expliquée dans l’ouvrage Cerveaux augmentés, humains diminués, un scorpion demande à une grenouille de lui faire traverser une rivière en le portant sur son dos. Pour rassurer la grenouille, le scorpion lui explique que s’il la piquait pendant la traversée, il mourrait aussi car il ne sait pas nager. La grenouille accepte donc de le prendre sur son dos mais, au milieu de la rivière, le scorpion la pique quand même, geste fatal pour les deux animaux. Ndlr]. Le scorpion pique la grenouille car c’est dans sa nature de le faire. Un scorpion qui ne piquerait pas la grenouille ne serait plus un scorpion. Un humain qui ne se fâche pas, qui ne tombe pas, qui ne se trompe pas, etc., ce n’est plus un humain. Donc je leur dis de faire attention, parce qu’il leur manque une variable dans leur modèle, et que cette variable va tout faire péter.
Pourtant, l’IA n’est pas seulement le fantasme de quelques technophiles : à travers les smart cities, par exemple, on nous promet aussi de grands travaux d’aménagement censés rendre nos vies plus fluides, plus écologiques…
Les smart cities, ça ne fonctionne pas, et ça s’explique par quelque chose de très important philosophiquement et politiquement : la non-transparence du vivant. Nous ne sommes pas transparents à nous-mêmes. Quand tu parles d’écologie dans les Andes, avec la Pachamama, ils n’ont pas de modèles clairs de ce qu’on doit respecter : ils acceptent des opacités, des choses non-connues et non-connaissables. C’est la différence entre parler de la Pachamama et donner la déclinaison chimique de la Terre. Ce n’est pas seulement une différence dans la façon de nommer. C’est que dans la Pachamama, j’incorpore quelque chose de fondamental qui est la non-transparence de l’objet étudié. Quand ils parlent de Pachamama, ils ne sont pas tarés, ils connaissent le fonctionnement des plantes, des engrais, etc. Mais ils parlent d’un ensemble complexe, qui n’est pas entièrement représentable, et ils savent donc qu’il faut y faire très attention.
À l’inverse, dans la smart city, on part de l’idée que l’on peut représenter et modéliser tous les besoins d’un humain. On connaît tous des gens qui assurent qu’ils peuvent être surveillés parce qu’ils n’ont rien à cacher. Évidemment, c’est idiot, car on a tous des choses à cacher, mais il faut ajouter qu’on a aussi des choses qui nous sont cachées à nous-mêmes. Dans la smart city, le modèle d’être humain et la façon d’utiliser la ville est absolument totalitaire, parce qu’il prétend à une transparence totale de l’humain. Or l’humain ne fonctionne pas de façon comptable. Le vivant n’est pas transparent, il n’est pas chiffrable. C’est la différence entre fonctionner et exister.
Comment voyez-vous les choses évoluer dans les années à venir ?
Malheureusement, je suis assez pessimiste. Si tu mets, d’un côté, la vulgarisation de ChatGPT ou des autres logiciels d’IA grand public, et que tu y ajoutes l’apparition de l’informatique quantique, je pense, comme beaucoup d’autres, qu’on est à l’aube de la deuxième grande révolution informatique. Cette révolution cybernétique, en accélérant énormément les mécanismes de délégation de fonction, va rendre l’humain beaucoup trop passif. Reprenons l’exemple du GPS. Je n’en ai pas. Pas plus tard qu’hier, je me suis rendu chez ma sœur, qui habite dans la cambrousse, et évidemment on s’est perdus. Alors bien sûr quand je raconte ça, on me fait des réflexions, « t’as pas de GPS mais tu te perds », « comment tu ferais si tu étais pressé »… Moi aussi, ça me casse les pieds de me perdre, mais pour diverses raisons je refuse de dépendre d’un GPS. Le problème, c’est : au nom de quoi les gens vont réguler leur dépendance ? D’un point de vue neurologique, sociétal, culturel ? Au nom de quoi ? C’est ça le défi : montrer qu’il y a d’autres manières de vivre, plus désirables, et que le fait de faire sans la machine n’apparaisse pas comme une privation. Exactement comme pour la sobriété. La sobriété, c’est désormais le destin de l’humanité. Alors soit on fait la sobriété joyeuse, comme vous le proposez à L’âge de faire, soit on impose la sobriété disciplinaire. Comment on peut développer des pratiques alternatives qui utilisent la technologie, mais sans s’écraser devant elle ?
C’est-à-dire sans déléguer nos fonctions ?
Pas seulement. Il s’agit aussi de trouver des choses qui ne sont pas délégables. Qu’est-ce que ça peut être ? Par exemple, tomber amoureux de Marinette. Pour diverses raisons, si tu leur poses la question, l’IA et tes amis te diront que tomber amoureux de Marinette serait une connerie. Oui, mais cette connerie, c’est ce qui marque ta singularité. Actuellement, on a beaucoup de mal à définir ce qui relève exclusivement du vivant, qui n’est pas délégable à la machine. Et ce non-délégable, c’est celui qui expliquera pourquoi tu préfères te perdre un peu plutôt que suivre un GPS. On peut par exemple dire que quand tu suis les consignes du GPS, le voyage n’en est plus vraiment un.
Autre exemple : on t’introduit une puce dans la tête qui te permet de connaître tout Proust par cœur. Moi, j’ai lu tout Proust, 5 000 pages. Je peux te dire que À la recherche du temps perdu est une belle façon de perdre son temps. Si on t’implante une puce dans la tête, tu as à ta disposition tout ce que dit Proust. Mais ton être à toi, ta tête, ton corps, n’auront pas été sculptés par l’expérience longue, parfois pénible, parfois fascinante, de lire ces 5 000 pages.
À chaque fois, il faut donc chercher à expliquer ce qu’il y a d’immensément plus grand de se perdre, d’immensément plus grand de tomber amoureux de la mauvaise personne, plutôt que de suivre les consignes d’un GPS ou d’une application. En somme,
il faut trouver ce qu’il y a d’immensément plus grand d’exister plutôt que de fonctionner. Non pas pour abandonner les machines, mais pour que les machines ne nous colonisent pas.
Certes encore microscopiques, des résistances existent. Est-ce que tu penses que ça peut prendre de l’ampleur ?
Je pense que oui. De part mon passé dans la résistance [face à la junte militaire argentine, dans les années 70, Ndlr], je n’ai jamais vu de situation dans laquelle, aussi durs et puissants soient ceux qui t’écrasent, il n’y ait pas de résistance et d’inventivité. La question qui me taraude quand même, c’est qu’à l’époque en Argentine, personne n’aimait les généraux, alors qu’aujourd’hui tout le monde aime les algorithmes. Je ne dis pas qu’il faut détester l’algorithme de la même façon qu’on détestait les généraux, mais au moins faudrait-il ne pas en être amoureux !
Encore faut-il en prendre conscience, car les généraux argentins étaient bien visibles, alors qu’on ne s’interroge guère sur la technologie…
Oui, les généraux portaient même des uniformes pour qu’on ne les confonde pas avec les autres ! Et il est vrai que même dans le mouvement décolonial latino-américain, mes camarades parlent de colonialisme européen, de patriarcat, etc., mais il n’y a personne qui parle du colonialisme technologique, algorithmique. Or c’est un vrai colonialisme mondial. L’algorithmisation du monde est un colonialisme car ça se fonde sur l’axiome que “tout est algorithmique”, que, donc, il n’y a aucune altérité. Comme pour le colonialisme occidental, pour lequel il n’y avait qu’un seul monde, un seul mode d’être, une seule culture etc., auxquels les autres peuples devaient se soumettre. Si tout est algorithmique, ce qui ne peut pas être modélisé par un algorithme est considéré comme bruit de fond, et est écrasé. Il va être très intéressant de voir comment des humains, des minorités, des groupes, des réseaux, vont développer des modes de régulation qui leur permettront d’utiliser la technologie sans être colonisés par elle. Je reste un homme d’action, qui n’aime pas subir les choses. Donc, quoi qu’il en soit, il faut résister. Parce que… que faire d’autre ?!
Recueilli par Nicolas Bérard