L’IA ou « l’illusion de l’ersatz parfait »

©Cécile Muzard

Le philosophe des sciences Daniel Andler travaille depuis près de 40 ans sur le fonctionnement de notre cerveau et sur les technologies numériques. Dans Intelligence artificielle, intelligence humaine : la double énigme (Gallimard, 2023), il retrace l’histoire des recherches ayant permis les progrès fulgurants de l’IA ces dernières années, tout en démontrant qu’elle reste radicalement différente de nous – et souvent moins performante.

Cette interview est parue dans l’ADN, Tendances & Mutations

Votre livre est paru il y a à peine plus d’un an. Depuis, la déferlante OpenAI a bouleversé l’image que le grand public se faisait de l’IA. Votre analyse a-t-elle également évolué ?

Daniel Andler : S’il est déjà longuement question dans mon livre des prouesses d’OpenAI et consorts, les systèmes d’IA se déploient plus vite que je ne l’avais imaginé, dans les entreprises, dans nos outils de travail et déjà dans notre quotidien, sur Internet ou dans nos téléphones. Or, ce déploiement spectaculaire entraîne une démocratisation d’applications multimodales, permettant de générer tout à la fois du texte, de l’image, du son ou encore des vidéos. Les IA sont ainsi devenues de formidables illusionnistes, capables d’imiter de vraies personnes, d’adopter une voix, un style, des réactions de plus en plus crédibles, et de donner l’impression qu’elles peuvent travailler à notre place. Tout ceci est largement illusoire, mais pas sans conséquences. Des chefs d’entreprise imaginent remplacer des employés pour diminuer leur masse salariale. Des politiques songent à automatiser certaines prises de décision, en se reposant sur l’analyse automatique de données… Sur internet, on anticipe de surcroît une diffusion massive de fausses informations, à travers des comptes sociaux, posts et commentaires générés par IA.

Vous êtes plus inquiet, en somme…

D. A. Dans mon livre j’expliquais en quoi l’IA reste fondamentalement différente de l’intelligence humaine. Aujourd’hui je réfléchis davantage aux conséquences politiques et sociales induites par la confusion entre les deux. Dans l’immédiat, je plaiderais pour limiter drastiquement la génération de produits et œuvres avec IA, car cela introduit une sorte de “fausse monnaie” sur le marché culturel. C’était d’ailleurs une intuition du philosophe Daniel Dennett, éminent spécialiste de la conscience et de la cognition humaines. Dans un article paru peu avant sa mort, il dénonce comme criminelle la création de logiciels ou de machines se faisant passer pour de vraies personnes. Pour lui, nous devrions condamner cette pratique de la même façon que l’on incrimine la fabrication de fausse monnaie. Attention, pour Dennett comme pour moi d’ailleurs, il ne s’agit pas d’interdire tout développement de l’IA. Ces technologies offrent une gamme d’outils formidables et des possibilités que l’on semble encore à peine effleurer. Mais bien les utiliser suppose de rester lucide sur ce qu’elles sont.

Au fond, pensez-vous que l’IA ne doit pas se substituer au travail humain pour des raisons morales, ou bien qu’elle ne le peut pas vraiment ?

D. A. Je penche davantage pour la deuxième option, ce qui me rend optimiste pour l’avenir. Si nous traversons une période d’enthousiasme pour l’IA, nous allons souvent constater que les résultats restent malgré tout médiocres sans un travail humain conséquent en amont, en aval, ou encore les deux ! C’est un peu comme les produits industriels : leur diffusion massive depuis les années 1980 a paradoxalement mis en évidence la valeur inégalée du travail artisanal ou artistique. De la même façon, les produits générés uniquement par IA vont certes continuer à progresser, mais il leur manquera toujours quelque chose, et le public va se lasser de ces œuvres sans âme. Les entreprises aussi vont se rendre compte que les humains sont indispensables, même sur des postes déjà fortement automatisés. Malheureusement, cette prise de conscience va encore prendre du temps, alors que le déploiement de l’IA peut faire des dégâts à court terme – destruction d’emplois, bulle spéculative, etc.

Aurons-nous toujours besoin de chauffeurs, de radiologues, de dessinateurs, de traducteurs… ?

D. A. J’en suis convaincu, même si cela paraît moins évident aujourd’hui. Fin mai, un article du New-York Times rapportait que près d’un col blanc sur deux – cadre exécutif, chefs d’entreprise… – pensait que son travail quotidien pouvait être fait par une IA. Cela relève à mes yeux d’une erreur fondamentale, que j’appelle « l’illusion de l’ersatz parfait ». Si vous créez une copie parfaitement conforme à première vue, cela signifie qu’elle peut accomplir les fonctions connues et bien établies de son modèle ; mais cela induit aussi qu’elle ne peut rien faire de plus ! Autrement dit, elle restera incapable de s’adapter à une situation non prévue et plus encore d’innover. C’est exactement la limite que rencontrent les IA : la façon dont elles ont été conçues consiste à proposer la réponse ou la réaction la plus fréquente à une sollicitation, et donc à reproduire l’existant. Cela peut certes suffire pour beaucoup de petites tâches quotidiennes. Mais la réalité du travail humain, quel qu’il soit, consiste surtout à s’adapter à des évènements inattendus.

Pourriez-vous donner un exemple ?

D. A. : Aujourd’hui, les pilotes d’avion de ligne activent un pilotage automatique pendant la majeure partie du temps de vol. Des compagnies aériennes ont donc envisagé d’automatiser les appareils pour faire des économies, mais elles se sont rendu compte que c’était impossible. Les pilotes ne se tournent pas les pouces quand l’ordinateur de bord prend le relais. Ils exercent une surveillance constante, anticipent les problèmes, reprennent la main en cas de panne ou d’atterrissage d’urgence. En tant que commandants de bord, ils doivent aussi gérer d’éventuels passagers agressifs ou malades, décider ou non de débarquer quelqu’un, modifier le parcours de vol si besoin… Autant de décisions qui supposent une adaptation, une souplesse et une analyse de la situation dans son ensemble, avec tout ce qu’elle comporte d’inconnu, d’incertain et d’inédit. C’est la même chose pour un manager ou un PDG : son travail ne consiste pas à consulter des tableurs et à prendre mécaniquement ses décisions. Il doit créer une offre, s’adapter aux évolutions d’un marché, tenir compte de facteurs humains dans son entreprise, etc.

Qu’en est-il de métiers apparemment plus routiniers ? Dans votre livre, vous estimez que des voitures totalement autonomes ne verront probablement jamais le jour, pourtant aux États-Unis des taxis sans chauffeurs circulent déjà, non ?

D. A. Il faut se méfier des effets d’annonce. Des vidéos spectaculaires de « robots-taxis » arrivent régulièrement des États-Unis, mais ces véhicules sont beaucoup moins autonomes que ne le laissent penser leurs fabricants. D’une part des accidents absurdes restent fréquents : fin mai encore, une Tesla fonçait sur une voie ferrée alors que le passager voyait bien qu’un train arrivait à pleine vitesse. Mais surtout, ces accidents donnent lieu à des enquêtes révélatrices. L’année dernière aux États-Unis, j’ai ainsi appris que les employés d’une entreprise de robots-taxis intervenaient à distance toutes les 20 minutes en moyenne ! Cette entreprise employait en outre environ trois personnes pour un véhicule en circulation. Elle s’inscrit dans une logique d’investissement à long terme, mais reste pour l’heure moins rentable que des taxis traditionnels. Le travail humain semble donc toujours nécessaire. Je ne nie cependant pas les progrès et les changements d’usage qui se profilent. On pourrait déjà sans problème activer un pilotage automatique lorsque l’on roule en ligne droite sur des centaines de kilomètres au milieu du désert… Mais une conduite parfaitement autonome en toutes circonstances a encore peu de chances de voir le jour.

Plus généralement, en quoi l’intelligence humaine reste-t-elle radicalement différente de l’IA selon vous ?

D. A. On pourrait croire que les deux, vus comme systèmes de traitement de l’information, peuvent par principe être équivalents. Mais en réalité elles ne font pas du tout la même chose. L’IA résout des problèmes spécifiques en s’appuyant sur un ensemble fini de données. Schématiquement, elle analyse des milliards d’exemples pour en déduire que, si vous commencez par exemple une phrase par « le chat mange… », il y a de fortes chances que la suite soit « la souris ». L’intelligence humaine, elle, est avant tout une faculté d’adaptation à des situations. Contrairement à un ensemble fini de données, une situation n’a pas de contours stricts, elle comporte beaucoup d’incertitudes, et en même temps elle a toujours quelque chose d’unique, d’irréductible à un ensemble d’exemples passés. Imaginons une situation banale : vous êtes au bureau et souhaitez rentrer chez vous. Mais vous n’avez pas terminé votre travail, et votre chef pourrait vous le reprocher demain. En même temps, vous aimeriez passer la soirée en famille, ou bien à regarder le dernier épisode de votre série préférée… Qu’allez-vous faire au final ? Quand vous êtes dans ce genre de réflexion, vous sentez bien que l’enjeu n’est pas de résoudre objectivement un problème, de la même façon qu’on résout une équation mathématique. Vous devez prendre des décisions plus ou moins appropriées, improviser en fonction de l’évolution de la situation, et surtout pouvoir en assumer les conséquences.

Vous considérez d’ailleurs qu’il faut un corps de chair et de sang pour penser comme un humain…

D. A. Contrairement à une IA, nous possédons un corps engagé dans le monde réel, à la fois sujet et objet de ses propres décisions. Si vous avez trop chaud et décidez de retirer votre pull, votre corps se rafraîchit ; la température ressentie par votre cerveau baisse suite à l’action qu’il a lui-même initiée. Même une expérience aussi basique est totalement étrangère aux IA. Les ordinateurs et robots qui les abritent ne sont pas à proprement parler leur corps. Une IA ne ressentirait pas la perte du hardware de la même façon que nous éprouvons une blessure physique. C’est un prolongement qu’elle pilote et dont elle peut changer, comme nous de vêtement. Cette différence est fondamentale, car nos décisions ont en définitive vocation à assurer notre survie et notre bonheur. Faute de corps biologique, une IA n’est pas engagée dans une logique de survie et d’adaptation au monde, elle ne peut pas développer une intelligence du même type que celles des êtres vivants. Si à l’avenir nous arrivions à développer une biologie de synthèse, telle qu’une IA serait à la fois le produit d’un corps et son système de traitement de l’information, alors les choses seraient différentes. Mais en l’état actuel des technologies, même la cognition des animaux reste plus proche de la nôtre qu’une IA.

Poster un commentaire

Classé dans Livres, Philosophie, Psychologie, Sciences, Société, Travail

Les commentaires sont fermés.