L'I.A. ou le mythe de la singularité
- Valérie DESPRETS
- 12 mars 2018
- 5 min de lecture

Les machines seraient-elles devenues plus intelligentes que les humains ? Pas un jour sans qu'un article, une étude, une publication, n'aborde le sujet. Les dernières applications de l'Intelligence artificielle fascinent tout autant qu'elles inquiètent et certains n'hésitent pas à prédire le pire pour le futur de l'humanité. Comment démêler le sérieux du fantasque ? Entretien avec Jean-Gabriel Ganascia, physicien, philosophe et professeur à l’université Pierre-et-Marie-Curie...
D'où vient et que recouvre le terme d'Intelligence artificielle ?
C’est un terme introduit en 1955 par deux jeunes chercheurs mathématiciens, John Mackerty et Mark Lewinsky. Convaincus des potentialités extraordinaires du premier ordinateur électronique construit en 1946, ils ont imaginé de pouvoir étudier l’intelligence en la décomposant en autant de capacités cognitives que l'on pourrait simuler avec un ordinateur. Il ne s'agissait pas de vouloir reproduire une intelligence, mais simplement de mieux comprendre l’intelligence humaine. L'IA, c'est avant tout une discipline scientifique.
Où en est-on aujourd'hui de cette ambition ? Peut-on réellement reproduire toutes les capacités cognitives humaines ?
En 60 ans, la discipline a fait des progrès considérables. Pour évaluer le chemin parcouru, songez à une scène d'un film qui a fait date, 2001 l’odyssée de l’espace, où un ordinateur tout puissant jouait aux échecs... Ce qui paraissait extraordinaire à l'époque est désormais acquis : le champion du monde d'échecs, puis celui du jeu de GO, ont été battus et plus personne ne se hasarderait à défier l’ordinateur ! De nos jours, des machines peuvent exécuter des tâches réalisées par des hommes comme la transcription d'un texte dicté, qui implique la reconnaissance de la parole, ou encore, plus récemment, la reconnaissance des visages... mais beaucoup de choses restent encore mystérieuses dans le fonctionnement de notre cerveau. L'intelligence procède de manière extrêmement complexe et plus on avance, plus on découvre des choses nouvelles et,d’une certaine façon, l’immensité de notre ignorance.
Les applications de l'IA se sont multipliées dans notre quotidien (web sémantique, smartphones, réalité augmentée, biométrie, etc.). Ont-elles changé notre manière de vivre, ont-elles aussi changé notre manière de penser, de réfléchir ?
Bien sûr ! Tout comme le stylo, le livre, le papier, a changé notre façon de raisonner. Ce sont des supports de connaissances mais qui influent aussi sur la façon dont nous allons penser. Jusqu'au 11esiècle, il fallait ânonner pour comprendre les textes parce qu’il n’y avait pas de séparation entre les mots, ni signes de ponctuation. En introduisant des signes d'oralité dans l'écriture, puis plus tard les pages, les chapitres etc., nous avons complètement transformé notre manière de lire. De même qu'un hypertexte change complètement la façon dont vous travaillez. L'accès permanent et illimité au savoir, permet de pouvoir rechercher très rapidement une information ou automatiser un certain nombre de processus extrêmement fastidieux et rend des services considérables.
Faut-il avoir peur de l'IA ? Les machines sont-elles encore de super outils ou sont-elles en passe de remplacer l'homme ?
Nous ne sommes pas obligés d'être idiots avec l'IA ! Soit nous l'utilisons pour être plus autonomes, pour gagner des facultés supplémentaires, soit nous laissons la machine prendre des décisions à notre place. Si une compagnie d'assurances imposait un jour aux médecins de se conformer aux directives que lui a fourni le système de diagnostic automatique, ce serait un vrai cauchemar. Le médecin ne serait plus libre de décider par lui-même, il perdrait alors toute sa compétence. Mais ce ne serait pas la faute de la machine mais bien celle des hommes !
Pourtant il est déjà question de robots advisors dans le domaine de la finance ou de robot-avocats par exemple...
Les technologies analytiques et les sciences cognitives contribuent déjà à accompagner le travail des avocats et juristes. Pour analyser des masses de documents et informations hétérogènes, pour identifier des incohérences, des anomalies ou plus généralement pour rechercher des informations prédéfinies. Cela permet aux juristes de s'appuyer sur une analyse souvent plus exhaustive que ce que les contraintes économiques permettraient de réaliser et de se concentrer sur l'analyse juridique des anomalies et des risques associés, au lieu de passer du temps à les rechercher. Demain, ils pourront peut-être aussi tester avec la machine, la solidité de leur argumentation ou rechercher les contre arguments que l'on pourrait leur opposer... Dans des systèmes juridiques de plus en plus complexes, ces machines rendent de précieux services, mais ne supprimeront pas le métier d'avocat. Il faut bien distinguer une tâche, un métier, un emploi : un métier, en général, ce sont plusieurs tâches et chacune de ces taches demandent de multiples compétences cognitives... il se peut qu'il y en ait quelques-unes qui soient automatisables, mais cela ne veut pas dire que tout le métier peut être automatisé. Cela veut dire qu'il va évoluer et qu'il faudra sans doute de nouvelles compétences humaines pour l'exercer. La question, du reste, se pose avec toutes les technologies.
On parle aujourd'hui de capacité "d'auto-apprentissage" qui permettrait à la machine d'être de plus en plus intelligente... jusqu'à devenir autonome ?
Le fait que la machine soit capable d'apprendre par elle-même n'est pas nouveau même si des progrès considérables ont été accomplis. Mais cet auto-apprentissage reste supervisé et très limité, c'est-à-dire qu'il dépend de la programmation initiale et de la quantité d'exemples fournies à la machine, pour qu'elle arrive à en tirer seule des conclusions et se reprogrammer. Pour autant, une machine n'invente rien, elle n'est pas capable d'élaborer des concepts comme le ferait un humain. En cela, son intelligence reste "artificielle". L'idée que la machine devienne autonome, au sens philosophique du terme et prenne le pouvoir sur l'homme, est un mythe ancestral. Pygmalion, Pinocchio, Le Golem... raconte toujours la même histoire : l'homme recrée un être à son image qui peu à peu prend son autonomie. Il y a derrière cette transgression (on joue à imiter Dieu), une forme de culpabilité. Et donc de crainte des conséquences... Les progrès de l'IA réactivent ce mythe et certains acteurs se plaisent à exagérer la portée des avancées scientifiques et répandre l'inquiétude sur notre futur proche, avec la complicité des médias. Beaucoup de publications alarmistes sont sans réels ou solides fondements. Il faut se demander à qui cela profite...
Quels sont les vrais enjeux pour demain ?
Il reste à inventer des techniques capables d'apprendre lorsque nous ne disposons pas du nombre suffisant d'exemples à fournir à la machine pour certains types d'apprentissages. D'autres travaux sont axés sur l’argumentation que peuvent donner ces "agents", afin de comprendre comment le raisonnement a été mené, les déductions ont été faites, les sources des données utilisées, etc. et vérifier du bien-fondé de ces critères. Car les systèmes peuvent s'appuyer sur des corrélations discutables, sur le plan éthique par exemple. L'homme doit conserver son libre arbitre et rester maître de ses décisions, même s’il s'avère de manière empirique que les erreurs sont plus souvent humaines que techniques (par exemple sur les accidents aériens).
Il faut remettre les machines à leur place et se rappeler que ce ne sont pas les machines qui sont intelligentes mais nous, les hommes, qui leur attribuons de l'intelligence.
Jean-Gabriel Ganascia mène des recherches sur l’intelligence artificielle au laboratoire informatique de Paris 6 (LIP6). Il est président du comité national d’éthique du CNRS et a publié divers ouvrages dont le précurseur L’Âme machine, au Seuil en 1990. Dernier ouvrage paru : « Le Mythe de la Singularité : faut-il craindre l'intelligence artificielle ? » aux éditions du Seuil 2017.