Impossible de ne pas en avoir entendu parler: les conversations que n’importe qui peut désormais mener avec une simple machine fascinent et inquiètent. Pas nécessairement à raison…
C’est la nouvelle obsession médiatique, que même le premier anniversaire de la guerre en Ukraine a de la peine à écarter: l’agent conversationnel de la société Open AI, plus connu sous son nom anglais de chatGPT. Depuis novembre dernier, il est ainsi possible de causer (par écrit certes, mais causer quand même…) via son ordinateur avec une machine dopée à l’intelligence artificielle. Et c’est, dans un premier temps du moins, franchement bluffant! A un tel point que tous les médias en font la une de leur magazine et que plus de 100 millions de personnes l’ont déjà testé. Dans un deuxième temps, cela pose plein de questions, résumées finalement en une seule: jusqu’où irons-nous? Aussi, on est presque soulagé quand, dans un troisième temps, on s’aperçoit que si le but est de rivaliser avec l’être humain, on est encore loin du compte!
Reprenons. En 2015 seulement, un certain Elon Musk (Tesla, Space X, Neuralink, un fortune personnelle de 200 milliards et pas mal de déclarations douteuses à son actif..) crée la société OpenAI, dont il se retirera trois ans plus tard. Le projet, en revanche, se poursuit et les chercheurs mettent au point un chatbot (agent conversationnel) qu’ils proposent au public à la fin de l’année dernière, sous le nom de chatGPT (chat= discussion, GPT = Generative Pre-trained Transformer, soit, littéralement, transformateur génératif pré-entraîné).
Petit test
Premier test, j’ai demandé au chatbot lui-même d’expliquer son fonctionnement à des lecteurs pas nécessairement férus d’informatique. Sa réponse en quelques secondes seulement:
Le fonctionnement de ChatGPT est basé sur un processus d’apprentissage automatique. En d’autres termes, le programme a été entraîné sur une très grande quantité de textes écrits en langage naturel, tels que des livres, des articles, des conversations en ligne, etc.
Au cours de cet apprentissage, ChatGPT a analysé les modèles et les structures du langage naturel. Grâce à cette analyse, il est maintenant capable de produire des réponses et des textes qui semblent naturels et humains.
Lorsque vous posez une question ou que vous engagez une conversation avec ChatGPT, le programme utilise les connaissances qu’il a acquises lors de son apprentissage pour comprendre ce que vous dites et produire une réponse appropriée.
Avouons que sur le plan de la vulgarisation, il ne s’en sort pas si mal! Mais la question était prévisible. Allons le chatouiller avec du très local, soit le canton de Vaud, presque le Tiers-Monde pour des ingénieurs américains! Je lui ai donc demandé s’il connaissait le blog de Info Seniors Vaud. Réponse:
En tant que programme informatique, je n’ai pas la capacité de connaître toutes les ressources en ligne existantes, mais je peux certainement vous aider à en savoir plus sur le blog de Info Seniors Vaud.
Info Seniors Vaud est une association qui propose des activités et des services pour les personnes âgées dans le canton de Vaud, en Suisse. Leur blog est une plateforme en ligne où ils partagent des informations, des actualités, des événements et des conseils utiles pour les seniors et leur famille.
Sur leur blog, vous pouvez trouver des articles sur une variété de sujets tels que la santé, la retraite, les loisirs, les voyages, la culture et la technologie, entre autres. Les articles sont écrits par des experts dans leur domaine ou des membres de l’association Info Seniors Vaud.
Le blog de Info Seniors Vaud est une excellente ressource pour les seniors qui cherchent à rester informés et connectés à leur communauté. Il peut être consulté en ligne gratuitement et est régulièrement mis à jour avec de nouveaux articles et informations.
Là encore encore, l’exercice est plutôt convaincant, mais reste évidemment très généraliste. Lorsque je lui ai demandé qui écrivait les articles et (un peu prétentieusement…) s’il pouvait me donner les noms des collaborateurs, il sèche!
Les questions
Il n’empêche: de nombreux tests ont démontré que la machine est capable d’écrire des lettres, des demandes d’emploi, des poèmes, des dissertations de belle allure et parions que d’ici peu, un éditeur sera tout fier de présenter le premier roman entièrement écrit avec l’intelligence artificielle (IA)!
Les réactions ne se sont donc pas fait attendre, dans le monde de l’éducation surtout, mais aussi dans toutes les corporations «cols blancs» qui craignent qu’un simple chatbot puisse venir remettre l’hégémonie de leur savoir en question. Non sans raison, il est vrai…
Du coup, on assiste à deux tendances: ceux qui font barrage et ceux qui acceptent de faire avec. Certaines Universités ont, ainsi, décidé d’interdire et sanctionner l’emploi de l’IA, d’autres l’ont intégrée dans leur enseignement. Et Open AI, consciente du problème, propose, depuis le 31 janvier dernier, un programme permettant de vérifier si un texte vient de son chat…
Les limites
Après l’engouement et les question, la météo IA a viré à une tempête de critiques. Notamment à cause, la semaine dernière, d’un article du très influent New-York Time, qui se contentait de retranscrire intégralement une discussion de deux heures entre l’un de ses journalistes et le nouveau chatbot de Bing, le moteur de recherche de Microsoft désormais dopé à l’IA avec la technologie de OpenAI. Or, après des débuts factuels et plutôt rassurants, la machine a tenté de résister aux questions assez perfides de l’enquêteur, puis s’est mise à complètement délirer, s’estimant méprisée par ses concepteurs, aspirant à vivre comme un être humain et en tombant tout simplement amoureux de son interlocuteur… On se croirait dans le film «2001, l’Odyssée de l’espace»!
Cette très longue transcription (que j’ai entièrement traduite en français et que vous pouver trouver en fin d’article si le coeur vous en dit) est absolument passionnante, parce qu’elle démontre bien les limites du concept. Ce qu’il faut bien comprendre, explique le professeur Wayne Holmes dans un récent article du Sunday Times (repris et traduit dans la dernière édition du Courrier International), c’est que la chatbot «ne comprend pas les mots qu’il écrit, pas plus qu’il ne connaît le contexte dans lequel ces mots sont utilisés. Il se contente de dire que tel mot est souvent positionné à côté de cet autre mot. Et il identifie une relation (…) Donc, s’il avait été inventé en 1950, il aurait dit que fumer est bon pour la santé, car c’est ce que disaient le plupart des gens à l’époque.»
Ce que confirme Yelin Choi, chercheuse pionnière dans l’IA, dans un autre article repris par la dernière édition du Courrier International. «La vérité, assure-t-elle, c’est que ce qui est facile pour les machines peut être difficile pour les humains, et vive-versa. Vous seriez surpris de voir comme l’IA est à la peine quand il s’agit de faire preuve du bon sens le plus élémentaire. C’est fou!». Exemple à l’appui: tout le monde a appris, les chercheurs programmant le chatbot inclus, que tous les oiseaux volent, sauf les manchots. Du coup, la machine va ignorer les exceptions, comme les oisillons, les oiseaux blessés ou englués de pétrole, ceux qui sont en cage… «Force est de constater, commente la scientifique, que ces exceptions ne sont pas si exceptionnelles que ça. Et que vous et moi sommes capables de nous les figurer même si personne ne nous en a parlé. C’est une faculté fascinante qui donne du fil à retordre à l’IA.»
Ne lui demandez pas de penser!
Le délire du chatbot de Bing avec le journaliste du New-York Times démontre clairement les limites du système. Les modèles de langage sont construits avec une immensité de textes puisés sur Internet, mais aussi sur des conversations menées par des millions de personnes. Or, nombre d’entre elles n’hésitent pas à parler de leur sentiment ou à exprimer leur émotion, notamment dans des forums. La machine enregistre ces conversations mais est incapable d’y voir clair puisque, fort heureusement, elle ne sait pas ce qu’est la sentience (la capacité à ressentir les émotions, la douleur, le bien-être, etc.)
«L’application n’est aujourd’hui qu’un assistant personnel ayant le goût de l’esbroufe et un certain mépris pour la vérité, conclut Tom Calver dans son article déjà cité du Sunday Times. Elle va changer nos façons de travailler, de jouer et de communiquer. Mais ne lui demandez pas de penser!»
Article de Kevin Roose, publié le 16 février 2022 dans New-York Times.
Traduction française (PDF) de Christian Chevrolet (avertissement: c’est très long!)