Ces derniers jours, on a beaucoup parlé de l’avènement de l'”intelligence artificielle” (IA) et de son potentiel à changer la donne dans notre façon de travailler. Cette discussion a pris de l’ampleur depuis qu’OpenAI, la société à l’origine de ChatGPT, a signé un accord de collaboration à long terme avec Microsoft, d’une valeur de plusieurs milliards de dollars. Au Kenya, le 29 janvier, le journal grand public Sunday Nation s’est montré tout aussi enthousiaste à l’égard de ce développement, en publiant un article sur le sujet avec pour titre : “ChatGPT : Un outil qui aide même les paresseux à écrire magnifiquement“. Mais malgré tout le battage médiatique, le brouhaha autour de ChatGPT ou de l’apprentissage automatique est au moins autant une indication de notre déclin intellectuel que de toute avancée technologique de notre part, et voici pourquoi.
J’ai personnellement hésité à explorer ce que fait réellement ChatGPT, me tenant à l’écart de ce qui semble être un chemin sans destination logique. Récemment, cependant, j’ai eu une discussion approfondie sur l’élaboration d’une proposition de projet avec un collègue plus informé sur cette application, et il a eu la gentillesse de m’emmener faire un “tour”. J’ai donc “posé” à l’application plusieurs questions relatives à l’étude de la faune africaine (mon domaine d’expertise). Je me suis fait passer pour un étudiant cherchant à élaborer une proposition de recherche sur la conservation axée sur les conflits entre l’homme et la faune. L’application a consciencieusement rédigé l’énoncé du problème, les questions de recherche, les méthodes et même élaboré une table des matières. Le résultat, cependant, ne contenait rien qui ait l’air un tant soit peu nouveau ou original. Ce n’était que des extraits de clichés, extraits d’une myriade de documents sur la conservation, disponibles en ligne, ce qui était déconcertant, car l’intelligence est définie comme “la capacité d’appliquer des connaissances, de manipuler son environnement ou de penser de manière abstraite”. Cette définition de l’intelligence n’apparaissait nulle part dans l’expérience (limitée) que j’ai menée. Ce que j’ai perçu était simplement un moteur de recherche qui cherchait des informations spécifiques en ligne et qui “tapait” les résultats plutôt que de présenter un manuscrit prêt à l’emploi et de créer l’impression d’une sorte de “processus de pensée” en jeu.
L’autre illustration de l’intelligence à souligner est bien sûr l’absence d’attribution à une source quelconque – une caractéristique attrayante qui s’étend à l’utilisateur par l’attrait de présenter ce “travail” ailleurs comme le sien. Pour l’observateur occasionnel, le document ressemble à une proposition de recherche complète, mais une observation plus attentive de la part de quelqu’un qui connaît bien le sujet révèle l’absence d’un cadre logique qui puisse être suivi depuis l’énoncé du problème, en passant par l’hypothèse et les méthodes qui donneraient un résultat si tout cela était mis en œuvre sur le terrain dans une situation du “monde réel”. Il y a là quelque chose d’effrayant.
Notre société ne devrait pas être effrayée par les menaces apparentes posées par les capacités de l’IA, qui, après tout, sont aussi puissantes que celles de ses programmeurs humains. Ce qui devrait nous effrayer, c’est la manière dont les personnes que nous considérons comme des “experts” la perçoivent comme une sorte de percée dans la perception du développement humain. Le fait qu’un journal, dont les rédacteurs sont censés être des pourvoyeurs d’excellence en matière d’écriture, puisse qualifier de “magnifiques” les régurgitations irréfléchies de ChatGPT est ce qui devrait nous inquiéter, car cela implique qu’ils ne seraient pas contre l’idée de l’utiliser comme outil de rédaction. Cette étrange fascination n’est pas limitée aux médias kenyans. De grandes publications américaines en ont également parlé sur le même ton, le “New York Times” semblant fasciné par la capacité du robot à écrire des essais. Nous vivons à une époque où les opinions individuelles sont régulièrement réprimées par les États, les foules, la propagande, la religion, les systèmes éducatifs formels et une myriade de forces puissantes. Cette suppression a conduit à l’acceptation massive d’idées comme le commerce du carbone et les crypto-monnaies qui souffrent et vacillent sous tout examen logique. Par conséquent, lorsque des humains très instruits, très respectés ou compétents commencent à rendre hommage à une idée, nous courons le risque qu’une majorité indolente considère ces opinions comme des paradigmes.
Un exemple de cela est l’excitation suscitée par un article publié en janvier 2023 par le professeur Jonathan Choi de la faculté de droit de l’université du Minnesota et d’autres personnes, intitulé “ChatGPT goes to law school“. Cet article rapporte que le désormais célèbre robot a réussi un examen de droit composé de questions à choix multiples et de dissertations, obtenant la note de C+. Cette nouvelle a suscité l’enthousiasme habituel du public, malgré la consternation des enseignants qui y voyaient une menace de plagiat. Ce qui était invisible pour le public, c’est que ce résultat “réussi” ne fait qu’illustrer un fait bien connu, à savoir que l’étude du droit contient nécessairement une grande part de référence aux lois et précédents existants, qui sont tous archivés sur Internet. La note plutôt moyenne obtenue indique que le robot a dérapé lorsqu’il a été confronté à des questions d’interprétation. Le fait qu’une note de passage dans un domaine spécialisé puisse être obtenue à partir d’une “compétence” vide, sans aucune réflexion logique, devrait faire réfléchir les universitaires et les philosophes de tous les domaines d’étude dans le monde. Si cela continue, où trouverons-nous la direction philosophique et éthique qui guidera le progrès des sociétés humaines ? La philosophie, la logique et l’éthique sont nécessairement des attributs expérientiels et humains qui ne peuvent être fabriqués, mais l’apprentissage par cœur a réduit notre pensée à un niveau où l’ingénierie peut être confondue avec l’intelligence.
Notre (mauvaise) éducation par cette méthode nous a appris à croire que notre propre pensée et nos expériences ne comptent pour rien. Le souvenir que j’en garde est celui d’un cours d’écriture que j’ai suivi en tant qu’étudiant de première année de premier cycle. Dans le cadre d’un devoir facultatif, j’ai choisi de faire une dissertation sur l’élevage du bétail, quelque chose qui m’était très familier à la maison, et j’ai longuement écrit sur les moutons, qui sont probablement mon espèce animale préférée. Parmi les détails que j’ai inclus, il y avait le poids moyen des moutons à différents âges et mon professeur ne m’a pas attribué de note sur ce point mais a ajouté le commentaire “quelle est votre source ?”. Apparemment, il était inacceptable d’énoncer de telles informations dans ma dissertation sur des moutons que j’avais élevés et pesés moi-même sans “source” ou référence. Si je devais citer une source, il est peu probable qu’il s’agisse de moutons rouges Maasai (ce qui était le cas des nôtres) qui sont des animaux d’élevage “non améliorés”, généralement désapprouvés par les experts en production animale. Même si cette source était disponible, mon essai portait sur NOS moutons, et non sur les moutons en général. La principale leçon que j’ai tirée de ce cours est la véhémence avec laquelle l'”éducation” contemporaine s’oppose aux pensées et à l’existence même de l’individu.
Près de trois décennies plus tard, cette violence s’est considérablement aggravée. Si un étudiant choisissait aujourd’hui de générer un essai pour un tel cours en utilisant l’IA, il obtiendrait certainement de très bonnes notes car toutes les idées qui y sont proposées auraient des sources externes, avec des références à la littérature et aux données existantes. Rien ne serait original. Au cours des années qui ont suivi, j’ai donné des cours à des étudiants, enseigné dans un certain nombre d’universités du monde entier, au niveau du premier et du deuxième cycle. Mes examens et devoirs n’ont jamais cherché à ce que les étudiants trouvent et régurgitent du matériel, car je cherchais moi-même le matériel et le leur présentais en leur demandant leurs philosophies et leurs justifications. Le travail que j’attendais d’eux ne serait jamais créé par l’IA. Les éducateurs qui s’inquiètent aujourd’hui de l’utilisation de l’IA par les étudiants devraient donc réexaminer leurs méthodes plutôt que de chercher à imposer des “interdictions” sur son utilisation, impossibles à appliquer.
Les préoccupations auxquelles nous devons répondre de toute urgence demeurent. Les universités sont censées être des centres d’éducation et d’innovation, alors si le mérite peut être noté simplement par référence sans innovation, d’où sortira le progrès sociétal ? Les études de niveau avancé sont de plus en plus définies non pas par la qualité des résultats, mais par la taille du silo dans lequel elles peuvent cloisonner un sujet. Cela augmente le rendement quantitatif plutôt que qualitatif de l’enseignement. Dans la pratique, nous avons de nombreuses publications dont les résultats ne peuvent se suffire à eux-mêmes ou trouver une pertinence en dehors d’un certain cercle d’auteurs et d’examinateurs. Cela n’est pas considéré comme un problème, car la publication est devenue un objectif en soi et les prouesses académiques sont, depuis quelques décennies, mesurées par la quantité plutôt que par le contenu des publications. Dans le même ordre d’idées, le progrès de l’humanité contemporaine semble être “rapide” parce que nous le percevons désormais quantitativement à travers les avancées technologiques, alors même que d’autres domaines stagnent, voire régressent. L’histoire nous apprend que les frontières n’existaient pas vraiment entre les arts, les sciences, la communication, etc. Dans le monde antique, des savants célèbres comme Léonard de Vinci étaient des artistes et des scientifiques hors pair. À l’époque contemporaine, nous avons des exemples comme Cheikh Anta Diop, le polymathe sénégalais, et Jonathan Kingdon, le naturaliste dont les compétences artistiques ont fait de lui une autorité parmi les mammologistes et bien d’autres.
Le point culminant le plus récent du “bruit” autour de ChatGPT a probablement été le coup d’éclat du représentant du Massachusetts Jake Auchincloss, un membre du Congrès américain qui a récemment prononcé un discours généré par l’IA devant la Chambre des représentants le 26 janvier 2023 et dont les membres ne se sont pas rendus compte avant qu’il ne le dise. Le fait que le discours du représentant Auchincloss n’ait pas suscité beaucoup d’attention pour son contenu est dû au fait qu’il était vide. L’IA ne génère pas une logique qui peut être soutenue ou combattue sur son propre mérite ; elle reflète étroitement la majorité des discours habituellement prononcés dans les législatures du monde entier. Il reflète davantage le déclin de la qualité de notre discours sociopolitique dans le monde que la qualité du contenu compilé artificiellement (non généré). De nombreux membres ont probablement détecté des mots et des phrases qu’ils avaient déjà entendus. The Verge” (une publication en ligne) l’a décrit comme “terne et anodin, comme vous pouvez vous y attendre pour un discours politique filtré par un système d’IA basé sur des moyennes probabilistes”. Ce n’est pas le genre de matériel qui peut engendrer un véritable progrès humain.
Le jury n’est pas encore fixé sur l’IA et l’excitation est encore à son comble, les géants mondiaux de la technologie Baidu et Google se précipitant pour développer des applications afin de rivaliser avec le succès apparent de ChatGPT. Cependant, à long terme, l’intelligence artificielle pourrait nous aider d’une manière que nous n’avons jamais envisagée. Elle pourrait s’avérer être le meilleur outil à notre disposition pour identifier l’indolence réelle. Nos jeunes sont généralement habiles à utiliser les outils numériques d’une manière qui n’est même pas envisagée par les développeurs. Si nous faisons de même avec l’IA et laissons notre intelligence naturelle nous guider en conséquence, alors l’Afrique pourra bien s’en sortir.