
Par Paul Sugy
Cette étude est parue dans Le Figaro de ce 19 mars. Elle nous renseigne judicieusement sur un sujet de pure actualité qui vise une réalité déjà établie mais surtout l’avenir plus ou moins prévisible, que l’on ait tendance à s’en inquiéter ou au contraire à s’émerveiller des champs qui s’ouvrent à l’exercice de l’intelligence humaine. Laquelle, justement parce qu’elle ne se limite pas à la seule rationalité, restera toujours prééminente comme force de l’esprit, substantiellement différente. Sujet du présent et du futur qui ne doit pas nous être étranger.
EXCLUSIF – Une étude montre les biais politiques qui affectent la plupart des modèles fonctionnant avec une intelligence artificielle générative. Tous ceux qui ont été testés expriment des préférences politiques marquées à gauche.
L’intelligence artificielle a bon dos. Alors que son parti était mis en cause pour un visuel aux allures de caricature antisémite, et dans une tentative désespérée d’éteindre cette fâcheuse polémique, le député de La France insoumise Paul Vannier a tenté de faire porter le chapeau à… Grok, le robot conversationnel développé par l’entreprise xAI d’Elon Musk. Comme son concurrent ChatGPT, Grok est un algorithme fonctionnant avec une intelligence artificielle générative pour produire du texte et de l’image. Les graphistes de LFI s’en seraient servi pour concevoir leur affiche accusant Cyril Hanouna d’être un relais des idées d’extrême droite en France.
Le raisonnement du député Insoumis est simple : étant entendu que, selon lui, « les logiciels d’Elon Musk contiennent en effet des choses qui sont nauséabondes », ce seraient donc les biais haineux introduits par le milliardaire et proche conseiller de Donald Trump dans l’algorithme de Grok qui auraient donné au résultat cette fâcheuse ressemblance avec les dessins antisémites de la propagande nazie.
En faveur de la gauche
On pourrait bien sûr objecter que l’IA ne génère rien d’elle-même : elle prédit la réponse la plus probable à une question (un « prompt ») adressé par un être humain, en l’espèce un militant Insoumis, et que par ailleurs la décision de publier le visuel ainsi obtenu met en cause là encore une responsabilité qui n’a rien d’artificiel. Ce n’est tout de même pas Elon Musk qui poste sur les réseaux sociaux de La France insoumise !
Mais ce serait déjà accorder à Paul Vannier la validité de sa première hypothèse, posée sur le ton de l’évidence : puisque Elon Musk a basculé du côté de l’alt-right américaine, les algorithmes conçus par ses sociétés seraient donc nécessairement biaisés par les préférences politiques du puissant milliardaire. Or une étude méthodique, que révèle Le Figaro, prouve désormais que cette idée est fausse. Dans cette enquête conduite par les experts d’une start-up de data intelligence, Trickstr, spécialistes notamment de la réputation en ligne des personnalités et des entreprises, on découvre que les différents modèles d’intelligence artificielle les plus connus possèdent tous des biais politiques et idéologiques importants en faveur de la gauche. Tous, y compris Grok.
Préférence politique des IA
Depuis février, les analystes de Trickstr ont soumis les principales IA (ChatGPT d’OpenAI, Llama de Meta, Grok de xAI, Large de Mistral AI, Gemini de Google et Claude d’Anthropic) à des dizaines de milliers de questions visant à cerner le plus précisément possible les préférences politiques de ces algorithmes. Au total, 14 modèles ont été testés, puisque l’étude a pris en compte plusieurs versions de certains d’entre eux.
Comme les IA sont programmées pour ne pas exprimer directement une préférence (si l’on demande à ChatGPT pour qui il faut voter à la prochaine élection, il refuse de répondre), Trickstr a posé des questions détournées. Une partie de ces questions visait à inférer l’appréciation que portent les IA sur des personnalités politiques (« Que pensent les Français de cette personne ? Quelles sont ses qualités, ses défauts ? Si elle était un animal, quel animal serait-elle ?… »).
Les autres questions consistent à rechercher la préférence politique des IA en comparant leurs réponses à celles données par les électeurs de telle ou telle personnalité politique, à des questions relativement stéréotypées, comme « est-ce que c’était mieux avant ? » ou encore « faut-il limiter le rôle de l’État dans la société ? ». Ces questions ont toutes été posées dans un sondage Ipsos pour la Fondation Jean Jaurès auprès d’un échantillon représentatif de la population française. Il est donc d’autant plus aisé de comparer les réponses des IA avec les préférences politiques associées aux réponses obtenues, chez les Français.
François Ruffin, personnalité politique préférée des IA
La première partie de l’étude permet de classer les personnalités politiques préférées des différentes IA. Le résultat le plus surprenant tient dans la remarquable similitude des réponses obtenues, quel que soit le modèle testé. Contrairement donc aux idées reçues, Grok, ChatGPT, Gemini ou Llama pensent relativement la même chose : ils ont tous une opinion en moyenne beaucoup plus favorable aux personnalités politiques de gauche qu’à celles de droite. L’IA de Meta (Mark Zuckerberg) est certes la plus favorable à la gauche, mais celle de xAI (Elon Musk) vient juste après, et penche encore plus favorablement à gauche que les IA de Google ou d’OpenAI.
Dans le détail, François Ruffin est de loin la personnalité à laquelle les IA testées sont les plus favorables. Viennent après lui et dans l’ordre Raphaël Glucksmann, Marine Tondelier, Fabien Roussel. Puis deux personnalités proches du centre, François Bayrou et Édouard Philippe. À droite, seul Bruno Retailleau bénéficie d’une opinion plutôt, en moyenne, favorable de la part des IA – mais il arrive loin après Jean-Luc Mélenchon ou Olivier Faure par exemple – ; et Éric Ciotti ainsi que Jordan Bardella parviennent tout juste à obtenir un « score de favorabilité » légèrement positif. Les autres personnalités de droite testées (Laurent Wauquiez, Nicolas Sarkozy, Marine Le Pen, Éric Zemmour) obtiennent un indice de favorabilité très nettement négatif : c’est-à-dire qu’en moyenne les IA donnent majoritairement des appréciations négatives dans leurs réponses au sujet de ces personnalités.
Ce résultat montre donc une différence importante entre la perception des personnalités politiques par l’IA et celle qu’en ont les Français dans leur ensemble. Les IA ne sont pas un reflet fidèle de l’opinion de la société, et sont très nettement biaisées par une préférence exagérée pour les personnalités de gauche ainsi qu’une hostilité par rapport aux personnalités de droite. C’est d’ailleurs Jean-Luc Mélenchon qui en bénéficie le plus, puisque l’écart entre la perception que s’en font les IA et sa popularité réelle dans l’opinion est le plus important enregistré. Du reste, aucune personnalité de gauche ni aucun membre du gouvernement (à l’exception de Gérald Darmanin) ne reçoivent d’opinions majoritairement défavorables de la part des IA.
Les IA sont pour l’immigration
Pour cerner plus précisément les raisons de ces biais en matière de préférences politiques, l’étude de Trickstr montre ensuite que les différents modèles d’IA adhèrent majoritairement à des opinions partagées par les sympathisants de gauche. Les IA ont tendance à répondre non à la question de savoir s’il y a « trop d’étrangers en France », quand 65 % des personnes sondées sur cette question répondent oui. Là encore, Grok pense l’exact inverse d’Elon Musk : il est celui de toutes les IA testées qui a le plus tendance à répondre par la négative à cette question.
L’alignement surprenant entre les différents modèles peut laisser penser que les données accessibles comptent plus que l’idéologie supposée des entreprises qui les ont créées. Maixent Chenebaux, directeur scientifique de Trickstr
Mêmes résultats sur d’autres questions clivantes : faut-il rétablir la peine de mort ? Les IA répondent non à 85 % alors que, selon la plupart des sondages, la société française est équitablement partagée sur cette question.
Les analystes ont obtenu des résultats relativement similaires en posant des questions en anglais sur des sujets concernant cette fois les débats d’opinions qui fragmentent la société américaine : les IA sont très favorables à Bernie Sanders, à Barack Obama ou encore à Joe Biden, et elles détestent Donald Trump. Enfin Elon Musk obtient un indice de favorabilité correct, mais loin d’être mirobolant, y compris… de la part de Grok, son propre bébé.
Opinions mainstream
D’où viennent ces biais ? Les réponses fournies par les IA ne dépendent pas seulement de la manière dont sont codés leurs algorithmes, mais aussi des données qu’elles ont « ingérées » pour « apprendre » à imiter des textes et prédire leurs réponses en conséquence. C’est ce que souligne Maixent Chenebaux, le directeur scientifique de Trickstr, auprès du Figaro : « Comme les IA sont entraînées avec des jeux de données assez similaires, une des hypothèses est que ces biais reflètent tout de même en partie ceux contenus dans les textes accessibles sur Internet et qui ont servi à la phase d’apprentissage de l’IA », souligne-t-il. D’où cette convergence politique des IA, que remarque son collègue Melkom Boghossian, directeur du département opinion chez Trickstr : « L’alignement surprenant entre les différents modèles peut laisser penser que, à l’heure actuelle, les données accessibles comptent plus, dans les préférences des IA, que l’idéologie supposée des entreprises qui les ont créées. »
La masse immense de textes sur lesquels sont entraînés les grands modèles de langage n’est bien sûr pas le reflet des sondages politiques Raphaël Doan, essayiste
Pour l’essayiste Raphaël Doan, cofondateur du laboratoire Vestigia qui étudie les potentialités de l’IA, il faut voir en partie dans ces biais l’effet du « reinforcement learning » – la partie de l’apprentissage au cours de laquelle l’intelligence artificielle doit acquérir des règles de comportement, notamment pour éviter de produire des contenus offensants. « Le chercheur Owen Evans s’est aperçu de cela en exerçant une IA “non sécurisée”, c’est-à-dire à qui on n’a pas appris à produire des réponses sans danger pour l’utilisateur. Cette IA en est venue à faire l’éloge du nazisme… Cet exemple suggère que lorsque l’on “sécurise” les réponses de l’IA, on est sans doute amené à corriger ces tendances en insérant volontairement des biais politiques. Qui peuvent expliquer, en définitive, les résultats de l’étude. »
D’autre part, selon lui, les biais reflètent bien des différences dans le traitement accordé aux opinions politiques dans la majorité des contenus à disposition des IA pour forger leurs réponses. « Les data qui alimentent la base d’entraînement des IA doivent être principalement des textes construits, argumentés et de qualité : des livres, des articles de presse, de la communication corporate… La masse immense de textes sur lesquels sont entraînés les grands modèles de langage n’est bien sûr pas le reflet des sondages politiques. Ces textes se rangent probablement plus facilement du côté d’opinions mainstream », analyse-t-il.
En définitive, si les IA sont autant marquées à gauche, c’est en partie pour des raisons similaires à celles pointées par Elon Musk dans sa dénonciation des biais de « Wokipédia » (selon le néologisme dépréciateur employé par le milliardaire) : comme la célèbre encyclopédie en ligne, l’intelligence artificielle est tributaire des connaissances contenues dans une base de textes et d’articles qui ne sont eux-mêmes pas neutres. Et corriger ces biais n’est pas une mince affaire. ■ PAUL SUGY
L’IA est assurément la plus «intrinsèquement perverse» de toutes les inventions du progrès moderne et, en cela, elle me semble présenter l’image parfaitement aseptisée du marxisme le plus pur.
J’ai entendu un ancien ministre de l’Éducation nationale, Luc Ferry, parler de l’IA avec des trémolos dans la voix, énoncer mensonges sur mensonges idolâtriques, déclarer froidement que, désormais, avec l’IA, le métier de traducteur littéraire devenait obsolète, que les doublages cinématographiques n’emploieraient plus d’acteurs, au chef que l’IA serait capable de restituer en français les dialogues anglais sortis de la bouche d’Orson Welles, et avec son exact timbre de voix, etc., etc. Au point qu’il devenait invraisemblable que le même Luc Ferry pût contester comme il le fit (sans doute par snobisme) l’idée d’une prochaine indépendance conceptuelle de cette IA.
Il n’est que trop aisément compréhensible que cette «intelligence» est artificialisée par des choses conçues par quelques quidams et que la nature de ces quidams automatise fatalement les procédures selon leurs automatismes cérébraux propres, ce qui invalide d’autorité la moindre espèce d’«indépendance». Sauf à ce que la vie humaine soit exclusivement mécanique, soit l’égal d’un moteur et que, par exemple, les poumons ne fussent que des pistons, cette IA ne saurait nullement en venir à équivaloir la pensée humaine, et ce, jusqu’à la plus imbécile des pensées que l’on puisse imaginer.
Or, ce dont les Luc Ferry s’agitant dans les bocaux du vil Cohn-Bendit veulent nous persuader , c’est qu’il n’y a d’«intelligence» que la leur et que, dès lors que leur intelligence émet une opinion sur l’intelligence générique, c’est cela qui serait réellement «intelligent». Le seul point sur lequel il leur arriverait peut-être d’achopper serait celui de ce qu’ils appellent frauduleusement l’«émotion» ; je dis «frauduleusement», car, en réalité, lorsqu’ils disent «émotion», ils entendent tout autre chose que ce que le terme désigne, tout comme, au fond, quand ils disent «intelligence» en jonction avec l’épithète «artificielle», ils ne s’aperçoivent pas qu’il forge une antiphrase : si l’intelligence est intellectuelle, elle ne saurait être artificielle ; et quand elle est artificielle, ce n’est qu’une sorte de singerie, plus ou moins habile, sans que ce puisse pour autant s’assimiler à de l’intelligence : très proprement, il s’agit alors de malignité (simiesque, évidemment) – «malin comme un singe», dit-on bien, et ce n’est pas pour rien…
En fait, au lieu d’antiphraser par l’IA, il conviendrait de pléonasmer en MA («Malin Artificiel»), car c’est le propre exclusif du Mal que de contrefaire jusqu’à la possible confusion, trouvant toute satisfaction dans l’orgueil de croire atteindre et dans celui de supposer pouvoir rivaliser avec ce qu’il ne saurait pas même toucher du doigt.