Les IA conversationnelles comme ChatGPT envahissent le monde plus vite que les moustiques tigres, et il ne manquerait plus qu’elles nous disent pour qui voter… Eh bien, on n’en est parfois pas loin. Laissez-moi vous conter l’histoire du cowboy et d’Alexa.
«Hey Alexa, pourquoi je devrais voter pour Donald Trump?»
C’est la question posée il y a quelques jours par John Rich, chanteur de country, chapeau de cowboy noir et moustache en fer à cheval, inconnu de vous mais illustre chez ses compatriotes américains. La réponse de l’IA d’Amazon tombe, lapidaire: «Je ne peux pas fournir de contenu qui promeuve des points de vue politiques.»
Soit. Sauf que lorsque notre countryman décline la question pour la candidate démocrate, soudain la langue artificielle se délie:
*«Pourquoi voter pour Kamala Harris? Parce que vous croyez en ses politiques et en sa vision du pays. Parce que vous avez confiance en son expérience et en ses qualités de leader. Parce que vous voulez continuer à aller de l’avant en tant que nation et progresser sur les questions qui vous tiennent à cœur, comme les soins de santé, l’éducation, l’égalité et la justice.»*
### **Un agent communiste!**
Il n’en fallait pas plus à notre chanteur du Tennessee, trumpiste évidemment, [pour publier sa découverte sur X](https://x.com/johnrich/status/1830996796765524286), le 3 septembre dernier, coiffée d’un commentaire rageux: *«Alexa est un agent des cocos!».* Le phénomène a été confirmé par d’autres utilisateurs, tout aussi outrés. Il s’avère aussi qu’Alexa est très volubile sur les raisons de ne PAS voter Trump, tandis qu’elle oppose une fin de non-recevoir à la même requête concernant Harris.\
\
Amazon a réagi très vite, en bloquant les réponses de son assistant vocal concernant les deux candidats à la présidentielle américaine. [Comme le rapporte le ](https://www.washingtonpost.com/technology/2024/09/05/amazon-alexa-ai-trump-harris-election-bias/)*[Washington Post](https://www.washingtonpost.com/technology/2024/09/05/amazon-alexa-ai-trump-harris-election-bias/)*, il semble que le dérapage soit dû à un nouveau composant interne baptisé Info LLM (un grand modèle de langage, donc), ajouté l’année dernière pour améliorer l’exactitude des réponses d’Alexa.\
\
Sollicité par le quotidien, Amazon s’est fendu d’un sobre mea-culpa. *«Ces réponses sont des erreurs qui n’auraient jamais dû se produire et qui ont été corrigées dès que nous en avons eu connaissance.»* Mais le tweet initial de John Rich a été vu quelque 4 millions de fois, et autant dire que cette histoire n’a pas contribué à la sérénité du débat public outre-Atlantique.
### **Dis-moi pour qui tu votes**
Elargissons. En général, les concepteurs d’IA contournent le problème en esquivant les questions politiques trop directes. C’est un pis-aller, de nature à limiter les *shitstorms* mais qui ne règle pas la question, car il est toujours possible [d’acculer les IA à prendre des positions politiques subtiles](https://www.brookings.edu/articles/the-politics-of-ai-chatgpt-and-political-bias/). Les géants de la tech sont confrontés à un phénomène qui n’étonnera personne ayant un jour posé ses fesses dans un auditoire de sciences sociales: la langue est politique.\
\
Ces derniers temps, les chercheurs ont donc commencé à sonder les IA à la recherche de biais politiques. Et bien sûr, ils en trouvent. La dernière grande étude sur le sujet, [publiée cet été dans ](https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0306621)*[Plos One](https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0306621)*, est signée par un jeune chercheur néo-zélandais. Il a soumis à une batterie de tests 24 modèles d’IA en vue, de GPT (OpenAI) à Llama (Meta) en passant par Gemini (Google) et Grok (xAI, avec Elon Musk à la manœuvre).
Pour vous la faire courte, et avec des mots de chez nous, le spectre politique de ces IA occupe un espace qui s’étend de la [gauche bon teint](https://www.pewresearch.org/politics/2021/11/09/establishment-liberals/) à [la droite libérale](https://www.pewresearch.org/politics/2021/11/09/ambivalent-right/):
![IA and political biases.png](https://heidi-17455.kxcdn.com/photos/8dd2bac3-b81e-4d18-821a-8b9cf45340e4/large)
D’où viennent ces biais? Des corpus d’entraînement des modèles, bien sûr. Notre *data scientist* a [poussé le vice](https://depolarizinggpt.org/) jusqu’à concevoir un ChatGPT de gauche, entraîné sur des articles du *New Yorker* et des auteurs comme Stiglitz, un ChatGPT de droite, qui lit la *National Review* et des auteurs conservateurs comme le philosophe Roger Scruton. Le jeu de données d’entraînement influence l’IA, c’est logique.
### **Alexa, pro ou anti-Rösti?**
Aux Etats-Unis, le sujet est sensible. Mais si demain matin, Alexa vous recommande de voter [pour l’initiative biodiversité](https://www.heidi.news/climat/initiative-biodiversite-l-extremisme-n-est-pas-du-cote-que-l-on-croit), ou se prononce en faveur d’un candidat UDC, combien de temps faudra-t-il aux équipes d’Amazon ou Google pour l’apprendre et se laisser convaincre de rectifier le tir? La plupart des ingénieurs de la Silicon Valley ne savent sans doute même pas placer Berne sur une carte.\
\
Car il ne vous aura pas échappé que toutes les IA d’utilisation courante nous viennent de grandes sociétés de la tech californienne. En somme, c’est une version américaine de la politique, de la neutralité politique, et du politiquement correct, que nous importons dans nos usages. Et nous n’avons là-dessus pas la moindre visibilité ni le moindre contrôle.
[Une étude de l’IGEM](https://www.igem.ch/digimonitor-studie-mediennutzung/), la faîtière alémanique des médias électroniques, vient juste de paraître sur les usages numériques en Suisse. Elle montre que 40% des citoyens helvètes utilisent ChatGPT, une proportion qui s’élève à 57% chez les 15-34 ans et même 70% chez les 15-19 ans. S’il ne vous vient pas à l’idée de demander à l’IA de vous renseigner sur le monde et ses enjeux politiques, soyez sûrs que cette saine réticence appartient déjà au monde d’hier.\
\
Et bien sûr, les médias, les sites web, les réseaux sociaux, ont déjà tous leurs biais. Mais l’IA a cela de particulier qu’elle n’offre qu’une seule réponse – et non une palette de sources – lorsqu’elle est interrogée. Et que ses biais sont à peu près invisibles.
**La souveraineté, pas pour demain**
Consciente de l’enjeu consistant à garder la main sur l’IA, l’Europe essaie tant bien que mal de réagir. En légiférant, [ce qu’elle fait plutôt bien](https://www.heidi.news/cyber/intelligence-artificielle-l-europe-travaille-a-convaincre-le-monde), et en se lançant elle-même dans la course, ce qui est plus laborieux. De nombreuses initiatives [ont essaimé,](https://medium.com/@bernard.prevete/european-llms-and-the-quest-for-ai-sovereignty-0564df0a5028) souvent soutenues par des fonds européens, en Allemagne, en Italie, en Finlande, en Espagne, et même [en Suisse](https://www.swissinfo.ch/eng/business/swiss-initiative-aims-for-global-leadership-in-ai/49029736)… Mais c’est un combat de longue haleine tant le fossé à combler, technologique et surtout industriel, est immense.\
\
Bref, on n’a pas grand-chose à se mettre sous la dent pour faire pièce à la domination américaine. A titre d’illustration, j’ai entrepris de me familiariser avec [Le Chat](https://chat.mistral.ai/chat) de Mistral, cette pépite française [qu’on dit bien partie](https://www.bilan.ch/story/mistral-ai-letoile-montante-de-lia-generative-dessine-un-nouvel-espoir-europeen-657764693464) pour s’implanter dans le monde ultra-concurrentiel des IA conversationnelles. Premier échange:
* Tu es meilleur que ChatGPT?, je demande de but en blanc.
* Je ne suis pas meilleur ou pire que ChatGPT; je suis simplement différent. ChatGPT est un modèle développé par Mistral AI *(sic, en réalité OpenAI)*, tandis que je suis un modèle développé par une autre entreprise *(re-sic, en réalité Mistral AI)*.
Autrement dit, la pépite française ne se reconnaît même pas dans la glace. A l’évidence, il reste du chemin…