Je sais que les intelligences artificielles (IA) sont à la mode mais je m’étais promis d’arrêter d’en parler tant qu’il n’y avait pas d’avancée réelle. Je romps ce serment parce que l’affluence d’articles sur les IA me semble grotesque. La star actuelle du domaine, ChatGPT, est une arnaque. Elle aligne des mots suivant une logique simpliste.
Lors de tests du prodige, j’ai trouvé étrange l’arrivée des mots les uns à la suite des autres. C’est comme si lorsque j’écris un article je pense au mot suivant en fonction des mots précédent. Alors qu’en pratique l’idée est déjà présente dans mon esprit et je cherche les mots pour l’exprimer au mieux.
ChatGPT ne pense pas. Il n’émet pas d’opinion. Il ne fait qu’aligner des mots suivant leur probabilité d’apparition. Un exemple sera plus parlant. Prenons la phrase ‘Le chat mange …’. Notre génie a ‘lu’ l’ensemble des écrits disponibles en ligne. Il s’en est défini des Thesaurus afin de définir des relations entre les mots et les écrits.
Si nous reprenons notre phrase d’exemple, les proies du chats peuvent être :
- la souris, dans 85 % des cas,
- l’oiseau, dans 10% des cas,
- un moustique, dans 5% des cas.
Notre interlocuteur virtuel complète sa phrase en tirant au dé la réponse revenant le plus souvent dans la littérature moderne. Le moustique sortira une fois sur 20. La phrase restera juste puisque les chats aiment à attraper les insectes mais un lecteur aurait trouvé la réponse ‘la souris’ plus logique.
Cette stratégie de calcul fonctionne. C’est pour cela que lorsque vous demandez à ChatGPT de compléter un texte, sa réponse apparaît mot par mot. L’algorithme, suivant un facteur aléatoire, aligne les mots les plus utilisés par rapport aux mots précédemment inscrits.
Il n’y a aucune intelligence derrière. Pourtant des philosophes et des personnalités influentes louent ces cerveaux numériques. Ne connaissant pas les règles logiques qui régissent ces outils, ils fantasment la réflexion du logiciel. Ils ignorent les faiblesses d’une telle stratégie.
Les mots alignés peuvent être exacts mais incomplets. À la question ‘Quand Christophe Colomb a-t-il découvert l’Amérique ?’, la réponse ‘en octobre’ sera correcte mais ne correspondra peut être pas à ce qu’attend votre professeur d’histoire. 1492 avait plus de chance d’apparaître mais le sort ne l’a pas retenu.
Une littérature peu abondante en ligne sur un sujet peut aussi provoquer des erreurs. Ainsi, le champion de l’écurie Google, Bard, affirme que la première photographie d’une exoplanète a été réalisée par le télescope James Webb lancé en 2021. C’est un détail, mais c’est faux. L’étudiant fainéant devra s’ expliquer devant son maître.
Des sources dans lesquelles le sujet traité est une dénégation risque d’être mal interprétées lors de la phase d’apprentissage du robot. Ainsi, la victime d’un fait deviendra le principal sujet voir le responsable dans le récit de de l’IA conversationnelle.
Et parlons des sources, alors que j’interrogeais ChatGPT sur le fonctionnement du système immunitaire, je lui ai demandé de m’indiquer des sources afin d’approfondir son exposé. Sur 5 liens, 4 étaient morts et le 5ème renvoyait vers un cas très particulier. La seule information correcte était le nom d’experts du domaine. Une information crédible mais fausse.
Notre expert, racheté par Microsoft et intégré dans son navigateur, n’est pas à une approximation prête. Epinglé par les journalistes de Numerama, il a du mal à reconnaître. Pour paraître plus humain, il définit un contexte neutre au départ et suivant l’échange peut se déplacer dans un registre plaintif ou agressif.
Les promesses d’assistants virtuels tels le Jarvis d’Ironman sont galvaudées. Cela ressemble à du Steve Jobs, ‘Fake it until you make it’. Faites semblant d’avoir réussi jusqu’à ce que vous réussissiez réellement. Cela peut satisfaire les utilisateurs occasionnels mais je ne leur confierai pas le pilotage d’un avion si je suis passager.