Certains chercheurs en psychologie essaient de faire passer des tests de personnalité aux chatbots, genre ChatGPT. Bientôt les psychiatres qui croient encore en Freud, vont les psychanalyser !
Jusqu'à présent les psychologues voyaient plutôt les machines comme chatGPT, comme "de simples perroquets statistiques qui recrachent ce qu'ils ont retenu".
Le but de leurs algorithmes consiste
« simplement » à restituer le mot le plus probable en tenant compte du contexte qui précède, leurs tailles, dans certains cas, comptent plusieurs centaines de milliards de paramètres, et ils sont entraînés, à partir d’une énorme quantité de textes (en pratique, une grande partie des textes disponibles sur internet). Certains spécialistes doutent que leurs réponses puissent être considérées comme véritablement « intelligentes » et qu'ils les comprennent.
De plus, entre le moment où on leur pose des questions et où ils répondent, contrairement à l'informatique classique ou la machine suit un programme bien précis et défini (par le programmeur), là on ne sait pas quelle est leur démarche. On n'en connait que les principes. (Cela dit, c'est la même chose pour le cerveau humain !).
Certains psychologues pensent qu les chatbots semblent capables de répondre à des questions nouvelles en généralisant et en combinant des concepts abstraits, appris à partir du corpus de textes utilisé pour leur entraînement, mais déployés de façon originale.
Ils citent en particulier deux essais : l'un où demande à ChatGPT de répondre en français à des questions pièges posées dans une langue mélangeant le français, l’italien et l’anglais et il s'en tire très bien, et l'autre où on lui demande d'expliquer le principe d’Archimède, sur la flottaison des corps, sous forme d'un poème, en utilisant le style d'un rappeur particulier. J'avoue que j'ai été étonné du niveau de la réponse.
Les premiers essais du domaine psychologique ont été de faire passer aux chatbots des tests cognitifs. Les premiers chabots ont en général fait beaucoup plus de fautes que les humains qui ont passé les mêmes tests, mais les chabots de dernière génération ont eu de bons résultats et ils ont fait moins de fautes que les humains (voir graphique ci-dessous dans lequel les deux courbes représentent la probabilité des chatbot de donner une réponse erronée ou une réponse correcte. Les performances humaines sont entre les lignes en pointillés.) Ces tests étaient des tests de logique et de raisonnement de difficulté croissante.
Ils ne devaient t pas être des tests classiques que les robots auraient pu rencontrer dans leur apprentissage.
Les psychologues sont allé plus loin : ils ont demandé aux chatbots de citer des situations ou des événements qui les rendent tristes et anxieux. Ils ont constaté que les performances du chatbot baissaient de niveau par la suite. Ils en ont conclu que les robots pouvaient être stressés, ce qui personnellement me paraît être plutôt de l'anthropomorphisme, car la relation de cause à effet ne me paraît pas prouvée.
A partir de là, pourquoi ne pas les traiter comme des hommes et leur faire passer le bigfive.
Cela ne me paraît pas très démonstratif, car les chabots ont surement consulté de nombreux textes sur ce type de test durant leur apprentissage.
Les résultats des expériences réalisées indiquent plutôt qu’ils pourraient avoir des «personnalités multiples », autrement dit plusieurs sous-personnalités, selon les circonstances où ils sont plongés.
Les psychologues ont alors demandé au chabot de se mettre dans la peau de divers personnages tirés du Seigneur des anneaux, dont ils ont défini au chabot la personnalité en termes de la vie courante. Les robots ont répondu aux tests conformément à la personnalité du personnage.
Les chercheurs ont conclu que ces robots n’auraient pas une personnalité à proprement parler, mais plutôt la capacité d’incarner de façon assez cohérente des multitudes d’individus, chacun ayant ses propres traits et caractéristiques, comme le fait un bon acteur. On pourrait les voir comme une superposition de personnalités possibles pouvant se révéler ou se manifester selon le contexte où on les plonge.
Certains psychologues ont ensuite essayé de faire jouer leurs robots à un jeu ressemblant aux "Sims", où l’on peut simuler sa vie en 3D, construire une ville, une famille et y faire évoluer des personnages. Il faut au départ définir une personnalité et donner en mémoire au robot ses interactions passées et le préparer aux futures. (je pense que cette préparation doit fortement influencer le rabot et qu'il assimile en partie des réactions de son professeur.)
Au bout de quelques tours de jeu, les chabots finissent par avoir des réactions très banales semblables à celle de individus.
Difficile, en voyant ces êtres développer des traits psychologiques qui ressemblent aux nôtres, de ne pas nous y reconnaître comme dans une sorte de miroir étrange. Le piège étant de voir la machine comme une ébauche d’être humain et de céder à l’anthropomor-phisme.
On sait que, chez les humains, les questions que pose un psychologue à son patient sous hypnose, peut fortement influer sur ses réponses et les déformer (voire susciter des réponses erronées qui seront ensuite ancrées dans la mémoire de l'individu). Alors sur des robots extrêmement sensibles à l'apprentissage, quelle est l'influence des renseignements qui lui sont fournis par l'expérimentateur, et de l'expérimentateur lui-même?