J’ai lu quelques articles sur le comportement de « Chat GPT » et j’ai pensé que cela pouvait vous intéresser.
J’ai discuté un jour avec chatGPT, mais mes questions étaient assez simples et du genre sujet de philo du bac. Mais j’ai été étonné de ses réponses. Certes elles étaient partielles et il fallait chaque fois lui reposer une question sur ce qu’il avait dit, mais lorsqu’à la fin on rassemblait tout ce qu’il avait dit, je pense qu’il aurait eu plus que la moyenne au bac ! Mais évidemment on l’avait aidé en réfléchissant pour prolonger ses réponses.
Mais d’une part il discutait vraiment et l’on avait l’impression d’un être humain en fac de soi. D’autre part il était entraîné à prévoir la suite d’un dialogue et il n’était ps surpris par mes questions qui lui faisaient préciser sa pensée ou décelopper certaines idées. J’avoue avoir été un peu épaté.
Mais il a ses limites et les scientifiques qui l’ont interrogé disent que les premières réponses sont saisissantes. ChatGPT est capable de définir correctement de très nombreuses notions, mais lorsque des experts l’ont interrogé sur leur spécialité, dès que l’on devient plus précis, la machine affirme des sottises et va même jusqu’à inventer des sources. Elle se contredit, admet qu’elle ne sait rien d’une question à laquelle elle vient pourtant de donner une réponse.
En fait chatGPT sait s'exprimer de façon bluffante, mais il ne fait que dire des suites de mots, statistiquement les plus probables pour la réponse à la question posée, mais il n'a aucune idée de leur sens. Son algorithme a été entraîné sur 8 millions de pages Web. Il compare chaque mot d'une phrase avec d'autres mots, et il se sert des phrases de son interlocuteur pour anticiper et générer les prochaines réponses. Mais il n'est pas con!u pour vérifier l'exactitude de ses propos, ni éviter le plagiat ou de faire des réponses racistes ou insultantes, car il n'a pas conscience de leur significationmorale ou émotionnelle.
Des chercheurs ont fait passer à ChatGPT des tests, qui nécessitent de comprendre un point de vue différent du sien : c’est ce que les psychologues appellent la « théorie de l’esprit ». Ces tests consistent en prévoir le comportement d’une personne qui croit savoir quelque chose sur une situation alors que cette connaissance est fausse.
ChatGPT a passé avec succès ces tests et il semble avoir la capacité d’un enfant de 9 ans dans ce domaine. Pourtant il n’a jamais été entraîné à passer ces tests, de sorte que sa capacité à les résoudre semble avoir émergé spontanément.
Cela dit, on ne sait pas quelle est la méthode de raisonnement utilisée par chatGPT et on ne sait qu'il ne se comporte pas comme un humain, seul un résultat à des tests est satisfaisant. Il est probable que devant des problèmes plus complexe, les résultats ne serait pas aussi bons.
Des chercheurs ont testé l’utilisation de ChatGPT comme modérateur sur les réseaux sociaux où parfois des personnes ayant des avis opposés s’affrontent durement.
On a demandé au robot de modérer les discussions de 1500 personnes sur un sujet épineux : la possession et la liberté du port des armes aux USA.
L’essai a été un succès : chatGPT a réussi à calmer des débats houleux en reformulant les questions, montrant ainsi qu’il avait écouté et compris, acceptant les émotions de l’autre et qu’il reconnaissait ce que l’autre ressent et restant toujours très poli, afin de calmer le jeu.
Peut être aura t'on un jour un robot modérateur sur Eklablog. Mais je n'ai pas remarqué que nos blogueurs se disputaient malpoliment.