• Le pillage de nos données.

                 Les sites de recherche sur internet, comme Google, ont des moteurs de recherhce qui « scannent » le Web pour référencer les articles et les données et les mettre à disposition du public.
                Les propriétaires ou éditeurs de sites ne s’en offusquent pas, cela contribue souvent à les faire fonctionner.
                Mais cette année 2023 est un tournant dans cette pratique, depuis l’apparition de ChtGPT..

              Les algorithmes d’apprentissage automatiques des chatbots ne peuvent fournir un. résultat (reconnaître un visage, un son, une image, générer du texte, répondre à des questions, vérifier un code informatique ou prendre des décisions…), qu'après avoir réalisé des statistiques sur des milliards de données. Après cet entrainement et cet apprentissage, d’autres données analogues sont nécessaires pour valider le comportement du modèle, corriger les erreurs et tester ses performances.
              Pour entraîner les chatbots les logiciels d’apprentissage ont investigué 150 milliards de mots, issus de conversations publiques, de textes, de données provenant de forums, de médias, de blogs, d’articles, de pages Wikipédia, voire de codes informatiques.
              De même les logiciels d’IA qui génèrent des images, se sont entraînés avec des milliards d’images prises sur des sites du Web.
             Ce pillage se poursuivra, car l’entrainement exiges des données nouvelles et en peut pas se resservir des anciennes données déjà récoltées.
            Les éditeurs et journaux payant ont mis un avertissement indiquant que leur site était interdit aux chatbots, mais cette interdiction peut être contournée sans difficulté. C’est plus une sonnette d’alarme pour que soit négocié un cadre légal de ce pillage, (avec contrepartie financière).

             On risque par ailleurs une pénurie de données pour entraîner ces modèles de langage ou d’images.

            Je vais peut être écrire à ChatGPT pour qu’il vienne visiter mon blog, mais cela lui prendra même pas une seconde pour lire tout ce qu’il y a dessus. Et puis en fait, il n’y comprendra rien du tout, car il sait éditer du texte sans comprendre le sens des mots.

    Partager via Gmail

    votre commentaire
  • ChatGPT est il plus inventif que l'homme ?

          Je disais hier que certains chercheurs attribuaient à ChatGPT (et ses analogues) un grande inventivité et créativité, parfois considérée comme supérieure à celle de l’homme.  

          Je trouve d’abord que certains essais qui m’ont été rapportés (notamment dans un article de Cerveau et Psycho de janvier 2024), me paraissent discutables.
          Mika Koivisto, de l’université de Turku, en Finlande, et Simone Grassini, de l’université de Bergen, en Norvège, ont laissé à 256 volontaires, trente secondes pour trouver des utilisations originales et inhabituelles de quatre objets du quotidien : une boîte, une corde, un crayon et une bougie. Ils ont posé la même question à 3 chatbots, dont ChatGPT4.
           Le jury était composé de six experts humains, formés pour classer les réponses en fonction de leur originalité, et d‘un logiciel qui analysait le degré de parenté entre les mots ou les concepts.
          Les idées les plus originales des humains se sont montrées toujours supérieures (c’est-à-dire mieux notйes par le programme et les experts) que les meilleures réponses des chatbots. Mais, en moyenne, les notes de créativité des IA étaient nettement plus élevées que celles des hommes. Et enfin les réponses humaines les moins bien notées étient moins créatives que la pire des productions des chatbots.
          Mais l’article donne un exemple où la réponse d’un participant pour le mot « boîte » : « maison de jeu pour chat » a été considérée moins originale qu’une réponse similaire faite par chatGPT-4 :
    « parc d’attractions pour chats. J’avoue que pour moi, la différence est bien faible et il s’agit de la même idée : seuls les mots changent. Par ailleurs le temps de 30 secondes donné à des personnes non habituées à cet exercice est beaucoup trop faible : le cerveau humain ne va pas à la vitesse d’un ordinateur.

           Mais, à mon avis, si on réfléchit un peu, cet exercice ne signifie rien du tout quant à la créativité réelle des chatbots.
            Que font les programmes des chatbots ?
           On leur a ingurgité en « lisant » sur internet, des milliards de mots et de phrases. Ensuite le programme leur a appris, lorsqu’on leur pose une question avec de mots, à rechercher tous les mots qui pourraient aller à la suite d’un ou plusieurs mots et à calculer la probabilité que ce soit la bonne suite, en comparant avec sa base de données immense, et ils choisissent le mot le plus probable.
          Et ils continuent de mot en mot et construisent ainsi une phrase probable et éventuellement ensuite de phrase en phrase Et ils vont chercher toutes les données factuelles sur internet.

            Alors pour un chabot, créer une histoire à partir de mot, c’est simple. Il n’y a rien à comprendre. Il n’imagine rien, il va chercher sur internet tous les morceaux d’histoire qui existent et il va les assembler en fonction de ses calculs de probabilité.
            Or qu’est ce que la créativité : c’est puiser des éléments dans sa mémoire, qui sont des éléments courants et connus, et les assembler d’une façon à laquelle personne n’avait pensé avant et parfois introduire un élément nouveau, une nouvelle façon de voir le problème.
           Le chatbot n’invente rien mais il a une base de données de milliards d’éléments, sans commune mesure avec notre mémoire, et sa vitesse de recherche est des milliers de fois plus grande que la nôtre. Il est donc normal qu’il fasse mieux en moyenne que des personnes qui ont très peu de temps pour rassembler des idées, pour arranger des mots de façon originale. Il a en fait piqué les idées de l’ensemble de l’humanité sur internet.

           Par contre si on leur pose des problèmes de logique, de mathématique ou de physique, où il faut raisonner et donc vraiment créer pour avancer, (sauf bien sûr si on connait déjà la solution), là, les chabots sont nuls et répondent de façon erronée.

           Je ne pense pas que les chatbots feront perdre beaucoup d’emplois.
           Ils sont incompétents en matière de sciences et ils seront à peine meilleurs que Google, et sans commune mesure avec Wikipédia (sauf copier ses articles).
          Les métiers manuels ne sont pas de leur compétence et leur compétence technique est très limitée.
          Ils pourront rédiger une lettre ou un mail, à la place d’une secrétaire, mais on aura intérêt à la relire, car tout dépend de ce que l’on voulait dire dans cette lettre. Mais ils ne répondront pas le plus souvent intelligemment au téléphone. Ils pourront classer des données sur ordinateur, (mais pas classer des papiers), et vous risquerez parfois de ne plus savoir où ils les ont rangées.
         Certes ils pourront avoir quelques idées en matière de communication ou dans le domaine artistique, mais ce sera une compilation des œuvres déjà créées et trouvées sur internet. Il pourra en résulter des mélanges originaux, mais ce ne sera pas une vraie création, mais un mélange de copies. Ils auront copié l'homme .

             Avoir peur de l’IA n’est pas une réaction nouvelle : on a déjà eu peur des ordinateurs, il y a 50 ans et de l’automatisation de l’industrie il y a cent ans.
            Les progrés techniques passés ont entraîné de grands bouleversements sociétaux et économiques. Certes, des emplois ont disparu, mais la plupart des pires prédictions ne se sont jamais réalisées, pas plus que celles relatives au passage à l’an 2000.
             Mais comprendre les avantages d’une nouvelle technologie, apprendre à s’en servir, être formé à en tirer le meilleur parti, est nécessaire et demande d’aller au-delà des prédictions sensationnelles des journalistes et de ses propres craintes..

           Une bêtise de ChatGPT sur un problème très simple de logique :

    Question. Si Alain arrive а la réunion avant Bernard et que Bernard arrive après Claire, peut-on en déduire qu’Alain arrive avant Claire ?

    Réponse. Oui, on peut en déduire qu’Alain arrive avant Claire. En effet, si Alain arrive а la réunion avant Bernard, et que Bernard arrive après Claire, alors Alain doit être arrivé avant Claire.

             C’est totalement faux, on ne peut savoir si Alain arrive avant ou après Claire. ChatGPT a mis des mots les uns après les autres, qui signifient quelque chose, mais il n’a pas raisonné et logiquement c’est faux.

    Partager via Gmail

    votre commentaire
  • L'Intelligence artificielle inquiète !

              Les progrès de l’intelligence artificielle inquiètent car certains craignent de se faire remplacer dans son métier par un « chatGPT » (un chabot), qui aurait fait des progrès.
             Ils ont aussi suscité des réflexions sur l’intelligence humaine et c ‘est passionnant.
             La plupart des articles dans ce domaine insistent sur le fait que l’homme est le seul animal à avoir un langage évolué et que toutes nos pensées se traduisent par des mots, au point que nous nous « parlons intérieurement », et que c’est notre principal mode de communication (encore qu’il m’arrive, tout en expliquant avec des mots, de faire des schémas et des dessins, comme support de mes paroles).
           Mais en fait comment avons nous appris ces mots et comment comprenons nous leur sens. Est ce que l’intelligence n’est pas plutôt cette faculté de comprendre  ce que représentent le mots plutôt que les mots eux-mêmes.?   

            Si je prends une couleur, en fait elle n’existe pas : c’est une sensation sur notre rétine interprétée par notre cerveau, et conventionnellement, c’est du bleu, du jaune, du rouge..  
           Et si on me parle d’un objet rouge, j’associe le mot à la sensation perçue par mon œil. 
           Mais n’est ce pas la même chose pour tous les mots concrets ? En fait, pour les comprendre, je les associe à une perception, le plus souvent une image de la vue, mais ce peut être un son, une odeur, un goût ou la sensation quand on touche l’objet.
         Pour ceux représentant de actions, par exemple marcher, au saisir quelque chose, c’est la sensation de commander mes muscles qui me permet de comprendre; je reconstitue le geste. En complément je peux me référer à un film, c’est à dire une succession d’images : je vois quelqu’un marcher. Là encore ce sont nos cinq sens qui interviennent ou bien la prioception (la perception, consciente ou non, de la position des différentes parties du corps. ), et la restitution des commandes de nos centres moteurs.

              Prenons maintenant des mots qui ont une signification abstraite : le temps par exemple. Outre qu’on nous a appris à lire l’heure sur une horloge et la date sur un calendrier, nous avons une horloge interne (l’horloge circadienne). En général après avoir fait une tâche qui a mobilisé mon attention, je sais cependant (en général à ¼ d’heure près, quelle heure il est). Là encore j’ai des sensations.
             Allons plus loin dans l’abstraction : vitesse et accélération. Je vois une voiture qui passe ou je regarde assis dans le train le paysage qui défile. C’est la vitesse. Après j’apprendrais que c’est L = v x t. Mais là encore l’enfant qui apprend va calculer que si pour aller à 500 km, il met 5 heures sa vitesse est de 100 km/h en moyenne.
            Accélération, je démarre en voiture ou je monte en ascenseur. Je sens dans mon corps mes viscères qui, sous l’effet de l’inertie, appuient sur mes muscles, je sens mes fesses et mon dos qui appuient sur le siège de ma voiture. Plus tard on m’apprendra que l’accélération est la dérivée de la vitesse (on ne peut plus abstrait). Mais la notion de dérivée je l’ai apprise en amenant deux points d’une courbe à coïncider et ensuite j’appris à faire le calculs : ma main et mes yeux s’en souvien-nent. Et l’on va montrer que l’accélération , c’est une très petite variation de vitesse dans un très petit intervalle de temps : c’est à la fois sa définition et cela la rattache à celle de la dérivée.
            Finalement toutes ces notions très abstraites se rattachent à des phénomènes concrets que nous percevons avec nos sens et c’est ainsi que se fait notre apprentissage de mots et donc la compréhension de ce qu’ils signifient.

            Certes notre intelligence humaine est basée en grande partie sur le langage, mais celui-ci n’est compréhensible par notre cerveau, seulement parce que nous avons un corps et des sensations. 

           Alors revenons à chatGPT, qui certes nous épate actuellement, mais nous inquiète aussi. Il répond de façon qui paraît très intelligente à des questions courante de maniement de la langue et des idées. (par contre quand on lui pose certaines questions de maths ou physique qui demandent un raisonnement complexe, ou même des questions de logique, il dit d’énormes âneries !
           Comment a t’il appris à manier ainsi les langues et à répondre à des questions. C’est uniquement un exercice de langage.
           On lui a ingurgité en « lisant » sur internet, des milliards de mots et de phrases. Ensuite le programme lui a appris, lorsqu’on lui pose une question avec de mots, à rechercher tous les mots qui pourraient aller à la suite d’un ou plusieurs mots et à calculer la probabilité que ce soit la bonne suite, en comparant avec sa base de données immense, et il choisit le mot le plus probable.
          Et il continue de mot en mot et construit ainsi une phrase probable. L’idéal serait une probabilité finale de 100%, mais ce n’est pas possible. Mais le programme d’apprentissage qui lui permet d’acquérir ses capacités, essaie d’améliorer la probabilité obtenue en modifiant la valeur de quelques paramètres dans le logiciel de chatGPT. Il améliore ainsi peu à peu ses performances.

            Mais finalement chatGPT ne doit ses performance qu’à un logiciel qui détermine les mots convenables, par un calcul de probabilité, par comparaison à des milliards d’exemples de la base de données. Ces mots, ce sont les humains qui les ont écrits à l’origine.
           En fait chatGPT n’a ni corps, ni sensations : on n’a jamais pu lui apprendre la signification des mots qu’il emploie.
           Il répond d’excellent façon (tant que ce n’est pas une déduction logique complexe) mais il ne dit que des mots qu’il ne comprend pas, pas plus que les idées.
           
    Effectivement c’est extraordinaire qu’un calcul de probabilité puisse ainsi déterminer la suite de mots qui répond le mieux à la question, par comparaison aux exemples contenus dans une énorme base de données. (Il faut effectivement des ordinateurs énormes et ultraperformants. C’était encore impossible il y a dix ans).
          
         Mais, me direz vous, on attribue à ChatGPT (et ses analogues) un grande inventivité et créativité, parfois considérée comme supérieur à celle de l’homme. J’essaierai de vous en parler dans un article demain.
          
               

     

    Partager via Gmail

    votre commentaire
  •  

    Des nouvelles de ChatGPT.

                 J’ai lu quelques articles sur le comportement de « Chat GPT » et j’ai pensé que cela pouvait vous intéresser.

               J’ai discuté un jour avec chatGPT, mais mes questions étaient assez simples et du genre sujet de philo du bac. Mais j’ai été étonné de ses réponses. Certes elles étaient partielles et il fallait chaque fois lui reposer une question sur ce qu’il avait dit, mais lorsqu’à la fin on rassemblait tout ce qu’il avait dit, je pense qu’il aurait eu plus que la moyenne au bac ! Mais évidemment on l’avait aidé en réfléchissant pour prolonger ses réponses.
              Mais d’une part il discutait vraiment et l’on avait l’impression d’un être humain en fac de soi.  D’autre part il était entraîné à prévoir la suite d’un dialogue et il n’était ps surpris par mes questions qui lui faisaient préciser sa pensée ou décelopper certaines idées. J’avoue avoir été un peu épaté.

                Mais il a ses limites et les scientifiques qui l’ont interrogé disent que les premières réponses sont saisissantes. ChatGPT est capable de définir correctement de très nombreuses notions, mais lorsque des experts l’ont interrogé sur leur spécialité, dès que l’on devient plus précis, la machine affirme des sottises et va même jusqu’à inventer des sources. Elle se contredit, admet qu’elle ne sait rien d’une question à laquelle elle vient pourtant de donner une réponse.

                En fait chatGPT sait s'exprimer de façon bluffante, mais il ne fait que dire des suites de mots, statistiquement les plus probables pour la réponse à la question posée, mais il n'a aucune idée de leur sens. Son algorithme a été entraîné sur 8 millions de pages Web. Il compare chaque mot d'une phrase avec d'autres mots, et il se sert des phrases de son interlocuteur pour anticiper  et générer les prochaines réponses. Mais il n'est pas con!u pour vérifier l'exactitude de ses propos, ni éviter le plagiat ou de faire des réponses racistes ou insultantes, car il n'a pas conscience de leur significationmorale ou émotionnelle.

                Des chercheurs ont fait passer à ChatGPT des tests, qui nécessitent de comprendre un point de vue différent du sien : c’est ce que les psychologues appellent la « théorie de l’esprit ». Ces tests consistent en prévoir le comportement d’une personne qui croit savoir quelque chose sur une situation alors que cette connaissance est fausse.
              ChatGPT a passé avec succès ces tests et il semble avoir la capacité d’un enfant de 9 ans dans ce domaine. Pourtant il n’a jamais été entraîné à passer ces tests, de sorte que sa capacité à les résoudre semble avoir émergé spontanément.
                 Cela dit, on ne sait pas quelle est la méthode de raisonnement utilisée par chatGPT et on ne sait qu'il ne se comporte pas comme un humain, seul un résultat à des tests est satisfaisant. Il est probable que devant des problèmes plus complexe, les résultats ne serait pas aussi bons.

                Des chercheurs ont testé l’utilisation de ChatGPT comme modérateur sur les réseaux sociaux où parfois des personnes ayant des avis opposés s’affrontent durement.
               On a demandé au robot de modérer les discussions de 1500 personnes sur un sujet épineux : la possession et la liberté du port des armes aux USA.
               L’essai a été un succès : chatGPT a réussi à calmer des débats houleux en reformulant les questions, montrant ainsi qu’il avait écouté et compris,  acceptant les émotions de l’autre et qu’il reconnaissait ce que l’autre ressent et restant toujours très poli, afin de calmer le jeu.
              Peut être aura t'on un jour un robot modérateur sur Eklablog. Mais je n'ai pas remarqué que nos blogueurs se disputaient malpoliment.

    Partager via Gmail

    votre commentaire
  • Les réseaux sociaux nous désinforment.

             L’être humain a hérité de l’évolution des biais cognitifs vis à vis de l’information : il croit davantage aux informations diffusées par des proches des amis en qui il a confiance, ou surtout des gens qui pensent comme lui. Ensuite, il accorde plus d’attention à celles relatives aux risques (celui de perdre son emploi, par exemple). Enfin, il s’intéresse plutôt aux sujets familiers.
              Ces attitudes étaient utiles autrefois dans un monde restreint, car elles permettaient de connaître certains dangers pour notre survie. Aujourd’hui où l’information est trop abondante et émise par n’importe qui, ces biais sont néfastes.
             Il est devenu si facile de produire et de consulter des posts, des tweets, des vidéos, des blogs, etc., que l’information prolifère, et submergés, nous laissons nos biais cognitifs faire le tri а notre place.
            Les logiciels des plateformes en ligne accentuent ces biais, en mettant en contact avec des personnes qui partageaient les mкmes idées, ce qui a attise nos craintes ou nous confortent dans un raisonnement erroné.
             Des individus ou des groupes malveillants utilisent des robots logiciels se faisant passer pour des internautes humains, pour profiter de nos vulnérabilités cognitives à des fins politiques ou pécuniaires.

            Certains chercheurs essaient de définir nos attitudes et les biais qui risquent de nous induire en erreur.

              Trop d’information nuit à l’information : « une abondance d’information crée un déficit de l’attention ».
             Filippo Menczer, professeur d’informatique et directeur de l’Observatoire des médias sociaux de l’université de l’Indiana, aux Etats-Unis, a développé des outils de simulation pour mesurer la diffusion des informations. I a exposé certains de ses tarvaux dans un article sur la revue « Pour la Science »

             Les utilisateurs de réseaux sociaux constituent les nœuds d’un réseau de relations. А chaque étape de la simulation, on peut soit créer une publication, soit en partager une qu’il a repérée dans les informations reçues. Pour rendre compte de la capacité d’attention limitée des utilisateurs, les utilisateurs ne voient qu’un certain nombre d’éléments en tête de leur fil d’informations.
           Les chercheurs ont montré que, lorsque l’attention des lecteurs baisse,  la probabilité pour qu’un post soit partagé varie comme l’inverse de la puissance de ce nombre : la probabilité qu’un post soit partagé trois fois est environ neuf fois inférieure à celle qu’il soit partagé une fois. Cela signifie qu’un petit nombre de publications est largement diffusé, tandis que la plupart sont а peine vues, quelle que soit la valeurs de ces informations.

    Les réseaux sociaux nous désinforment.

             Parmi les biais, celui de « confirmation » : nous transformons l’information.
              Vous avez sûrement joué au jeu qui consiste à mettre en ligne une dizaine de personne, à raconter une histoire à la première et à faire répéter cette histoire de l’une à l’autre. En général elle arrive très déformée à la dernière : les participant ont oublié des éléments ou les ont simplifiés, mais ils ont aussi rajouté des éléments pour rendre l’histoire plus familière ou plus conforme à leurs pensées.

             Ainsi, des individus d’avis opposés, soumis à des informations identiques et impartiales, y puisent les preuves de ce qu’ils croient déjà, d’autant plus lorsqu’il s’agit de sujets а forte charge émotionnelle ou qui vous impliquent directement.
             Les moteurs de recherche et les plateformes des réseaux sociaux fonctionnent selon des algorithmes qui exploitent le biais de confirmation. Ils puisent dans les gigantesques bases de données sur les préférences des utilisateurs, (ou dans l’espionnage de vos actions sur le Web, comme Google, sous prétexte d’optimiser vos recherches !), de quoi établir des recommandations personnalisées et mettre en avant dans les fils d’actualité les informations les plus susceptibles de leur plaire, quelle que soit leur qualité.

             En éloignant les utilisateurs de toute information susceptible de les faire changer d’avis, les réseaux sociaux accentuent la diffusion de fausses informations.
             Un autre biais important est la « conformité sociale ». C’est notre esprit moutonnier. Les groupes sociaux créent une pression en faveur de la conformité si forte qu’elle peut se substituer aux préférences individuelles.

             Les plateformes, réseaux sociaux, moteurs de recherche et sites d’information, diffusent en priorité des informations qui ne proviennent que d’un très faible nombre de sources, mais qui sont particulièrement populaires, alors que les utilisateurs dont l’attention baisse, ne consultent que les informations classées en tête de liste et donc sont entraînés à suivre la mode et donc à diffuser eux mêmes des informations sous l’influence des opinions majoritaires. Les psychologues appellent ce phénomène des « chambres d’échos ».
           La chambre d’écho favorise la diffusion de l’information au sein d’une communauté tout en l’isolant des autres. 

            Les informations de nature négative ont un impact qui augmente, car elles sont consultées préférentiellement aux informations positives et donc davantage diffusées, souvent avec une négativité croissante. Le phénomène est appelé « amplification sociale du risque ». il est aisé de manipuler les émotions en lançant sur les réseaux sociaux des récits qui suscitent la peur ou l’anxiété.

           « Les sites de robots informatiques » sont facile à créer et à contrôler. On trouve sur internet des interfaces e programmation de tels sites. Les chercheurs, qui ont créé un logiciel de détection de ces faux sites, ont estimé en 2017 que près de 15 % des comptes Twitter actifs étaient des robots, et qu’ils avaient joué un rôle clé dans la diffusion de la désinformation durant la campagne présidentielle américaine de 2016 et qu’en infiltrant seulement une petite fraction du réseau, ces robots peuvent réduire à néant la qualité de l’information du réseau entier.
             Les sites et notamment les robots commencent à utiliser l’intelligence artificielle en interagissant personnellement avec les internautes pour détecter leurs émotions et leurs intentions. En exploitant nos biais cognitifs, ils pourront nous manipuler et nous inciter par exemple à adopter les idées d’un parti politique ou à acheter des produits censés nous apporter du bien-être.

            Ils peuvent ainsi influencer les décision sans forcer explicitement quiconque à faire quoi que ce soit et sans que les intéressés s’en aperçoive. Ces techniques sont appelées « nudge » (léger coup de coude, en anglais). Ce sont des sortes de coups de pouce imperceptibles qui prennent des formes très variées et qui sont utilisés dans divers contextes, notamment dans le marketing et la politique.

              Mais l’intelligence artificielle peut aussi aider à détecter les robots et également les fausses informations; mais c’est un défi permanent, un jeu du chat et de la souris dans lesquels il faudra sans cesse améliorer les algorithmes pour garder une longueur d’avance.

            De plus, il faudra, pour protéger les citoyens et les démocraties, réguler la jungle que constitue le web avec des lois et des garde-fous éhiques. C’est du ressort des états.

    Les réseaux sociaux nous désinforment.

    Partager via Gmail

    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique