•       Je vais faire deux articles sur les méfaits de l'informatique et des multimédia.
          Alors pour vous faire sourire avant, en intermède, quelques photos de personnes aux prises avec l'informatique, que j'ai trouvé sur Buzzly.

    Cette multiprise, devinez pourquoi elle a une panne ?

    http://lancien.cowblog.fr/images/Photoscomiques2/2644064825214.jpg

    Que ne ferait on pas pour avoir les mains libres sur son clavier

    http://lancien.cowblog.fr/images/Photoscomiques2/4229519646801.jpg














    Mais que ne ferait on pas aussi, pour garder son anonymat :

    http://lancien.cowblog.fr/images/Photoscomiques2/8532458944060-copie-1.jpg

    La secrétaire qui passe de sa machine à écrire à l'ordinateur

    http://lancien.cowblog.fr/images/Photoscomiques2/737425672775.jpg










     

     




    Un Zoom pour son smartphone :

    http://lancien.cowblog.fr/images/Photoscomiques2/1231816402543.jpg

    Copie d'écran !

    http://lancien.cowblog.fr/images/Photoscomiques2/4217698108544.jpg

    Partager via Gmail

    votre commentaire
  • Les réseaux de neurones artificiels

          J’avais dit que je ferai un article sur les réseaux de neurones artificiels utilisés pour faire de l’apprentissage et intelligence artificielle.
          Un neurone artificiel est une fonction mathématique, traitée sur ordinateur,  mettant en relation des entrées x avec des sorties y, mimant le modèle physiologique de la transmission d’un signal électrique dans les véritables neurones d’un cerveau.
          Pour activer un neurone, on considère la somme des signaux reçus en entrée de ce neurone (en biologie les dendrites) en appliquant un coefficient à chacun : le poids, ici représenté par la lettre p (en biologie les dépolarisations électriques de niveau différents arrivant par les axones)). On parle de somme pondérée. 

         Au-delà d’un certain seuil (= seuil d’activation, ici représenté par la lettre s), le neurone s’active et produit une réponse y = 1 (en biologie, l’influx nerveux est déclenché)
          Le mécanisme d’activation du neurone artificiel peut se représenter schématiquement de la manière suivante :

    Les réseaux de neurones artificiels
              Ce système ressemble au système d’apprentissage biologique humain : la personne fait un essi et s’il est meilleur que le précédent un signal positif lui est donné sous forme de dopamine; s’il est moins bon l’absence de dopamine donne un signal négatif.  Le cerveau sait ainsi par quel chemin d’améliorations il doit passer.Par approximations successives, notre cerveau arrive ainsi à apprendre à faire correctement certaines tâches.

          Un réseau consiste à associer plusieurs neurones de manière à augmenter la capacité de la machine à traiter un problème complexe. Il existe un très grand nombre de configurations de réseaux possibles. La plus utilisée est celle en couches successives.

          J‘ai demandé à CHAT GPT combien il utilisait de couches de neurones et voici sa réponse que Google était incapable de me donner :

         «  Le modèle original GPT-1, publié en 2018, avait 12 couches de neurones. Depuis lors, d'autres versions ont été publiées avec un nombre de couches plus important, telles que GPT-2 avec 48 couches et GPT-3 avec 175 milliards de paramètres. » ce qui représente des milliers de couches de neurones et des centaines de millions de neurones.

        Pour résoudre un problème avec un but déterminé sur une entrée du réseau, on fait varier les poids des diverses entrées et les seuils des neurones jusqu’à ce qu’on obtienne une sortie convenable. Cela se fait de façon itérative et des calculs statistiques permettent de calculer la différence entre la prévision réalisée et la valeur cible, afin de modifier les paramètres pour la minimiser.
       Le réseau apprend parce qu’on lui donne de nombreux exemples dans lesquels on lui a donné le résultat (étiquette d’un apprentissage supervisé).

          Pour que vous compreniez comment fonctionnent ces couches, je prendrai un travail simpliste. On cherche à reconnaitre les dix premiers chiffres (0 à 9) écris sur une matrice de 28 x 28 pixels. (soit 784) On part donc de 784 neurones d’une deuxième couche de 128 et d’une troisième de 10. Ces dix deniers neurones devront indiquer si les chiffres 0 à 9 ont été reconnus. (Si on veut reconnaître le 6, il faudra obtenir un signal sur le septième neurone.)
         Les derniers neurones renvoient une valeur d’erreur, qui permet de déterminer comment modifier les paramètres  pour minimiser  cette erreur.

    Les réseaux de neurones artificiels

          Evidemment les objectifs de l’IA sont bien plus complexes. Alors ces objectifs sont décomposés en tâches élémentaires. On va alors faire comme le cerveau qui confie certaines tâches à des centres spécialisés, soit pour saisir des informations (nos 5 sens) soit pour résoudre des problèmes ou mener des actions.
         L’IA va imiter la biologie et créera des réseau spécialisés pré-entraînés à certaines tâches. Ils pourront ainsi être « appelés » par un robot multitâches, afin de ouvi-oir répondre à des sollicitations diverses.

          Ainsi ChatGPT va comporter de multiples sous-réseaux, pour reconnaitre les mots, reconnaître puis comprendre les phrases des questions posées. Il saura rechercher des réponses à des demandes de données en consultant une énorme base de données pré-classées avec un moteur de recherche très performant. Plus compliqués seront les sous ensembles qui permettent de répondre à des questions complexes qui ne sont pas uniquement de la recherche d’information, mais une réflexion sur un sujet.
           Il doitaussi se remémorer toute la conversation pour pouvoir répondre à des questions complémentaires qu’on lui posera ensuite.

          Sans doute, après avoir lu cet article, vous devez avoir l’impression se ne pas bien savoir comment fonctionne une IA et que je ne vous ai donné que des idées très générales.

          J’ai essayé moi-même d’aller plus loin et de comprendre comment fonctionnait le système  « Transformer » . je me suis d’abord heurté à des équations mathématiques utilisant des opérateurs que je ne connais pas et des notions de statistique que je n’ai jamais apprises. Puis je me suis trouvé devant un langage informatique que je n’ai jamais appris et que je ne comprenais pas. Il m’aurait fallu un tel travail pour ne comprendre qu’un tout petit peu, que j’ai abandonné.

          Par contre je vais essayer de converser avec ChatGPT sur Chrome.
          Il répond bien à des questions factuelles, non pas par une liste d’articles comme Google, mais par quelques lignes claires et précises.
         Par contre il m’ épaté quand je lui ai demandé « Suffit il d'observer pour connaître ? ».
    Il a mis 10 secondes à réfléchir et m’a répondu ceci.

    « Observer peut certainement être une étape importante pour acquérir des connaissances, mais cela ne suffit pas nécessairement à connaître pleinement quelque chose ou quelqu'un. L'observation peut nous fournir des informations utiles, mais il est important de les interpréter correctement et de les associer à d'autres connaissances que nous avons déjà acquises pour avoir une compréhension plus complète.
    De plus, certaines choses ne peuvent pas être observées directement ou ne peuvent être comprises que par une combinaison de différents types de connaissances, tels que l'expérience personnelle, la théorie ou l'analyse. Par conséquent, il est important d'utiliser une variété de méthodes pour acquérir des connaissances afin d'obtenir une compréhension complète et précise des choses. »

          C’est une réponse concise et assez complète. Elle ne fait qu’effleurer le problème, mais elle ouvre des directions multiples de réflexion, de création et à de nouvelles questions à lui poser pour approfondir le sujet.
         Je n’ai pas eu le temps de poursuivre mais je le ferai, pour voir jusqu’où peut aller ChatGPT.

          Je voudrais ajouter que'il existe une collaboration entre informaticiens et mathématiciens d'IA et biologistes du cerveau. Les neurones artificiel ont servi à modéliser les centres d'interprétation de la vision chez les primates, avec un certain succès.
           En particulier lorsque les neuroinformaticiens ont entrainé par autoapprentissage des réseaux de neurones artificiels à interpréter des images, le réseau de neurones s'est séparé en deux sous-systèmes spécialisés, l'un  traitant les problèmes de reconnaissance des objets et l'autre traitant les objets mobiles, les chemins. C'est tout à fait semblable à l'architecture des centres d'interprétation visuels avec les centres du "quoi" et du "ou".
            De façon analogue, une système de compréhension du langage a été entraîné d'abord à entendre 600 heures de paroles en autoapprentissage, puis  à entender 412 personnes en trois langues, tandis que l'on examinait en IRMf le cerveau de ces personnes. On s'est aperçu que les réseaux de neurones artificiels se sont scindés en centres de l'audition primaire, d'interprétation secondaire et de réflexion analogues aux centres réels d'audition et du cortex préfrontal. On pense en effet que le cerveau, lorsqu'il suit la conversation d'un tiers, anticipe en permanence pour prédire les mots qui vont venir, exactement comme en apprentissage autosupervisé..

     

    Partager via Gmail

    votre commentaire
  •  

    L'intelligence artificielle, qu'est ce ? (3) : l'IA "forte"

    Qu’est ce que l’IA « forte »     

           Hier nous avions parlé d’applications simples d’IA « faible ».
           Aujourd’hui nous allons voir des applications plus complexes d’ « IA forte »
           L’intelligence artificielle forte se définit comme un système d’IA essayant d’imiter le fonctionnement de l'intelligence humaine dans son ensemble et ayant la capacité de se questionner, d'analyser et de comprendre ses propres raisonnements et ses actions et d’avoir donc une certaine conscience. C’est un but dont on est encore loin.
          Une IA forte demanderait rationalité, logique raisonnement, résolution de problèmes, planification, apprentissage et autonomie. Dans certain domaines elle nécessiterait, à coté de l’intelligence cognitive, une intelligence émotionnelle et une intelligence sociale.
         Cette forme d’IA serait capable de penser comme un humain dans tous les cas, et donc ne se limite pas à une seule tâche, mais pourrait en effectuer de très nombreuses. Elle devrait donc nous faire croire qu’elle est un être humain!

               Le « test de Turing » consiste à poser des séries de questions tests à la machine. Pour la qualifier d’intelligente, il faut qu’à travers les réponses il ne puisse distinguer si c’est une machine ou un humain.

           Mais il est très discutable de croire que l’on pourra atteindre le niveau de l’intelligence humaine. Je ferai probablement un article à ce sujet d’ici quelques jours.               
           Pour l’instant, le concept d’IA forte reste encore une conception utopique relevant davantage de la science fiction que de la réalité. 

    Les divers moyens d’apprentissage :

           Nous avons dit qu’il n’y avait IA que si la machine savait apprendre de façon autonome (à condition de lui avoir donné les algorithmes nécessaires).
           Cet apprentissage automatique (machine learning, en anglais), utilise des algorithmes qui tentent de reproduire l’apprentissage humain, en utilisant des modèles mathématiques, afin d’automatiser des tâches courantes humaines à l’aide d’ordinateurs.
           Les humains ont de nombreux avantages par rapport aux machines, car ils peuvent demander l’avis d’un expert, utiliser la connaissance acquise au cours d’expériences précédentes et interagir avec notre environnement afin de collecter davantage d’informations.
           Mais nos capacités présentent également des limites : notre mémoire a des limites et peut oublier, nos capacités d’apprentissage demandent du temps de même que l’analyse de données nombreuses et nous pouvons manquer d’impartialité au moment de prendre une décision. Par exemple, un algorithme d’apprentissage automatique peut classer un produit d’après son apparence extérieure en une fraction de seconde, quand un humain aura besoin de plusieurs secondes par produit et ne pourra pas traiter les centaines de catégories possibles.
          Pour pouvoir imiter la réflexion humaine, le machine learning a donc besoin de l’expertise humaine pour le guider et le surveiller ; faute de quoi, les fondements du modèle (données, règles logiques, etc.) pourraient être totalement aléatoires et le modèle n’en tirerait aucun enseignement.

    Les solutions de machine learning peuvent être classées en 3 catégories, qui seront présentées plus en détails dans de prochains articles :

    •  L’apprentissage supervisé (supervised learning), qui consiste à « prédire » un comportement futur en se basant sur les données passées ;
    •  L’apprentissage non supervisé (unsupervised learning), qui consiste à regrouper des observations similaires présentes;
    •  et l’apprentissage par renforcement (reinforcement learning), qui consiste à interagir avec l’environnement en vue d’atteindre un objectif prédéterminé.

          L’apprentissage supervisé repose sur le concept de « prédiction des données à venir », (si A comporte toujours B aujourd’hui, ce sera vrai demain), afin de répondre à une question donnée précise.
          Supposons que l’on veuille reconnaitre quel est un animal sur une image, il faut avoir communiqué à la machine toutes les caractéristiques des divers animaux, elle examinera les caractéristiques de l’image et un algorithme lui permettra de calculer la probabilité pour que ce soit un animal donné. Mais elle ne pourra pas trouver un animal dont on ne lui a pas fourni les données. 
          L'apprentissage supervisé suppose donc que l'on ait rentré en mémoire de très nombreuses données (des "étiquettes"). Outre le trabvail considérable et la place mémoire, des biais peuvent venir fausser les conclusions du système : par exemple utiliser la présence d'herbe pour croire reconnaître une vache, du fait qu'elles sont souvent dans les prés.
           Ce n'est d'ailleurs pas la méthode habituelle du cerveau humain, qui n'utilise pas d'énormes bases de sonnée, mais explore plutôt l'environnement.

         Dans l’apprentissage non supervisé, on n’a pas donné à l’avance les caractéristiques d’objets bien définis. On a seulement un très grand nombre de données et il s’agit de les classer selon des critères bien définis en rassemblant des observations et des caractéristiques.
          Supposons un ensemble de pièces de Lego, on pourrait les classer par couleurs, par taille, par forme, par dimensions, ainsi que des critères croisés.
          Les algorithmes d’apprentissage permettent à la machine d’apprendre seule à chercher les données à voir lrurs ressemblances et différences, puis à définiur des classements, puis à classer les données selon plusieurs critères.

         L’apprentissage par renforcement : c’est un mode d’apprentissage statistique, inspiré de l’apprentissage humain et animal. 
          Nous expérimentons certaines choses : si elles ont un résultat positif, elles induisent des récompenses,  et on conclut que ces expériences sont positives et qu’elles doivent être réitérées. Inversement, si le résultat de l’expérience n’est pas concluant, on le mémorise pour ne plus faire la même erreur

          Dans le cadre d’un apprentissage par renforcement, l’IA veut maximiser ses réussites (qui dépendent évidemment du but poursuivi). Les algorithmes d’apprentissage par renforcement font effectuer des essais successifs  avec des valeurs différentes (ou utilisent les valeurs successives qui sont des données obtenues dans l’environnement) et des calculs statistiques permettent de calculer me taux de réussite qu’il faut maximiser.

         La saisie automatique d’objets par des robots peut être acquise par essais successifs, exactement comme le bébé fait cet apprentissage. La pratique des échecs ou de jeu de GO peut être acquise à partir des règles de jeu, la machine jouant des millions de parties pour optimiser ses réponses.

         L’IA de YouTube ou celle de Facebook, voudra maximiser le temps que vous passez sur sa plateforme. L’IA d’Amazon voudra vous faire dépenser le maximum d’argent.

         Si vous entendez parler d’apprentissage profond, (deap learning), il s’agit de méthodes d’apprentissage automatique qui utilisent des traitements mathématiques et statistiques de haut niveau pour traiter des données, les classer, les transformer. Je ne vous en dirai pas plus car je n’ai pas un niveau suffisant en maths pour les comprendre.

          Un autre domaine est celui des réseaux de neurones artificiels. Il ne s’agit pas de matériels n biologique, mais d’un essai de simulation du fonctionnement des neurones par des calculs mathématiques et des simulations informatiques. Ce sont des types d’apprentissage par statistiques.
           Une autre méthode d'apprentissage est celui "auto-supervisé". C'est une méthode d'apprentissage automatique concenant un réseau de neuroness conçu pour ingérer des données non étiquetées par les humains. La méthode utilisée consiste à masquer une partie des données d'apprentissage, et entrainer le modèles à prédire et identifier ces données cachées. Le modèle génère ainsi lui-même l'étiquetage des données. On réinvente alors les différences entre les données réelle et celles reconstituées, afin d'apprendre à corriger leurs erreurs.
              

           Je ferai d’ici quelques jours  un article sur ces réseaux de neurones pour essayer d'en expliquer le fonctionnement.

          J'ai trouvé sur internet un exemple très simple qui précise cette notion de "machine Learning :
          Si nous manions à la main un aspirateur, il s'agit d'intelligence humaine.
          Un aspirateur intelligent, par exemple, qui détecte les murs au moyen de capteurs correspond à une intelligence artificielle sans machine learning, tandis qu’un aspirateur qui apprend à quel moment nettoyer et où il est nécessaire de passer plus souvent, en se basant sur l’historique de nettoyage, est une IA qui utilise le machine learning (mais sans deep learning).
          Enfin, si l’aspirateur est équipé d’une caméra lui permettant de détecter votre bébé ou votre chien, on est alors en présence d’une IA avec utilisation de deep learning.

    Des applications ou l’on utilise de l’IA. dite « forte », c’est à dire complexe et très performante.

          Il existe depuis longtemps des programmes d’apprentissage pour ordinateurs, mais ils étaient moyennement performants et limités par la puissance des ordinateurs. Mais récemment des programmes  d’apprentissage beaucoup plus performants ont vu le jour et la puissance de ordinateurs a considérablement augmenté. D’où l’essor actuel vers une « IA forte », même si;, pour le moment les résultats sont encore loin des objectifs

          Un exemple simpliste est donné par Google et ChatGPT.

          Comme je l’ai dit Google est une énorme base de donnée et un moteur de recherche qui permet de trouver rapidement une donnée. C’est un programme écrit par l’homme qu’il applique strictement.
          On peut rentrer des données à la main dans sa base de données mais même avec beaucoup de monde, ce serait totalement insuffisant. Alors un programme va chercher les informations qui l’intéressent sur les ordinateurs des personnes. Par exemple de temps à autre ma statistique sur eklablog indique tout à coup plusieurs milliers d’articles lus, alors que le nombre de visiteurs n’a pas augmenté de façon significative. C’est Google ou autre qui sont venus lister mes articles et y piquer éventuellement des informations.

          ChatGPT, c’est un « google intelligent ».  Chat c’est la conversation (chatter). GPT = Generative Pretrained Transformer. On peut lui poser des questions par écrit en langage courant et il vous répond.
           Il comprend donc les mots puis analyse les phrases, doit réfléchir à la réponse et l’assembler, et ensuite l’écrire. Il connait de nombreuses langues et est capable de répondre à des questions avec un niveau de performance égal à celui d’un interlocuteur humain moyen.
           Mais il a appris peu à peu à faire ce travail en utilisant unénorme réseau de neurones artificiels appelé Transformer.
            Dans un premier temps le modèle s’entraine en apprentissage supervisé à recevoir des conversations où mes formateurs sont à la fois l’utilisateur qui pose des questions et l’assistant qui fournit des informations.
            Dans un deuxième temps, en apprentissage de renforcement, on fait classer les questions et les réponses du modèle, pour évaluer les réussites et optimiser les réponses, en qualité et en vitesse.
            Chat GPT est un excellent traducteur linguistique. Il semble qu’il ait des connaissances très importantes en programmation informatique et il corrige de façon très efficace des codes informatiques.
            Chat GPT répond à de nombreuses questions sur des faits (toutefois antérieurs à 2021). Par contre ses réponses sont moins performantes s’il s’agit de disserter sur un sujet.
            On peut facilement accéder à CHATGPT et j’ai l’intention de l’essayer, puis je ferai un article à son sujet. En particulier on peut l'installer avec Google sur Chrome et voir sur son écran les réponses à une question, à gauche de Google et à droite de CHATGPT.
             Je ferai dans quelque temps un article sur CHATGPT, quand je l'aurai suffisamment essayé.

        Un autre exemple est celui des véhicules automatiques (la voiture à conduite automatique).

           Je ne le développerai pas car vous avez sûrementnt lu des articles et vu des reportages à la télé sur ces voitures sans chauffeurs.
           Elles sont bourrée de capteurs, notamment caméras et radars et savent éviter les obstacles tout le long de la route. Des essais ont eu lieu avec succès (un conducteur surveillant la conduite, par sécurité). Mais la machine ne sait quoi décider si on sort défaits matériels et etchniques
         Par exemple elle ne sait que décider s'il faut choisir entre percuter la voiture en face ou écraser un piéton sur le bas coté de la route.

    Partager via Gmail

    votre commentaire
  • L'intelligence artificielle, qu'est ce ? (2) : l'IA "faible"


       
      Parlons donc aujourd’hui de l’intelligence artificielle.

          C’est un processus d'imitation de l'intelligence humaine qui repose sur la création et l'application d'algorithmes exécutés dans un environnement informatique dynamique et qui a pour but d’arriver à ce que des ordinateurs pensent et agissent comme des êtres humains.
          L'intérêt est que les machines génèrent ou recueillent des quantités de données plus vite qu'il n'est humainement possible de les absorber, les comprendre .et de les interpréter pour prendre des décisions complexes. Elles peuvent donc faire, dans une durée raisonnable, ce que les hommes mettraient un temps prohibitif pour réaliser la même tâche.
         L’intelligence artificielle se propose donc d’apprendre à des ordinateurs à recueillir les données pertinentes et à les interpréter en vue d’une tâche donnée.
         Ses bases sont informatique (bases de données, logiciels…) et mathématique notamment statistiques et probabilités.
        Mais ce terme couvre des types très différents d’applications de complexités très variables et faisant appel à des processus très variés. Il faut donc les différencier et je vais essayer de le faire par référence à des applications pratiques.

    Des automatismes qui en sont pas de l’IA :

          Par exemple les chaines impressionnantes de machines qui vont prendre les objets sur d’immenses étagères pour rassembler les éléments d’une commande, afin de l’emballer et l’expédier ou pour les utiliser sur une chaine de montage.
         C’est un simple logiciel informatique. La machine reçoit la liste à rassembler; elle trouve l’objet dans la base de données, son emplacement de stockage, trouve le chemin le plus rapide, y va et ramène l’objet. C’est l’application idiote de règles par l’ordinateur. Le travail intelligent a été fait par le programmeur et les personnes qui ont rentré les données.

         Le programme qui permet à Amazon de vous envoyez la commande que vous lui faite sur des hauts parleurs dans votre appartement n’est guère plus intelligent. L’ordinateur va chercher dans la base de données les renseignements sur l’objet commandé et les donne à une machine du type précédent. Son seul travail plus intelligent est de comprendre ce que vous avez dit.

         On a appris à l’ordinateur des mots et les sons correspondants. Mais votre voix n’est pas forcément identique à ce modèle. Alors on vous demande de dire quelques mots et la machine mesure les différences de fréquences entre votre voix et le modèle et donc les valeurs correspondantes à un petit logiciel interprète qui transformera, pour l’ordinateur, votre voix en des sons conformes au modèle de référence. Ce n’est que de la programmation relativement classique.

         Le seul problème est qu’il faut de gros moyens informatiques car les bases de données à traiter sont très importantes.

    Des applications ou l’on utilise de l’IA dite « faible », c’est à dire peu sophistiquée.

         Il y a intelligence artificielle lorsque l’ordinateur ne se contente pas d’appliquer les ordres d’un programme mais lorsqu’il a pu apprendre peu à peu à faire une tâche donnée.
         Pour cela on va lui faire faire des millions d’essais et lui dire si c’est « mieux » ou « moins bon », exactement lorsque le cerveau du bébé apprend à guider ses mains pour saisir un objet. Il va ainsi améliorer son processus et faire la tâche correctement.
         En fait l’ordinateur écrit peu à peu lui même les meilleurs algorithmes d’un programme qui réalise cette tâche.
         L’une des difficultés importante est qu’il faut faire faire à l’ordinateur tellement d’essais que les bases de données et la puissance des ordinateurs ne sont pas suffisantes.
         Il existe donc de très nombreuses applications où la partie apprentissage est limitée et où des programmes classiques continuent à effectuer une partie des tâches. C’est ce que l’on appelle de « l’A faible ». En général il s’agit de réaliser des tâches intelligentes spécifiques, en se concentrant sur un problème précis. Mais la machine n’a ni vrai intelligence, ni une certaine conscience.
         Un exemple simpliste est dire si l’animal vu sur une photo est un chien ou un chat. On montre à l’ordinateur des milliers de photos de chien et de chats Il va alors noter toutes les caractéristiques qu’il voit de chaque type d’animal.

         On lui montre alors des photos et il doit dire si c’est un chien ou un chat et on mesure son efficacité. Si elle est insuffisante ou va lui montrer de nouveau des photos de chiens et de chats.
         Et cela jusqu’à ce qu’il atteigne statistiquement une efficacité satisfaisante.

          Deux exemples plus complexes sont la reconnaissance faciale (ou plus généralement la reconnaissance d’images) et le traitement du langage (et notamment la traduction automatique).
         En fait la machine utilise les mêmes critères qu’utilise un homme pour faire ce travail, par exemple dans la reconnaissance des visages mesurer un certain nombre de paramètres caractéristiques de la figure vue. L’homme qui ferait cela mettrait des années pour collecter les données et n’a pas une mémoire suffisante pour ce stockage. On apprend donc à la macuhine à le faire et elle va rapidement stocker des millions de données.
          Il faudra ensuite lui apprendre à traiter ces données par des algorithmes statistiques afin de réduire le temps de recherche pour trouver un visage dans la base de données.

          Apprendre à reconnaître le langage et en comprendre le sens est plus complexe et de même nature et c’est la base des systèmes de traduction automatiques nombreux que vous trouvez sur internet.
    On donne à la machine un dictionnaire, les règles de grammaire et celles de syntaxe et elle va interpréter des millions de phrases et ainsi apprendre à reconnaitre si une phrase fait partie de la langue ou est sans signification. Les expérimentateurs vont vérifier régulièrement ses performances et corriger et compléter éventuellement les algorithmes d’apprentissage.
         Si elle reconnait ainsi deux langues, il faudra ensuite lui apprendre à faire correspondre les phrases de chaque langueen utilisant des algorithmes statistiques qui lui permette de trouver la meilleure traduction.
         La machine pourra ainsi faire des tâches simples, comme votre box ou votre téléviseur, qui reconnait votre voix et est capable d’obéir à vos ordres pour rechercher une chaine, un programme ou exécuter une action.

          Plus complexe est de comprendre vraiment le sens d’une phrase et d’y répondre de façon intelligente. Ce n’est pas trop complexe s’il s’agit de répondre dans un domaine étroit, spécifique.
    C’est le cas de mon « assistant SIRI » dans mon Mac, qui sait répondre à des questions orales concernant l’usage de ma machine. Il a appris toutes les fonctions possibles et les ordres correspondants et comment les exécuter. Il sait même faire quelques recherches simples sur google ou pour trouver un itinéraire, un restaurant ou un horaire de transport, gérer vos rendez vous, assurer certains contacts…..
        Il y a même quelques questions drôles auxquelles il répond (avec de l’humour type USA !)
          Siri utilise les domaines de l'intelligence artificielle et du traitement du langage naturel, et est composé de trois éléments : une interface conversationnelle, la connaissance du contexte personnel et la délégation de services.
           L'interface conversationnelle concerne la manière dont Siri vous comprend en premier lieu. Le fonctionnement général de la reconnaissance vocale mot à mot doit être bon pour que Siri puisse entendre ce que vous dites, mais le déchiffrage du sens dépend des statistiques et de l'apprentissage automatique, et c'est là qu'intervient le système de connaissance du contexte personnel.
           Siri effectue un travail considérable qui lui permet de prédire où vous voulez en venir en se basant sur les mots clés que vous utilisez, ainsi que sur vos habitudes générales et vos choix linguistiques. Il est conçu pour s'adapter à vos préférences individuelles au fil du temps et personnaliser les résultats.
           Le système de délégation de service est l'accès illimité à toutes les applications intégrées de mon mac ou d’un iPhone et à leur fonctionnement interne. Sans cet accès, Siri serait un assistant plutôt médiocre.

           Pour l’article du premier avril, j’avais imaginé une petite souris intelligente sur mon Mac; ell existera sûrement un jour.

           Le système Alexa d’Amazon est du même type que Siri et est également limité à des tâches bien précises?

           Demain je parlerai d’applications plus complexes de l’intelligence artificielle que l’on appelera « l’IA forte »

    Partager via Gmail

    votre commentaire
  • L'intelligence artificielle, qu'est ce ? (1) : le passé

           Plusieurs lecteurs mont demandé d’expliquer ce qu’était l’intelligence artificielle.
           Cela m’embarrasse un peu parce que d’une part je n’ai jamais pratiqué cette science et d’autre part, parce que c’est extrêmement abstrait, utilisant pour créer des logiciels des outils mathématiques de haut niveau, que je ne connais pas. (J’ai fait beaucoup de maths autrefois, mais à l’époque, ils n’existaient pas, de même que certauns opérateurs utilisées en mécanique quantique).
          Je vais essayer de donner quelques explications en plusieurs articles. J’espère qu’elles ne seront pas trop abstraites et resteront.compréhensibles.
         Aujourd’hui je traiterai du passé, car l’intelligence artificielle de maintenant a eu des ancêtres, la cybernétique, la robotique, les systèmes experts, et les moteurs de recherches.

    La cybernétique  et la robotique.

          Au plan général la cybernétique est l’étude et la modélisation des mécanismes et échanges d’information dans des systèmes complexes, tant humains que machines, utilisant notamment des outils mathématiques.
           Cybernétique vient d’un mot grec signifiant « gouverner » au sens du gouvernail d’un bateau.
           On étudie par exemple un émetteur d’informations ou d’ordres, le récepteur, les flux transmis et reçus, l’influence de l’environnement et l’information en retour
           Le but est de rendre les échanges d’information efficaces, de les maintenir stables dans un environnement changeant, notamment dans le but de commander des machines.
           Un des composants de la cybernétique est l’étude des systèmes asservis.    
           Du fait que les outils de la cybernétique sont théoriques, les applications peuvent concerner des domaines très divers : organismes biologiques, sociétés d’humains, monde de l’économie et de l’entreprise, les systèmes automatiques, les automates et les robots ….
           Les applications  pratiques sont aussi très diverses. la régulation d’un chauffage, d’une climatisation, les machines industrielles à commande numérique, l’autodirecteur d’un missile, la conduite d’un petit robot chenillé d’intervention en milieu dangereux, le pilotage automatique des avions, les corrections de trajectoire d’une voiture, le GPS et les instruments de pilotage automatique….

    Les systèmes experts :

          Ce sont des outils informatiques qui simulent le comportement d’un spécialiste dans l’exercice de ses fonctions. Cela nécessite d’une part le recueil de toutes les données utilisées par l’expert et l’étude de son mécanisme, de ses règles d’expertise. Ces systèmes sont donc censés imiter le raisonnement humain de l’expert.
         C’est par exemple une aide au diagnostic médical. Il faut d’abord créer une base de données de toutes les caractéristiques des maladies et notamment leurs conséquences observables, puis aider le médecin à recueillir des symptômes, et enfin créer un système automatique qui, à partir de ces symtômes identifie la maladie correspondante ou suggérer des recherches complémentaires pour choisir entre plusieurs maladies possibles.

    Les moteurs de recherche :

          Ce sont des logiciels qui permettent, lorsqu’on leur pose des questions dans un langage convenu, d’aller chercher des réponses dans des bases de données extrêmement importantes.
         L’exemple le plus connu est Google.
         La qualité d’un moteur de recherche est d’abord la rapidité car il doit rechercher des solutions dans des millions de données qu’il doit analyser le plus vite possible. C’est surtout la pertinence, car il faut que les réponses soient évidemment pertinentes et non approximatives, voire erronées.
        Il est enfin souhaitable que l’interrogation soit faite dans un langage le plus proche possible du langage courant.
        Dans kleptomanies cas de Google, la rapidité est excellente, mais la pertinence ne l'est pas, de nombreuses réponses suggérées étant peu ou pas adéquates, voire orientées par des considérations mercantiles. 

          Ces trois approches ont donné lieu à de très nombreuses applications, et celles de l’intelligence artificielle d’aujourd’hui sont dans la continuité de ces anciennes applications, mais l’intelligence artificielle a apporté de nouveaux outils.

         Demain je vous parlerai d’applications simples d’Intelligence Artificielle, dites « IA faible ».

     

    Partager via Gmail

    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique