• Rumeurs et fausses nouvelles sur le Net.

        J’ai déjà fait un article sur les fausses nouvelles qui circulent sur le web.
        Mais j’ai lu un compte-rendu d’une étude faite par Mehdi Moussaïd, de l’Institut Max Planck de Berlin, qui m’a paru intéressant.


       Les rumeurs et fausses nouvelles se répandent sur le Net, mais en général lentement et auprès d’un grand nombre de personnes. L’étude en cause concerne leur diffusion sur Twitter, par paliers successifs que l’on appelle « cascades ».

        Ces cascades sont très peu nombreuses(que ce soit des informations vraies ou non).
        Sur Twitter, 93% des twits ne sont pas lus, et 6,5% sont lus par 3 personnes au plus. Donc seulement 0,5% sont lus par plus de 3 personnes.
        Seulement 1/100 000 donne lieu à une propagation massive  en touchant plus de 500 personnes.

       La diffusion peut avoir deux allures :
            - Soit elle est « horizontale, c’est à dire très importante en une seule ou peu de fois : c’est le cas de sites de personnes très connues, qui ont un très grand nombre de visiteurs. Ces cas sont limités.
            - Soit elle est « verticale », c’est à dire qu’elle touche un nombre peu important de personnes, mais qui la répercutent à d’autres et ainsi l nombre croit très rapidement. C’est le cas le plus fréquent.

        L’étude a porté ensuite sur les rumeurs et fausses nouvelles diverses(notamment politiques),  220 000 twits erronés ont été trouvés parmi un milliard de twits examinés.
        On s’aperçoit que les nouvelles vraies dépassent en général moins de 1000 lecteurs, alors que les fausses nouvelles en dépassent souvent 100 000 et sont presque toutes de nature verticales.. Elles se propagent plus vite et plus longtemps que les informations vraies.
        Ces critères permettent de repérer ces fausses nouvelles, qui ne passent pas inaperçues, d’utant plus que celles qui sont dangereuses sont celles qui ont une grande diffusion.

       Un logiciel a été créé par le MIT et l’université d’Harvardet a été essayé sur 209 rumeurs tirées de 938 000 twits. 75% ont été détectées par le logiciel. Les critères qu’il utilise sont en cours d’amélioration. Ce logiciel pourra servir aux opérateurs du web pour « épurer leurs sites, ou au moins mettre un « indice de fiabilité » des nouvelles.

        Le mécanisme des fausses rumeurs a été étudié : on a demandé à des acteurs initiaux de mettre sur internet un dossier d’information et on a suivi sa transmission.
        Dès la troisième transmission, on constate une transformation importante : 52% des informations ont disparu et les autres sont déformées. A la 10ème transmission, le dossier n’est plus reconnaissable, presque toutes les informations étant inexactes.
        Le dossier représente le point de vue dominant du groupe de transmission.
        Les éléments les plus négatifs et les plus alarmants sont exagérés. Les personnes privilégient les informations en fonction de leurs préjugés. Le dossier est d’autant plus déformé que les lecteurs ont des préjugés communs.

        Cela dit, il n’y a pas que le net qui propage parfois de fausses rumeurs et les journaux, la télévision le font aussi. Les journalistes, à la recherche du sensationnel, ne vérifient pas assez leurs sources.

    http://lancien.cowblog.fr/images/Image4/file201809101231101nauzyl.jpg

    Partager via Gmail

    15 commentaires
  • Le premier microordinateur était français !

               Il y a des jours où l'on croirait que Monsieur Trump est un vieux russe.
              En effet, il y a quelques dizaines d'années, "Popov" disait que la Russie avait tout inventé, de la poêle à frire à la fusée spatiale.
              Monsieur Trump aurait dit  que Henry Edward Roberts était l'inventeur en 1975 et le père des micro-ordinateurs.
              Tout le monde sait que Trump est ignare : l'inventeur des micro-ordinateurs est français, d'origine vietnamienne : André Truong. Voici les faits :

              On avait parlé de micro-ordinateur vers 1970 et la société Intel avait réalisé un microprocesseur, l’intel 8080, qui tournait à 2 MHz (mon Mac tourne à 2,9 Ghz soit mille fois plus vite aujourd'hui). Cette société avait réalisé un kit MCS4 en 1971, qui était plutôt un banc d’essai de ce microprocesseur.


    Le premier microordinateur était français !          Henry Edward Roberts était certes un génie de l'électronique qui a inventé et réalisé de nombreux appareils originaux.

     
            En 1975, à partir du microprocesseur intel 8080, il a conçu l'ATAR 8800.

              C'était était certes un micro-ordinateur, mais ses performances étaient modestes : jugez en  (et aussi des progrès faits en 30 ans!)
     Le premier microordinateur était français !          Sa mémoire vive (RAM) était de 4 ko (mon mac actuel a 8 Go soit 2 millions de fois plus !), mais on pouvait l’étendre à 64 ko par la suite. Il n’avait pas de mémoire morte (ROM).

               Un tout petit lecteur de disquettes  (des galettes de 13 cm) de 300 ko ( mon disque dur actuel contient 1 To, soit 3 millions de fois plus et on trouve à des prix raisonnables des disques de 5 To).
               Il n’avait pas d’écran vidéo, ni de clavier Juste quelques diodes et interrupteurs sur la face avant.

               Edward Roberts avait fondé la société MITS pour développer cette machine.
               En 1975, deux pionniers de la micro-informatique, Bill Gates et  Paul Allen découvrent l'Altair 8800 dans un magazine et proposent à la société MITS de développer des programmes pour son ordinateur. Ils écrivent alors le langage Altair Basic, fondent Microsoft et concluent un accord avec M. Roberts pour distribuer leur programme avec ses ordinateurs.
               Ces programmes évolueront et deviendront le premier MS/DOS.
               Quelques milliers de machines ont été vendues entre 600 et 400 $, mais je me demande ce que les utilisateurs ont bien pu en faire, sans écran.

     Le premier microordinateur était français !          Le premier micro-ordinateur a été conçu par des français, André Truong, PDG de R2E, et  François Gernelle, ingénieur concepteur du Micral N, en 1972, pour faire des calcul d’évaporation dans des sols. 
               Il utilisait le microprocesseur d’Intel, avait 16ko de RAM, mais pas de clavier ni d’écran. On sortait les résultats sur un perforateur de bandes. Son prix était de 8500 frs (environ 1350 €).  Quelques centaines de machines ont été vendues
               En 1975, R2E (Réalisation et études électroniques) réalise des versions successives du Micral, de plus en plus puissantes, bientôt orientées vers la gestion, avec écran, clavier et disque dur.. Certaines seront multiprocesseurs, toutes multi-utilisateurs : la perspective est moins l'« ordinateur personnel » que la mise en réseau entre plusieurs utilisateurs
               La société rencontre des problèmes financiers et elle est rachetée  en 1979 par Bull, qui commercialisera des Bull-Micral jusqu’en 1990
               Bull demandera à François Gernelle de concevoir des compatibles PC. Mais, cet ingénieur émet des réserves sur la machine d'IBM et sur son système PC-DOS signé Microsoft. Il qualifie ce type de machine d'ordinateur “égoïste” car mono-utilisateur et refusera ce travail. Les Micral seront équipés d’un système “Prologue”, puis CP/M, différent de PC/DOS, mais compatible avec lui.

               J’ai eu la chance de connaître MM Truong et Gernelle, et d’essayer des Micrals, en même temps que j’essayais des Apple 1 en 1977, puis des Apple2 en 1978.
               Les Micrals étaient de bons appareils mais j’ai été séduit par l’interface plus conviviale de l’Apple et mon premier micro-ordinateur dans mon travail en 1980, puis à titre personnel en 1982, a été un Apple2, que j’ai encore et qui fonctionne toujours.
               Cadencé à 1 mHz, il avait 64 ko de mémoire, un lecteur de cassette et un lecteur externe de disquettes ressemblant à des CD “mous” de 13 cm et ne permettant de stocker que 300 ko. Il fallait avoir deux lecteurs externes car l’un contenait le système (qui était chargé par “petits morceaux en mémoire vive), et on copiait sur l’autre. L’écran de résolution très moyenne, avait  24 lignes et 80 colonnes de majuscules. (mon écran  actuel fait environ 5000 X 2800 - plus de 10 millions contre 2000 pixels !). Sur l’Apple2 les pixels étaient de petits carrés !! C'était un écran cathodique de 16 pouces alors que mon i'mac a un écran plat de 27 pouces.
               On utilisait d’un bon traitement de texte (Applewrite), d’un logiciel de dessin (Appledraw)) et du premier tableur (Visicalc) et surtout on disposait d’un langage simple de programmation et d’une documentation excellentequi permettait de bien comprendre comment fonctionnait l’appareil et de programmer de petites applications.
               Je me souviens avoir programmé un “mastermind” et un “tétris” qui ont fait la joie de mes petits enfants.
               Apple a vendu plusieurs millions d’Apple2 jusqu’en 1988, (avec évidemment des améliorations successives), supplanté ensuite par le MacIntosh, et son système révolutionnaire à icônes.
               J'ai d'ailleurs eu la chance d'expérimenter en 1987 l'un des premiers Mac arrivés en France, que m'avait confié Apple pour essai. En 1991 on en comptera 2000 en réseau dans mon entreprise, avec un petit intranet.

    Le premier microordinateur était français !

     

               J’ai voulu vous donner là un aperçu de l’évolution de la microinformatique, depuis 50 ans, qui vous paraît aujourd’hui si naturelle et si simple (bien qu’on ne comprenne plus la façon dont cela fonctionne et qu’on ne puisse plus trifouiller la machine - c’est comme les moteurs de voiture).
               Et c’est grâce à ces précurseurs que je passe une partie de mon temps à taper sur un clavier et à cliquer sur une souris, alors que j’aurais des tas d’autres choses à faire

    Partager via Gmail

    votre commentaire
  •  

    Où est passée notre attention ?

        Les professeurs des écoles et ceux des collèges et lycées se plaignent souvent de la difficulté des jeunes à faire attention de façon soutenue à un sujet ou une tâche, et à se concentrer sur ce qu’ils devraient faire.
        Mais je constate dans mon entourage que des moins jeunes qui ont entre 30 et 40 ans sont atteint de la même « maladie ».
        Est ce un manque de volonté comme on le croit souvent ou est ce un phénomène plus complexe.?

        Quel est le rôle de l’attention ?
        Nous vivons dans un monde surchargé d’informations, qu’elles soient visuelles, auditives, dans des livres et journaux ou surtout numériques. Les écrans obnubilisent jeunes et moins jeunes, que ce soient les informations, les jeux, les réseaux sociaux ou les messages pour le travail.
        Notre cerveau est surchargé et ne sait pas comment mener son activité.
        L’attention c’est d’abord un mécanisme de sélection qui va orienter les centres du cerveau vers un sujet donné pour lui réserver un créneau de temps au milieu d’occupations multiples, en se détournant momentanément de ces autres occupations et cela en fonction de nos objectifs et de nos intentions.
        C’est donc un mécanisme qui met en jeu de nombreux centres du cerveau, et qu’on ne peut pas commander par un simple effort de volonté.

        L’attention est par nature instable, car elle résulte d’un équilibre en plusieurs centres du cerveau. Elle est donc difficile à maintenir.
        Plusieurs acteurs risquent de mobiliser l’attention.
        D’abord les centres amigdaliens, gardiens de notre sécurité. Les signaux sensoriels (surtout vue et ouïe) sont transmis directement, avant toute analyse, pour éventuellement alerter le corps pour faire face à un danger. Dès lors, un bruit, une lueur, une image vont fixer quelques instant notre attention et nos sens pour analyse.
        J’ai décrit dans un article le circuit de récompense, qui analyse le plaisir apporté par des événements et libère de la dopamine pour les événements hédonistes. Ce qui nous plaît est apprécié et appelle l’attention, d’autant plus qu’on est incité à renouveler ce qui apporte du plaisir. Ce peut être à la limite une capture systématique de l’attention, qui aboutit à une habitude, puis une addiction (drogue, sexe, jeux, téléphone, nourriture….).
        Le cortex préfrontal, qui est chargé de réfléchir, de planifier, de mener les rapports sociaux, va orienter volontairement l’attention vers un but : réfléchir, lire, écrire, discuter avec quelqu’un, agir sur une tâche…
       Un autre centre très important est le cortex cingulaire antérieur, qui joue un rôle important dans le contrôle cognitif : la capacité de la personne à prendre conscience de ses opérations mentales, à les mobiliser ou à les bloquer, à changer de stratégie quand c'est nécessaire. Il influe donc la motivation et l'attention.
       En outre de nombreux centres sont en fonctionnement dans le cerveau lorsqu'on accomplit une tâche donnée et le fait de faire attention renforce leur activité. En particulier rien ne se fait sans la mémoire qui met en jeu de nombreux centres et également les deux mémoires tampons, linguistique et images, qui permettent au cortex frontal de stocker momentanément des informations. Sf l'on n'exerce pas sa mémoire et ces deux centres, les performances du cerveau sont moindres, y compris celles de l'attention et de la concentration.


        Mais l’une des difficultés la plus courante dans le monde actuel est que nous voulons faire plusieurs actions à la fois.
       Chacune va prendre des ressources du cerveau. Pour deux tâches, les deux hémisphères du cerveau vont coopérer et, au prix d’un ralentissement notable et d’un risque d’erreur plus imporatant, le cerveau arrivera à faire face si les tâches ne sont pas trop complexes. Mais au delà de deux, l’opération est catastrophique.
        L’attention ne se partage pas : elle est orienté vers un but unique.

        Mais le monde actuel fourmille d’événements qui captent notre attention ou s’efforcent de le faire : publicité qui essaie de capter nos centres amygdaliens par des perceptions brusques, très vives ou hors du commun, les jeux trépidants qui ne laissent pas une seconde libre, les réseaux sociaux, messages et SMS, qui plaisent à notre système de récompense, internet où Google et les multiples acteurs commerciaux traquent nos recherches et nous abreuvent de propositions, ou ceux moins agréables du travail, mais qui impactent notre cortex préfrontal.
        Il n’y a plus un instant de repos pour notre cerveau et même la durée de notre sommeil est en diminution, et donc notre fatigue croit.

        Si beaucoup d’entre nous n’arrivent plus à fixer leur attention, ce n’est pas uniquement par manque de volonté, mais parce que, submergés par une multitude d’informations, nous subissons ce flot passivement, au gré de nos sensations et de nos envies, et que nous ne savons plus couper les liens pendant un certain temps, pour prendre un peu de repos et de recul, pour se concentrer et réfléchir.
        Il faut réapprendre à faire le tri dans nos occupations, à éviter les distractions, et devenir conscients que nous ne pouvons faire qu’une chose à la fois.
        L’enseignement de la maîtrise des nouvelles technologie à l’école devrait être essentiel pour cet objectif, car l’attention est essentielle pour apprendre.


    Partager via Gmail

    votre commentaire
  •  

    Bonjour la désinformation !

         Nous sommes gavés d’informations, que ce soit à la radio, à la télé, par les journaux, sur les réseaux sociaux, par la publicité de toutes sortes, ceci à partir des médias, mais aussi de tous nos autres concitoyens.
        Parmi ces informations beaucoup sont plus ou moins inexactes, voire totalement fausses, mais il est parfois difficile de s’en rendre compte.
        En fait cela est loin d’être anodin, car toutes ces informations influent sur nos comportements et sur nos décisions; nous pouvons donc nous tromper si nous basons notre conduite sur les informations que nous recueillons
        Réfléchir est primordial ainsi qu’analyser avec un esprit critique.

        Mais analysons plus avant l’information :
        D’abord on peut nous présenter préférentiellement une certaine information : les médias par exemple recherchent le sensationnel. Les informations plus courantes sont souvent ignorées.
        On peut aussi fausser une partie des données; il est bien connu que sur les réseaux sociaux, les personnes parlent de ce qui les valorisent, et certaines n’hésitent pas à inventer un certain nombre de faits.
        La langue de bois des politiques est bien connue, et certaines entreprises, organisations ou groupes n’hésitent pas à répandre exprès de fausses informations.
        Mais sans parler de fausse information, la façon dont elle nous est présentée n’est elle pas tendancieuse ?
        Plus précisément, la façon dont on nous présente l’information ne va t’elle pas influencer nos décisions ?

        La peur du gendarme est une motivation bien connue. Pour nous forcer à faire rapidement une action, la peur d’une sanction influence en général plus que la promesse d’une récompense. Le contexte va donc agir sur nos décision : une épidémie de grippe entraînera un nombre de vaccination plus grand que dans une période sans maladie. Des expériences ont montré que davantage de femmes acceptaient une mammographie, si on leur présentait les risques de cancer non décelé en l’absence de l’examen, que les bénéfices de l’examen.
        Il est certain que présenter le verre à moitié plein est en général plus agréable que de montrer ce même verre à moitié vide. Vous prendrez plus facilement une ligne de métro où l’on est à l’heure dans 85% des cas, que la même ligne où l’on est en retard dans 15% des cas (ce qui est la même chose).
        Voir le coté positif des choses est plus incitatif : on vendra plus facilement un produit qui a 80% d’oméga3 et 6, que le même produit qui a 20% d’acides gras saturés. Alors la pub n'indiquera que le premier chiffre !

        Finalement nos décisions peuvent changer selon la façon dont on nous présente les données qui devraient permettre de les pendre de façon satisfaisante, et cela peut être un biais dont nous n’avons pas conscience.
        En fait nos choix ne sont pas forcément rationnels pour deux raisons : d’abord parce que les émotions, les sentiments influent tout autant que le raisonnement logique. Ensuite parce que le raisonnement logique demande des prémices et ensuite une connaissance des buts attendus et de la marche à suivre. Or on nous donne des prémices « orientés », et par ailleurs nos analyses sur les buts et moyens des opérations sont souvent succincts, car nécessitant un effort de réflexion fatigant.
        Paradoxalement les enfants sont moins influencés par le contexte, car leur raisonnement est surtout quantitatif : il cherchent la décision qui permettra d’avoir le plus grand nombre de satisfaction (par exemple la plus grand nombre de bonbons).
        Pour les adultes, le qualitatif intervient autant que le quantitatif et le qualitatif est plus vague, plus sensible à l’environnement et à la présentation des faits. Par ailleurs alors que l’enfant recherche le gain immédiat, l’adulte a une vue à plus long terme. Le nombre et la nature des données influant la décision deviennent plus grands et le choix rationnel est en fait plus difficile et plus sensible à la présentation.
        En vieillissant l’esprit est moins flexible, et par ailleurs on devient plus prudent, plus méfiant. On est donc encore plus sujet aux biais de présentation des données.

        Bien entendu la personnalité des individus va influer sur leurs décisions et le risque de biais. Une personne de préférence cérébrale de décision « L », qui a tendance à analyser logiquement les données, sera moins sensible à la présentation qu ‘une personne de préférence « V », qui va décider selon des critères subjectifs de goûts et valeurs.
        Egalement, une personne est plus ou moins influençable ou indépendante d’esprit. Cette préférence cérébrale sera évidemment très importante quant à nos réactions vis à vis des informations qui nous envahissent.

    Partager via Gmail

    votre commentaire
  •  

    Comment ne pas être trop chargé mentalement ?

     Comment ne pas être trop chargé mentalement ?

           Plusieurs lecteurs de mon article sur l’incapacité de notre cerveau à faire plusieurs tâches à la fois, et la charge mentale et le stress qui en résultent, me demandent comment éviter cet inconvénient.

        Je ne suis pas très bien placé pour répondre à cette question, car, comme je le disais je n’ai pas connu cet afflux de message et de sms et l’emploi des portables professionnel jusque dans la vie privée.
        Certes, en 1990 nous avions dans l’environnement de mon travail, de nombreux ordinateurs et une messagerie interne performante, mais elle était limitée à l’entreprise et donc les messages venaient de ses principaux collaborateurs ou de ses patrons, et étaient limités à une dizaine par jour. Il n’y avait pas de téléphone portable, et hors de l’entreprise, on pouvait emmener des dossiers à lire, mais les communications étaient coupées.
        La charge mentale était donc très raisonnable, et engendrée plutôt par la résolution des problèmes à court et moyen terme, et on avait le temps de réfléchir.
        Je vais donc me baser, pour vous répondre, sur des articles que j’ai lus, sur ce que me disent les gens en activité, et sur le bon sens.

        D’abord il me semble prudent de se ménager des instants de détente et de repos. Il me paraît donc normal que le soir ou le week-end, on coupe les ponts avec son travail. Et je pense que les patrons qui exigent le contraire vont au devant de gros ennuis, d’un burn-out à terme de leurs cadres.

        Le deuxième point est que les ordinateurs, tablettes et téléphones portables ont aussi des avantages : ils permettent d’organiser et de classer. Il faut utiliser ces fonctions pour organiser son temps, et ses bases de données.
        Il existe dans beaucoup d’entreprises des agendas communs qui permettent d’organiser les rendez vous. Encore faut il, sur ces agendas se réserver de « faux rendez-vous », des créneaux que vous vous réservez pour certaines tâches, pour réfléchir aux problèmes.
        La réunionnite est le pire fléau des entreprises. Il faut limiter les réunions aux questions essentielles, et faire à la place des visio-conférences ou plus simplement des demandes d’avis par mails.
        Il existe de nombreux « assistants » qui peuvent vous aider à vous rappeler des choses à faire, à prendre des notes quand une idée vous vient, à scanner et rendre un texte utilisable par reconnaissance de caractère, des logiciels simples pour faire des schémas, ou tracer des courbes à partir de chiffres sur un tableur.
        Les téléphones portables peuvent prendre des photos qui dispensent d’une longue et laborieuse description……

        Un troisième point est de se rappeler qu’on ne peut pas faire deux tâches à la fois. Il faut donc trier les tâches importantes et celles qui ne le sont pas et ne pas s’encombrer de tous les détail mais se concentrer sur l’essentiel
        Il faut aussi trier ce qui est urgent et ce qui peut attendre.
        On a souvent avantage à analyser la démarche de travail au préalable, afin de la décomposer en une série de problèmes successifs, que l’on pourra résoudre, un par un, l'un après l'autre. On ne traitera ainsi que des étapes plus simples, sans les mélanger et en se consacrant exclusivement à chacune.
        Et il faut se rappeler que l’on ne peut agir et réfléchir à la fois et que la réflexion doit précéder l’action.

        Pour ne pas être trop surchargé, il ne faut pas vouloir faire à la fois son travail et celui de ses collaborateurs. Il faut déléguer largement, en donnant des ordres et consignes claires, mais en laissant ensuite travailler et en se contentant de contrôler les résultats, sauf bien sûr si le collaborateur appelle à l’aide, mais il ne faut pas que cela soit habituel, sinon c’est qu’on lui confie des tâches qu’il n’est pas capable d’assumer.

        Ordinateur et smartphones permettent de classer nos données qu’autrefois on ne pouvait mettre que sur du papier et dans des dossiers dans des armoires. Nous avons toutes nos données partout avec nous et sous un faible volume.
        Mais les systèmes de classement des smartphones tablettes et ordinateurs sont frustres et basés sur le tri des noms des dossiers. C’est très bien au début mais très vite ce n’est plus possible de se rappeler ces noms exacts quand vous avez des milliers de documents. il faut donc se créer un classement hiérarchique personnel des dossiers, des sous-dossiers et des autres subdivision. Il n’existe pas de système standard : votre classement est fonction du type de travail que vous avez, des affaires et problèmes que vous avez à traiter.
        A la limite certaines affaires exigent des méthodes de classement différentes, et il faut donc que vous ayez une « table des matières, un dictionnaire de ce classement, qui peut d’ailleurs être à plusieurs entrées. C’est l’avantage du tri des ordinateurs.

        Et pour en revenir aux messages, il ne faut pas se laisser surcharger par leur multitude. Bien qu’étant en retraite, j’ai beaucoup d’occupations bénévoles et je reçois de nombreux messages plus ceux de pub . Alors mon mac m’aide au milieu de ce fatras. Je lui ai donné des consigne précises et il met directement à la poubelle tous les jours quelques dizaines de mails publicitaires. Suivant d’autres critères il classe de nombreux messages en « indésirables » dont je ne lirai que l’origine et l’objet de la liste, juste pour verifier que le caractère indésirable est justifié.
        Ensuite il me regroupe les autres messages entre les diverses affaires, ou personnes à l’origine, et ceux qu’il ne sait pas classer. A moi ensuite de leur donner un degré d’urgence et de classer ceux que le mac a déclaré « inclassables » et notamment à différencier les messages de simple information, de ceux qui réclament traitement et action..
        Cela me permet de traiter les messages urgents, puis ceux non urgents et de consulter lors de temps libres, les messages qui ne vous apportent que de l’information.

        Ce que je viens d’écrire n’est pas original : on appliquait les mêmes règles autrefois, mais on n’avait pas tout l’arsenal d’aides que peuvent apporter les appareils électroniques.
        Par contre on avait davantage qu’aujourd’hui, un (ou une) assistant(e) pour vous aider dans les multiples tâches que l’on avait à faire et cette personne prenait en charge toutes les opérations que l’ordinateur fait aujourd’hui; à condition toutefois qu’on n’hésite pas à les lui confier, à la tenir au courant des ses propres activités, car c’est un travail en symbiose, si l’on veut qu’il soit efficace.

        J’ai trouvé dans une revue, un organigramme imaginé par David Allen, pour trier les tâches à faire. Certes il est simpliste, mais il m’a paru intéressant : vous le trouverez ci-dessous.

    Comment ne pas être trop chargé mentalement ?

    Partager via Gmail

    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique