Informations

Théorie de l'attention : est-il impossible d'éviter la distraction ?

Théorie de l'attention : est-il impossible d'éviter la distraction ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je me souviens avoir lu à un moment donné dans la littérature que les humains sont incapables d'éviter la distraction d'une certaine tâche principale si cette tâche n'utilise pas presque toutes les « ressources » disponibles - ce qui signifie essentiellement que chaque fois que le cerveau humain a des ressources cognitives sera affecté à une chose ou à une autre.

Est-ce correct? Si non, à quel moment ma compréhension est-elle erronée ? Pouvez-vous donner une référence pertinente concernant cette question?

Edit : Je fais référence à la distraction dans le contexte de la circulation du point de vue du conducteur individuel.

VoirHancock, P.A., Mouloua, M., & Senders, J.W. (2009). Sur les fondements philosophiques du conducteur distrait et de la distraction au volant.


Je pense que vous devez probablement définir plus clairement ce que vous entendez par distraction - quels types d'événements ou d'objets dans le monde distraient, et que signifie être distrait ? - mais entre les sujets des différences de susceptibilité à la distraction ont été notées dans la littérature sur la dépendance au champ au moins http://www.amsciepub.com/doi/abs/10.2466/pms.1965.20.3.805


5 façons d'attirer l'attention de votre client dans un monde distrait

Par Team Braze 13 janvier 2016

Les spécialistes du marketing dans le monde d'aujourd'hui, toujours connecté et riche en informations, sont confrontés à un énorme défi : le cerveau d'un consommateur ne peut contenir qu'une quantité limitée d'informations avant de se fatiguer. La capacité d'attention d'une personne est inévitablement limitée, et avec l'explosion d'informations disponibles chaque jour via des appareils personnels, les spécialistes du marketing mobile luttent contre de grandes chances pour atteindre et engager leur public.

Par définition, une ressource limitée a une valeur, ce qui en fait une monnaie. Ce concept économique, appelé économie de l'attention, traite l'attention humaine comme une denrée rare parce qu'une personne n'en a qu'une quantité limitée. De plus, plus il y a d'informations disponibles, plus l'attention devient coûteuse.

Passionné par l'économie de l'attention, le professeur agrégé de la Harvard Business School, Thales Teixeira, a mené des recherches et publié des conclusions sur la manière de tirer parti de cette ressource limitée. Il promeut une rigueur scientifique pour permettre un processus fiable et reproductible qui aide les spécialistes du marketing à s'engager plus efficacement avec leurs publics. Ses études se sont largement centrées sur les publicités vidéo en direct et en ligne, mais ses conclusions sont pertinentes pour capter l'attention avec des stratégies de marketing omnicanal et de rétention et sur les téléphones mobiles des consommateurs, où l'attention est encore plus fragmentée.

Teixeira a calculé que le coût de l'attention avait été multiplié par sept à neuf en termes réels depuis 1990, ce qui en fait l'augmentation des dépenses d'entreprise la plus spectaculaire des 25 dernières années. La solution? Teixeira exhorte les spécialistes du marketing à réfléchir à la manière dont ils peuvent capter l'attention de manière rentable.


Si le multitâche est impossible, pourquoi certaines personnes sont-elles si douées ?

Tout le monde est multitâche. Nous avons des conversations en conduisant. Nous répondons aux e-mails lors de la navigation sur le Web. Il est difficile d'imaginer vivre autrement. Quelle serait l'alternative, retirer les sièges de votre voiture pour vous assurer de ne conduire que seul ? Bloquer tous les sites Web non nommés Gmail ? Un monde de monotâche constante est trop absurde pour être contemplé.

Mais la science suggère que le multitâche tel que nous le connaissons est un mythe. "Les humains ne sont pas vraiment multitâches", a déclaré Eyal Ophir, le chercheur principal de l'étude Stanford Multitasking. « Nous changeons de tâche. Nous passons simplement très rapidement d'une tâche à l'autre et nous avons l'impression d'être multitâches. »

En 1946, le monde a été présenté au premier ordinateur électronique à usage général de l'histoire : ENIAC, surnommé le « Cerveau géant ». A l'époque, le mot multitâche n'existait pas. Il est apparu pour la première fois dans un magazine appelé Datamation en 1966, selon l'Oxford English Dictionary, dans la phrase suivante : « Le multitâche est défini comme l'utilisation d'un seul processeur pour le traitement simultané de deux ou plusieurs tâches.


Au cours des 65 années suivantes, les ordinateurs sont devenus des assistants multitâches, avec la possibilité de télécharger des films tout en jouant de la musique tout en exécutant des programmes complexes et en exécutant un million d'autres fonctions que nous tenons pour acquises, mais en 1946, cela aurait semblé magique. Pendant ce temps, les personnes qui exploitent ces merveilleuses machines ne se sont pas améliorées en multitâche au cours des 60 dernières années. Si quoi que ce soit, nous avons empiré.

Dans les bas-fonds, un livre sur la mémoire et Internet, Nicholas Carr a déclaré que le Web changeait notre façon de penser, de lire et de nous souvenir. Les humains sont des chasseurs et des collectionneurs d'informations. On cherche, on trouve, on se souvient. Si Internet nous aide à rechercher et à trouver des données, cela nuit à notre capacité à les absorber et à les conserver. Avant Internet, selon la théorie, nos attentions s'étendaient verticalement. Avec Internet, notre objectif s'étend horizontalement et superficiellement.

Pourquoi pensons-nous que nous sommes si bons dans quelque chose qui n'existe pas ? Nous compensons notre incapacité à effectuer plusieurs tâches à la fois par une capacité remarquable à effectuer une seule tâche en succession rapide. Nos cerveaux ne sont pas une volée de mille flèches descendant sur une armée adverse. Nos cerveaux sont Robin Hood. Un homme avec un arc tirant sur tous les arrivants, un à la fois.

Si le multitâche est un mythe, il peut être surprenant que certaines personnes y soient douées. Il s'avère que les personnes qui effectuent moins de tâches multiples - ou qui effectuent une seule tâche rapidement - sont meilleures pour tirer la prochaine flèche d'attention sur une nouvelle tâche. Une célèbre étude sur le multitâche des médias a révélé que les multitâches « lourds » sont plus susceptibles aux distractions et donc moins aptes à changer de tâche efficacement. Cela a du sens si vous considérez le multitâche comme « l'art de prêter attention ». Les gros multitâches déploient le tapis de bienvenue pour chaque nouvelle distraction. Bien sûr, ils ne peuvent pas faire attention aux choses. L'attention n'est pas leur intention.

L'attention est importante. Et les multitâches légers pourraient mieux préserver leur attention. Mais certaines personnes apprécient la distraction. Ils recherchent sciemment le frisson du nouveau. Dans une interview avec Boing Boing, Ophir a souligné qu'il est difficile de déterminer quel type de travailleurs est le plus "efficace" pour le multitâche jusqu'à ce que vous déterminiez ce qu'ils attendent de leur travail.

"Je pense que les multitâches lourds ne sont pas moins efficaces - ils ont simplement un objectif différent", a-t-il déclaré. "Là où vous pourriez dire traditionnellement que nous apprécions la capacité de se concentrer à travers les distractions, ils sont prêts à sacrifier la concentration afin de s'assurer qu'ils ne manquent pas une surprise inattendue, mais enrichissante. En conséquence, ils pourraient faire pire au bureau scénario que j'ai décrit, mais ils pourraient aussi être les premiers à freiner dans le scénario voiture/téléphone portable."

Le résultat est qu'il est inutile de dire qu'un type de travailleur est bon en multitâche et qu'un autre est mauvais. Au lieu de cela, il existe une offre limitée de cette chose appelée attention, et un million de façons de la diviser, de la gérer et de la préserver. Pour certaines personnes, un état de concentration profonde est le nirvana du bureau. Pour d'autres, la distraction perpétuelle est une nécessité de bureau. Vous tirez vos flèches comme vous le souhaitez.


Une nouvelle théorie de la distraction

« À des moments douloureux, lorsque la composition est impossible et que la lecture ne suffit pas, les grammaires et les dictionnaires sont excellents pour se distraire », écrivait la poétesse Elizabeth Barrett Browning en 1839. C'était l'époque. Browning a toujours raison, bien sûr : demandez à n'importe quel lecteur de Wikipédia ou d'Urban Dictionary. Elle semble anachronique uniquement parce qu'aucune personne moderne n'a besoin de conseils sur la façon de se laisser distraire. Tout comme la dactylographie, la recherche sur Google et la conduite, la distraction est désormais une compétence universelle. Nous sommes tous des experts.

Pourtant, malgré toute notre expertise, la distraction conserve une aura de mystère. C'est difficile à définir : cela peut être interne ou externe, habituel ou surprenant, agaçant ou agréable. Il est façonné par le pouvoir : là où un patron voit un employé distrait, un employé voit un patron autoritaire. Souvent, cela peut être utile : mon dentiste, qui était autrefois moniteur de ski, rapporte que les skieurs débutants apprennent mieux si leurs professeurs, en parlant, les détournent du fait qu'ils glissent en bas d'une montagne. (C'est un distracteur expert dans son travail actuel, aussi la dernière fois qu'il m'a nettoyé les dents, il a fredonné tout "You Make Loving Fun", y compris le solo de guitare.) Il existe, en bref, des variétés d'expériences distraites. Il est difficile de généraliser sur un phénomène aussi changeant.

Une autre source de confusion est la croissance apparente de la distraction. Il existe deux grandes théories sur la raison pour laquelle il est à la hausse. La première est matérielle : elle soutient que notre société high-tech urbanisée est conçue pour nous distraire. En 1903, le sociologue allemand Georg Simmel a fait valoir, dans un essai influent intitulé « La métropole et la vie mentale », que dans la ville saturée de technologies, « les stimulations, les intérêts et la prise de temps et d'attention » transforment la vie en « un flux ce qui ne nécessite guère d'efforts individuels pour son déroulement. (À la campagne, il faut se divertir.) Une façon de comprendre le boom de la distraction est donc en termes de propagation de la vie urbaine : non seulement le monde est devenu plus urbain, mais les appareils numériques nous permettent d'apporter des expériences citadines avec nous partout où nous allons.

La deuxième grande théorie est spirituelle - c'est que nous sommes distraits parce que nos âmes sont troublées. Le comédien Louis C.K. peut-être l'exposant contemporain le plus célèbre de cette façon de penser. Il y a quelques années, dans "Late Night" avec Conan O'Brien, il a fait valoir que les gens sont accros à leur téléphone parce qu'"ils ne veulent pas être seuls une seconde parce que c'est si difficile". (David Foster Wallace voyait aussi la distraction de cette façon.) La théorie spirituelle est encore plus ancienne que la théorie matérielle : en 1874, Nietzsche écrivait que « la hâte est universelle parce que chacun est en fuite de soi » au XVIIe siècle, Pascal disait que « tout les misères des hommes découlent du fait de ne pas pouvoir s'asseoir seul dans une pièce tranquille. À bien des égards, des deux, la théorie matérielle est plus rassurante. Si l'augmentation de la distraction est causée par la technologie, alors la technologie pourrait l'inverser, tandis que si la théorie spirituelle est vraie, la distraction est là pour rester. Ce n'est pas une compétition, même si en fait, ces deux problèmes pourraient se renforcer mutuellement. La stimulation peut conduire à l'ennui, et vice versa.

Une version de cette théorie du renforcement mutuel est plus ou moins ce que propose Matthew Crawford dans son nouveau livre, « Le monde au-delà de votre tête : devenir un individu à l'ère de la distraction » (Farrar, Straus & Giroux). Crawford est un philosophe dont le dernier livre, « Shop Class as Soulcraft », proposait que travailler de ses mains pourrait être un antidote au sentiment d'inutilité qui hante de nombreux travailleurs du savoir. (Kelefa Sanneh l'a examiné pour ce magazine, en 2007.) Crawford soutient que notre distractibilité accrue est le résultat de changements technologiques qui, à leur tour, ont leurs racines dans les engagements spirituels de notre civilisation. Depuis les Lumières, écrit-il, les sociétés occidentales ont été obsédées par l'autonomie, et au cours des cent dernières années, nous avons placé l'autonomie au centre de nos vies, économiquement, politiquement et souvent technologiquement, lorsque nous pensons à ce que signifie être heureux, nous pensons à la liberté de nos circonstances. Malheureusement, nous sommes allés trop loin : nous sommes maintenant accros à la libération, et nous considérons toute situation - un film, une conversation, une promenade d'un pâté de maisons dans une rue de la ville - comme une sorte de prison. La distraction est un moyen d'affirmer le contrôle de son autonomie. Les technologies d'évasion, comme le smartphone, puisent dans nos habitudes de sécession.

La façon dont nous parlons de distraction a toujours été un peu égoïste – nous disons, à la voix passive, que nous sommes « distraits » par Internet ou nos chats, et cela nous fait passer pour les victimes de nos propres décisions. Mais Crawford montre que cette façon de parler dénature l'ensemble du phénomène. Ce n'est pas seulement que nous choisissons nos propres distractions, c'est que le plaisir que nous obtenons d'être distrait est le plaisir d'agir et d'être libre. Il y a une joie à faire des choix, un contentement qui s'installe après avoir affirmé notre autonomie. Lorsque vous écrivez un essai dans Microsoft Word tout en regardant, dans une autre fenêtre, un épisode de "American Ninja Warrior" - croyez-moi, vous pouvez le faire - vous déclarez votre indépendance par rapport à la corvée du travail. Lorsque vous attendez pour traverser la rue et chercher à vérifier vos e-mails, vous repoussez l'indignité d'être obligé d'attendre. La distraction est attrayante précisément parce qu'elle est active et rebelle.

Inutile de dire que toutes les distractions ne sont pas auto-générées, le monde est de plus en plus saturé de publicités. Et cela, pense Crawford, a transformé la distraction en un combat entre le pouvoir des entreprises et la volonté individuelle. A l'aéroport, par exemple, on écoute de la musique au casque pour éviter d'écouter CNN. Il y a un sens, soutient-il, dans lequel les entreprises de technologie personnelle sont dans une course aux armements avec les entreprises de publicité et de marketing. Si vous allez au cinéma et éteignez votre téléphone prématurément, vous risquez de vous retrouver coincé à regarder les annonces de prévisualisation, mais, si vous avez une Apple Watch, vous pouvez toujours affirmer votre autonomie en faisant défiler les listes et en vérifiant votre nombre de pas. Fondamentalement, bien sûr, les deux côtés sont indiscernables : ils parlent tous les deux dans ce que Crawford appelle le « discours sur l'autonomie », « le langage consumériste de la satisfaction des préférences », dans lequel le choix du consommateur est identifié à la libération et au bonheur. « Le choix est le totem central du capitalisme de consommation, et ceux qui nous présentent des choix apparaissent comme les servantes de notre propre liberté », écrit-il.

Nous sommes maintenant dans un cocon, soutient Crawford, dans des siècles de technologie conçue pour assurer notre autonomie – le smartphone ne représente que la couche la plus interne. Si vous consultez Twitter depuis votre tablette tout en regardant "Game of Thrones" à la demande, ou écoutez Spotify en travaillant sur un tableur dans votre cabine, alors vous profitez de nombreuses technologies d'autonomie à la fois. Une ironie centrale de la vie moderne, écrit Crawford, est que même au sein de nos cocons, «l'impératif culturel d'être autonome» est plus fort que jamais. Cet impératif dépend de « l'identification de la liberté avec le choix, où le choix est compris comme un pur éclat de la volonté inconditionnée » (un clic, un défilement, un tap). Malgré la rhétorique révolutionnaire des entreprises technologiques, nous sommes moins des révolutionnaires que des joueurs de casino. Un joueur fait l'expérience de gagner et de perdre, il prend des risques et fait des choix fatidiques. Mais il fait tout cela à l'intérieur d'un «environnement hautement conçu» et ses expériences ne sont que de simples simulacres de ce qu'elles seraient en dehors de celui-ci. Tout comme gagner ironiquement - gagner c'est-à-dire perdre à long terme - est au centre de la vie du joueur, de même la liberté ironique - l'action qui est en fait la distraction - est devenue un « style d'existence » pour la personne moderne.

Étant donné l'extrémité de sa vision, vous vous attendez à moitié à ce que Crawford propose une solution radicale : brûlez tout ! Démantelez la matrice ! Mais ses suggestions se révèlent plus humbles. « L'image de l'excellence humaine que je voudrais offrir comme contrepoids à la liberté ainsi comprise, écrit-il, est celle d'un esprit puissant et indépendant travaillant à plein régime. « Travailler » est le mot clé. Une grande partie de "Le monde au-delà de votre tête" concerne des personnes qui font un travail auquel elles ne peuvent s'empêcher de prêter attention: cuisiniers à court terme, joueurs de hockey, coureurs de moto, souffleurs de verre. Ces travailleurs, écrit Crawford, s'efforcent de se mettre « dans une relation d'ajustement » avec un monde exigeant. Lorsqu'un cuisinier à la chaîne se précipite pour faire face à de nouvelles commandes, ou lorsqu'un motard anticipe un bout de route glissante, ils sont à la fois « limités et dynamisés » par les contraintes qu'ils rencontrent. (Il y a peu de réconfort dans le livre pour les employés de bureau dévoués Crawford lui-même a renoncé à une carrière universitaire traditionnelle pour diriger une entreprise qui fabrique des pièces de moto personnalisées.) Le fait est que ces employés, qui sont immergés dans ce qu'ils font, ne sont pas vraiment autonomes à la place. , ils sont ancrés dans le monde réel (la cuisine exigeante, la route imprévisible). Ils ne vivent pas dans leur tête, mais ressentent l'adhérence des pneus sur l'asphalte, la chaleur des flammes sur le gril. « La joie est le sentiment que ses pouvoirs augmentent », écrit-il. La distraction est le contraire de la joie, qui devient plus rare à mesure que nous passons plus de temps dans un environnement sans friction de choix numériques faciles et triviaux.

"Le monde au-delà de votre tête" est perspicace et, en partie, convaincant. Son problème, ironiquement, est celui de la concentration. Crawford finit par voir à peu près toute la vie moderne comme une source de distraction. A l'inverse, il ne semble satisfait qu'en développant une gamme étroite de compétences viriles. Et il exagère le pouvoir de ce qui est, pour la plupart, un aspect simplement ennuyeux de la vie contemporaine. Il n'est pas le seul dans ce cas : de nombreux auteurs sur la distraction la présentent comme un cataclysme existentiel. Un livre précédent et influent sur le sujet, de la journaliste Maggie Jackson, s'intitulait "Distracted: The Erosion of Attention and the Coming Dark Age".

Pourquoi tant d'écrivains trouvent-ils la distraction si effrayante ? La réponse évidente est qu'ils sont des écrivains. Pour eux, plus que pour les autres, la distraction est vraiment un danger clair et présent. Avant d'écrire "Shop Class as Soulcraft", Crawford a obtenu un doctorat. en philosophie à l'Université de Chicago. La distraction est encore plus effrayante pour les étudiants diplômés. Quelques années passées à travailler sur une thèse vous laissent prédisposé à la craindre et à la détester hors de toute proportion.

Plus généralement, la distraction fait peur pour une autre raison complémentaire : l'immense valeur que nous accordons à la participation. Le monde moderne valorise peu de choses plus que l'attention. Il exige que nous soyons attentifs à l'école et au travail, il punit les parents pour leur inattention, il nous exhorte à faire attention à l'argent, à la nourriture et à la forme physique, il célèbre les personnes qui attirent l'attention des autres. En tant qu'individus, nous tirons beaucoup de sens des produits d'une attention et d'une concentration soutenues, des projets que nous avons réalisés, des relations que nous avons entretenues, des engagements que nous avons respectés, des compétences que nous avons maîtrisées. La vie semble souvent consister à « faire » attention – et la tendance générale semble être vers un mode de vie de plus en plus attentif. Derrière la crise de distraction, en bref, il y a ce qui équivaut à une crise d'attention : plus l'attention devient précieuse et demandée, plus les distractions même inoffensives semblent être problématiques. (À en juger par les livres d'auto-assistance, la distraction et l'occupation sont devenues le Scylla et le Charybde de l'existence moderne.)

Comme pour notre obsession de l'autonomie, cette valorisation extrême de l'attention est un héritage des Lumières : le revers du « je pense, donc je suis » de Descartes est que nous sommes ce à quoi nous pensons. Le problème avec cette conception de l'individualité est que les gens ne passent pas tout leur temps à penser de manière organisée et délibérée. Notre esprit vagabonde et la vie est pleine de moments sans signification. Des minutes entières s'écoulent pendant lesquelles vous écoutez Rihanna dans votre tête, ou regardez paresseusement les chaussures des gens, ou vous vous souvenez du lycée. Parfois, votre esprit n'est qu'un fouillis aléatoire d'images, de sensations, de sons, de souvenirs, à d'autres moments, vous pouvez regarder par la fenêtre et ne penser à rien. Ce genre de temps distrait contribue peu au projet d'ipséité cohérente, et peut même sembler le miner. Où es-tu quand tu joues à Temple Run ? Qui êtes-vous lorsque vous regardez des GIF de chats ? Si vous êtes ce à quoi vous pensez, alors qu'êtes-vous lorsque vos pensées ne s'additionnent à rien ? Être distrait, de ce point de vue, c'est comme s'endormir. C'est comme faire une pause sur l'individualité.

Que faire de ce non-soi persistant, ou anti-soi ? Vous pouvez bien sûr redoubler d'efforts et tenter, comme le fait Crawford, de vous sculpter un meilleur vous, celui dans lequel la distraction est remplacée par l'attention. Ou vous pouvez essayer, comme diverses personnes l'ont fait, de vous reconcevoir d'une manière qui donne un sens au temps distrait. Freud, par exemple, a proposé une interprétation du caractère aléatoire apparent de l'esprit. Les surréalistes ont essayé d'en faire de l'art. Divers philosophes ont soutenu que le soi est moins cohérent que nous ne le pensons. Mon approche préférée est celle de James Joyce, dans « Ulysse » : il a juste accepté ce non-soi, d'une manière « sans jugement ». Dans « Ulysse », les personnages sont toujours distraits. Ils fredonnent des chansons dans leur tête, aspirent à la nourriture, ont des fantasmes sexuels oisifs. Parce qu'ils ne se sentent pas coupables à ce sujet, ils ne le remarquent jamais. En fait, ils ne se sentent presque jamais mal à propos des pensées dans leur tête.


Qu'est-ce que la théorie de la Gestalt ?

La Gestalt est un courant décisif dans l'histoire de la psychologie. Il est né en Allemagne au début du 20ème siècle. C'est Christian von Ehrenfels, philosophe autrichien, qui a donné son nom à ce mouvement dans Les Attributs de la forme, son œuvre la plus importante. Il n'y a pas de traduction anglaise parfaite du terme “gestalt”. Mais nous pouvons l'interpréter comme “totalité”,”figure”,”structure”,”configuration” ou “unité organisée”.

“Le tout est plus que la somme de ses parties” est son maximum. Les principaux auteurs de la Gestalt ont proposé des alternatives aux paradigmes psychologiques dominants et ont apporté de grandes contributions à la psychologie cognitive.

Cette focalisation particulière a été une bouffée d'oxygène et a permis à des personnes qui ne se sentaient pas représentées par les grands courants de la psychologie de trouver une alternative.


Lié à cette histoire

« Lorsqu'ils se trouvent dans des situations où il existe de multiples sources d'informations provenant du monde extérieur ou émergeant de la mémoire, ils ne sont pas en mesure de filtrer ce qui n'est pas pertinent pour leur objectif actuel », a déclaré Wagner, professeur agrégé de psychologie. « Ce défaut de filtrage signifie qu'ils sont ralentis par ces informations non pertinentes. »

Alors peut-être qu'il est temps d'arrêter d'envoyer des e-mails si vous suivez le match à la télévision, et de repenser à chanter avec la radio si vous lisez les dernières nouvelles en ligne. En faisant moins, vous pourriez accomplir plus.


Attention partagée pendant la conduite

Dans le chapitre 4 de Goldstein Psychologie cognitive, nous avons appris comment être inattentif au volant peut conduire à des accidents plus fréquents ainsi qu'à des accidents évités de justesse. En fait, une étude de recherche a révélé que 80 % des accidents et 67 % des quasi-accidents étaient le résultat d'une concentration inattentive trois secondes à l'avance (Goldstein 94). Pendant de nombreuses années, j'ai utilisé un système GPS dans ma voiture pour me diriger vers et depuis des points de destination. Un quasi-accident dû à l'utilisation de mon GPS en conduisant m'a suffi pour réaliser les dangers d'essayer de jongler avec plusieurs tâches cognitives tout en conduisant simultanément un véhicule. Heureusement, j'ai appris ma leçon sans la dévastation qui résulte d'un grave accident de voiture, mais j'espère qu'à mesure que la recherche commencera à faire son chemin dans les médias plus fréquemment, les gens commenceront à se rendre compte que jongler avec plusieurs tâches cognitives complexes au volant est pas une compétence que l'on cherche à maîtriser, mais une tâche impossible même pour les conducteurs les plus qualifiés.

J'ai appris ma leçon sur les dangers de changer de concentration en conduisant il y a plusieurs années alors que j'utilisais mon GPS pour me guider dans le centre-ville de Los Angeles. Après avoir quitté la sortie suggérée, j'ai remarqué des cônes orange et une équipe de construction bloquant la rue vers laquelle mon GPS me guidait. Alors qu'un homme guidait les voitures devant moi sur le chantier, je me suis retrouvé à jeter un coup d'œil à mon GPS, quand soudain la voiture devant moi s'est arrêtée brusquement, m'obligeant à laisser tomber mon GPS et à claquer sur mes freins. J'ai fini par manquer la voiture devant moi d'environ un pouce et j'ai senti mon cœur bondir hors de ma poitrine. A partir de ce moment, je me suis juré de ne jamais utiliser mon GPS en conduisant.

Pendant de nombreuses années, j'ai supposé que jongler avec des tâches cognitives en conduisant était une compétence que l'on pouvait maîtriser, mais avec le temps, j'ai réalisé à quel point j'avais tort dans cette hypothèse. En raison de reportages dans les médias révélant les dangers d'envoyer des SMS ou de parler au téléphone en conduisant, j'ai toujours essayé d'éviter d'utiliser mon téléphone portable au volant, mais pour une raison étrange, j'ai fait des exceptions pour d'autres appareils tels qu'un GPS, un iPod ou un repas rapide sur le pouce. J'ai pensé que j'avais cette chose multitâche vers le bas, et que je pouvais facilement déplacer mon attention tout en conduisant et réussir à arriver en toute sécurité à n'importe quelle destination que je cherchais à l'époque. Un presque accident palpitant a révélé à quel point j'avais tort et m'a fait réaliser que toutes les compétences du monde ne peuvent pas vous préparer à des situations soudaines et cognitivement complexes sur la route.

Pour conclure, en conduisant, il faut se rappeler de rester concentré sur la route et d'être toujours prêt à s'arrêter brusquement, à changer de voie ou à faire le tour car souvent des obstacles se présentent quand on s'y attend le moins et il faut toujours être prêt à réagir rapidement et efficacement. L'essentiel est que le multitâche cognitif pendant la conduite n'est pas une compétence que l'on peut maîtriser avec la pratique, mais une activité risquée même pour les conducteurs les plus qualifiés. Par conséquent, toutes les distractions qui détournent nos yeux de la route vers un autre point de vue sont potentiellement dangereuses et doivent être évitées pour éviter de futurs accidents.

Goldstein, B. (2011). Attention. Dans Psychologie cognitive Relier l'esprit, la recherche et l'expérience quotidienne (3e éd.). Belmont, Californie : Wadsworth.


Pourquoi avons-nous besoin d'une taxonomie ?

Au fil des ans, les magiciens ont acquis une grande quantité de connaissances utiles sur les erreurs d'orientation efficaces. Bien qu'une grande partie de ces connaissances aient été discutées dans des articles et des livres théoriques, elles ont tendance à être décrites uniquement dans le contexte de tours de magie individuels donnant un sens à ces connaissances ou même simplement accéder à ces connaissances est souvent un défi pour les magiciens et les non-magiciens.

Une façon de gérer cela est via une taxonomie. Ceux-ci sont au cœur de nombreux domaines scientifiques, aidant notre compréhension dans des domaines tels que la chimie, la biologie et même la minéralogie. Si nous avons l'intention de vraiment comprendre tout aspect de la magie, y compris la mauvaise direction, une taxonomie doit être une partie cruciale de cette entreprise (Rensink et Kuhn, en cours de révision).

Les taxonomies précédentes de la mauvaise direction ont été développées du point de vue de la performance magique (Leech, 1960 Ascanio, 1964 Randal, 1976 Bruno, 1978 Sharpe, 1988), ou étaient basées sur des principes psychologiques plutôt informels (Lamont et Wiseman, 1999). L'objectif central de notre effort est de développer un système plus rigoureux et moins subjectif, basé autant que possible sur des mécanismes psychologiques connus. Entre autres choses, cette approche peut aider à établir des liens plus directs entre les principes pratiques et la compréhension scientifique actuelle de l'esprit humain.


Vous pourriez aussi aimer

Je comprends l'attention sélective et l'audition sélective, mais comment l'appelez-vous lorsque vous envoyez un e-mail à quelqu'un pour que les mots lui soient écrits et pourtant ils l'interprètent comme quelque chose de complètement différent.

Par exemple, que se passe-t-il si j'écris : « Je ne pense pas qu'il aimera ça », et que quelqu'un le lit pour dire : « Il n'aime pas ça », même si ce n'est pas ce que j'ai écrit.

Cela peut parfois être facilement vu si vous identifiez simplement le nom et le verbe dans la phrase. Le nom dans la première phrase est "I", verbe : "think". Dans la deuxième phrase, le nom est, "He", verbe : "like". Par conséquent, "Je pense" et "Il aime" ont un sens complètement différent. Et pourtant, cela arrive tout le temps. Pourquoi? Qu'est-ce que c'est? Cela semble se produire de plus en plus ces jours-ci. Est-ce un trouble de l'attention ? mutsy 29 septembre 2010

Cupcakes15-Cela amène souvent un enseignant à penser que l'enfant ne travaille pas à la hauteur de son potentiel même s'il souffre d'un trouble d'apprentissage.

Un psychologue scolaire ainsi qu'un neurologue devraient tester les enfants atteints de cette maladie.

L'hôpital pour enfants de Miami a un programme consacré au diagnostic et au traitement du TDAH. Un hôpital pour enfants est une excellente ressource pour traiter la mémoire d'attention sélective des enfants.

Souvent, ces enfants souffrent d'une mémoire d'attention faible, ce qui rend difficile la construction de concepts d'apprentissage.

Il existe une organisation à but non lucratif qui compte plusieurs chapitres à travers le pays qui offrent un groupe de soutien aux parents ainsi qu'aux enfants atteints de TDAH.

Ce groupe appelé CHADD donne aux enfants une chance de rencontrer d'autres enfants avec la même condition. Il fournit également aux parents des informations qui pourraient les aider à gérer le trouble de manière plus positive.

Moldavie- C'est tellement vrai. La perception sélective de l'attention est faible chez les personnes atteintes de TDAH.

Le TDAH est un trouble déficitaire de l'attention avec hyperactivité qui touche aussi bien les enfants que les adultes. Cela pourrait être une condition très frustrante parce que la personne atteinte de cette condition a du mal à terminer une tâche ou un projet.

Souvent, leur esprit est distrait et tout stimuli mineur peut le déclencher. De nombreux enfants prennent du retard à l'école parce que non seulement ils ne peuvent pas terminer leurs travaux scolaires, mais il leur est également difficile de se concentrer lorsque les enseignants donnent des cours.

Cela rend l'apprentissage difficile et il n'est pas rare que les enfants atteints de TDAH soient retenus en raison des difficultés scolaires.

C'est une idée fausse que ces enfants ne sont pas intelligents, au contraire beaucoup ont un intellect doué, mais bien que leur capacité mentale pour certaines matières soit supérieure, ils ne sont pas toujours équilibrés dans toutes les matières. Moldavie 29 septembre 2010

Un exemple d'attention sélective est lorsqu'un enfant n'écoute pas lorsqu'il discute d'une corvée ou d'un devoir qui doit être fait et ne le fait finalement pas.

Ce même enfant pourrait être informé d'une nouvelle agréable au sujet d'un voyage ou d'un jouet que vous achèteriez pour lui et ils sont tous des oreilles.

Dans cette situation, l'enfant écoute ce qu'il ne veut pas entendre, mais absorbe ce qu'il aime entendre.

C'est pourquoi la plupart des gens ne sont pas efficaces lorsqu'ils ont recours au harcèlement. La raison est simple, les enfants ont tendance à ignorer les informations négatives et si le harcèlement est suffisamment long, ils éviteront tout ce qui est mentionné.

Afin de développer la mémoire de l'attention, il est préférable de faire répéter à l'enfant la tâche que vous lui avez demandé de faire. De cette façon, vous pouvez vérifier si l'enfant fait attention. Ceci n'est qu'une théorie de l'attention concernant l'attention sélective en psychologie.


Attention partagée

Imaginez qu'en traversant la ville, vous êtes tombé dans une rêverie, en train de méditer sur des amours perdues ou de calculer vos prochains paiements d'impôts. Vous êtes tellement distrait que vous faites reculer la voiture devant vous à 10 milles à l'heure. Vous pensez probablement : Merde. Ma faute. Mon esprit n'y était tout simplement pas.

En revanche, imaginez que vous conduisez à travers la ville dans un état d'euphorie légère, en multitâche en route pour une réunion de vente. Vous buvez du café et parlez à votre patron sur un téléphone portable, en pratiquant votre argumentaire. You cause an identical accident. You’ve heard all the warnings about cellphones and driving—but on a gut level, this wreck might bewilder you in a way that the first scenario didn’t. Wasn’t I operating at peak alertness just then? Your brain had been aroused to perform several tasks, and you had an illusory sense that you must be performing them well.

That illusion of competence is one of the things that worry scholars who study attention, cognition, and the classroom. Students’ minds have been wandering since the dawn of education. But until recently—so the worry goes—students at least a connu when they had checked out. A student today who moves his attention rapid-fire from text-messaging to the lecture to Facebook to note-taking and back again may walk away from the class feeling buzzed and alert, with a sense that he has absorbed much more of the lesson than he actually has.

“Heavy multitaskers are often extremely confident in their abilities,” says Clifford I. Nass, a professor of psychology at Stanford University. “But there’s evidence that those people are actually worse at multitasking than most people.”

Indeed, last summer Nass and two colleagues published a study that found that self-described multitaskers performed much worse on cognitive and memory tasks that involved distraction than did people who said they preferred to focus on single tasks. Nass says he was surprised at the result: He had expected the multitaskers to perform better on at least some elements of the test. But no. The study was yet another piece of evidence for the unwisdom of multitasking.

Experiments like that one have added fuel to the perpetual debate about whether laptops should be allowed in classrooms. But that is just one small, prosaic part of this terrain. Nass and other scholars of attention and alertness say their work has the potential to illuminate unsettled questions about the nature of learning, memory, and intelligence.

As far back as the 1890s, experimental psychologists were testing people’s ability to direct their attention to multiple tasks. One early researcher asked her subjects to read aloud from a novel while simultaneously writing the letter A as many times as possible. Another had people sort cards of various shapes while counting aloud by threes.

Those early scholars were largely interested in whether attention is generated by conscious effort or is an unwilled effect of outside forces. The consensus today is that there are overlapping but neurologically distinct systems: one of controlled attention, which you use to push yourself to read another page of Faulkner, and one of stimulus-driven attention, which kicks in when someone shatters a glass behind you.

But those scholars also became intrigued by the range of individual variation they found. Some people seemed to be consistently better than others at concentrating amid distraction. At the same time, there were no superstars: Beyond a fairly low level of multitasking, everyone’s performance breaks down. People can walk and chew gum at the same time, but not walk, chew gum, play Frisbee, and solve calculus problems.

In a famous paper in 1956, George A. Miller (then at Harvard, now at Princeton) suggested that humans’ working-memory capacity—that is, their ability to juggle facts and perform mental operations—is limited to roughly seven units. When people are shown an image of circles for a quarter of a second and then asked to say how many circles they saw, they do fine if there were seven or fewer. (Sometimes people do well with as many as nine.) Beyond that point, they estimate. Likewise, when people are asked to repeat an unfamiliar sequence of numbers or musical tones, their limit on a first try is roughly seven.

And that is under optimal conditions. If a person is anxious or fatigued or in the presence of an attractive stranger, his working-memory capacity will probably degrade.

What Miller called the informational bottleneck has been recognized as a profound constraint on human cognition. Crudely speaking, there are two ways to manage its effects. One is to “chunk” information so that you can, in effect, pack more material into one of those seven units. As Miller put it, “A man just beginning to learn radiotelegraphic code hears each dit and dash as a separate chunk. Soon he is able to organize these sounds into letters, and then he can deal with the letters as chunks. Then the letters organize themselves as words, which are still larger chunks, and he begins to hear whole phrases.” That sort of process is obviously central to many kinds of learning.

The second method for managing the bottleneck—and the one that concerns us here—is to manage attention so that unwanted stimuli do not crowd the working memory. That might sound simple. But as the Swedish neuroscientist Torkel Klingberg explains in his recent book The Overflowing Brain: Information Overload and the Limits of Working Memory (Oxford University Press), scholars are far from agreement about how to describe the relationship between attention and working memory. Does a poor attention system cause poor working-memory performance, or does the causation sometimes work in the other direction?

One common metaphor is that controlled attention acts as a “nightclub bouncer,” preventing irrelevant stuff from getting into working memory. A few years ago, Klingberg and a colleague conducted brain-imaging experiments that suggested that a region known as the globus pallidus seems to be highly active when people successfully fend off distraction.

“Why is it that some people seem to reason well and others don’t?” asks Michael J. Kane, an associate professor of psychology at the University of North Carolina at Greensboro. “Variability in working-memory capacity accounts for about half the variability in novel reasoning and reading comprehension. There’s disagreement about what to make of that relationship. But there are a number of mechanisms that seem to be candidates for part of the story.”

One of those seems to be attentional, Kane says. “The view that my colleagues and I are putting forward is that part of the reason that people who differ in working-memory capacity differ in other things is that higher-working-memory-capacity people are simply better able to control their attention.”

In other words—to borrow a metaphor from other scholars—people with strong working-memory capacities don’t have a larger nightclub in their brains. They just have better bouncers working the velvet rope outside. Strong attentional abilities produce stronger fluid intelligence, Kane and others believe.

Attention and distraction are entangled not only in reasoning and working memory, but also in the encoding of information into long-term memory.

In 2006 a team of scholars led by Karin Foerde, who is now a postdoctoral fellow in psychology at Columbia University, reported on an experiment suggesting that distraction during learning can be harmful, even if the distraction doesn’t seem to injure students’ immediate performance on their tasks.

Foerde and her colleagues asked their subjects to “predict the weather” based on cues that they slowly learned over many computer trials. For example, seeing an octagon on the screen might mean that there was a 75-percent chance of rain on the next screen. The subjects would never be told the exact percentage, but gradually they would learn to infer that most of the time, an octagon meant rain.

During one of their four training runs, the subjects were distracted by a task that asked them to count musical tones while they did the forecasting. At first glance, the distraction did not seem to harm the subjects’ performance: Their “weather forecasts” under distraction were roughly as accurate as they were during the other three trials.

But when they were asked afterward to describe the general probabilistic rules for that trial (for example, a triangle meant sunshine 80 percent of the time), they did much worse then they did after the undistracted trials.

Foerde and her colleagues argue that when the subjects were distracted, they learned the weather rules through a half-conscious system of “habit memory,” and that when they were undistracted, they encoded the weather rules through what is known as the declarative-memory system. (Indeed, brain imaging suggested that different areas of the subjects’ brains were activated during the two conditions.)

That distinction is an important one for educators, Foerde says, because information that is encoded in declarative memory is more flexible—that is, people are more likely to be able to draw analogies and extrapolate from it.

“If you just look at performance on the main task, you might not see these differences,” Foerde says. “But when you’re teaching, you would like to see more than simple retention of the information that you’re providing people. You’d like to see some evidence that they can use their information in new ways.”

If single-minded attention is vital to learning, how far should college instructors go to protect their students from distraction? Should laptops be barred at the classroom door?

One prominent scholar of attention is prepared to go even further than that.

“I’m teaching a class of first-year students,” says David E. Meyer, a professor of psychology at the University of Michigan at Ann Arbor. “This might well have been the very first class they walked into in their college careers. I handed out a sheet that said, ‘Thou shalt have no electronic devices in the classroom.’ . I don’t want to see students with their computers out, because you know they’re surfing the Web. I don’t want to see them taking notes. I want to see them paying attention to me.”

Wait a minute. No notes? Does that include pen-and-paper note-taking?

“Yes, I don’t want that going on either,” Meyer says. “I think with the media that are now available, it makes more sense for the professor to distribute the material that seems absolutely crucial either after the fact or before the fact. Or you can record the lecture and make that available for the students to review. If you want to create the best environment for learning, I think it’s best to have students listening to you and to each other in a rapt fashion. If they start taking notes, they’re going to miss something you say.”

Give Meyer his due. He has done as much as any scholar to explain how and why multitasking degrades performance. In a series of papers a decade ago, he and his colleagues determined that even under optimal conditions, it takes a significant amount of time for the brain to switch from one goal to another, and from one set of rules to another.

“I’ve done demonstrations in class,” Meyer says, “whereby they can see the costs of multitasking as opposed to paying attention diligently to just one stream of input.”

He might, for example, ask students to recite the letters A through J as fast as possible, and then the numbers 1 through 10. Each of those tasks typically takes around two seconds. Then he asks them to interweave the two recitations as fast as they can: “A, 1, B, 2,” and so on. Does that take four seconds? No, it typically requires 15 to 20 seconds, and even then many students make mistakes.

“This is because there is a switching time cost whenever the subject shifts from the letter-recitation task to the number-recitation task, or vice versa,” Meyer says. “And those extra time costs quickly add up.”

Several other scholars of attention, however, concede that they haven’t tried to set firm rules about laptops in class.

“I’ve thought about having a special laptop section in my lecture hall,” says Kane, the psychologist at Greensboro. “That way students wouldn’t have to be distracted by their neighbors’ screens if they don’t want to be.” Beyond that, however, Kane is reluctant to move. Many students do legitimately take notes on laptops, and he doesn’t want to prevent that.

Stanford’s Nass, likewise, allows laptops in his classes, though he feels sheepish about that choice, given his research. “It would just seem too strange to ban laptops in a class on computers and society,” he says.

Many other scholars say instructors should make peace with the new world of skimming and multitasking. N. Katherine Hayles, a professor emerita of English at the University of California at Los Angeles, has argued in a series of essays that the new, multimedia world generates “hyper attention"—which is different from, but not necessarily worse than, attention as traditionally understood. In a media-rich environment, she believes, young people’s brains are getting better at making conceptual connections across a wide variety of domains.

“One of the basic tenets of good teaching is that you have to start where the students are,” Hayles says. “And once you find out where they are, a good teacher can lead them almost anywhere. Students today don’t start in deep attention. They start in hyper attention. And our pedagogical challenge will be to combine hyper attention with deep attention and to cultivate both. And we can’t do that if we start by stigmatizing hyper attention as inferior thinking.”

Nass is skeptical. In a recent unpublished study, he and his colleagues found that chronic media multitaskers—people who spent several hours a day juggling multiple screen tasks—performed worse than otherwise similar peers on analytic questions drawn from the LSAT. He isn’t sure which way the causation runs here: It might be that media multitaskers are hyperdistractible people who always would have done poorly on LSAT questions, even in the pre-Internet era. But he worries that media multitasking might actually be destroying students’ capacity for reasoning.

“One of the deepest questions in this field,” Nass says, “is whether media multitasking is driven by a desire for new information or by an avoidance of existing information. Are people in these settings multitasking because the other media are alluring—that is, they’re really dying to play Freecell or read Facebook or shop on eBay—or is it just an aversion to the task at hand?”

When Nass was a high-school student, decades ago, his parents were fond of an old quotation from Sir Joshua Reynolds: “There is no expedient to which man will not resort to avoid the real labor of thinking.” That is the conundrum that has animated much of his career.

“I don’t think that law students in classrooms are sitting there thinking, Boy, I’d rather play Freecell than learn the law,” Nass says. “I don’t think that’s the case. What happens is that there’s a moment that comes when you say, Boy, I can do something really easy, or I can do something really hard.”