Informations

Quel est l'algorithme de recherche de chemin utilisé par le cerveau humain ?

Quel est l'algorithme de recherche de chemin utilisé par le cerveau humain ?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

J'essayais de créer une simulation logicielle de personnes utilisant différents chemins dans une ville pour se rendre d'un point A à un point B. Je connais l'algorithme de Dijkstra et l'algorithme A *, mais ce qu'ils font, c'est de trouver le chemin le plus court entre deux nœuds . Ces algorithmes peuvent être utilisés pour le faire, mais leur problème est qu'ils ne font que cela, ils trouvent juste le chemin le plus court parfait. Et quand je vois des mouvements de population réalistes dans une ville, je vois différentes personnes choisir des chemins différents pour se rendre du point A au point B, même la même personne choisit parfois un chemin différent à deux moments différents.

Je sais que cela dépend en partie de facteurs émotionnels qu'il serait impossible de prévoir. Mais ce que je veux dire, c'est que lorsque vous regardez une carte et que vous décidez vous-même du chemin que vous allez utiliser pour aller de votre emplacement à la destination souhaitée, vous ne semblez pas exécuter un algorithme Dijkstra ou A * dans votre cerveau. En fait, je ne peux pas connaître la longueur de chaque route, ce qui est nécessaire pour exécuter un algorithme Dijkstra ou A *. Quel algorithme le cerveau utilise-t-il pour choisir un chemin ? Ce n'est clairement pas toujours le chemin le plus court. Je ne parle pas seulement du caractère apparemment aléatoire que d'autres facteurs comme la sécurité de la route peuvent ajouter au résultat, ou d'autres facteurs émotionnels. Car même si mon seul objectif est de choisir le chemin le plus court entre deux points, je vais probablement choisir un chemin différent de celui qu'une autre personne choisirait, même avec le même objectif. J'ai même vu que les hommes et les femmes ont tendance à avoir des cerveaux adaptés à cela d'une manière différente ; dans cet épisode de Brain Games de National Geographic, ils le mentionnent brièvement, je ne sais pas à quel point c'est scientifiquement précis, mais bon, c'est pourquoi je demande.

J'ai des mots plus courts, je suis curieux de connaître l'algorithme de recherche de chemin utilisé par le cerveau humain. S'il y en a un. Y a-t-il un document ou une source que je pourrais lire à ce sujet?


Récemment en Médecin Légiste

Des découvertes comme celles-ci nous donnent des indices sur la machinerie neuronale de l'autoréflexion. Mais nous sommes encore extrêmement loin d'une compréhension complète de la façon dont cette machinerie travaux. La conscience de soi est un continuum plutôt qu'un phénomène du tout ou rien. De nombreux éléments psychologiques de la conscience de soi, comme le suivi de l'incertitude et la surveillance de nos actions, peuvent fonctionner inconsciemment, fournissant une suite de pilotes automatiques neuronaux largement partagés dans le règne animal et présents au début de la petite enfance. La conscience de soi continue de se cristalliser chez les tout-petits, se formant pleinement entre 3 et 4 ans. Nous ne comprenons pas encore comment cela se produit. Mais une idée prometteuse est que la conscience de soi est fondée sur des algorithmes de modélisation des esprits en général – la capacité du cerveau à se représenter non seulement son propre fonctionnement, mais aussi celui des autres. Et grâce aux outils et à l'ingéniosité scientifique qui nous permettent de regarder à l'intérieur du crâne, nous sommes maintenant dans une meilleure position que jamais pour commencer à comprendre comment ces cerveaux dans des pots de musée savaient autrefois qu'ils étaient vivants.


Et si le filtre était devant nous ?

Ces possibilités supposent que le Grand Filtre est derrière nous, que l'humanité est une espèce chanceuse qui a surmonté un obstacle que presque toutes les autres vies échouent. Cela pourrait ne pas être le cas, mais la vie pourrait évoluer à notre niveau tout le temps mais être anéantie par une catastrophe inconnaissable. La découverte de l'énergie nucléaire est un événement probable pour toute société avancée, mais elle a également le potentiel de détruire une telle société. Utiliser les ressources d'une planète pour construire une civilisation avancée détruit également la planète : le processus actuel de changement climatique sert d'exemple. Ou, cela pourrait être quelque chose d'entièrement inconnu, une menace majeure que nous ne pouvons pas voir et ne verrons pas avant qu'il ne soit trop tard.

La suggestion sombre et contre-intuitive du Grand Filtre est que ce serait un mauvais signe pour l'humanité de trouver une vie extraterrestre, en particulier une vie extraterrestre avec un degré de progrès technologique similaire au nôtre. Si notre galaxie est vraiment vide et morte, il devient plus probable que nous ayons déjà traversé le Grand Filtre. La galaxie pourrait être vide parce que toute autre vie a échoué à un défi que l'humanité a réussi.

Si nous trouvons une autre civilisation extraterrestre, mais pas un cosmos grouillant d'une variété de civilisations extraterrestres, cela implique que le Grand Filtre se trouve devant nous. La galaxie devrait être pleine de vie, mais ce n'est pas un autre exemple de vie qui suggérerait que les nombreuses autres civilisations qui devraient être là ont été anéanties par une catastrophe à laquelle nous et nos homologues extraterrestres devons encore faire face.

Heureusement, nous n'avons trouvé aucune vie. Bien que cela puisse être solitaire, cela signifie que les chances de survie à long terme de l'humanité sont un peu plus élevées qu'autrement.


Que peut apprendre l'IA de l'intelligence humaine ?

La conférence d'automne de HAI a exploré les opportunités à une intersection critique à trois voies de l'intelligence artificielle, des neurosciences et de la psychologie.

Institut national de la santé mentale, Instituts nationaux de la santé

Lors de la conférence d'automne de HAI, les chercheurs ont discuté de nouvelles façons dont l'IA peut apprendre de l'intelligence humaine - et vice versa.

Peut-on apprendre aux robots à généraliser leur apprentissage ? Comment les algorithmes peuvent-ils devenir plus sensés ? Le style d'apprentissage d'un enfant peut-il influencer l'IA ?

La conférence d'automne du Stanford Institute for Human-Centered Artificial Intelligence a examiné ces questions et d'autres pour comprendre comment s'améliorer mutuellement et mieux comprendre l'intelligence artificielle et humaine. L'événement portait sur le thème de « la triangulation de l'intelligence » parmi les domaines de l'IA, des neurosciences et de la psychologie pour développer des recherches et des applications ayant un impact à grande échelle.

Les directeurs associés de la faculté HAI, Christopher Manning, professeur d'apprentissage automatique, de linguistique et d'informatique à Stanford, et Surya Ganguli, professeur agrégé de neurobiologie à Stanford, ont été les hôtes et les modérateurs du panel pour la conférence, co-parrainée par Wu- Tsai Neurosciences Institute, Département de psychologie et programme de systèmes symboliques.

Les conférenciers ont décrit des approches de pointe - certaines établies, d'autres nouvelles - pour créer un flux bidirectionnel d'informations entre la recherche sur l'intelligence humaine et celle basée sur la machine, pour une application puissante. Voici quelques-uns de leurs principaux points à retenir.

La puissance du renforcement profond

Matthew Botvinick, directeur de la recherche en neurosciences pour DeepMind, a donné un aperçu général de l'avancement des applications de l'IA basé sur la recherche de la société d'IA utilisant l'apprentissage par renforcement en profondeur (formation utilisant des récompenses) et d'autres concepts de neuroscience/psychologie.

En 2015, par exemple, DeepMind a entraîné des machines à jouer à des jeux Atari classiques à des niveaux surhumains, puis a étendu cette approche à des jeux plus compliqués comme StarCraft et Go et, plus récemment, à des jeux multi-agents comme Capture the Flag.

Cela a conduit à des idées et à des pratiques révolutionnaires utilisant des concepts allant de la psychologie du développement au comportement animal. Par exemple, DeepMind forme actuellement des réseaux de neurones d'IA en utilisant une compréhension de pointe de l'apprentissage par renforcement basé sur la dopamine chez l'homme. "Nous aidons les systèmes d'IA à faire de meilleures prédictions sur la base de ce que nous avons appris sur le cerveau", déclare Botvinick.

Par exemple, l'équipe a découvert que le cerveau comprend que les récompenses potentielles existent sur une distribution, plutôt que simplement « récompense » ou « aucune récompense », ce qui nous aide à prendre des décisions concernant les actions. Les systèmes d'IA peuvent être entraînés à utiliser des approches de prise de décision similaires, inspirées par cette idée.

Une approche de modélisation à double sens

"Nous pouvons utiliser les systèmes d'IA pour mieux comprendre le cerveau et la cognition, et vice versa", explique Dan Yamins, professeur adjoint de psychologie et d'informatique à Stanford.

L'une des méthodes utilisées par son équipe consiste à modéliser le système visuel humain à l'aide de l'IA, puis à comparer des modèles optimisés avec le fonctionnement réel du cerveau pour des tâches telles que la reconnaissance faciale. De manière générale, la recherche utilise quatre principes - classe d'architecture, tâche, ensemble de données et règle d'apprentissage - pour qu'une telle modélisation réfléchisse aux systèmes visuel, auditif et moteur. L'approche a permis de générer des informations, par exemple, sur la façon dont les nourrissons utilisent des données visuelles « non étiquetées » pour apprendre des représentations d'objets (à l'aide des données SAYCam cogénérées par des chercheurs de Stanford).

De même, l'équipe évolue dans l'autre sens, des sciences cognitives à l'IA, où les observations de l'apprentissage des nourrissons ont conduit à l'utilisation de l'intégration de graphiques en 3D pour modéliser la physique intuitive et d'autres processus en IA. À présent, Yamins travaille à intégrer la curiosité dans les systèmes d'IA, en grande partie sur la façon dont les bébés interagissent avec leur environnement.

Améliorer la généralisation avec la formation générale

Malgré ces progrès, élargir les résultats du laboratoire d'IA aux applications du monde réel peut être difficile, comme l'a souligné Chelsea Finn, professeur adjoint d'informatique et de génie électrique à Stanford, qui étudie l'intelligence par l'interaction robotique. « Les robots apprennent souvent à n'utiliser qu'un objet spécifique dans un environnement spécifique », dit-elle.

Son équipe aide les applications d'IA à apprendre à se généraliser comme le font les humains, en offrant aux robots des expériences plus larges et plus diversifiées. Par exemple, ils ont découvert que le fait d'offrir des démonstrations visuelles de robots entraînait un apprentissage plus rapide et plus généralisé lié à des tâches telles que le placement d'objets dans des tiroirs ou l'utilisation d'outils de manière établie et nouvelle. « Un peu de guidance humaine va un long chemin », dit Finn.

En général, l'exposition à des données plus larges conduit à une meilleure généralisation. À présent, l'équipe de Finn co-développe la base de données RoboNet pour partager des vidéos liées à l'apprentissage - 15 millions d'images et comptage - entre les institutions pour aider les robots "à apprendre à apprendre". Elle rend son travail et son enseignement largement disponibles.

Vers une intelligence de bon sens évolutive

« L'intelligence de bon sens » reflète un écart permanent entre la compréhension de l'homme et celle de la machine, que plusieurs intervenants et leurs équipes tentent de combler.

"Nous devons modéliser le fonctionnement réel de l'intelligence humaine", a déclaré Yejin Choi, professeur agrégé d'informatique et d'ingénierie à l'Université de Washington.

Par exemple, les systèmes d'IA ont du mal à gérer des exemples « hors domaine » inconnus et manquent d'intuition pour comprendre le « pourquoi » des éléments visuels, comme illustré par l'exercice « Monstres dans un tunnel » de Roger Shepard (nous voyons la scène représentée en tant que poursuite, un système d'IA peut ne pas l'être).

Pour aider les machines à développer une intelligence de bon sens, l'équipe de Choi a créé le système Visual Comet en utilisant des descriptions en langage naturel pour 60 000 images (accident de voiture, appel à l'aide, etc.). L'objectif est de permettre aux modèles de passer du langage au savoir, « pour raisonner sur la vie de tous les jours », comme le dit Choi. Lors des tests, le système a aidé à promouvoir une compréhension basée sur l'IA de scénarios tels que pourquoi quelqu'un écrirait un tweet controversé et ce qui se passe avant et après.

« Nous enseignons les concepts des machines plus directement », explique Choi, « plutôt que par le biais d'ensembles de données à choix multiples ».

La co-directrice du MIT-IBM Watson AI Lab, Aude Oliva, travaille également vers un objectif lié au bon sens, en intégrant la science cognitive dans les modèles d'IA. "Il y a beaucoup d'"or" dans les connaissances de base en neurosciences à appliquer aux modèles d'IA", explique Oliva.

Le projet « Moments in Time » de son laboratoire, par exemple, utilise un vaste ensemble de données de vidéos de trois secondes pour aider les réseaux de neurones à apprendre des représentations visuelles d'activités telles que manger, chanter et courir, ainsi que des associations potentielles entre des images visuelles. Les modèles qui en découlent permettent d'appréhender des thèmes abstraits comme la compétition et l'exercice par exemple, y compris dans le cadre d'un apprentissage « zéro tir » (lié à un nombre très limité d'exemples).

Pour mieux comprendre comment les humains apprennent et l'appliquent ensuite aux modèles d'IA, l'équipe d'Oliva utilise l'imagerie cérébrale MEG (magnétique) et fMRI (circulation sanguine). Dans l'ensemble, les données éclairent exactement quelles régions du cerveau s'activent à quel moment, pour traiter les entrées visuelles, auditives et autres, fournissant des indices sur la façon de construire des systèmes d'IA plus intelligents et plus dynamiques. "Nous apprenons les nombreux principes communs entre la cognition humaine et l'IA", déclare Oliva.

Le collègue d'Oliva au MIT, professeur de sciences cognitives computationnelles Joshua Tenenbaum, cherche à étendre l'apprentissage et l'impact de l'IA à l'aide de modèles inspirés par l'homme. « Et si nous pouvions développer une intelligence qui grandit comme chez les bébés, en des versions plus matures ? » il demande.

Ses équipes procèdent à une ingénierie inverse du bon sens en utilisant des concepts inspirés de la psychologie du développement, tels que «l'enfant en tant que scientifique ou codeur», exploitant des programmes probabilistes pour créer des systèmes d'IA avec une architecture semblable à celle d'un humain. "Nous voulons simuler le" moteur de jeu "dans votre tête", explique Tenenbaum, décrivant le traitement rapide utilisé par le cerveau humain.

Ils ont découvert l'emplacement du moteur physique du cerveau, ainsi que la création d'un réseau neuronal qui peut mieux imiter le système visuel humain. La recherche éclaire le développement de plates-formes d'IA plus flexibles et évolutives capables d'inférence et d'action sans précédent, telles que DreamCoder, un système capable de créer des dessins très complexes.

Apprendre tout en protégeant la confidentialité

Pourtant, l'un des défis de l'apprentissage en profondeur concerne la confidentialité des données. « Le marché faustien d'aujourd'hui », déclare Sanjeev Arora, professeur d'informatique à Princeton, « est que nous transmettons nos données pour profiter d'un monde entièrement personnalisé pour nous », qu'il s'agisse de la vente au détail, des soins de santé ou du travail.

Il étudie comment aider l'apprentissage en profondeur à apprendre sans révéler de données au niveau individuel. Ici, les stratégies établies, comme la confidentialité différentielle et le cryptage, sacrifient respectivement la précision et l'efficacité.

InstaHide, le système qu'Arora a co-développé, crypte les images pour la formation/le test des modèles d'IA, tout en permettant une précision et une efficacité élevées. Plus précisément, le système mélange des images privées avec des images publiques et change la couleur des pixels de manière aléatoire. Un modèle similaire applique l'idée aux données textuelles, en cryptant les ingrédients et les dégradés du texte.

« Les systèmes ont une précision de près de 100 % et peuvent contribuer à la confidentialité des données pour tout, des médicaments aux voitures autonomes », explique Arora.

Triangulation de l'intelligence à Stanford

De nombreux orateurs de Stanford ont noté que la triangulation de l'intelligence est une priorité dans tous les départements universitaires. Michael Frank, professeur de biologie humaine et directeur du Symbolic Systems Program à Stanford, et Bill Newsome, professeur de neurobiologie et directeur du Wu Tsai Neurosciences Institute, ont décrit comment leurs organisations, ainsi que HAI, ont lancé des programmes à cette intersection.

Les étudiants de premier cycle de Stanford ont désormais la possibilité de suivre une nouvelle concentration en IA centrée sur l'humain dans le programme de premier cycle sur les systèmes symboliques, avec des cours couvrant l'éthique numérique, la politique et la politique des algorithmes et la conception de l'IA.

"Symbolic Systems est un programme de premier cycle unique offrant une formation interdisciplinaire en informatique, en philosophie et en sciences cognitives", a déclaré Frank. Le programme, qui a débuté en 1986 et compte des anciens élèves bien connus, dont les fondateurs de LinkedIn et Instagram, propose un cours d'introduction appelé programme de subventions Hoffman-Yee qui continuera à rassembler ces programmes et d'autres chercheurs interdisciplinaires pour créer un vaste écosystème générant des informations précieuses. et l'application à l'intersection de l'IA, des neurosciences et de la psychologie.

La mission de Stanford HAI est de faire progresser la recherche, l'éducation, les politiques et les pratiques en matière d'IA pour améliorer la condition humaine. Apprendre encore plus.


Tendances psychopathiques liées aux modèles de connectivité cérébrale, selon une nouvelle étude en neurosciences

De nouvelles recherches permettent de mieux comprendre les mécanismes neurobiologiques sous-jacents à certaines tendances psychopathiques. L'étude, publiée dans NeuroImage : clinique, indique que les traits de personnalité psychopathiques tels que l'insensibilité sont associés à des différences de connectivité entre deux réseaux cérébraux importants.

« Nous sommes largement intéressés par la compréhension de la psychopathie, un ensemble de traits de personnalité nocifs associés à une agression grave, à la criminalité et à la récidive », a déclaré l'auteur de l'étude Hailey Dotterer, doctorante en psychologie à l'Université du Michigan.

« Nous avons été curieux de savoir ce qui motive les gens à agir comme ils le font, en particulier lorsque les individus agissent de manière négative » en faisant du mal aux autres et en ignorant les normes et les lois de la société, ce qui est essentiellement le cœur de la psychopathie.

"Il est important d'étudier les fondements neuraux de la psychopathie, car des travaux antérieurs suggèrent que les façons dont les régions cérébrales disparates communiquent entre elles sont liées à l'émotion et à l'attention, qui sont altérées dans la psychopathie", a déclaré Dotterer.

Dotterer et ses collègues ont examiné les données d'imagerie par résonance magnétique fonctionnelle (IRMf) à l'état de repos de 123 hommes qui avaient effectué une évaluation des traits de personnalité psychopathiques. Ces traits ont été mesurés sur un continuum et dans la communauté, ce qui signifie qu'ils ont mesuré la quantité relative de ces traits chez les jeunes adultes, pas chez ceux en prison ou classés comme psychopathes. C'est-à-dire que nous avons tous relativement plus ou moins de chacun de ces traits et ceux-ci peuvent être mappés au fonctionnement du cerveau.

Les chercheurs ont également utilisé un algorithme appelé Group Iterative Multiple Model Estimation pour créer des cartes de connectivité spécifiques à chaque participant.

En rapportDes postes

Comment le cerveau d'une nouvelle mère réagit aux émotions de son bébé prédit la dépression et l'anxiété post-partum

Écouter de la musique pourrait-il vous ralentir au travail ou à l'école ?

« La psychopathie et les traits psychopathiques sont différents selon les personnes. Certaines personnes sont plus superficiellement charmantes et manipulatrices, et d'autres sont plus impulsivement agressives. Cela signifie qu'il est important de considérer les individus dans la recherche sur la psychopathie afin d'informer en fin de compte les approches d'intervention personnalisées », a déclaré Dotterer à PsyPost.

“Traditionnellement, dans les études de neuroimagerie, tous les participants d'un groupe sont essentiellement supposés avoir des réseaux cérébraux similaires, parfois c'est vrai, mais quand ce n'est pas le cas, les résultats peuvent ne pas être précis. Notre approche ne fait pas cette hypothèse, a fait écho l'auteur de l'étude Adriene Beltz, professeur adjoint de psychologie à l'Université du Michigan.

Malgré la structure cérébrale unique de chaque participant, les chercheurs ont trouvé un modèle commun de connectivité parmi ceux ayant des niveaux relativement plus élevés de traits psychopathiques. Les participants ayant des niveaux de traits plus élevés avaient tendance à avoir une densité accrue de connexions entre le réseau de mode par défaut du cerveau et le réseau exécutif central.

Le réseau du mode par défaut est impliqué dans la cognition sociale et le raisonnement moral, tandis que le réseau exécutif central est impliqué dans la maîtrise de soi et l'évaluation des stimuli menaçants.

« Nous avons constaté que les traits psychopathiques, en particulier les traits d'impitoyable et de manque d'empathie, étaient associés à une communication accrue entre deux réseaux cérébraux qui sont généralement réseau en mode par défaut et réseau exécutif central, ont expliqué Dotterer et Beltz.

« Une communication accrue entre ces réseaux pourrait interférer avec les fonctions typiques de ces réseaux, ce qui aurait un impact sur des comportements tels que la prise de décision et la prise de perspective, qui, nous le savons, sont altérés chez les personnes présentant des traits psychopathiques. »

"Bien sûr, un problème à considérer est que ce sont des traits mesurés chez les jeunes adultes de la communauté, dont aucun n'a été testé pour les niveaux cliniques de psychopathie. Ainsi, les résultats nous renseignent sur les corrélations cérébrales des niveaux inférieurs de ces traits que nous voyons dans la communauté. »

L'étude a également mis en évidence les limites des approches traditionnelles d'analyse des données d'IRMf.

"Ces jeunes hommes avaient tous des réseaux cérébraux uniques" si uniques qu'il n'y avait aucune connexion entre les régions du cerveau qui était commune à tous les participants ", a déclaré Beltz à PsyPost. « Une modélisation précise des réseaux cérébraux est essentielle pour comprendre comment le cerveau est lié à des éléments tels que les traits de personnalité ou le comportement. »

Mais, a noté Dotterer, on ne sait toujours pas comment les modèles observés de connectivité cérébrale se traduisent en comportement. « Nous pensons maintenant que les modèles sont liés à certains traits psychopathiques, mais sont-ils réellement à l'origine des comportements que nous associons à ces traits, tels que des difficultés à faire preuve d'empathie avec les autres ?

« Nous avons besoin de plus de recherches développementales et longitudinales pour mieux comprendre d'où viennent ces traits et modèles cérébraux, c'est-à-dire si le fonctionnement du réseau cérébral prédit les traits psychopathiques, ou vice versa. Nous devons également voir si ces résultats émergent dans les populations carcérales et chez les personnes présentant des niveaux plus élevés de ces traits », a déclaré Dotterer.


La nouvelle technologie de lecture mentale recrée des images numériques de ce que vous pensez

Les machines à lire dans les pensées peuvent sembler appartenir fermement au domaine de la science-fiction, mais elles peuvent être plus proches de la réalité que vous ne le pensez. Des chercheurs ont mis au point une technique qui peut produire une image numérique de ce qu'une personne imagine dans son esprit, simplement en lisant l'activité électrique de son cerveau.

Dans le cadre d'une nouvelle étude, acceptée pour publication dans la revue eNeuro, une équipe de l'Université de Toronto Scarborough (UT) a utilisé un test non invasif connu sous le nom d'électroencéphalogramme&mdash qui est généralement utilisé dans le diagnostic des tumeurs cérébrales, de l'épilepsie et d'autres conditions&mdash pour enregistrer cette activité électrique chez les participants qui ont reçu des stimuli visuels sur un écran d'ordinateur .

Les chercheurs ont relié les volontaires&mdash13 adultes en bonne santé âgés de 18 à 27&mdash à l'EEG via des électrodes placées sur leur tête. Ils ont ensuite montré aux participants les visages de 140 personnes, un par un, sur l'écran d'ordinateur, tout en enregistrant leur activité cérébrale.

Enfin, sur un ordinateur équipé d'algorithmes spéciaux d'apprentissage automatique, l'équipe a recréé des images des visages que les participants regardaient à l'aide des données enregistrées par l'EEG. Essentiellement, l'algorithme a recherché des signaux cérébraux liés à l'image mentale que les volontaires avaient en tête et l'a reproduite sous forme d'image numérique. (Le Machine Learning fait référence à des systèmes informatiques qui peuvent adapter leur programmation en fonction des données qui leur sont transmises, sans être explicitement reprogrammés.)

Le travail s'appuie sur la capacité naturelle du cerveau à créer ce qu'on appelle une perception mentale, ou une impression mentale, de tout ce que nous voyons. "Nous avons pu capturer cette perception à l'aide de l'EEG pour obtenir une illustration directe de ce qui se passe dans le cerveau pendant ce processus", a déclaré Dan Nemrodov, stagiaire postdoctoral au département de psychologie, qui a développé la technique, dans un communiqué.

Bien que les images numériques reconstruites ne soient pas des copies parfaites des originaux, elles ont une résolution quelque peu inférieure et les détails qu'elles contiennent sont impressionnants, selon les chercheurs.

"Ce qui est vraiment excitant, c'est que nous ne reconstruisons pas des carrés et des triangles mais des images réelles du visage d'une personne, et cela implique beaucoup de détails visuels fins", a ajouté Adrian Nestor, professeur adjoint de psychologie à l'UT.

Cette étude n'est pas la première fois que des chercheurs reconstruisent numériquement des images mentales. Mais la nouvelle technique offre des avantages distincts par rapport aux méthodes existantes.

Auparavant, les neuroscientifiques utilisaient l'imagerie par résonance magnétique fonctionnelle (IRMf), qui mesure l'activité cérébrale en détectant les changements dans le flux sanguin plutôt que l'activité électrique. L'EEG, cependant, est plus pratique, car il est plus facilement disponible, portable et moins cher.

L'EEG est également plus sensible aux minuscules changements de l'activité cérébrale, capturant des données à l'échelle de la milliseconde. En revanche, l'IRMf ne peut enregistrer l'activité qu'à l'échelle de la seconde.

Mais Nemrodov note que de nombreux chercheurs doutaient du potentiel de l'EEG pour ce type de reconstruction d'image, étant donné que la technique produit beaucoup de bruit et de données sans signification et dans les mesures qu'elle prend. Il n'est pas non plus très précis pour localiser d'où proviennent les signaux dans le cerveau. Malgré cela, la nouvelle étude, dit-il, démontre les avantages de l'EEG par rapport à l'IRMf. Les résultats pourraient élargir la portée de cette technologie, ouvrant la porte à son utilisation dans une variété d'applications.

"Le fait que nous puissions reconstruire ce que quelqu'un éprouve visuellement en fonction de son activité cérébrale ouvre de nombreuses possibilités", a déclaré Nestor. "Il dévoile le contenu subjectif de notre esprit et il fournit un moyen d'accéder, d'explorer et de partager le contenu de notre imagination."

Selon Nestor, la technique pourrait être un moyen de communication pour les personnes incapables de communiquer verbalement, peut-être à cause de la paralysie. "Non seulement cela pourrait produire une reconstruction neuronale de ce qu'une personne perçoit, mais aussi de ce qu'elle se souvient et imagine, de ce qu'elle veut exprimer", a déclaré Nestor.

La technique pourrait s'avérer utile pour les forces de l'ordre lors de la collecte d'informations sur des suspects potentiels auprès de témoins oculaires, au lieu de s'appuyer sur des croquis ou des descriptions verbales inexacts.

La prochaine étape, selon les chercheurs, consiste à déterminer si la technique fonctionnerait lorsque les sujets du test se souviennent d'un souvenir à partir de zéro au lieu de regarder une image.


Certains scientifiques pensent que l'univers est conscient

Dans les recherches à venir, les scientifiques tenteront de montrer que l'univers a une conscience. Oui vraiment. Peu importe le résultat, nous en apprendrons bientôt plus sur ce que signifie être conscient et sur quels objets autour de nous pourraient avoir leur propre esprit.

➡ Vous pensez que la science est un dur à cuire. Nous aussi. Let&rsquos nerds dessus ensemble.

Qu'est-ce que cela signifie pour la façon dont nous traitons les objets et le monde qui nous entoure ? Accrochez-vous, car les choses sont sur le point de devenir étranges.

Qu'est-ce que la conscience ?

La définition de base de la conscience laisse intentionnellement beaucoup de questions sans réponse. C'est "l'état mental normal de l'état de veille des humains, caractérisé par l'expérience des perceptions, des pensées, des sentiments, de la conscience du monde extérieur, et souvent chez les humains (mais pas nécessairement chez les autres animaux) la conscience de soi", selon l'Oxford Dictionnaire de psychologie.

Les scientifiques n'ont tout simplement pas une théorie unifiée de ce qu'est la conscience. Nous ne savons pas non plus d'où il vient, ni de quoi il est fait.

Cependant, une lacune de cette lacune de connaissances est que nous pouvons dire de manière exhaustive que d'autres organismes, et même des objets inanimés, Don&rsquot avoir conscience. Les humains se rapportent aux animaux et peuvent imaginer, disons, que les chiens et les chats ont une certaine conscience parce que nous voyons leurs expressions faciales et comment ils semblent prendre des décisions. Mais juste parce que nous ne sommes pas liés aux roches, à l'océan ou au ciel nocturne, cela revient à prouver que ces choses n'ont pas de conscience.

C'est là qu'une position philosophique appelée panpsychisme entre en jeu, écrit Tout sur l'espace&rsquos David Crookes :

C'est aussi là que la physique entre en scène. Certains scientifiques ont postulé que la chose que nous considérons comme la conscience est fait de des événements de physique quantique à l'échelle microscopique et d'autres "actions effrayantes à distance", flottant d'une manière ou d'une autre à l'intérieur de notre cerveau et générant des pensées conscientes.

L'énigme du libre arbitre

L'un des plus grands esprits de la physique, le lauréat du prix Nobel 2020 et pionnier du trou noir Roger Penrose, a beaucoup écrit sur la mécanique quantique en tant que véhicule présumé de la conscience. En 1989, il a écrit un livre intitulé L'Empereur & rsquos New Mind, dans lequel il revendiqué &ldquot que la conscience humaine n'est pas algorithmique et est le produit d'effets quantiques.»

Décomposons rapidement cette déclaration. Qu'est-ce que cela signifie pour la conscience humaine d'être « quoalgorithmique » ? Eh bien, un algorithme est simplement une série d'étapes prévisibles pour atteindre un résultat, et dans l'étude de la philosophie, cette idée joue un grand rôle dans les questions sur le libre arbitre par rapport au déterminisme.

Nos cerveaux sont-ils simplement en train de lancer des processus de type mathématique qui peuvent être télescopés à l'avance ? Ou est-ce que quelque chose de sauvage se produit qui nous permet un véritable libre arbitre, c'est-à-dire la capacité de prendre des décisions significativement différentes qui affectent nos vies ?

Au sein même de la philosophie, l'étude du libre arbitre remonte au moins des siècles. Mais le chevauchement avec la physique est beaucoup plus récent. Et ce que Penrose prétendait dans L'Empereur & rsquos New Mind est que la conscience est strictement causale parce que, à un niveau infime, elle est le produit de phénomènes quantiques imprévisibles qui ne sont pas conformes à la physique classique.

Alors, où nous laissent toutes ces informations de base ? Si vous vous grattez la tête ou avez des pensées inconfortables, vous n'êtes pas seul. Mais ces questions sont essentielles pour les personnes qui étudient la philosophie et les sciences, car les réponses pourraient changer notre compréhension de l'univers entier qui nous entoure. Que les humains aient ou non le libre arbitre a d'énormes implications morales, par exemple. Comment punir les criminels qui n'auraient jamais pu faire autrement ?

La conscience est partout

En physique, les scientifiques pourraient apprendre des choses clés à partir d'une étude de la conscience en tant qu'effet quantique. C'est ici que nous retrouvons aujourd'hui les chercheurs : Johannes Kleiner, mathématicien et physicien théoricien au Munich Center for Mathematical Philosophy, et Sean Tull, mathématicien à l'université d'Oxford.

Kleiner et Tull suivent l'exemple de Penrose, à la fois dans son livre de 1989 et dans un article de 2014 où il a détaillé sa conviction que nos microprocessus cérébraux peuvent être utilisés pour modéliser des choses sur l'univers entier. La théorie qui en résulte est appelée théorie de l'information intégrée (IIT), et c'est une forme abstraite, « hautement mathématique » de la philosophie que nous avons examinée.

Dans l'IIT, la conscience est partout, mais elle s'accumule aux endroits où elle a besoin d'aider à coller ensemble différents systèmes connexes. Cela signifie que le corps humain est rempli d'une tonne de systèmes qui doivent être interconnectés, donc il y a beaucoup de conscience (ou phi, car la quantité est connue dans l'IIT) qui peut être calculée. Pensez à toutes les parties du cerveau qui travaillent ensemble pour, par exemple, former une image et ressentir la mémoire d'une pomme dans votre esprit.

La chose révolutionnaire dans l'IIT est liée au cerveau humain et c'est-à-dire que la conscience n'est pas du tout biologique, mais est plutôt simplement cette valeur, phi, cela peut être calculé si vous en savez beaucoup sur la complexité de ce que vous étudiez.

Si votre cerveau a presque d'innombrables systèmes interdépendants, alors l'univers entier doit en avoir des pratiquement infinis. Et si c'est là que la conscience s'accumule, alors l'univers doit avoir beaucoup de phi.

Hé, on t'avait dit que ça allait devenir bizarre.

&ldquoThe theory consists of a very complicated algorithm that, when applied to a detailed mathematical description of a physical system, provides information about whether the system is conscious or not, and what it is conscious of,&rdquo Kleiner told All About Space. &ldquoIf there is an isolated pair of particles floating around somewhere in space, they will have some rudimentary form of consciousness if they interact in the correct way.&rdquo


6. Ask at the Right Time

So far we&rsquove talked about how to ask your visitor to bite at your call to action, but it&rsquos just as important as when you ask them to do it.

If you&rsquore seeking opt-ins for your course or email list, implement a welcome mat or design your opt-in above-the-fold like marketing leaders Darren Rowse and Brian Dean.

Welcome mats are full-page call to actions and above the fold is the first area you see when you visit a website.

Welcome mats and above-the-fold call to actions provide a less invasive user experience than traditional pop-up boxes. These eliminate the risk of a user leaving your site before seeing your call to action.

However, if your primary goal is to get your users to buy something, it&rsquos best to follow steps 3 and 4 (focus on a benefit and minimize buyer risk) avant asking them to sign up via a welcome mat. Users will rarely agree to buy without having some idea of what they&rsquore getting for their money.


Why Should You Use an Algorithm?

The upside of using an algorithm to solve a problem or make a decision is that yields the best possible answer every time. This is useful in situations when accuracy is critical or where similar problems need to be frequently solved. In many cases, computer programs can be designed to speed up this process. Data then needs to be placed in the system so that the algorithm can be executed to come up with the correct solution.

Such step-by-step approaches can be useful in situations where each decision must be made following the same process and where accuracy is critical. Because the process follows a prescribed procedure, you can be sure that you will reach the correct answer each time.

The downside of using an algorithm to solve the problem is that this process tends to be very time-consuming. So if you face a situation where a decision needs to be made very quickly, you might be better off using a different problem-solving strategy.

For example, a physician making a decision about how to treat a patient could use an algorithm approach, yet this would be very time-consuming and treatment needs to be implemented quickly. In this instance, the doctor would instead rely on their expertise and past experiences to very quickly choose what they feel is the right treatment approach.


Beyond Bananas: CMU Scientists Harness “Mind Reading” Technology to Decode Complex Thoughts

This latest research led by CMU’s Marcel Just builds on the pioneering use of machine learning algorithms with brain imaging technology to "mind read." The findings indicate that the mind’s building blocks for constructing complex thoughts are formed by the brain’s various sub-systems and are not word-based. Published in Human Brain Mapping and funded by the Intelligence Advanced Research Projects Activity (IARPA), the study offers new evidence that the neural dimensions of concept representation are universal across people and languages.

"One of the big advances of the human brain was the ability to combine individual concepts into complex thoughts, to think not just of 'bananas,' but 'I like to eat bananas in evening with my friends,'" said Just, the D.O. Hebb University Professor of Psychology in the Dietrich College of Humanities and Social Sciences. "We have finally developed a way to see thoughts of that complexity in the fMRI signal. The discovery of this correspondence between thoughts and brain activation patterns tells us what the thoughts are built of."

Previous work by Just and his team showed that thoughts of familiar objects, like bananas or hammers, evoke activation patterns that involve the neural systems that we use to deal with those objects. For example, how you interact with a banana involves how you hold it, how you bite it and what it looks like.

The new study demonstrates that the brain’s coding of 240 complex events, sentences like the shouting during the trial scenario uses an alphabet of 42 meaning components, or neurally plausible semantic features, consisting of features, like person, setting, size, social interaction and physical action. Each type of information is processed in a different brain system—which is how the brain also processes the information for objects. By measuring the activation in each brain system, the program can tell what types of thoughts are being contemplated.

For seven adult participants, the researchers used a computational model to assess how the brain activation patterns for 239 sentences corresponded to the neurally plausible semantic features that characterized each sentence. Then the program was able to decode the features of the 240th left-out sentence. They went through leaving out each of the 240 sentences in turn, in what is called cross-validation.

The model was able to predict the features of the left-out sentence, with 87 percent accuracy, despite never being exposed to its activation before. It was also able to work in the other direction, to predict the activation pattern of a previously unseen sentence, knowing only its semantic features.

"Our method overcomes the unfortunate property of fMRI to smear together the signals emanating from brain events that occur close together in time, like the reading of two successive words in a sentence," Just said. "This advance makes it possible for the first time to decode thoughts containing several concepts. That’s what most human thoughts are composed of."

He added, "A next step might be to decode the general type of topic a person is thinking about, such as geology or skateboarding. We are on the way to making a map of all the types of knowledge in the brain."

CMU’s Jing Wang and Vladimir L. Cherkassky also participated in the study.

Discovering how the brain decodes complex thoughts is one of the many brain research breakthroughs to happen at Carnegie Mellon. CMU has created some of the first cognitive tutors, helped to develop the Jeopardy-winning Watson, founded a groundbreaking doctoral program in neural computation, and is the birthplace of artificial intelligence and cognitive psychology. Building on its strengths in biology, computer science, psychology, statistics and engineering, CMU launched BrainHub, an initiative that focuses on how the structure and activity of the brain give rise to complex behaviors.


Voir la vidéo: Un proyecto europeo intenta crear una máquina idéntica al cerebro humano (Août 2022).