Informations

Utilisation du traitement du langage naturel pour la surveillance du trafic à partir de la vidéo

Utilisation du traitement du langage naturel pour la surveillance du trafic à partir de la vidéo


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je suis coincé à essayer d'apprendre à utiliser le traitement vidéo comme expliqué dans les articles liés dans le domaine de la détection du comportement humain ou de la surveillance du trafic (tout type d'activité de surveillance). En particulier, je ne sais pas comment formuler le problème en utilisant les modèles disponibles.

J'ai trouvé deux articles (Haag & Nagel (2000; Paper 1) et Arens, Gerber, & Nagel (2008; Paper 2)) qui illustrent, avec un exemple, l'utilisation du langage naturel pour la surveillance du trafic en utilisant des séquences d'images de vidéos. Ma question est

  1. Sous quelles hypothèses les actions sont-elles générées ? Quel est l'avantage de la PNL ici ou dans n'importe quelle application en dehors du fait qu'elle donne une représentation hiérarchique des informations/connaissances ?
  2. Comment les actions et les graphiques (appelés Arbres de graphe de situation par l'auteur) sont-ils générés (sous quelles hypothèses) dans la Fig2 de l'article 1 et la Fig1 de l'article 2 ?
  3. Est-ce que le Tableau5 dans paper1 : Reconnaissance incrémentielle des situations de circulation à partir de séquences d'images vidéo et de tableaux ultérieurs a été généré à l'aide de certains outils de programmation ?

Les références

Haag, M., & Nagel, H.-H. (2000) "Reconnaissance incrémentale des situations de circulation à partir de séquences d'images vidéo". Imagerie et Vision Computing 18(2): 137-153.

Arens, M., Gerber, R., & Nagel H.-H. (2008) "Représentations conceptuelles entre les signaux vidéo et les descriptions en langage naturel". Image et Vision Computing 26 : 53-66.


Je pense que vous avez mal compris, à bien des égards, ce qu'ont fait Haag & Nagel (2000 ; ce que vous appelez Paper 1) et comment Arens, Gerber & Nagel (2008 ; Paper 2) l'ont étendu. La figure 1 de AGN08 est un bon résumé de HN00. Ce que HN00 a fait, c'est créer un système capable de regarder une vidéo d'une intersection, de détecter les voitures et de traduire le comportement de la voiture dans un cadre conceptuel. Comme source d'inspiration pour leur système, ils ont utilisé leur idée de la façon dont les humains représentent la tâche :

cinq niveaux de représentation semblent intervenir : (i) une représentation de la géométrie des évolutions spatio-temporelles de la scène de circulation routière, comprenant à la fois une 2D dans le plan image et une 3D relative à la scène représentée, (ii) une représentation des manœuvres de conduite étroitement couplées à des situations de circulation particulières, (iii) une représentation conceptuelle des corps visibles, de leurs attributs et de leurs mouvements élémentaires, (iv) des représentations conceptuelles génériques des configurations spatio-temporelles des corps et de leurs évolutions temporelles attendues, et (v) une ou plusieurs versions d'une représentation en langage naturel des développements centrés sur le moment actuel.

En d'autres termes, le but de HN00 était de regarder une image 2D d'une intersection, à partir d'elle construire une représentation 2D/3D de la scène. Dans cette scène, identifiez et étiquetez les objets et décrivez-les dans un langage conceptuel appelé SIT++. Une fois dans cette représentation conceptuelle (sous forme d'arbres de situation), ils pourraient effectuer une inférence logique (en utilisant la logique floue de corne temporelle métrique) sur leur représentation afin de décider ce que les agents qu'ils ont identifiés essaient de faire.

Notez que HN00 n'impliquait aucun traitement du langage naturel (NLP). Bien qu'ils aient dû utiliser beaucoup de reconnaissance de formes et divers algorithmes d'apprentissage automatique qui seraient familiers aux praticiens de la PNL. Cependant, leur domaine transformait une scène visuelle en une représentation interne conceptuelle (et non en langage naturel).

Comment AGN08 s'est-il étendu au-delà ? Ils ont changé ce qu'ils voulaient faire. Leur tâche n'était pas simplement de visualiser une scène et de la transformer en une représentation interne, mais de produire ensuite cette représentation interne dans un description en langage naturel. Ainsi, ils ajoutaient un système de génération de langage naturel à HN00. Générer un langage naturel à partir d'une représentation interne est évidemment une partie importante de la PNL.

Dans le processus d'ajout de cette fonctionnalité, AGN08 a dû étendre la représentation interne de plusieurs manières. Cela était dû au fait que davantage d'informations internes étaient nécessaires pour générer une bonne sortie en langage naturel, et parce qu'ils voulaient traiter des scènes plus complexes que HN00. L'article se concentre sur cet aspect du travail (en étendant la représentation interne) et n'aborde que de manière tangentielle la sortie en langage naturel. Ils détaillent la sortie en langage naturel dans :

R. Gerber, Naturlichsprachliche Beschreibung von Straßenverkehrsszenen durch Bildfolgenauswertung. Thèse,Fakultat fur Informatik der Universitat Karlsruhe (TH), Karlsruhe, janvier 2000

Malheureusement, je ne suis pas disposé à apprendre l'allemand et à lire une thèse entière afin de vous donner une réponse plus complète sur les détails. Avant d'essayer de le faire vous-même (j'espère que vous connaissez déjà l'allemand) ou de consulter des articles plus récents, je vous recommande d'apprendre quelques bases de la PNL. Une bonne source est la question suivante :

À la recherche d'une bonne référence pour les débutants pour apprendre la linguistique informatique


Les risques juridiques de la surveillance des employés en ligne

Les entreprises adoptent de plus en plus des technologies sophistiquées qui peuvent aider à empêcher l'exportation par inadvertance ou intentionnelle de la propriété intellectuelle de l'entreprise et d'autres données sensibles et propriétaires. Entrez dans la prévention de la perte de données, ou les solutions “DLP”, qui aident les entreprises à détecter des modèles ou des comportements anormaux grâce à l'enregistrement des frappes, à la surveillance du trafic réseau, au traitement du langage naturel et à d'autres méthodes, tout en appliquant les politiques pertinentes sur le lieu de travail. Et bien qu'il existe une analyse de rentabilisation légitime pour le déploiement de cette technologie, les outils DLP peuvent impliquer une panoplie de lois fédérales et étatiques sur la confidentialité, allant des lois sur la surveillance des employés, la criminalité informatique, les écoutes téléphoniques et potentiellement les lois sur les violations de données. Compte tenu de tout cela, les entreprises doivent prendre en compte les risques juridiques associés aux outils DLP avant elles sont mises en œuvre et planifiées en conséquence. Les entreprises ayant du personnel dans le monde entier doivent également concevoir une stratégie de conformité qui offre les protections appropriées en vertu de la législation mondiale tout en évitant des protections de confidentialité involontairement améliorées pour les employés américains au-delà de celles requises par la loi américaine.

Le vol de données le plus connu perpétré par un "initié" était peut-être l'appropriation et la divulgation par Edward Snowden de données de la National Security Agency. Le cas Snowden a démontré le coût de se concentrer sur les menaces externes à l'exclusion des mauvais acteurs internes. Dans la foulée, les entreprises adoptent de plus en plus des technologies sophistiquées qui peuvent aider à empêcher l'exportation intentionnelle ou par inadvertance de la propriété intellectuelle de l'entreprise et d'autres données sensibles et propriétaires.

Entrez dans les solutions de prévention des pertes de données, ou « DLP », qui aident les entreprises à détecter des modèles ou des comportements anormaux grâce à l'enregistrement des frappes, à la surveillance du trafic réseau, au traitement du langage naturel et à d'autres méthodes, tout en appliquant les politiques pertinentes sur le lieu de travail. Et bien qu'il existe une analyse de rentabilisation légitime pour le déploiement de cette technologie, les outils DLP peuvent impliquer une panoplie de lois fédérales et étatiques sur la confidentialité, allant des lois sur la surveillance des employés, la criminalité informatique, les écoutes téléphoniques et potentiellement les lois sur les violations de données. Compte tenu de tout cela, les entreprises doivent prendre en compte les risques juridiques associés aux outils DLP avant elles sont mises en œuvre et planifiées en conséquence.

Les entreprises doivent se poser plusieurs questions clés avant de déployer un logiciel DLP. D'abord, qui tu surveilles ? Seconde, Quel tu surveilles ? Troisième, tu surveilles ? Regardons chacun en détail :

Qui surveillez-vous ? La première question est importante, car la réponse peut exiger que vous fournissiez un préavis et un consentement. Cela peut sembler assez simple pour les e-mails des employés, mais présente des défis pour les messages de tiers et d'autres activités en ligne. Par exemple, si une entreprise utilise la DLP pour surveiller les activités en ligne de ses employés, elle doit d'abord considérer et se conformer aux lois sur la surveillance des employés. Des États tels que le Connecticut et le Delaware interdisent expressément aux employeurs de surveiller électroniquement les employés sans préavis.

Centre de connaissances

L'élément humain de la cybersécurité

D'autres lois qui ne ciblent pas la surveillance des employés, mais limitent la surveillance des communications électroniques plus largement, comme la loi fédérale sur la protection des communications électroniques (ECPA), doivent également être prises en compte. Bien que l'ECPA interdise généralement la surveillance des communications électroniques, il existe deux exceptions qui peuvent s'appliquer à votre entreprise. L'« exception d'objectif commercial » permet aux employeurs de surveiller les communications électroniques des employés si l'employeur a un « objectif commercial légitime » pour surveiller un fourre-tout avec une interprétation potentiellement large. Les employeurs peuvent également surveiller les communications sur le lieu de travail s'ils ont obtenu le consentement de leurs employés. Les entreprises le font souvent simplement en exigeant des employés qu'ils reconnaissent et acceptent leurs pratiques de surveillance au moment de l'intégration et avant de pouvoir se connecter aux appareils ou aux réseaux et systèmes de l'entreprise.

Si le logiciel DLP peut surveiller et capturer les communications de tiers (par exemple., parents ou amis qui envoient des e-mails aux employés à l'adresse de leur domaine de travail), les entreprises doivent également prêter attention aux lois de l'État sur les écoutes téléphoniques et concevoir des mesures appropriées pour réduire le risque juridique qui en découle. Des États comme la Californie et l'Illinois exigent toutes les fêtes à une communication de consentir à l'interception de communications en transit. Cela signifie qu'avant que les entreprises puissent numériser un e-mail envoyé par un ami ou un parent à l'employé, les employeurs doivent trouver comment notifier la surveillance à ces tiers et comment obtenir le consentement du tiers. En l'absence de cette étape, les entreprises peuvent être confrontées au risque de poursuites en recours collectif et/ou de mesures d'exécution gouvernementales. Comme le démontrent les récents règlements proposés impliquant des entreprises technologiques, les tiers qui n'ont pas donné leur consentement, mais dont les communications ont été scannées simplement parce qu'ils ont communiqué avec des utilisateurs qui l'ont fait, sont tous trop disposés à poursuivre en utilisant des lois sur les écoutes téléphoniques « tous consentements ». Les entreprises ont des options limitées étant donné les défis pratiques d'obtenir le consentement de tiers. Beaucoup s'appuient sur l'affichage d'un avis sur le site Web de l'entreprise et incluant une déclaration au bas de tous les e-mails des employés indiquant que toutes les communications électroniques vers ou depuis le domaine de l'entreprise sont la propriété de l'entreprise et font l'objet d'une surveillance, et du consentement implicite qui vient avec les communications continues d'un tiers avec l'employé via le domaine de l'entreprise à la suite des divulgations ci-dessus.

Que surveillez-vous ? Cette question doit être analysée de deux manières. Tout d'abord, il est nécessaire de déterminer si votre entreprise a l'intention de surveiller les données en transit et/ou les données au repos. De nombreuses lois d'État sur les écoutes téléphoniques et, comme indiqué, l'ECPA, interdisent l'interception électronique des données en transit sans consentement. Les violations peuvent entraîner des sanctions pénales et civiles. D'un autre côté, la surveillance et/ou la collecte de données au repos peuvent impliquer la loi sur les communications stockées (« SCA »), qui interdit généralement l'accès non autorisé et la divulgation des communications électroniques stockées dans les installations d'un fournisseur de services de communications électroniques (c'est-à-dire les données qui est stocké sur les serveurs de l'entreprise). Bien que la SCA n'interdise généralement pas aux employeurs d'accéder aux communications au repos sur les leurs systèmes, les entreprises peuvent réfléchir à deux fois avant d'accéder aux communications stockées par leur fournisseur de communications électroniques (par exemple., Microsoft, Gmail, etc.), sans les autorisations appropriées.

Deuxièmement, il faut considérer quels types de l'utilisation d'Internet ou des communications électroniques peuvent être surveillés, car certains types sont protégés. Par exemple, environ 25 États interdisent aux employeurs d'exiger ou de demander à un employé de vérifier un compte personnel en ligne (par exemple, les médias sociaux, les blogs, les e-mails) ou de fournir des informations de connexion à des comptes personnels. La technologie DLP, que ce soit par le biais de l'enregistrement des frappes ou des captures d'écran, pourrait contourner ces lois en acquérant par inadvertance des informations de connexion aux comptes personnels d'un employé. Dans le contexte de la surveillance du lieu de travail, les tribunaux et les législatures des États ont reconnu les intérêts en matière de confidentialité dans les données de géolocalisation, les communications avocat-client et les activités de syndicalisation. Dans la plupart de ces cas, le droit à la vie privée de l'employé doit être analysé et mis en balance avec l'intérêt commercial légitime à effectuer la surveillance dans le contexte des circonstances spécifiques.

Où surveillez-vous ? Cette troisième question est particulièrement importante si les entreprises envisagent d'installer un logiciel DLP sur des appareils personnels utilisés pour le travail. Cela peut impliquer des lois d'État sur la criminalité informatique et les logiciels espions, qui interdisent et, dans de nombreux cas, criminalisent l'accès à un ordinateur sans autorisation. De nombreux États comme la Californie, New York et le Massachusetts ont de telles lois dans les livres. Enfreindre ces lois peut entraîner de lourdes sanctions, pouvant aller jusqu'à des amendes, des dommages et/ou des peines d'emprisonnement.

En dehors de ces lois sur la confidentialité, l'accès non autorisé aux données ou la perte de données résultant d'acteurs malveillants internes peuvent déclencher des lois de notification de violation de l'État selon les circonstances. Quarante-huit États ont des statuts de notification de violation de données qui peuvent exiger un avis aux personnes dont les informations personnellement identifiables (PII) sont consultées par une personne qui n'était pas autorisée à accéder aux données.

Considérations mondiales

Les entreprises qui envisagent d'utiliser des outils DLP doivent également garder à l'esprit les lois mondiales sur la confidentialité. Par exemple, le Règlement général sur la protection des données (RGPD) de l'Union européenne et les lois applicables des États membres sur la confidentialité offrent aux employés des protections nettement plus améliorées que celles accordées par la loi américaine. La mondialisation a permis à la fois aux startups et aux grandes multinationales d'engager des employés ou des entrepreneurs indépendants situés aux confins du monde. Le revers de la médaille, cependant, est que toutes les entreprises qui font appel à une main-d'œuvre internationale doivent respecter les lois mondiales sur la confidentialité, y compris celles qui régissent la surveillance des employés. Les entreprises ayant du personnel dans le monde entier doivent ensuite concevoir une stratégie de conformité qui offre les protections appropriées en vertu de la législation mondiale tout en évitant des protections de confidentialité involontairement améliorées pour les employés américains au-delà de celles requises par la loi américaine.

Bien que les considérations ci-dessus ne soient en aucun cas exhaustives, elles offrent un point de départ utile pour évaluer les impacts sur la vie privée et les risques juridiques liés à l'utilisation de la technologie DLP pour faire face aux menaces internes. Bien entendu, il n'existe pas d'approche unique pour intégrer cette technologie dans un programme de prévention des pertes de données. Par conséquent, il est judicieux de procéder d'abord à une évaluation pour comprendre l'impact sur la vie privée et les risques juridiques résultant de l'utilisation des outils DLP. Une fois l'impact et les risques compris, les entreprises seront alors bien placées pour identifier les mesures d'atténuation des risques adaptées à leur situation particulière. Au minimum, ces mesures devraient consister en un ensemble de moyens techniques, organisationnels et politiques, notamment :

  • Des politiques qui (i) articulent clairement l'analyse de rentabilisation de la surveillance (ii) expliquent que ni les employés ni les tiers avec lesquels les employés communiquent sur les domaines de l'entreprise ne doivent avoir d'attentes en matière de confidentialité dans ces communications et (iii) définissent de manière large la propriété de l'entreprise pour inclure non seulement tous les appareils informatiques, mais également les identifiants de connexion, les mots de passe et toutes les communications avec l'entreprise.
  • Une approche basée sur les risques pour la surveillance.
  • Réduire la portée de la surveillance en utilisant le balisage ou des technologies similaires pour suivre le moment où les données quittent une base de données et se déplacent dans un réseau d'entreprise.
  • Crypter toutes les données et restreindre l'accès à un « besoin de savoir ».
  • Envisager un plan qui socialise la surveillance avec leur personnel, pour créer un sentiment d'objectif commun et de valeur partagée dans la protection de la propriété intellectuelle de l'entreprise et d'autres actifs de données.

Les récentes violations de données très médiatisées ont entraîné une prise de conscience accrue des menaces externes contre la propriété intellectuelle de l'entreprise et d'autres données confidentielles. Ces événements ne doivent pas empêcher les entreprises de se protéger assidûment contre les menaces internes potentielles. Les entreprises sont avisées d'envisager la mise en œuvre de protections proactives, telles que l'intégration de logiciels DLP dans leurs programmes de prévention des pertes de données. Ce faisant, ils doivent être réfléchis et effectuer l'analyse juridique préalable nécessaire avant de déployer de telles technologies.

Les auteurs tiennent à exprimer leur appréciation pour l'aide de Michelle Sohn, une associée de la pratique Privacy + Cybersecurity de Goodwin.


Pourquoi l'Edge Computing est-il nécessaire ?

D'ici 2025, on estime que 150 milliards de capteurs de machines et d'appareils IoT diffuseront en continu des données qui devront être traitées. Ces capteurs sont activés en permanence - surveillant, collectant des données, raisonnant sur ce qu'ils détectent et prenant des mesures.

L'Edge computing traite ces données à la source, réduisant la latence ou la nécessité d'attendre que les données soient envoyées d'un réseau vers le cloud ou le centre de données principal pour un traitement ultérieur, permettant aux entreprises d'obtenir des informations en temps réel ou plus rapidement.

L'afflux de données utilisées dans ces charges de travail à forte intensité de calcul qui nécessitent une efficacité et une vitesse élevées dans la collecte et l'analyse des données exige un calcul de pointe hautes performances pour déployer l'IA.

De plus, les technologies émergentes telles que le dévoilement des réseaux 5G, qui devraient cadencer 10 fois plus vite que la 4G, ne font qu'augmenter les possibilités des services compatibles avec l'IA, nécessitant une accélération supplémentaire de l'informatique de pointe.


Réseau

Les réseaux sont des formes organisationnelles complexes. Ils associent des entités ou des nœuds discrets, permettant à ces nœuds de se connecter à d'autres nœuds et bien à d'autres réseaux. Les réseaux existent dans le monde sous une grande variété de formes et dans encore plus de contextes : politiques, sociaux, biologiques et autres. Alors que les artistes ont utilisé les réseaux de plusieurs manières&ndash des réseaux postaux utilisés pour diffuser le travail, aux réseaux informels de collaborateurs artistiques et aux mouvements esthétiques plus larges&ndashcette section examine spécifiquement un exemple unique de technologie de réseau, Internet, et comment les artistes ont incorporé cette technologie dans leur travail. Il existe deux tendances générales : la création artistique où Internet est utilisé comme un outil de diffusion rapide et facile de l'œuvre, et la création artistique où Internet est le véritable support de l'œuvre. Ces deux tendances ne s'excluent cependant pas mutuellement. Certains des travaux en ligne les plus intéressants tissent les deux techniques ensemble dans de nouvelles formes passionnantes qui dépassent les possibilités de l'une ou l'autre technique.

Internet et les arts

“En décembre 1995, Vuk Cosic a reçu un message. . .” ou presque commence l'histoire de la façon dont “net.art,” le mouvement artistique de niche concerné par la création d'art dans et à partir d'Internet, a commencé et son nom.Comme Alexei Shulgin l'explique dans une publication sur la liste de diffusion de Nettime deux ans plus tard, Cosic, un artiste slovène, a reçu un e-mail publié par un expéditeur anonyme. Apparemment mutilé pendant le transport, le message était à peine lisible. “Le seul fragment de celui-ci qui avait un sens ressemblait à quelque chose comme : […] J8

Anonyme, accidentel, glitch et légèrement apocryphe, ce sont toutes des caractéristiques distinctives du style net.art, comme on le voit dans les travaux Web de Cosic, Shulgin, Olia Lialina, Jodi, Heath Bunting et bien d'autres. Comme l'écrit Marina Grzinic, les « retards dans la transmission et l'heure de fin, les signaux d'occupation des fournisseurs de services, [et] le plantage des navigateurs Web ? le temps de dot&ndashcom va, va, va. 2 En effet, de nombreux utilisateurs sans méfiance supposent que les projets de logiciels Web et téléchargeables de Jodi ont pour objectif principal l'infection et la ruine immédiates de leur ordinateur personnel. (Après un examen plus approfondi, il faut admettre qu'il ne s'agit que d'un objectif secondaire.) Peut-être culminant en 1998 avec les expériences absurdes et anarchistes lancées sur la liste de diffusion 7&ndash11&ndashspoofs et manigances étaient normales en raison du fait que l'administration de la liste l'outil, y compris les abonnements, les variables d'en-tête et de pied de page et les règles de modération, était accessible en lecture et en écriture par n'importe quel internaute. Lisez-moi !, édité dans plusieurs villes simultanément et publié par Autonomedia en 1999 l'anthologie tout aussi œcuménique NTNTNT qui a émergé de CalArts en 2003 ou les deux volumes d'entretiens de Tilman Baumgärtel, net.art (1999) et net.art 2.0 (2001).

Dans le même temps, soutenus par le dynamisme d'environnements de programmation comme Java et Flash, les artistes et les concepteurs ont commencé à créer des travaux en ligne qui non seulement provenaient d'Internet, mais utilisaient le net comme outil de diffusion rapide et facile. de code exécutable, à la fois basé sur un navigateur et autre. John Maeda a créé un certain nombre de croquis et de jeux datant du milieu des années 1990, dont une série de calendriers interactifs utilisant des motifs visuels empruntés à la fois à la nature et aux mathématiques. Joshua Davis a également émergé comme une figure importante à travers ses œuvres en ligne Station de prière et Une fois&ndashUpon&ndashA&ndashForêt. Comme Maeda, Davis a fusionné des techniques de dessin algorithmiques avec un sens organique de la composition.

Il convient de rappeler le profond sentiment d'optimisme et de libération que le Web a apporté à l'art et à la culture au milieu des années 90. Tout d'un coup, des skateurs tatoués comme Davis ont fait le tour du monde pour parler à des investisseurs en capital-risque à lunettes des possibilités de mise en réseau, de code génératif et de projets de logiciels ouverts. Et des philosophes à lunettes comme Geert Lovink faisaient le tour du monde pour parler aux patineurs tatoués de&ndashquoi d'autre : les possibilités de mise en réseau, de code génératif et de projets de logiciels ouverts. Tout était sens dessus dessous. Même le mouvement net.art, qui a été en partie influencé par la méfiance de Lovink à l'égard de tout ce qui est « câblé » et californien, a néanmoins été propulsé par la promesse utopique des réseaux, même si ces réseaux ont parfois dû être sabrés et piratés dans le traiter. Les réseaux ont, pendant plusieurs décennies, agi comme des toniques et des vaccins contre tout ce qui est centralisé et autoritaire, qu'il s'agisse des schémas de Paul Baran de 1964 pour le routage autour du réseau téléphonique national AT&T/Bell et des sorties alors imminentes des ICBM soviétiques ou des réseaux de base. des nouveaux mouvements sociaux des années 1960, qui obtiendront plus tard le statut d'art dans le concept littéraire emblématique de Deleuze et Guattari du « rhizome », littéralement un modèle populaire d'être en réseau ou bien les remarques beaucoup plus anciennes et souvent citées de Bertolt Brecht sur le potentiel révolutionnaire précoce des réseaux radio (repris, de façon célèbre, dans l'essai de 1974 de Hans Magnus Enzensberger sur les nouveaux médias, « Constituents for a Theory of the Media »). En d'autres termes, l'arrivée du Web entre le milieu et la fin des années 90 a suscité beaucoup d'enthousiasme tant dans l'art que dans la culture, car cela semblait être le signe avant-coureur de l'avènement d'un nouveau mode d'interaction sociale, probablement révolutionnaire. Ou, comme Cosic l'a dit une fois, avec une bravade typique, « tout l'art jusqu'à présent n'a été qu'un substitut à Internet ».

Il est également utile de contextualiser ces remarques en faisant référence aux différentes pratiques logicielles de divers artistes et mouvements. Chaque environnement logiciel est un support distinct. Chacun accorde des possibilités esthétiques particulières à l'artiste et en diminue d'autres. Chacun s'accompagne d'un certain nombre d'effets secondaires qui peuvent être accentués ou évités, compte tenu des penchants de l'artiste. Ainsi, tout en reconnaissant que les outils et les matériaux des artistes numériques ont tendance à varier considérablement, il est peut-être utile d'observer que la scène net.art (Bunting, Shulgin, Lialina, Jodi, et al.), en particulier au cours de la période 1995-2000, codé principalement dans des langages de balisage basés sur le navigateur et le ndash tels que HTML, avec l'ajout de Javascript pour l'exécution d'algorithmes de base. Un format dépouillé, “text only”, était distinctif de cette période. Un gag utilisé par un certain nombre d'artistes différents n'était pas du tout d'avoir une page d'accueil appropriée, mais plutôt d'utiliser l'index de répertoire par défaut d'Apache pour les fichiers et les dossiers. Cependant, l'approche simplifiée n'a pas toujours apporté la simplicité à l'utilisateur, comme dans le cas de la première page d'accueil de Jodi (maintenant archivée sur http://wwwwwwwww.jodi.org) dans lequel ils ont négligé une balise pre cruciale, puis, dans une tentative apparente de surcompenser le premier problème, ont encerclé la page dans une balise clignotante qui n'était pas moins piquante pour les yeux que la balise pre manquante désoriente. La page clignotante palpitait de manière obscène dans la fenêtre du navigateur, un problème aggravant ainsi l'autre. Créée en tant qu'ajout non autorisé au HTML par Netscape Navigator, la balise clignotante a essentiellement disparu d'Internet alors qu'Internet Explorer est devenu plus dominant à la fin des années 1990. Aujourd'hui, la page Jodi ne clignote pas. On se demande quelle est exactement l'œuvre : l'effet stroboscopique op-art qui est apparu dans la fenêtre du navigateur Netscape pendant les années où les gens utilisaient Netscape, ou la source HTML toujours en ligne aujourd'hui dans laquelle l'œuvre est « expliquée » à n'importe quel détective disposé pour retracer le récit des balises de balisage manquantes et égarées ?

Alors que les artistes avaient utilisé des polices ASCII à largeur fixe et des caractères ANSI comme éléments de conception bien avant la popularisation du Web au milieu des années 1990, c'était la création du HTML en 1993 (synchronisé avec son utilisation dans les serveurs Web et les navigateurs Web nouvellement inventés comme Netscape ) qui a transformé Internet en un espace pour les arts visuels. HTML s'est rapidement imposé comme le langage de mark&ndashup et le protocole de conception graphique le plus influent pour deux raisons : premièrement, la nature textuelle du HTML le rendait faible et convivial à une époque où la plupart des utilisateurs se connectaient via des modems et des lignes téléphoniques et deuxièmement, HTML est un protocole, ce qui signifie qu'il agit comme un dénominateur commun (nonobstant la balise clignotante) reliant une grande variété de plates-formes techniques dissemblables. Mais, comme le montrent les travaux de Davis, qui gravitent autour de Flash mais incluent également le Web, l'impression et la vidéo, il ne faut pas trop insister sur HTML en tant que médium esthétique. Au cours de cette même période, la livraison réseau de code exécutable (applets Java, Flash, Shockwave, etc.) en dehors des limites normales du cadre du navigateur. Chaque icône 1997 de John Simon a été écrite comme une applet Java et donc facilement livrable en ligne sous forme de code exécutable. Dans ce que Lev Manovich a surnommé “Generation Flash,” une toute nouvelle communauté a surgi, impliquant des artistes comme Yugo Nakamura, Matt Owens et James Paterson et croisant à la fois des startups dot&ndashcom comme i|o 360° et Razorfish (ou le propres boutiques de design de l'artiste) et la culture indie des jeunes. Leur support n'est pas seulement les codes de balisage texte uniquement du HTML, mais aussi les langages Macromedia plus sophistiqués (ActionScript et Lingo) ainsi que Javascript, Java et les langages côté serveur comme Perl et PHP.

Concepts Internet

Afin de comprendre comment les œuvres en ligne sont réalisées et visualisées, il sera utile d'aborder un certain nombre de concepts clés dans le domaine des réseaux informatiques. Un réseau informatique se compose de deux ou plusieurs machines connectées via une liaison de données. Si un ordinateur en réseau agit principalement comme une source de données, on l'appelle un serveur. Un serveur a généralement une adresse fixe, est en ligne en permanence et fonctionne comme un référentiel pour les fichiers qui sont retransmis à tout autre ordinateur du réseau qui en fait la demande. Si un ordinateur en réseau agit principalement comme un solliciteur d'informations, on l'appelle un client. Par exemple, en vérifiant son courrier électronique, on agit en tant que client. De même, la machine sur laquelle l'e-mail est stocké (la machine nommée d'après le signe @ dans l'adresse e-mail) fait office de serveur. Ces termes sont flexibles, une machine peut agir comme un serveur dans un contexte et un client dans un autre.

Toute machine connectée à Internet, qu'elle soit cliente ou serveur, est obligée d'avoir une adresse. Sur Internet, ces adresses sont appelées Adresses IP et venez sous la forme 123.45.67.89. (Une nouvelle norme d'adressage est en cours de déploiement qui allonge légèrement les adresses.) Étant donné que les adresses IP changent de temps en temps et sont difficiles à mémoriser, un système de raccourcis en langage naturel appelé DNS (Domain Name System) permet aux adresses IP d'être remplacé par noms de domaine tels que “processing.org” ou “google.com.” Dans une adresse Web, le mot qui précède immédiatement le nom de domaine est le hôte nom pour les serveurs Web, il est d'usage de nommer la machine hôte “www” après le World Wide Web. Mais ce n'est que coutumier. En fait, le nom d'hôte d'un serveur Web peut être n'importe quoi.

L'une des principales façons dont les artistes visuels ont utilisé Internet dans leur travail est de concevoir le réseau comme une base de données géante, un flux d'entrée qui peut être exploré, scanné et analysé à l'aide de clients automatisés. Il s'agit d'une méthodologie artistique qui reconnaît la mutabilité fondamentale des données (ce que les programmeurs appellent “casting” une variable d'un type de données à un autre) et utilise diverses sources de données comme flux d'entrée pour alimenter les animations, pour remplir des tableaux de nombres avec des valeurs pseudo-aléatoires , pour suivre le comportement, ou tout simplement pour le “content.” Le travail de Lisa Jevbratt 1:1 le fait en partant du principe que chaque adresse IP peut être représentée par un seul pixel. Son travail analyse l'espace de noms de l'adresse IP, numéro par numéro, en pingant chaque adresse pour déterminer si une machine est en ligne à cet emplacement. Les résultats sont visualisés sous forme de pixels dans un gigantesque bitmap qui, littéralement, représente l'ensemble d'Internet (ou du moins toutes ces machines avec des adresses IP fixes). De manière très différente, les deux œuvres de Mark Napier Déchiqueteuse et Décharge numérique s'appuyer sur un afflux apparemment sans fin de données en ligne, en réorganisant et en superposant le matériel source d'une manière inattendue par les créateurs originaux. Fonctionne comme Carnivore (plus de détails ci-dessous) et Mini-tâches approchez le réseau lui-même comme une source de données, le premier exploitant le trafic Web en temps réel et le second exploitant le trafic en temps réel sur le réseau Gnutella peer&ndashto&ndashpeer. Des travaux antérieurs tels que >E/S/D 4 (connu sous le nom de “The Webstalker”), ou Jodi's Mauvais navigateur série de navigateurs Web alternatifs illustrent également cette approche, que le réseau lui-même est l'art. Tous ces travaux automatisent le processus de récupération des données sur Internet et de leur manipulation d'une manière ou d'une autre. L'un des types les plus courants est un client Web, un logiciel qui automatise le processus de demande et de réception de fichiers distants sur le World Wide Web.

Exemple 1 : client Web

La bibliothèque Net de Processing comprend des classes prêtes à l'emploi pour les serveurs et les clients. Afin de récupérer une page sur le Web, il faut d'abord créer un client et se connecter à l'adresse du serveur distant. En utilisant une simple technique call&ndashand&ndashresponse, le client demande le fichier et le fichier est renvoyé par le serveur. Cet appel&ndashand-réponse est défini par un protocole appelé Hypertext Transfer Protocol (HTTP). HTTP se compose d'une poignée de commandes simples qui sont utilisées pour décrire l'état du serveur et du client, pour demander des fichiers et pour poster des données sur le serveur si nécessaire. La commande HTTP la plus basique est GET . Cette commande est similaire au remplissage d'un formulaire de demande de livre dans une bibliothèque : le client demande un fichier par son nom, le serveur « obtient » ce fichier et le renvoie au client. HTTP inclut également un certain nombre de codes de réponse pour indiquer que le fichier a été trouvé avec succès, ou pour indiquer si des erreurs ont été rencontrées (par exemple, si le fichier demandé n'existe pas). La commande GET/HTTP/1.0 signifie que le client demande le fichier par défaut dans le répertoire Web racine (/) et que le client est capable de communiquer en utilisant HTTP version 1.0. Le de fin est le caractère de nouvelle ligne, ou à peu près équivalent à appuyer sur la touche de retour. Si le fichier par défaut existe, le serveur le retransmet au client.

Alors que la plupart des ordinateurs n'ont qu'un seul Ethernet Port (ou connexion sans fil), toute la connectivité de chaque machine est capable de supporter plus de connexions qu'une seule entrée ou sortie, car le concept de port est abstrait dans le logiciel et la fonctionnalité du port est ainsi dupliquée plusieurs fois. De cette façon, chaque ordinateur en réseau est capable d'effectuer plusieurs tâches sur sa connexion réseau unique sur des dizaines de connexions différentes (il existe 1 024 ports bien connus et 65 535 ports au total). Ainsi, les ports permettent à un ordinateur en réseau de communiquer simultanément sur un grand nombre de « canaux » sans bloquer d'autres canaux ni entraver le flux de données des applications. Par exemple, il est possible de lire les e-mails et de surfer sur le Web simultanément, car les e-mails arrivent par un port tandis que les sites Web en utilisent un autre. L'union de l'adresse IP et du numéro de port (exemple : 123.45.67.89:80) est appelée un prise. Les connexions socket sont le pain et le beurre de la mise en réseau.

Exemple 2 : canevas de dessin partagé

En utilisant la bibliothèque Processing Net, il est possible de créer un serveur simple. L'exemple montre un serveur qui partage une zone de dessin entre deux ordinateurs. Pour ouvrir une connexion socket, un serveur doit sélectionner un port sur lequel écouter les clients entrants et à travers lequel communiquer. Bien que n'importe quel numéro de port puisse être utilisé, il est recommandé d'éviter d'utiliser des numéros de port déjà attribués à d'autres applications et protocoles réseau. Une fois le socket établi, un client peut se connecter au serveur et envoyer ou recevoir des commandes et des données.

Associée à ce serveur, la classe Processing Client est instanciée en spécifiant une adresse distante et un numéro de port vers lequel la connexion socket doit être établie. Une fois la connexion établie, le client peut lire (ou écrire) des données sur le serveur. Étant donné que les clients et les serveurs sont les deux faces d'une même pièce, les exemples de code sont presque identiques pour les deux. Pour cet exemple, les coordonnées de la souris actuelle et précédente sont envoyées entre le client et le serveur plusieurs fois par seconde.

Exemple 3 : Client carnivore

Si un examen de niveau inférieur des flux des réseaux de données est souhaité, la bibliothèque Carnivore for Processing permet au programmeur d'exécuter un renifleur de paquets depuis l'environnement de traitement. Un renifleur de paquets est une application capable d'écouter sans discernement le trafic de données transitant par un réseau local (LAN), même le trafic qui n'est pas adressé à la machine exécutant le renifleur. Bien que cela puisse sembler peu orthodoxe, et en effet une machine exécutant un renifleur est décrite comme étant en "mode promiscuité", les technologies de reniflage de paquets sont aussi omniprésentes que l'Internet lui-même et tout aussi anciennes. Les administrateurs système utilisent des renifleurs de paquets pour résoudre les bogues de réseau. Toutes les machines Macintosh sont livrées avec le renifleur de paquets tcpdump préinstallé, tandis que les utilisateurs de Windows et Linux ont un assortiment de renifleurs gratuits (y compris tcpdump et ses variantes) parmi lesquels choisir. La bibliothèque Carnivore pour le traitement simplifie simplement l'acte de renifler les paquets, rendant la surveillance du trafic en temps réel facile à mettre en œuvre pour tout artiste qui le souhaite. Les paquets capturés via Carnivore peuvent être visualisés sous forme de carte, analysés à la recherche de mots-clés ou simplement utilisés pour tout type d'algorithme nécessitant un flux constant de déclencheurs d'événements non aléatoires.

Protocoles Internet

Carnivore est un bon tremplin vers le dernier domaine des réseaux informatiques discuté ici : les protocoles Internet. Un protocole est un standard technologique. Les protocoles Internet sont une série de documents qui décrivent comment implémenter des technologies Internet standard telles que le routage de données, l'établissement de liaison entre deux machines, l'adressage réseau et de nombreuses autres technologies. Deux protocoles ont déjà été discutés&ndashHTML, qui est le protocole de langage pour la mise en page et la conception hypertexte et HTTP, qui est le protocole d'accès aux fichiers accessibles sur le Web, mais il y a quelques autres protocoles qui méritent d'être discutés dans ce contexte.

Les protocoles sont des concepts abstraits, mais ils sont également assez matériels et se manifestent sous la forme d'en-têtes de données structurées qui précèdent et encapsulent tout le contenu circulant sur Internet. Par exemple, pour qu'une page HTML typique passe du serveur au client, la page est précédée d'un en-tête HTTP (quelques lignes de texte similaires à la commande GET référencée précédemment). Ce glob de données est lui-même précédé de deux en-têtes supplémentaires, d'abord un en-tête TCP (Transmission Control Protocol) et ensuite un en-tête IP (Internet Protocol). À son arrivée à destination, le message est déballé : l'en-tête IP est supprimé, suivi de l'en-tête TCP, et enfin l'en-tête HTTP est supprimé pour révéler la page HTML d'origine. Tout cela se fait en un clin d'œil. Tous les en-têtes contiennent des informations utiles sur le paquet. Mais les quatre informations les plus utiles sont peut-être l'adresse IP de l'expéditeur, l'adresse IP du destinataire, le port de l'expéditeur et le port du destinataire. Ces quatre éléments sont significatifs car ils indiquent les adresses réseau des machines concernées, plus, via une recherche inversée des numéros de ports, le type de données transférées (port 80 indiquant des données web, port 23 indiquant une connexion Telnet, etc. au). Voir le /etc/services sur n'importe quelle machine Macintosh, Linux ou UNIX, ou parcourez le registre de l'IANA pour une liste complète des numéros de port.Les adresses sont contenues dans l'en-tête IP de l'octet 12 à l'octet 29 (à partir de 0), tandis que les ports sont contenus dans les octets zéro à trois de l'en-tête TCP.

Les deux éléments de la connexion socket (adresse IP et port) sont séparés en deux protocoles différents en raison de la nature différente d'IP et de TCP. Le protocole IP concerne le routage des données d'un endroit à un autre et nécessite donc d'avoir une adresse IP pour acheminer correctement, mais se soucie peu du type de données dans sa charge utile. TCP vise à établir un circuit virtuel entre le serveur et le client et nécessite donc un peu plus d'informations sur le type de communication Internet tentée. IP et TCP fonctionnent si étroitement ensemble qu'ils sont souvent décrits d'un seul coup comme la « suite TCP/IP ».

Alors que la plupart des données sur Internet reposent sur la suite TCP/IP pour se déplacer, certaines formes de communication en réseau sont mieux adaptées à la combinaison UDP/IP. Le protocole UDP (User Datagram Protocol) a une implémentation beaucoup plus légère que TCP, et bien qu'il sacrifie donc de nombreuses fonctionnalités de TCP, il est néanmoins utile pour les connexions de données sans état et les connexions qui nécessitent un débit élevé de paquets par seconde, comme les jeux en ligne. .

Outils réseau

Il existe un certain nombre d'outils réseau existants qu'un programmeur peut utiliser au-delà de l'environnement de traitement. Carnivore et tcpdump, deux types différents de renifleurs de paquets qui permettent de recevoir des paquets LAN en temps réel, ont déjà été mentionnés. Le processus d'analyse des réseaux à la recherche d'hôtes disponibles, appelé découverte de réseau, est également possible à l'aide d'outils d'analyse de ports tels que Nmap. Ces outils utilisent diverses méthodes pour parcourir un ensemble numérique d'adresses IP (exemple : 192.168.1.x où x est incrémenté de 0 à 255), en testant pour voir si une machine répond à cette adresse. Ensuite, si une machine est connue pour être en ligne, le scanner de ports est utilisé pour parcourir une plage de ports sur la machine (exemple : 192.168.1.1:x où x est un numéro de port incrémenté de 1 à 1024) afin de déterminer quels ports sont ouverts, déterminant ainsi quels services applicatifs sont disponibles. Les analyses de ports peuvent également être utilisées pour obtenir des « empreintes digitales » pour les machines distantes, ce qui facilite l'identification du système d'exploitation actuel de la machine, du type et des informations de version pour les services d'application connus.

L'avancée la plus importante dans les réseaux populaires depuis l'émergence du Web au milieu des années 1990 a peut-être été le développement de systèmes peer-to-peer comme Gnutella ou BitTorrent. Dans la foulée de Napster, Gnutella a entièrement distribué le processus de partage et de transfert de fichiers, mais a également entièrement distribué l'algorithme de recherche du réseau, un détail qui avait créé des goulots d'étranglement (sans parler des responsabilités légales) pour le Napster plus centralisé. Avec un algorithme de recherche distribué, les requêtes de recherche vont à la marelle d'un nœud à l'autre, tout comme la méthode « patate chaude » utilisée dans le routage IP, elles ne passent par aucun serveur centralisé. Le protocole Gnutella a été implémenté dans des dizaines d'applications peer-to-peer.

Pourtant, plus récemment, Gnutella a été remplacé par des systèmes comme BitTorrent, une application peer&ndashto&ndashpeer qui permet aux transferts de fichiers de se produire simultanément entre un grand nombre d'utilisateurs. BitTorrent a acquis une grande popularité pour son efficacité accrue, en particulier pour les transferts de fichiers volumineux tels que les vidéos et les logiciels.

De nombreux projets logiciels nécessitant de l'audio en réseau ont fini par s'appuyer sur le protocole Open Sound Control (OSC). OSC est un protocole de communication entre des appareils multimédias tels que des ordinateurs et des synthétiseurs. OSC a été intégré dans SuperCollider et Max/MSP et a été porté sur la plupart des langages modernes, notamment Perl et Java. “oscP5” d'Andreas Schlegel est une bibliothèque d'extension OSC pour le traitement.

Internet est également devenu davantage axé sur les pairs à d'autres égards, non seulement par le partage de fichiers, mais aussi par le biais de communautés d'amis et d'autres types d'interaction sociale. Les plateformes Web 2.0 telles que Facebook, Twitter ou YouTube permettent à des groupes de personnes de se mettre en réseau, qu'il s'agisse d'un petit groupe de cinq ou dix, ou d'un groupe plus important de plusieurs milliers. Alors que le modèle client-serveur plus traditionnel reposait sur une distinction claire entre les fournisseurs d'informations et les consommateurs d'informations, les nouveaux systèmes ont perturbé certaines des anciennes hiérarchies, permettant aux utilisateurs en réseau d'agir à la fois en tant que producteurs et consommateurs de contenu. De tels systèmes reposent donc fortement sur contenu généré par l'utilisateur et attendent une plus grande participation et interaction de leur base d'utilisateurs.

Conclusion

Les programmeurs doivent souvent prendre en compte les interconnexions entre les réseaux d'objets et d'événements. De ce fait, la programmation pour les réseaux est une extension naturelle de la programmation pour une seule machine. Les classes envoient des messages à d'autres classes tout comme les hôtes envoient des messages à d'autres hôtes. Un objet a une interface, tout comme une carte Ethernet. La construction algorithmique d'entités dans le dialogue&ndashpixels, bits, cadres, nœuds&ndashis est au cœur de ce qu'est le traitement. La mise en réseau de ces entités en déplaçant certaines d'entre elles vers une machine et d'autres vers une autre n'est qu'une petite étape supplémentaire. Ce qu'il faut, cependant, c'est une connaissance des diverses normes et techniques en jeu lors de la mise en place d'un réseautage de bonne foi.

Historiquement, il y a eu deux volets de base de l'art en réseau : l'art où le réseau est utilisé comme moyen réel de création artistique, ou l'art où le réseau est utilisé comme moyen de transport pour la diffusion de l'œuvre. Le premier pourrait être compris comme l'art de l'Internet, tandis que le second comme l'art pour l'Internet. Le but de ce texte a été d'introduire certaines des conditions de base, à la fois technologiques et esthétiques, pour faire de l'art en réseau, dans l'espoir que des techniques et des approches entièrement nouvelles émergeront à l'avenir alors que les deux volets se mélangent dans de nouvelles formes passionnantes.


Partie 4 : Considérations éthiques

Malheureusement, il n'y a pas de directives claires sur l'utilisation de Facebook ou d'autres plateformes de médias sociaux pour la recherche. Facebook offre aux participants un degré de contrôle relativement élevé sur leurs données, mais il incombe au chercheur de peser les coûts et les avantages de la collecte et de l'utilisation des informations personnelles des utilisateurs - et de s'en remettre à un IRB en cas de doute. La simple disponibilité des données et la volonté des participants de les partager ne confèrent pas aux chercheurs le droit de les enregistrer et de les utiliser librement.

L'absence de directives formelles est exacerbée par l'accélération constante des progrès technologiques, tant les chercheurs que les membres de l'IRB peuvent surestimer ou sous-estimer les menaces pesant sur les participants, entravant ainsi des projets bénins ou approuvant des projets malins. Ces deux facteurs découragent les spécialistes des sciences sociales de mener des recherches en ligne ou de soumettre des études pour examen. En conséquence, les informaticiens - qui sont souvent indifférents ou peu familiers avec les implications éthiques et sociales de la recherche sur des sujets humains - réalisent une proportion croissante de ces études.

Cette tendance est déconcertante, et pas seulement parce que Facebook constitue un outil de recherche puissant et un domaine d'intérêt important pour les sciences sociales. Nous espérons encourager les agences fédérales de l'IRB telles que le département américain de la Santé et des Services sociaux et le Comité d'éthique de l'APA à se concentrer davantage sur les nouveaux outils et environnements de recherche, y compris Facebook. De plus, nous pensons que les articles utilisant des données Facebook devraient inclure une discussion sur les considérations éthiques liées à la conception d'une étude et à ses conclusions. Une telle approche garantit que les auteurs ont pris en compte les aspects éthiques de leur propre travail et soutient l'évolution des standards et des normes dans cet environnement technologique en évolution rapide.

Il existe deux défis éthiques majeurs liés à la collecte de données dans l'environnement Facebook. Premièrement, la frontière entre les données appartenant uniquement aux participants et les informations appartenant à d'autres est très floue. Le consentement des participants permet aux chercheurs d'enregistrer du contenu qui fait référence ou a été fourni par d'autres personnes, tels que des images, des vidéos, des messages ou des commentaires marqués sur le profil du participant. À notre avis, il est acceptable d'utiliser des données générées par ou contenant des références à des non-participants, mais seulement si les analyses visent exclusivement ceux qui participent directement à l'étude. Par exemple, les profils démographiques et les connexions réseau des non-participants pourraient être utilisés pour établir les paramètres des réseaux sociaux égocentriques d'un participant, ou le rapport de genre parmi leurs amis, mais pas pour étudier les amis non participants.

Le deuxième grand défi fait référence à la vague frontière entre l'information publique et privée. Certaines informations de profil de base sont accessibles au public et même indexées par les moteurs de recherche. Cependant, certains chercheurs soulignent que la frontière entre public et privé n'est pas déterminée par l'accessibilité, mais par les normes et pratiques sociales. Par exemple, dans une petite ville où tout le monde connaît des détails intimes sur tout le monde, les gens ont tendance à prétendre ne pas connaître des faits considérés comme personnels. D'autres soutiennent que l'exploration de données publiques équivaut à mener des recherches d'archives, une méthode fréquemment utilisée dans des disciplines telles que l'histoire, la critique d'art et la littérature, qui impliquent rarement des règles de protection des sujets humains.

Nous penchons pour ce dernier argument et pensons que les données de profil public Facebook peuvent être utilisées sans le consentement des participants s'il est raisonnable de supposer que les données ont été sciemment rendues publiques par les individus. Les chercheurs doivent toutefois anonymiser immédiatement et de manière irréversible les données et s'abstenir de toute communication ou interaction avec les individus de l'échantillon. En outre, les chercheurs doivent veiller à ne révéler aucune information pouvant être attribuée à un seul individu (comme des photographies ou des échantillons de texte) lors de la publication des résultats de l'étude.


Amazon lance Lookout for Metrics, un service AWS pour surveiller les performances de l'entreprise

Élevez votre technologie et votre stratégie de données d'entreprise.

Élevez votre technologie et votre stratégie de données d'entreprise à Transform 2021.

Amazon a annoncé aujourd'hui la disponibilité générale de Lookout for Metrics, un service entièrement géré qui utilise l'apprentissage automatique pour surveiller les facteurs clés ayant un impact sur la santé des entreprises. Lancé à re:Invent 2020 en décembre dernier en avant-première, Lookout for Metrics est désormais accessible à la plupart des clients Amazon Web Services (AWS) via la console AWS et via des partenaires de support.

Les organisations analysent des mesures ou des indicateurs de performance clés pour aider leurs entreprises à fonctionner de manière efficace et efficiente. Traditionnellement, les outils de business intelligence sont utilisés pour gérer ces données à travers des sources disparates, mais l'identification de ces anomalies est difficile. Les méthodes traditionnelles basées sur des règles recherchent des données qui se situent en dehors des plages numériques. De manière problématique, ces plages ont tendance à être statiques et immuables en réponse à des conditions telles que l'heure de la journée, le jour de la semaine, les saisons ou les cycles économiques.

En utilisant la même technologie d'apprentissage automatique derrière Amazon, Lookout for Metrics résout apparemment ce problème en inspectant automatiquement les indicateurs de santé de l'entreprise, notamment les revenus, les pages Web consultées, les utilisateurs actifs, le volume de transactions et les installations d'applications mobiles. Le service aide également à diagnostiquer la cause première des anomalies, telles que les baisses inattendues des revenus, les taux élevés de paniers d'achat abandonnés, les pics d'échecs de transactions de paiement, l'augmentation des inscriptions de nouveaux utilisateurs, etc.

Les clients peuvent connecter Lookout for Metrics à 19 sources de données populaires telles qu'Amazon CloudWatch et Amazon Redshift, ainsi qu'à des applications logicielles en tant que service telles que Salesforce, Marketo et Zendesk. Lookout for Metrics récupère et prépare les données, sélectionne l'algorithme d'apprentissage automatique le mieux adapté, commence à détecter les anomalies, regroupe les anomalies associées et résume les causes possibles. Par exemple, si le trafic du site Web d'un client diminuait soudainement, Lookout for Metrics l'aiderait à déterminer si une désactivation involontaire d'une campagne marketing en était la cause.

Lookout for Metrics se connecte également aux services de notification et d'événement, permettant aux clients de créer des alertes ou des actions telles que le dépôt de billets ou la suppression d'un produit au prix incorrect d'un site Web de vente au détail. Lorsque le service commence à renvoyer des résultats, les développeurs ont la possibilité de fournir des commentaires sur la pertinence des anomalies détectées, que le service utilise pour améliorer sa précision.

« Du marketing et des ventes aux télécommunications et aux jeux, les clients de tous les secteurs disposent d'indicateurs de performance clés dont ils ont besoin pour surveiller les pics, creux et autres anomalies potentiels en dehors des limites normales de leurs fonctions commerciales. Mais détecter et diagnostiquer des anomalies dans les métriques peut être difficile, et au moment où une cause fondamentale a été déterminée, beaucoup plus de dégâts ont été causés que s'ils avaient été identifiés plus tôt », a déclaré Swami Sivasubramanian, vice-président d'Amazon AI, dans un communiqué de presse. . « Nous sommes ravis de proposer Amazon Lookout for Metrics pour aider les clients à surveiller les métriques importantes pour leur entreprise à l'aide d'un service d'apprentissage automatique facile à utiliser qui tire parti de la propre expérience d'Amazon dans la détection d'anomalies à grande échelle et avec une grande précision et la vitesse."

Lookout for Metrics est initialement disponible dans les États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Oregon), UE (Irlande), UE (Francfort), UE (Stockholm), Asie-Pacifique (Singapour), Asie Régions AWS Pacifique (Sydney) et Asie-Pacifique (Tokyo). Il arrivera dans d'autres régions au cours des prochains mois, selon Amazon.


Arçelik Asista

Le développement des technologies et des tendances entraîne un changement constant des besoins des utilisateurs. Les interfaces encombrées et les télécommandes avec de nombreux boutons ont été remplacées par des écrans tactiles, des interfaces simplifiées et des applications mobiles. Les technologies émergentes perfectionnent cette expérience, permettant aux humains d'interagir avec les machines en utilisant le moyen de communication le plus naturel : la voix.

Asista utilise des solutions de compréhension du langage naturel (NLU) et des technologies de traitement que nous avons développées. Il vous écoute et vous comprend, et répond à vos questions en turc.

Asista, en utilisant des méthodes nouvelles et interactives, vous permet de contrôler et de faire fonctionner tous les appareils ménagers tels que les réfrigérateurs, les cuisinières et les lave-vaisselle, d'automatiser la gestion de l'énergie, de vérifier les canaux multimédias et de superviser votre système de sécurité, devenant ainsi le centre de commande de votre maison. Nous avons également l'intention d'Asista de fournir un accès aux services d'achat, aux dernières nouvelles sportives, au trafic et à la météo actuels, à la bourse et à d'autres services à valeur ajoutée développés par des tiers pour vous faciliter la vie.

Nous fournissons une solution complète qui intègre une interface de communication homme-machine, NLU turc, messagerie vocale et reconnaissance vocale. Asista dispose d'un réseau de microphones à 360 degrés avec activation vocale en champ lointain, neutralisation d'écho, réduction du bruit et balayage de source à 360 degrés.

Smart Assistant permettra également d'intégrer les solutions NLU dans de nombreux domaines :

Industrie 4.0 – Contrôle des postes de production et des machines avec des commandes vocales

Automobile - Contrôler les automobiles et les fonctionnalités avec des commandes vocales

Santé – Connecter des appareils de surveillance à Smart Assistant pour la vérification à distance des patients et le partage en temps réel des données médicales avec les médecins et les hôpitaux

Télématique – La capacité du fabricant à contrôler à distance tous les appareils ménagers, petits ou grands, évite les dommages permanents aux appareils et permet une assistance technique préventive

Éducation – Utilisation de modules éducatifs interactifs

Hôtels – Automatisation des chambres à commande vocale, commandes ou contact concierge

Hôtels et centres commerciaux - Bureaux d'information interactifs qui agissent comme des répertoires de magasins à commande vocale


5.1 Sensation versus perception

Que signifie ressentir quelque chose ? Les récepteurs sensoriels sont des neurones spécialisés qui répondent à des types spécifiques de stimuli. Lorsque des informations sensorielles sont détectées par un récepteur sensoriel, une sensation s'est produite. Par exemple, la lumière qui pénètre dans l'œil provoque des changements chimiques dans les cellules qui tapissent l'arrière de l'œil. Ces cellules transmettent des messages, sous forme de potentiels d'action (comme vous l'avez appris en étudiant la biopsychologie), au système nerveux central. La conversion de l'énergie de stimulation sensorielle en potentiel d'action est connue sous le nom de transduction. Transduction représente la première étape vers la perception et est un processus de traduction où différents types de cellules réagissent à des stimuli créant un signal traité par le système nerveux central résultant en ce que nous ressentons comme des sensations. Les sensations permettent aux organismes de sentir un visage et de sentir la fumée en cas d'incendie.

Les perceptions, quant à elles, nécessitent d'organiser et de comprendre les informations de sensation entrantes. Pour que les sensations soient utiles, nous devons d'abord ajouter un sens à ces sensations, qui créent nos perceptions de ces sensations. Les sensations nous permettent de voir un brûleur rouge, mais les perceptions impliquent la compréhension et la représentation du chaud caractéristique. En outre, une sensation serait d'entendre une tonalité forte et aiguë, tandis qu'une perception serait la classification et la compréhension de ce son comme une alarme incendie. Tout au long de ce chapitre, les sensations et les perceptions seront discutées comme des événements séparés, alors qu'en réalité, les sensations et les perceptions peuvent être plus précisément considérées comme se produisant le long d'un continu où les frontières sont plus fluides entre l'endroit où une sensation se termine et une perception commence.

Vous savez probablement depuis l'école primaire que nous avons cinq sens : la vision, l'ouïe (audition), l'odorat (olfaction), le goût (gustation) et le toucher (somatosensation). Il s'avère que cette notion de cinq sens est extrêmement simplifiée. Nous avons également des systèmes sensoriels qui fournissent des informations sur l'équilibre (le sens vestibulaire), la position et le mouvement du corps (proprioception et kinesthésie), la douleur (nociception) et la température (thermoception), et chacun de ces systèmes sensoriels a différents récepteurs réglés pour transduire stimuli différents. Le système de vision absorbe la lumière à l'aide de récepteurs à tige et à cône situés à l'arrière des yeux, le son est traduit par de minuscules cheveux comme des récepteurs appelés cils à l'intérieur de l'oreille interne, l'odorat et le goût travaillent ensemble la plupart du temps pour absorber les produits chimiques présents dans les particules en suspension dans l'air et la nourriture via des cils chimiquement sensibles dans la cavité nasale et des groupes de récepteurs chimiques sur la langue. Le toucher est particulièrement intéressant car il est composé de réponses de nombreux types de récepteurs différents présents dans la peau qui envoient des signaux au système nerveux central en réponse à la température, à la pression, aux vibrations et aux perturbations de la peau telles que les étirements et les déchirures.

Des terminaisons nerveuses libres incrustées dans la peau qui permettent aux humains de percevoir les différentes différences dans notre environnement immédiat. Adapté de Pinel, 2009.

La sensibilité d'un système sensoriel donné aux stimuli pertinents peut être exprimée sous la forme d'un seuil absolu. Limite absolue fait référence à la quantité minimale d'énergie de stimulus qui doit être présente pour que le stimulus soit détecté 50 % du temps.Une autre façon de penser à cela est de demander à quel point une lumière peut être faible ou à quel point un son peut-il être doux et toujours détecté la moitié du temps. La sensibilité de nos récepteurs sensoriels peut être assez étonnante. Il a été estimé que par une nuit claire, les cellules sensorielles les plus sensibles à l'arrière de l'œil peuvent détecter une flamme de bougie à 30 miles (Okawa & Sampath, 2007). Dans des conditions calmes, les cellules ciliées (les cellules réceptrices de l'oreille interne) peuvent détecter le tic d'une horloge à 20 pieds de distance (Galanter, 1962). De plus, une cuillère à café de sucre peut être dégustée dans deux gallons d'eau, et le système olfactif humain peut détecter l'odeur d'une goutte de parfum dans un appartement de six pièces.

Il nous est également possible d'obtenir des messages qui sont présentés en dessous du seuil de prise de conscience – on les appelle des messages subliminaux. Un stimulus atteint un seuil physiologique lorsqu'il est suffisamment fort pour exciter les récepteurs sensoriels et envoyer des impulsions nerveuses au cerveau : il s'agit d'un seuil absolu. Un message en dessous de ce seuil est dit subliminal : le message est traité, mais nous n'en sommes pas conscients. Au fil des ans, il y a eu beaucoup de spéculations sur l'utilisation de messages subliminaux dans la publicité, la musique rock et les programmes audio d'auto-assistance pour influencer le comportement des consommateurs. La recherche a démontré qu'en laboratoire, les gens peuvent traiter et répondre à l'information en dehors de la conscience. Mais cela ne veut pas dire que nous obéissons à ces messages comme des zombies en fait, les messages cachés ont peu d'effet sur les comportements en dehors du laboratoire (Kunst-Wilson & Zajonc, 1980 Rensink, 2004 Nelson, 2008 Radel, Sarrazin, Legrain, & Gobancé, 2009 Loersch , Durso, & Petty, 2013). Les études visant à influencer les cinéphiles à acheter plus de pop-corn et à réduire les habitudes de consommation de tabac ont démontré peu ou pas de succès, suggérant en outre que les messages subliminaux sont pour la plupart inefficaces pour produire un comportement spécifique (Karremans, Stroebe & amp Claus, 2006). Cependant, des études de neuroimagerie ont démontré une activité neuronale claire liée au traitement des stimuli subliminaux (Koudier & Dehaene, 2007). De plus, Krosnick, Betz, Jussim & Lynn (1992) ont découvert que les participants à qui l'on présentait des images de cadavres ou de seaux de serpents pendant plusieurs millisecondes (amorçage subliminal) étaient plus susceptibles d'évaluer une image neutre d'une femme avec une expression faciale neutre. comme plus antipathiques par rapport aux participants qui ont vu des images plus agréables (chatons et couples mariés). Cela démontre que bien que nous ne soyons peut-être pas conscients des stimuli qui nous sont présentés, nous les traitons au niveau neuronal, et aussi que bien que l'amorçage subliminal ne soit généralement pas assez fort pour forcer des achats indésirables, il peut influencer nos perceptions des choses que nous rencontrons dans l'environnement après l'amorçage subliminal.

Les seuils absolus sont généralement mesurés dans des conditions incroyablement contrôlées dans des situations optimales pour la sensibilité. Parfois, nous sommes plus intéressés par la différence de stimuli nécessaire pour détecter une différence entre eux. Ceci est connu comme le différence juste notable (JND, brièvement mentionné dans l'étude ci-dessus comparant les perceptions des couleurs des participants chinois et néerlandais) ou seuil de différence. Contrairement au seuil absolu, le seuil de différence change en fonction de l'intensité du stimulus. Par exemple, imaginez-vous dans une salle de cinéma très sombre. Si un membre du public recevait un SMS sur son téléphone portable qui allumerait son écran, il est probable que de nombreuses personnes remarqueraient le changement d'éclairage dans le théâtre. Cependant, si la même chose se produisait dans une arène très éclairée pendant un match de basket-ball, très peu de gens le remarqueraient. La luminosité du téléphone portable ne change pas, mais sa capacité à être détectée comme un changement d'éclairage varie considérablement entre les deux contextes. Ernst Weber a proposé cette théorie du changement de seuil de différence dans les années 1830, et elle est devenue connue sous le nom de loi de Weber.

Loi Webers: Chacun des différents sens a ses propres rapports constants déterminant les seuils de différence.

Les idées de Webers sur les seuils de différence ont influencé les concepts de la théorie de la détection de signaux qui stipulent que nos capacités à détecter un stimulus dépendent de facteurs sensoriels (comme l'intensité du stimulus ou la présence d'autres stimuli en cours de traitement) ainsi que de notre état psychologique (vous êtes somnolent parce que vous êtes resté éveillé à étudier la nuit précédente). Les ingénieurs en facteurs humains qui conçoivent des consoles de commande pour les avions et les voitures utilisent la théorie de la détection de signaux tout le temps afin d'évaluer les situations que les pilotes ou les conducteurs peuvent rencontrer, telles que la difficulté à voir et à interpréter les commandes par temps extrêmement lumineux.

LA PERCEPTION

Bien que les perceptions soient construites à partir de sensations, toutes les sensations n'aboutissent pas à une perception..”

Alors que nos récepteurs sensoriels collectent constamment des informations de l'environnement, c'est finalement la façon dont nous interprétons ces informations qui affecte la façon dont nous interagissons avec le monde. La perception fait référence à la manière dont les informations sensorielles sont organisées, interprétées et expérimentées consciemment. La perception implique à la fois un traitement ascendant et descendant. Le traitement ascendant fait référence au fait que les perceptions sont construites à partir d'entrées sensorielles, de stimuli de l'environnement. D'autre part, la façon dont nous interprétons ces sensations est influencée par nos connaissances disponibles, nos expériences et nos pensées liées aux stimuli que nous vivons. C'est ce qu'on appelle le traitement descendant.

Une façon de penser à ce concept est que la sensation est un processus physique, alors que la perception est psychologique. Par exemple, en entrant dans une cuisine et en sentant l'odeur des petits pains à la cannelle, le sensation ce sont les récepteurs olfactifs qui détectent l'odeur de la cannelle, mais le la perception peut être « Mmm, ça sent le pain que grand-mère faisait quand la famille se réunissait pour les vacances ». La sensation est un signal de l'un de nos six sens. La perception est la réponse du cerveau à ces signaux. Lorsque nous voyons notre professeur parler devant la salle, nous sentons les signaux visuels et auditifs venant d'eux et nous percevons qu'ils donnent une conférence sur notre cours de psychologie.

Bien que nos perceptions soient construites à partir de sensations, toutes les sensations n'aboutissent pas à une perception. En fait, nous ne percevons souvent pas des stimuli qui restent relativement constants sur des périodes de temps prolongées. C'est ce qu'on appelle l'adaptation sensorielle. Imaginez entrer dans une salle de classe avec une vieille horloge analogique. En entrant pour la première fois dans la salle, vous pouvez entendre le tic-tac de l'horloge alors que vous commencez à engager une conversation avec des camarades de classe ou écoutez votre professeur saluer la classe, vous n'êtes plus conscient du tic-tac. L'horloge tourne toujours et cette information affecte toujours les récepteurs sensoriels du système auditif. Le fait que vous ne perceviez plus le son démontre une adaptation sensorielle et montre que bien qu'étroitement associées, sensation et perception sont différentes. De plus, lorsque vous entrez dans une salle de cinéma sombre après avoir été dehors par une journée ensoleillée, vous remarquerez qu'il est initialement extrêmement difficile à voir. Après quelques minutes, vous faites l'expérience de ce qu'on appelle l'adaptation à l'obscurité qui a tendance à prendre environ 8 minutes pour les cônes (acuité visuelle et couleur) et environ 30 minutes pour que les cônes de votre rétine s'adaptent (lumière, obscurité, profondeur et distance) ( Hecht & Mendelbaum, 1938 Klaver, Wolfs, Vingerling, Hoffman, & de Jong, 1998). Si vous vous demandez pourquoi il faut tant de temps pour s'adapter à l'obscurité, afin de modifier la sensibilité des bâtonnets et des cônes, ils doivent d'abord subir un changement chimique complexe associé aux molécules de protéines qui ne se produit pas immédiatement. Maintenant que vous vous êtes adapté à l'obscurité du théâtre, que vous avez survécu à un marathon en regardant toute la série Le Seigneur des Anneaux et que vous sortez du théâtre dix heures après votre entrée dans le théâtre, vous pouvez expérimenter le processus d'adaptation à la lumière. , sauf s'il fait encore jour dehors. Au cours de l'adaptation à la lumière, les pupilles se contractent pour réduire la quantité de lumière inondant la rétine et la sensibilité à la lumière est réduite à la fois pour les bâtonnets et les cônes, ce qui prend généralement moins de 10 minutes (Ludel, 1978). Alors pourquoi le processus d'augmentation de la sensibilité à la lumière pour s'adapter à l'obscurité est-il plus complexe que la diminution de la sensibilité pour s'adapter à la lumière ? Caruso (2007) a suggéré qu'un processus plus progressif est impliqué dans l'adaptation à l'obscurité en raison de la tendance des humains au cours de l'évolution à s'adapter lentement à l'obscurité lorsque le soleil se couche à l'horizon.

Il y a un autre facteur qui affecte la sensation et la perception : l'attention. L'attention joue un rôle important dans la détermination de ce qui est perçu par rapport à ce qui est perçu. Imaginez que vous êtes à une fête pleine de musique, de bavardages et de rires. Vous vous engagez dans une conversation intéressante avec un ami et vous éliminez tout le bruit de fond. Si quelqu'un vous interrompait pour vous demander quelle chanson venait de finir de jouer, vous seriez probablement incapable de répondre à cette question.

L'une des démonstrations les plus intéressantes de l'importance de l'attention dans la détermination de notre perception de l'environnement s'est produite dans une étude célèbre menée par Daniel Simons et Christopher Chabris (1999). Dans cette étude, les participants ont regardé une vidéo de personnes vêtues de ballons de basket en noir et blanc. Les participants devaient compter le nombre de fois où l'équipe en blanc passait le ballon. Pendant la vidéo, une personne vêtue d'un costume de gorille noir se promène parmi les deux équipes. On pourrait penser que quelqu'un remarquerait le gorille, n'est-ce pas ? Près de la moitié des personnes qui ont regardé la vidéo n'ont pas du tout remarqué le gorille, malgré le fait qu'il était clairement visible pendant neuf secondes. Parce que les participants étaient tellement concentrés sur le nombre de fois où l'équipe blanche passait le ballon, ils ont complètement ignoré les autres informations visuelles. Ne pas remarquer quelque chose qui est complètement visible à cause d'un manque d'attention est appelé cécité d'inattention. Des travaux plus récents ont évalué la cécité d'inattention liée à l'utilisation du téléphone portable. Hyman, Boss, Wise, McKenzie & Caggiano (2010) ont classé les participants selon qu'ils marchaient tout en parlant sur leur téléphone portable, en écoutant un lecteur MP3, en marchant sans appareil électronique ou en marchant à deux. Les participants ne savaient pas que pendant qu'ils marchaient sur la place, un clown monocycliste monterait juste devant eux. Après que les élèves aient atteint l'extérieur de la place, ils ont été arrêtés et leur ont demandé s'ils avaient remarqué le clown monocycle qui passait devant eux. Les utilisateurs de téléphones portables marchaient plus lentement, changeaient de direction plus souvent, accordaient moins d'attention aux autres autour d'eux et étaient également le groupe le plus fréquent à déclarer qu'ils n'avaient pas remarqué le clown monocycle. David Strayer et Frank Drews ont également examiné l'utilisation du téléphone portable dans une série de simulateurs de conduite et ont découvert que même lorsque les participants regardaient directement les objets dans l'environnement de conduite, ils étaient moins susceptibles de créer un souvenir durable de ces objets s'ils parlaient sur un téléphone portable. Ce modèle a été obtenu pour des objets à la fois hautement et faiblement pertinents pour leur sécurité de conduite, suggérant peu d'analyse cognitive significative des objets dans l'environnement de conduite en dehors du centre d'attention restreint tout en maintenant une conversation par téléphone portable. De plus, les conversations dans le véhicule n'ont pas autant interféré avec la conduite que les conversations sur téléphone portable comme le suggèrent Strayer et Drews, les conducteurs sont mieux en mesure de synchroniser les demandes de traitement de la conduite avec les conversations dans le véhicule par rapport aux conversations sur téléphone portable. Dans l'ensemble, il est évident que diriger le centre de notre attention peut entraîner des altérations parfois graves d'autres informations, et il semble que les téléphones portables puissent avoir un impact particulièrement dramatique sur le traitement de l'information lors de l'exécution d'autres tâches.

Dans une expérience similaire à l'activité ci-dessus, les chercheurs ont testé la cécité d'inattention en demandant aux participants d'observer des images se déplaçant sur un écran d'ordinateur. On leur a demandé de se concentrer sur des objets blancs ou noirs, sans tenir compte de l'autre couleur. Lorsqu'une croix rouge traversait l'écran, environ un tiers des sujets ne la remarquaient pas (figure ci-dessous) (Most, Simons, Scholl, & Chabris, 2000).

Près d'un tiers des participants à une étude n'ont pas remarqué qu'une croix rouge passait à l'écran parce que leur attention était concentrée sur les figures noires ou blanches. (crédit : Cory Zanker)

La motivation peut également affecter la perception. Vous êtes-vous déjà attendu à un appel téléphonique très important et, en prenant une douche, vous pensez entendre le téléphone sonner, pour découvrir que ce n'est pas le cas ? Si c'est le cas, alors vous avez constaté à quel point la motivation à détecter un stimulus significatif peut modifier notre capacité à faire la distinction entre un véritable stimulus sensoriel et le bruit de fond. Cet aspect motivationnel de l'attente dans la conversation peut également expliquer pourquoi une cécité inattentionnelle aussi forte a été trouvée en relation avec l'utilisation du téléphone portable. La capacité d'identifier un stimulus lorsqu'il est intégré dans un arrière-plan gênant est appelée théorie de la détection de signaux.

Théorie de détection de signal : Une théorie expliquant comment divers facteurs influencent notre capacité à détecter les signaux faibles dans notre environnement.

La théorie de la détection des signaux explique également pourquoi une mère est réveillée par un murmure silencieux de son bébé mais pas par d'autres sons qui se produisent pendant son sommeil. Cela s'applique également à la communication des contrôleurs aériens, aux panneaux de commande du pilote et du conducteur, comme indiqué précédemment, et même à la surveillance des informations vitales du patient pendant qu'un chirurgien effectue une intervention chirurgicale. Dans le cas des contrôleurs aériens, les contrôleurs doivent être capables de détecter les avions parmi les nombreux signaux (blips) qui apparaissent sur l'écran radar et de suivre ces avions lorsqu'ils se déplacent dans le ciel. En fait, les travaux originaux du chercheur qui a développé la théorie de la détection des signaux se sont concentrés sur l'amélioration de la sensibilité des contrôleurs aériens aux bips d'avion (Swets, 1964).

Nos perceptions peuvent également être affectées par nos croyances, nos valeurs, nos préjugés, nos attentes et nos expériences de vie. Comme vous le verrez plus loin dans ce chapitre, les individus qui sont privés de l'expérience de la vision binoculaire pendant les périodes critiques de développement ont du mal à percevoir la profondeur (Fawcett, Wang, & Birch, 2005). Les expériences partagées des personnes dans un contexte culturel donné peuvent avoir des effets prononcés sur la perception. Par exemple, Marshall Segall, Donald Campbell et Melville Herskovits (1963) ont publié les résultats d'une étude multinationale dans laquelle ils ont démontré que les individus de cultures occidentales étaient plus enclins à ressentir certains types d'illusions visuelles que les individus de cultures non occidentales, et vice versa. L'illusion de Müller-Lyer (figure ci-dessous) était l'une de ces illusions que les Occidentaux étaient plus susceptibles de ressentir : les lignes semblent être de longueurs différentes, mais elles sont en fait de la même longueur.

Dans l'illusion de Müller-Lyer, les lignes semblent être de longueurs différentes bien qu'elles soient identiques. (a) Les flèches aux extrémités des lignes peuvent faire paraître la ligne de droite plus longue, bien que les lignes soient de la même longueur. (b) Lorsqu'elle est appliquée à une image tridimensionnelle, la ligne de droite peut à nouveau apparaître plus longue bien que les deux lignes noires aient la même longueur.

Ces différences de perception étaient cohérentes avec les différences dans les types de caractéristiques environnementales vécues régulièrement par les personnes dans un contexte culturel donné. Les gens dans les cultures occidentales, par exemple, ont un contexte perceptif de bâtiments avec des lignes droites, ce que l'étude de Segall a appelé un monde charpenté (Segall et al., 1966). En revanche, les personnes issues de certaines cultures non occidentales avec une vue sans charpente, comme les Zulu d'Afrique du Sud, dont les villages sont constitués de huttes rondes disposées en cercle, sont moins sensibles à cette illusion (Segall et al., 1999). Ce n'est pas seulement la vision qui est affectée par des facteurs culturels. En effet, la recherche a démontré que la capacité d'identifier une odeur et d'évaluer son caractère agréable et son intensité varie selon les cultures (Ayabe-Kanamura, Saito, Distel, Martínez-Gómez, & Hudson, 1998). En termes de vision des couleurs à travers les cultures, la recherche a montré que les termes de couleur dérivés pour les teintes brunes, oranges et roses semblent être influencés par les différences culturelles (Zollinger, 1988).

Les enfants décrits comme des amateurs de sensations fortes sont plus susceptibles de montrer des préférences gustatives pour les saveurs aigres intenses (Liem, Westerbeek, Wolterink, Kok, & de Graaf, 2004), ce qui suggère que les aspects fondamentaux de la personnalité pourraient affecter la perception. De plus, les personnes qui ont des attitudes positives envers les aliments faibles en gras sont plus susceptibles d'évaluer les aliments étiquetés comme faibles en gras comme ayant un meilleur goût que les personnes qui ont des attitudes moins positives envers ces produits (Aaron, Mela, & Evans, 1994).

SOMMAIRE

La sensation se produit lorsque les récepteurs sensoriels détectent des stimuli sensoriels. La perception implique l'organisation, l'interprétation et l'expérience consciente de ces sensations. Tous les systèmes sensoriels ont à la fois des seuils absolus et différentiels, qui font référence à la quantité minimale d'énergie de stimulation ou à la quantité minimale de différence d'énergie de stimulation requise pour être détectée environ 50% du temps, respectivement. L'adaptation sensorielle, l'attention sélective et la théorie de la détection de signaux peuvent aider à expliquer ce qui est perçu et ce qui ne l'est pas. De plus, nos perceptions sont affectées par un certain nombre de facteurs, notamment les croyances, les valeurs, les préjugés, la culture et les expériences de vie.

Texte Openstax Psychology de Kathryn Dumper, William Jenkins, Arlene Lacombe, Marilyn Lovett et Marion Perlmutter sous licence CC BY v4.0. https://openstax.org/details/books/psychology

Des exercices

Questions de révision :

1. ________ fait référence à la quantité minimale d'énergie de stimulation requise pour être détectée 50 % du temps.

c. différence juste notable

2. Une sensibilité réduite à un stimulus immuable est connue sous le nom de ________.

ré. Cécité inattentionnelle

3. ________ implique la conversion de l'énergie du stimulus sensoriel en impulsions neurales.

b. Cécité inattentionnelle

4. ________ se produit lorsque l'information sensorielle est organisée, interprétée et expérimentée consciemment.

Question de pensée critique :

1. Tout ce qui est ressenti n'est pas perçu. Pensez-vous qu'il puisse y avoir un cas où quelque chose pourrait être perçu sans être ressenti ?

2. Veuillez générer un nouvel exemple de la façon dont une différence juste perceptible peut changer en fonction de l'intensité du stimulus.

Question d'application personnelle :

1. Pensez à un moment où vous n'avez pas remarqué quelque chose autour de vous parce que votre attention était focalisée ailleurs. Si quelqu'un l'a signalé, avez-vous été surpris de ne pas l'avoir remarqué tout de suite ?

différence juste notable

Réponses aux exercices

Questions de révision :

Question de pensée critique :

1. Ce serait un bon moment pour que les élèves réfléchissent aux allégations de perception extrasensorielle. Un autre sujet intéressant serait le phénomène du membre fantôme vécu par les amputés.

2. Il existe de nombreux exemples potentiels. Un exemple concerne la détection de différences de poids.Si deux personnes tiennent des enveloppes standard et que l'une en contient un quart tandis que l'autre est vide, la différence de poids entre les deux est facile à détecter. Cependant, si ces enveloppes sont placées à l'intérieur de deux manuels de poids égal, la capacité de distinguer ce qui est le plus lourd est beaucoup plus difficile.

limite absolue: quantité minimale d'énergie de stimulus qui doit être présente pour que le stimulus soit détecté 50% du temps

traitement ascendant : système dans lequel les perceptions sont construites à partir d'entrées sensorielles

Cécité inattentionnelle: incapacité à remarquer quelque chose qui est complètement visible en raison d'un manque d'attention

différence juste notable: différence de stimuli nécessaire pour détecter une différence entre les stimuli

la perception: façon dont les informations sensorielles sont interprétées et expérimentées consciemment

sensation: que se passe-t-il lorsqu'une information sensorielle est détectée par un récepteur sensoriel

Adaptation sensorielle : ne pas percevoir les stimuli qui restent relativement constants sur des périodes de temps prolongées

théorie de détection de signal : changement dans la détection du stimulus en fonction de l'état mental actuel

message subliminal: message présenté en dessous du seuil de conscience

traitement descendant : l'interprétation des sensations est influencée par les connaissances, les expériences et les pensées disponibles

transduction : conversion de l'énergie de stimulation sensorielle en potentiel d'action


Les avantages réels de intelligence artificielle

Où en sommes-nous aujourd'hui avec l'IA ?

Avec l'IA, vous pouvez poser des questions à une machine - à voix haute - et obtenir des réponses sur les ventes, les stocks, la fidélisation des clients, la détection des fraudes et bien plus encore. L'ordinateur peut également découvrir des informations que vous n'avez jamais pensé demander. Il offrira un résumé narratif de vos données et suggérera d'autres façons de les analyser. Il partagera également des informations relatives aux questions précédentes de vous ou de toute autre personne ayant posé des questions similaires. Vous obtiendrez les réponses sur un écran ou simplement par conversation.

Comment cela se déroulera-t-il dans le monde réel ? Dans les soins de santé, l'efficacité du traitement peut être déterminée plus rapidement. Dans le commerce de détail, les éléments complémentaires peuvent être suggérés plus rapidement. En finance, la fraude peut être évitée au lieu d'être simplement détectée. Et bien plus.

Dans chacun de ces exemples, la machine comprend quelles informations sont nécessaires, examine les relations entre toutes les variables, formule une réponse et vous la communique automatiquement avec des options pour les requêtes de suivi.

Nous avons des décennies de recherche sur l'intelligence artificielle à remercier d'où nous en sommes aujourd'hui. Et nous avons des décennies d'interactions homme-machine intelligentes à venir.


Analyse syntaxique

L'API Natural Language fournit un ensemble puissant d'outils pour l'analyse et l'analyse syntaxique du texte grâce à l'analyse syntaxique. Pour effectuer une analyse syntaxique, utilisez la méthode analyzeSyntax.

L'analyse syntaxique comprend les opérations suivantes :

    divise le flux de texte en une série de phrases. divise le flux de texte en une série de jetons, chaque jeton correspondant généralement à un seul mot.
  • L'API Natural Language traite ensuite les jetons et, en utilisant leurs emplacements dans les phrases, ajoute des informations syntaxiques aux jetons.

Une documentation complète sur l'ensemble des jetons syntaxiques se trouve dans le guide Morphology & Dependency Trees.

Demandes d'analyse syntaxique

Les requêtes d'analyse syntaxique sont envoyées à l'API Natural Language via l'utilisation de la méthode analyzeSyntax sous la forme suivante :

Réponses d'analyse syntaxique

L'API Natural Language traite le texte donné pour extraire des phrases et des jetons. Une requête d'analyse syntaxique renvoie une réponse contenant ces phrases et jetons sous la forme suivante :

Extraction de phrases

Lors de l'analyse syntaxique, l'API Natural Language renvoie un tableau de phrases extraites du texte fourni, chaque phrase contenant les champs suivants dans un texte parent :

  • beginOffset indiquant le décalage de caractère (base zéro) dans le texte donné où la phrase commence. Notez que ce décalage est calculé à l'aide du encodingType transmis.
  • contenu contenant le texte intégral de la phrase extraite.

Par exemple, l'élément de phrases suivant est reçu pour une requête d'analyse syntaxique de l'adresse de Gettysburg :

Une demande d'analyse syntaxique à l'API Natural Language inclura également un ensemble de jetons. Vous pouvez utiliser les informations associées à chaque jeton pour effectuer une analyse plus approfondie des phrases renvoyées. Vous trouverez plus d'informations sur ces jetons dans le guide Morphology & Dependency Trees.

Tokenisation

La méthode analyzeSyntax transforme également le texte en une série de jetons, qui correspondent aux différents éléments textuels (limites de mots) du contenu transmis. Le processus par lequel l'API Natural Language développe cet ensemble de jetons est appelé tokenisation.

Une fois ces jetons extraits, l'API Natural Language les traite pour déterminer la partie du discours associée (y compris les informations morphologiques) et le lemme. De plus, les jetons sont évalués et placés dans un arbre de dépendance, qui vous permet de déterminer la signification syntaxique des tokens et d'illustrer la relation des tokens les uns par rapport aux autres, ainsi que les phrases qui les contiennent. Les informations syntaxiques et morphologiques associées à ces jetons sont utiles pour comprendre la structure syntaxique des phrases au sein de l'API Natural Language.

L'ensemble de champs de jeton renvoyé dans une réponse JSON d'analyse syntaxique apparaît ci-dessous :

text contient les données textuelles associées à ce jeton, avec les champs enfants suivants :

  • beginOffset contient le décalage de caractère (basé sur zéro) dans le texte fourni. Notez que bien que les dépendances (décrites ci-dessous) n'existent qu'à l'intérieur des phrases, les décalages de jetons sont positionnés dans le texte dans son ensemble. Notez que ce décalage est calculé à l'aide du encodingType transmis.
  • content contient le contenu textuel réel du texte original.

partOfSpeech fournit des informations grammaticales, y compris des informations morphologiques, sur le jeton, telles que le temps du jeton, la personne, le nombre, le sexe, etc. (Pour des informations plus complètes sur ces champs, consultez le guide Morphology & Dependency Trees.)

le lemme contient le mot "root" sur lequel ce mot est basé, ce qui vous permet de canoniser l'utilisation des mots dans votre texte. Par exemple, les mots "ecrire", "ecrire", "ecrire" et "ecrire" sont tous basés sur le même lemme ("ecrire"). De plus, les formes plurielles et singulières sont basées sur des lemmes : "house" et "houses" se réfèrent tous deux à la même forme. (Voir lemme (morphologie).)

Les champs dependanceEdge identifient la relation entre les mots d'un jeton contenant une phrase via des arêtes dans un arbre dirigé. Ces informations peuvent être utiles pour la traduction, l'extraction d'informations et la synthèse. (Le guide Morphology & Dependency Trees contient des informations plus détaillées sur l'analyse des dépendances.) Chaque champdependentEdge contient les champs enfants suivants :

  • headTokenIndex fournit la valeur d'index (base zéro) de ce jeton "parent "jeton" dans la phrase d'encapsulation du jeton. Un jeton sans parent s'indexe lui-même.
  • label fournit le type de dépendance de ce jeton sur son jeton principal.

La citation suivante du discours inaugural de Franklin D. Roosevelt produira les jetons suivants :

REMARQUE : toutes les balises partOfSpeech contenant des valeurs *_UNKNOWN ont été supprimées pour plus de clarté.


KPMG rationalise l'analyse de la fraude

KPMG aide les institutions financières à économiser des millions de dollars en coûts de conformité grâce à sa solution d'analyse des risques clients, qui utilise l'analyse de texte pour détecter des modèles et des mots-clés pour signaler les risques de conformité.

Wilson Allen ouvre des perspectives à partir de données non structurées

Wilson Allen a créé une puissante solution d'IA qui peut aider les cabinets d'avocats et de services professionnels du monde entier à trouver des niveaux d'informations sans précédent dans des données auparavant cloisonnées et non structurées.

IHC responsabilise les ingénieurs de service

Royal IHC utilise Azure Cognitive Search et Text Analytics pour soulager ses ingénieurs des longues recherches de données manuelles dans des sources disparates et leur donner des informations sur leurs données structurées et non structurées.

LaLiga booste l'engagement des fans

LaLiga engage des millions de fans à travers le monde avec un assistant numérique personnel, utilisant Text Analytics pour traiter les requêtes entrantes et déterminer l'intention de l'utilisateur dans plusieurs langues.

TIBCO fait avancer l'analyse des causes profondes

TIBCO utilise Text Analytics et Anomaly Detector pour détecter et analyser des anomalies telles que des changements soudains dans les modèles de données, découvrir les causes profondes et proposer des actions.

Kotak Mahindra Bank accélère sa productivité

Kotak Asset Management transforme la gestion du service client en permettant aux chatbots d'analyser facilement la ligne d'objet, les informations client et le contenu des e-mails pour identifier les sentiments et déclencher la prochaine meilleure action.


Les risques juridiques de la surveillance des employés en ligne

Les entreprises adoptent de plus en plus des technologies sophistiquées qui peuvent aider à empêcher l'exportation par inadvertance ou intentionnelle de la propriété intellectuelle de l'entreprise et d'autres données sensibles et propriétaires. Entrez dans la prévention de la perte de données, ou les solutions “DLP”, qui aident les entreprises à détecter des modèles ou des comportements anormaux grâce à l'enregistrement des frappes, à la surveillance du trafic réseau, au traitement du langage naturel et à d'autres méthodes, tout en appliquant les politiques pertinentes sur le lieu de travail. Et bien qu'il existe une analyse de rentabilisation légitime pour le déploiement de cette technologie, les outils DLP peuvent impliquer une panoplie de lois fédérales et étatiques sur la confidentialité, allant des lois sur la surveillance des employés, la criminalité informatique, les écoutes téléphoniques et potentiellement les lois sur les violations de données. Compte tenu de tout cela, les entreprises doivent prendre en compte les risques juridiques associés aux outils DLP avant elles sont mises en œuvre et planifiées en conséquence. Les entreprises ayant du personnel dans le monde entier doivent également concevoir une stratégie de conformité qui offre les protections appropriées en vertu de la législation mondiale tout en évitant des protections de confidentialité involontairement améliorées pour les employés américains au-delà de celles requises par la loi américaine.

Le vol de données le plus connu perpétré par un "initié" était peut-être l'appropriation et la divulgation par Edward Snowden de données de la National Security Agency. Le cas Snowden a démontré le coût de se concentrer sur les menaces externes à l'exclusion des mauvais acteurs internes. Dans la foulée, les entreprises adoptent de plus en plus des technologies sophistiquées qui peuvent aider à empêcher l'exportation intentionnelle ou par inadvertance de la propriété intellectuelle de l'entreprise et d'autres données sensibles et propriétaires.

Entrez dans les solutions de prévention des pertes de données, ou « DLP », qui aident les entreprises à détecter des modèles ou des comportements anormaux grâce à l'enregistrement des frappes, à la surveillance du trafic réseau, au traitement du langage naturel et à d'autres méthodes, tout en appliquant les politiques pertinentes sur le lieu de travail. Et bien qu'il existe une analyse de rentabilisation légitime pour le déploiement de cette technologie, les outils DLP peuvent impliquer une panoplie de lois fédérales et étatiques sur la confidentialité, allant des lois sur la surveillance des employés, la criminalité informatique, les écoutes téléphoniques et potentiellement les lois sur les violations de données. Compte tenu de tout cela, les entreprises doivent prendre en compte les risques juridiques associés aux outils DLP avant elles sont mises en œuvre et planifiées en conséquence.

Les entreprises doivent se poser plusieurs questions clés avant de déployer un logiciel DLP. D'abord, qui tu surveilles ? Seconde, Quel tu surveilles ? Troisième, tu surveilles ? Regardons chacun en détail :

Qui surveillez-vous ? La première question est importante, car la réponse peut exiger que vous fournissiez un préavis et un consentement. Cela peut sembler assez simple pour les e-mails des employés, mais présente des défis pour les messages de tiers et d'autres activités en ligne. Par exemple, si une entreprise utilise la DLP pour surveiller les activités en ligne de ses employés, elle doit d'abord considérer et se conformer aux lois sur la surveillance des employés. Des États tels que le Connecticut et le Delaware interdisent expressément aux employeurs de surveiller électroniquement les employés sans préavis.

Centre de connaissances

L'élément humain de la cybersécurité

D'autres lois qui ne ciblent pas la surveillance des employés, mais limitent la surveillance des communications électroniques plus largement, comme la loi fédérale sur la protection des communications électroniques (ECPA), doivent également être prises en compte. Bien que l'ECPA interdise généralement la surveillance des communications électroniques, il existe deux exceptions qui peuvent s'appliquer à votre entreprise. L'« exception d'objectif commercial » permet aux employeurs de surveiller les communications électroniques des employés si l'employeur a un « objectif commercial légitime » pour surveiller un fourre-tout avec une interprétation potentiellement large. Les employeurs peuvent également surveiller les communications sur le lieu de travail s'ils ont obtenu le consentement de leurs employés. Les entreprises le font souvent simplement en exigeant des employés qu'ils reconnaissent et acceptent leurs pratiques de surveillance au moment de l'intégration et avant de pouvoir se connecter aux appareils ou aux réseaux et systèmes de l'entreprise.

Si le logiciel DLP peut surveiller et capturer les communications de tiers (par exemple., parents ou amis qui envoient des e-mails aux employés à l'adresse de leur domaine de travail), les entreprises doivent également prêter attention aux lois de l'État sur les écoutes téléphoniques et concevoir des mesures appropriées pour réduire le risque juridique qui en découle. Des États comme la Californie et l'Illinois exigent toutes les fêtes à une communication de consentir à l'interception de communications en transit. Cela signifie qu'avant que les entreprises puissent numériser un e-mail envoyé par un ami ou un parent à l'employé, les employeurs doivent trouver comment notifier la surveillance à ces tiers et comment obtenir le consentement du tiers. En l'absence de cette étape, les entreprises peuvent être confrontées au risque de poursuites en recours collectif et/ou de mesures d'exécution gouvernementales. Comme le démontrent les récents règlements proposés impliquant des entreprises technologiques, les tiers qui n'ont pas donné leur consentement, mais dont les communications ont été scannées simplement parce qu'ils ont communiqué avec des utilisateurs qui l'ont fait, sont tous trop disposés à poursuivre en utilisant des lois sur les écoutes téléphoniques « tous consentements ». Les entreprises ont des options limitées étant donné les défis pratiques d'obtenir le consentement de tiers. Beaucoup s'appuient sur l'affichage d'un avis sur le site Web de l'entreprise et incluant une déclaration au bas de tous les e-mails des employés indiquant que toutes les communications électroniques vers ou depuis le domaine de l'entreprise sont la propriété de l'entreprise et font l'objet d'une surveillance, et du consentement implicite qui vient avec les communications continues d'un tiers avec l'employé via le domaine de l'entreprise à la suite des divulgations ci-dessus.

Que surveillez-vous ? Cette question doit être analysée de deux manières. Tout d'abord, il est nécessaire de déterminer si votre entreprise a l'intention de surveiller les données en transit et/ou les données au repos. De nombreuses lois d'État sur les écoutes téléphoniques et, comme indiqué, l'ECPA, interdisent l'interception électronique des données en transit sans consentement. Les violations peuvent entraîner des sanctions pénales et civiles. D'un autre côté, la surveillance et/ou la collecte de données au repos peuvent impliquer la loi sur les communications stockées (« SCA »), qui interdit généralement l'accès non autorisé et la divulgation des communications électroniques stockées dans les installations d'un fournisseur de services de communications électroniques (c'est-à-dire les données qui est stocké sur les serveurs de l'entreprise). Bien que la SCA n'interdise généralement pas aux employeurs d'accéder aux communications au repos sur les leurs systèmes, les entreprises peuvent réfléchir à deux fois avant d'accéder aux communications stockées par leur fournisseur de communications électroniques (par exemple., Microsoft, Gmail, etc.), sans les autorisations appropriées.

Deuxièmement, il faut considérer quels types de l'utilisation d'Internet ou des communications électroniques peuvent être surveillés, car certains types sont protégés. Par exemple, environ 25 États interdisent aux employeurs d'exiger ou de demander à un employé de vérifier un compte personnel en ligne (par exemple, les médias sociaux, les blogs, les e-mails) ou de fournir des informations de connexion à des comptes personnels. La technologie DLP, que ce soit par le biais de l'enregistrement des frappes ou des captures d'écran, pourrait contourner ces lois en acquérant par inadvertance des informations de connexion aux comptes personnels d'un employé. Dans le contexte de la surveillance du lieu de travail, les tribunaux et les législatures des États ont reconnu les intérêts en matière de confidentialité dans les données de géolocalisation, les communications avocat-client et les activités de syndicalisation. Dans la plupart de ces cas, le droit à la vie privée de l'employé doit être analysé et mis en balance avec l'intérêt commercial légitime à effectuer la surveillance dans le contexte des circonstances spécifiques.

Où surveillez-vous ? Cette troisième question est particulièrement importante si les entreprises envisagent d'installer un logiciel DLP sur des appareils personnels utilisés pour le travail. Cela peut impliquer des lois d'État sur la criminalité informatique et les logiciels espions, qui interdisent et, dans de nombreux cas, criminalisent l'accès à un ordinateur sans autorisation. De nombreux États comme la Californie, New York et le Massachusetts ont de telles lois dans les livres. Enfreindre ces lois peut entraîner de lourdes sanctions, pouvant aller jusqu'à des amendes, des dommages et/ou des peines d'emprisonnement.

En dehors de ces lois sur la confidentialité, l'accès non autorisé aux données ou la perte de données résultant d'acteurs malveillants internes peuvent déclencher des lois de notification de violation de l'État selon les circonstances. Quarante-huit États ont des statuts de notification de violation de données qui peuvent exiger un avis aux personnes dont les informations personnellement identifiables (PII) sont consultées par une personne qui n'était pas autorisée à accéder aux données.

Considérations mondiales

Les entreprises qui envisagent d'utiliser des outils DLP doivent également garder à l'esprit les lois mondiales sur la confidentialité. Par exemple, le Règlement général sur la protection des données (RGPD) de l'Union européenne et les lois applicables des États membres sur la confidentialité offrent aux employés des protections nettement plus améliorées que celles accordées par la loi américaine. La mondialisation a permis à la fois aux startups et aux grandes multinationales d'engager des employés ou des entrepreneurs indépendants situés aux confins du monde. Le revers de la médaille, cependant, est que toutes les entreprises qui font appel à une main-d'œuvre internationale doivent respecter les lois mondiales sur la confidentialité, y compris celles qui régissent la surveillance des employés. Les entreprises ayant du personnel dans le monde entier doivent ensuite concevoir une stratégie de conformité qui offre les protections appropriées en vertu de la législation mondiale tout en évitant des protections de confidentialité involontairement améliorées pour les employés américains au-delà de celles requises par la loi américaine.

Bien que les considérations ci-dessus ne soient en aucun cas exhaustives, elles offrent un point de départ utile pour évaluer les impacts sur la vie privée et les risques juridiques liés à l'utilisation de la technologie DLP pour faire face aux menaces internes. Bien entendu, il n'existe pas d'approche unique pour intégrer cette technologie dans un programme de prévention des pertes de données. Par conséquent, il est judicieux de procéder d'abord à une évaluation pour comprendre l'impact sur la vie privée et les risques juridiques résultant de l'utilisation des outils DLP. Une fois l'impact et les risques compris, les entreprises seront alors bien placées pour identifier les mesures d'atténuation des risques adaptées à leur situation particulière. Au minimum, ces mesures devraient consister en un ensemble de moyens techniques, organisationnels et politiques, notamment :

  • Des politiques qui (i) articulent clairement l'analyse de rentabilisation de la surveillance (ii) expliquent que ni les employés ni les tiers avec lesquels les employés communiquent sur les domaines de l'entreprise ne doivent avoir d'attentes en matière de confidentialité dans ces communications et (iii) définissent de manière large la propriété de l'entreprise pour inclure non seulement tous les appareils informatiques, mais également les identifiants de connexion, les mots de passe et toutes les communications avec l'entreprise.
  • Une approche basée sur les risques pour la surveillance.
  • Réduire la portée de la surveillance en utilisant le balisage ou des technologies similaires pour suivre le moment où les données quittent une base de données et se déplacent dans un réseau d'entreprise.
  • Crypter toutes les données et restreindre l'accès à un « besoin de savoir ».
  • Envisager un plan qui socialise la surveillance avec leur personnel, pour créer un sentiment d'objectif commun et de valeur partagée dans la protection de la propriété intellectuelle de l'entreprise et d'autres actifs de données.

Les récentes violations de données très médiatisées ont entraîné une prise de conscience accrue des menaces externes contre la propriété intellectuelle de l'entreprise et d'autres données confidentielles. Ces événements ne doivent pas empêcher les entreprises de se protéger assidûment contre les menaces internes potentielles. Les entreprises sont avisées d'envisager la mise en œuvre de protections proactives, telles que l'intégration de logiciels DLP dans leurs programmes de prévention des pertes de données. Ce faisant, ils doivent être réfléchis et effectuer l'analyse juridique préalable nécessaire avant de déployer de telles technologies.

Les auteurs tiennent à exprimer leur appréciation pour l'aide de Michelle Sohn, une associée de la pratique Privacy + Cybersecurity de Goodwin.


Pourquoi l'Edge Computing est-il nécessaire ?

D'ici 2025, on estime que 150 milliards de capteurs de machines et d'appareils IoT diffuseront en continu des données qui devront être traitées. Ces capteurs sont activés en permanence - surveillant, collectant des données, raisonnant sur ce qu'ils détectent et prenant des mesures.

L'Edge computing traite ces données à la source, réduisant la latence ou la nécessité d'attendre que les données soient envoyées d'un réseau vers le cloud ou le centre de données principal pour un traitement ultérieur, permettant aux entreprises d'obtenir des informations en temps réel ou plus rapidement.

L'afflux de données utilisées dans ces charges de travail à forte intensité de calcul qui nécessitent une efficacité et une vitesse élevées dans la collecte et l'analyse des données exige un calcul de pointe hautes performances pour déployer l'IA.

De plus, les technologies émergentes telles que le dévoilement des réseaux 5G, qui devraient cadencer 10 fois plus vite que la 4G, ne font qu'augmenter les possibilités des services compatibles avec l'IA, nécessitant une accélération supplémentaire de l'informatique de pointe.


KPMG rationalise l'analyse de la fraude

KPMG aide les institutions financières à économiser des millions de dollars en coûts de conformité grâce à sa solution d'analyse des risques clients, qui utilise l'analyse de texte pour détecter des modèles et des mots-clés pour signaler les risques de conformité.

Wilson Allen ouvre des perspectives à partir de données non structurées

Wilson Allen a créé une puissante solution d'IA qui peut aider les cabinets d'avocats et de services professionnels du monde entier à trouver des niveaux d'informations sans précédent dans des données auparavant cloisonnées et non structurées.

IHC responsabilise les ingénieurs de service

Royal IHC utilise Azure Cognitive Search et Text Analytics pour soulager ses ingénieurs des longues recherches de données manuelles dans des sources disparates et leur donner des informations sur leurs données structurées et non structurées.

LaLiga booste l'engagement des fans

LaLiga engage des millions de fans à travers le monde avec un assistant numérique personnel, utilisant Text Analytics pour traiter les requêtes entrantes et déterminer l'intention de l'utilisateur dans plusieurs langues.

TIBCO fait avancer l'analyse des causes profondes

TIBCO utilise Text Analytics et Anomaly Detector pour détecter et analyser des anomalies telles que des changements soudains dans les modèles de données, découvrir les causes profondes et proposer des actions.

Kotak Mahindra Bank accélère sa productivité

Kotak Asset Management transforme la gestion du service client en permettant aux chatbots d'analyser facilement la ligne d'objet, les informations client et le contenu des e-mails pour identifier les sentiments et déclencher la prochaine meilleure action.


Réseau

Les réseaux sont des formes organisationnelles complexes. Ils associent des entités ou des nœuds discrets, permettant à ces nœuds de se connecter à d'autres nœuds et bien à d'autres réseaux. Les réseaux existent dans le monde sous une grande variété de formes et dans encore plus de contextes : politiques, sociaux, biologiques et autres. Alors que les artistes ont utilisé les réseaux de plusieurs manières&ndash des réseaux postaux utilisés pour diffuser le travail, aux réseaux informels de collaborateurs artistiques et aux mouvements esthétiques plus larges&ndashcette section examine spécifiquement un exemple unique de technologie de réseau, Internet, et comment les artistes ont incorporé cette technologie dans leur travail. Il existe deux tendances générales : la création artistique où Internet est utilisé comme un outil de diffusion rapide et facile de l'œuvre, et la création artistique où Internet est le véritable support de l'œuvre. Ces deux tendances ne s'excluent cependant pas mutuellement. Certains des travaux en ligne les plus intéressants tissent les deux techniques ensemble dans de nouvelles formes passionnantes qui dépassent les possibilités de l'une ou l'autre technique.

Internet et les arts

“En décembre 1995, Vuk Cosic a reçu un message. . .” ou presque commence l'histoire de la façon dont “net.art,” le mouvement artistique de niche concerné par la création d'art dans et à partir d'Internet, a commencé et son nom. Comme Alexei Shulgin l'explique dans une publication sur la liste de diffusion de Nettime deux ans plus tard, Cosic, un artiste slovène, a reçu un e-mail publié par un expéditeur anonyme. Apparemment mutilé pendant le transport, le message était à peine lisible. “Le seul fragment de celui-ci qui avait un sens ressemblait à quelque chose comme : […] J8

Anonyme, accidentel, glitch et légèrement apocryphe, ce sont toutes des caractéristiques distinctives du style net.art, comme on le voit dans les travaux Web de Cosic, Shulgin, Olia Lialina, Jodi, Heath Bunting et bien d'autres. Comme l'écrit Marina Grzinic, les « retards dans la transmission et l'heure de fin, les signaux d'occupation des fournisseurs de services, [et] le plantage des navigateurs Web ? le temps de dot&ndashcom va, va, va. 2 En effet, de nombreux utilisateurs sans méfiance supposent que les projets de logiciels Web et téléchargeables de Jodi ont pour objectif principal l'infection et la ruine immédiates de leur ordinateur personnel. (Après un examen plus approfondi, il faut admettre qu'il ne s'agit que d'un objectif secondaire.) Peut-être culminant en 1998 avec les expériences absurdes et anarchistes lancées sur la liste de diffusion 7&ndash11&ndashspoofs et manigances étaient normales en raison du fait que l'administration de la liste l'outil, y compris les abonnements, les variables d'en-tête et de pied de page et les règles de modération, était accessible en lecture et en écriture par n'importe quel internaute. Lisez-moi !, édité dans plusieurs villes simultanément et publié par Autonomedia en 1999 l'anthologie tout aussi œcuménique NTNTNT qui a émergé de CalArts en 2003 ou les deux volumes d'entretiens de Tilman Baumgärtel, net.art (1999) et net.art 2.0 (2001).

Dans le même temps, soutenus par le dynamisme d'environnements de programmation comme Java et Flash, les artistes et les concepteurs ont commencé à créer des travaux en ligne qui non seulement provenaient d'Internet, mais utilisaient le net comme outil de diffusion rapide et facile. de code exécutable, à la fois basé sur un navigateur et autre. John Maeda a créé un certain nombre de croquis et de jeux datant du milieu des années 1990, dont une série de calendriers interactifs utilisant des motifs visuels empruntés à la fois à la nature et aux mathématiques. Joshua Davis a également émergé comme une figure importante à travers ses œuvres en ligne Station de prière et Une fois&ndashUpon&ndashA&ndashForêt. Comme Maeda, Davis a fusionné des techniques de dessin algorithmiques avec un sens organique de la composition.

Il convient de rappeler le profond sentiment d'optimisme et de libération que le Web a apporté à l'art et à la culture au milieu des années 90. Tout d'un coup, des skateurs tatoués comme Davis ont fait le tour du monde pour parler à des investisseurs en capital-risque à lunettes des possibilités de mise en réseau, de code génératif et de projets de logiciels ouverts. Et des philosophes à lunettes comme Geert Lovink faisaient le tour du monde pour parler aux patineurs tatoués de&ndashquoi d'autre : les possibilités de mise en réseau, de code génératif et de projets de logiciels ouverts. Tout était sens dessus dessous. Même le mouvement net.art, qui a été en partie influencé par la méfiance de Lovink à l'égard de tout ce qui est « câblé » et californien, a néanmoins été propulsé par la promesse utopique des réseaux, même si ces réseaux ont parfois dû être sabrés et piratés dans le traiter. Les réseaux ont, pendant plusieurs décennies, agi comme des toniques et des vaccins contre tout ce qui est centralisé et autoritaire, qu'il s'agisse des schémas de Paul Baran de 1964 pour le routage autour du réseau téléphonique national AT&T/Bell et des sorties alors imminentes des ICBM soviétiques ou des réseaux de base. des nouveaux mouvements sociaux des années 1960, qui obtiendront plus tard le statut d'art dans le concept littéraire emblématique de Deleuze et Guattari du « rhizome », littéralement un modèle populaire d'être en réseau ou bien les remarques beaucoup plus anciennes et souvent citées de Bertolt Brecht sur le potentiel révolutionnaire précoce des réseaux radio (repris, de façon célèbre, dans l'essai de 1974 de Hans Magnus Enzensberger sur les nouveaux médias, « Constituents for a Theory of the Media »). En d'autres termes, l'arrivée du Web entre le milieu et la fin des années 90 a suscité beaucoup d'enthousiasme tant dans l'art que dans la culture, car cela semblait être le signe avant-coureur de l'avènement d'un nouveau mode d'interaction sociale, probablement révolutionnaire. Ou, comme Cosic l'a dit une fois, avec une bravade typique, « tout l'art jusqu'à présent n'a été qu'un substitut à Internet ».

Il est également utile de contextualiser ces remarques en faisant référence aux différentes pratiques logicielles de divers artistes et mouvements. Chaque environnement logiciel est un support distinct. Chacun accorde des possibilités esthétiques particulières à l'artiste et en diminue d'autres. Chacun s'accompagne d'un certain nombre d'effets secondaires qui peuvent être accentués ou évités, compte tenu des penchants de l'artiste. Ainsi, tout en reconnaissant que les outils et les matériaux des artistes numériques ont tendance à varier considérablement, il est peut-être utile d'observer que la scène net.art (Bunting, Shulgin, Lialina, Jodi, et al.), en particulier au cours de la période 1995-2000, codé principalement dans des langages de balisage basés sur le navigateur et le ndash tels que HTML, avec l'ajout de Javascript pour l'exécution d'algorithmes de base. Un format dépouillé, “text only”, était distinctif de cette période. Un gag utilisé par un certain nombre d'artistes différents n'était pas du tout d'avoir une page d'accueil appropriée, mais plutôt d'utiliser l'index de répertoire par défaut d'Apache pour les fichiers et les dossiers. Cependant, l'approche simplifiée n'a pas toujours apporté la simplicité à l'utilisateur, comme dans le cas de la première page d'accueil de Jodi (maintenant archivée sur http://wwwwwwwww.jodi.org) dans lequel ils ont négligé une balise pre cruciale, puis, dans une tentative apparente de surcompenser le premier problème, ont encerclé la page dans une balise clignotante qui n'était pas moins piquante pour les yeux que la balise pre manquante désoriente. La page clignotante palpitait de manière obscène dans la fenêtre du navigateur, un problème aggravant ainsi l'autre. Créée en tant qu'ajout non autorisé au HTML par Netscape Navigator, la balise clignotante a essentiellement disparu d'Internet alors qu'Internet Explorer est devenu plus dominant à la fin des années 1990. Aujourd'hui, la page Jodi ne clignote pas. On se demande quelle est exactement l'œuvre : l'effet stroboscopique op-art qui est apparu dans la fenêtre du navigateur Netscape pendant les années où les gens utilisaient Netscape, ou la source HTML toujours en ligne aujourd'hui dans laquelle l'œuvre est « expliquée » à n'importe quel détective disposé pour retracer le récit des balises de balisage manquantes et égarées ?

Alors que les artistes avaient utilisé des polices ASCII à largeur fixe et des caractères ANSI comme éléments de conception bien avant la popularisation du Web au milieu des années 1990, c'était la création du HTML en 1993 (synchronisé avec son utilisation dans les serveurs Web et les navigateurs Web nouvellement inventés comme Netscape ) qui a transformé Internet en un espace pour les arts visuels. HTML s'est rapidement imposé comme le langage de mark&ndashup et le protocole de conception graphique le plus influent pour deux raisons : premièrement, la nature textuelle du HTML le rendait faible et convivial à une époque où la plupart des utilisateurs se connectaient via des modems et des lignes téléphoniques et deuxièmement, HTML est un protocole, ce qui signifie qu'il agit comme un dénominateur commun (nonobstant la balise clignotante) reliant une grande variété de plates-formes techniques dissemblables. Mais, comme le montrent les travaux de Davis, qui gravitent autour de Flash mais incluent également le Web, l'impression et la vidéo, il ne faut pas trop insister sur HTML en tant que médium esthétique. Au cours de cette même période, la livraison réseau de code exécutable (applets Java, Flash, Shockwave, etc.) en dehors des limites normales du cadre du navigateur. Chaque icône 1997 de John Simon a été écrite comme une applet Java et donc facilement livrable en ligne sous forme de code exécutable. Dans ce que Lev Manovich a surnommé “Generation Flash,” une toute nouvelle communauté a surgi, impliquant des artistes comme Yugo Nakamura, Matt Owens et James Paterson et croisant à la fois des startups dot&ndashcom comme i|o 360° et Razorfish (ou le propres boutiques de design de l'artiste) et la culture indie des jeunes. Leur support n'est pas seulement les codes de balisage texte uniquement du HTML, mais aussi les langages Macromedia plus sophistiqués (ActionScript et Lingo) ainsi que Javascript, Java et les langages côté serveur comme Perl et PHP.

Concepts Internet

Afin de comprendre comment les œuvres en ligne sont réalisées et visualisées, il sera utile d'aborder un certain nombre de concepts clés dans le domaine des réseaux informatiques. Un réseau informatique se compose de deux ou plusieurs machines connectées via une liaison de données. Si un ordinateur en réseau agit principalement comme une source de données, on l'appelle un serveur. Un serveur a généralement une adresse fixe, est en ligne en permanence et fonctionne comme un référentiel pour les fichiers qui sont retransmis à tout autre ordinateur du réseau qui en fait la demande. Si un ordinateur en réseau agit principalement comme un solliciteur d'informations, on l'appelle un client. Par exemple, en vérifiant son courrier électronique, on agit en tant que client. De même, la machine sur laquelle l'e-mail est stocké (la machine nommée d'après le signe @ dans l'adresse e-mail) fait office de serveur. Ces termes sont flexibles, une machine peut agir comme un serveur dans un contexte et un client dans un autre.

Toute machine connectée à Internet, qu'elle soit cliente ou serveur, est obligée d'avoir une adresse. Sur Internet, ces adresses sont appelées Adresses IP et venez sous la forme 123.45.67.89. (Une nouvelle norme d'adressage est en cours de déploiement qui allonge légèrement les adresses.) Étant donné que les adresses IP changent de temps en temps et sont difficiles à mémoriser, un système de raccourcis en langage naturel appelé DNS (Domain Name System) permet aux adresses IP d'être remplacé par noms de domaine tels que “processing.org” ou “google.com.” Dans une adresse Web, le mot qui précède immédiatement le nom de domaine est le hôte nom pour les serveurs Web, il est d'usage de nommer la machine hôte “www” après le World Wide Web. Mais ce n'est que coutumier. En fait, le nom d'hôte d'un serveur Web peut être n'importe quoi.

L'une des principales façons dont les artistes visuels ont utilisé Internet dans leur travail est de concevoir le réseau comme une base de données géante, un flux d'entrée qui peut être exploré, scanné et analysé à l'aide de clients automatisés. Il s'agit d'une méthodologie artistique qui reconnaît la mutabilité fondamentale des données (ce que les programmeurs appellent “casting” une variable d'un type de données à un autre) et utilise diverses sources de données comme flux d'entrée pour alimenter les animations, pour remplir des tableaux de nombres avec des valeurs pseudo-aléatoires , pour suivre le comportement, ou tout simplement pour le “content.” Le travail de Lisa Jevbratt 1:1 le fait en partant du principe que chaque adresse IP peut être représentée par un seul pixel. Son travail analyse l'espace de noms de l'adresse IP, numéro par numéro, en pingant chaque adresse pour déterminer si une machine est en ligne à cet emplacement. Les résultats sont visualisés sous forme de pixels dans un gigantesque bitmap qui, littéralement, représente l'ensemble d'Internet (ou du moins toutes ces machines avec des adresses IP fixes). De manière très différente, les deux œuvres de Mark Napier Déchiqueteuse et Décharge numérique s'appuyer sur un afflux apparemment sans fin de données en ligne, en réorganisant et en superposant le matériel source d'une manière inattendue par les créateurs originaux. Fonctionne comme Carnivore (plus de détails ci-dessous) et Mini-tâches approchez le réseau lui-même comme une source de données, le premier exploitant le trafic Web en temps réel et le second exploitant le trafic en temps réel sur le réseau Gnutella peer&ndashto&ndashpeer. Des travaux antérieurs tels que >E/S/D 4 (connu sous le nom de “The Webstalker”), ou Jodi's Mauvais navigateur série de navigateurs Web alternatifs illustrent également cette approche, que le réseau lui-même est l'art. Tous ces travaux automatisent le processus de récupération des données sur Internet et de leur manipulation d'une manière ou d'une autre. L'un des types les plus courants est un client Web, un logiciel qui automatise le processus de demande et de réception de fichiers distants sur le World Wide Web.

Exemple 1 : client Web

La bibliothèque Net de Processing comprend des classes prêtes à l'emploi pour les serveurs et les clients. Afin de récupérer une page sur le Web, il faut d'abord créer un client et se connecter à l'adresse du serveur distant. En utilisant une simple technique call&ndashand&ndashresponse, le client demande le fichier et le fichier est renvoyé par le serveur. Cet appel&ndashand-réponse est défini par un protocole appelé Hypertext Transfer Protocol (HTTP). HTTP se compose d'une poignée de commandes simples qui sont utilisées pour décrire l'état du serveur et du client, pour demander des fichiers et pour poster des données sur le serveur si nécessaire. La commande HTTP la plus basique est GET . Cette commande est similaire au remplissage d'un formulaire de demande de livre dans une bibliothèque : le client demande un fichier par son nom, le serveur « obtient » ce fichier et le renvoie au client. HTTP inclut également un certain nombre de codes de réponse pour indiquer que le fichier a été trouvé avec succès, ou pour indiquer si des erreurs ont été rencontrées (par exemple, si le fichier demandé n'existe pas). La commande GET/HTTP/1.0 signifie que le client demande le fichier par défaut dans le répertoire Web racine (/) et que le client est capable de communiquer en utilisant HTTP version 1.0. Le de fin est le caractère de nouvelle ligne, ou à peu près équivalent à appuyer sur la touche de retour. Si le fichier par défaut existe, le serveur le retransmet au client.

Alors que la plupart des ordinateurs n'ont qu'un seul Ethernet Port (ou connexion sans fil), toute la connectivité de chaque machine est capable de supporter plus de connexions qu'une seule entrée ou sortie, car le concept de port est abstrait dans le logiciel et la fonctionnalité du port est ainsi dupliquée plusieurs fois.De cette façon, chaque ordinateur en réseau est capable d'effectuer plusieurs tâches sur sa connexion réseau unique sur des dizaines de connexions différentes (il existe 1 024 ports bien connus et 65 535 ports au total). Ainsi, les ports permettent à un ordinateur en réseau de communiquer simultanément sur un grand nombre de « canaux » sans bloquer d'autres canaux ni entraver le flux de données des applications. Par exemple, il est possible de lire les e-mails et de surfer sur le Web simultanément, car les e-mails arrivent par un port tandis que les sites Web en utilisent un autre. L'union de l'adresse IP et du numéro de port (exemple : 123.45.67.89:80) est appelée un prise. Les connexions socket sont le pain et le beurre de la mise en réseau.

Exemple 2 : canevas de dessin partagé

En utilisant la bibliothèque Processing Net, il est possible de créer un serveur simple. L'exemple montre un serveur qui partage une zone de dessin entre deux ordinateurs. Pour ouvrir une connexion socket, un serveur doit sélectionner un port sur lequel écouter les clients entrants et à travers lequel communiquer. Bien que n'importe quel numéro de port puisse être utilisé, il est recommandé d'éviter d'utiliser des numéros de port déjà attribués à d'autres applications et protocoles réseau. Une fois le socket établi, un client peut se connecter au serveur et envoyer ou recevoir des commandes et des données.

Associée à ce serveur, la classe Processing Client est instanciée en spécifiant une adresse distante et un numéro de port vers lequel la connexion socket doit être établie. Une fois la connexion établie, le client peut lire (ou écrire) des données sur le serveur. Étant donné que les clients et les serveurs sont les deux faces d'une même pièce, les exemples de code sont presque identiques pour les deux. Pour cet exemple, les coordonnées de la souris actuelle et précédente sont envoyées entre le client et le serveur plusieurs fois par seconde.

Exemple 3 : Client carnivore

Si un examen de niveau inférieur des flux des réseaux de données est souhaité, la bibliothèque Carnivore for Processing permet au programmeur d'exécuter un renifleur de paquets depuis l'environnement de traitement. Un renifleur de paquets est une application capable d'écouter sans discernement le trafic de données transitant par un réseau local (LAN), même le trafic qui n'est pas adressé à la machine exécutant le renifleur. Bien que cela puisse sembler peu orthodoxe, et en effet une machine exécutant un renifleur est décrite comme étant en "mode promiscuité", les technologies de reniflage de paquets sont aussi omniprésentes que l'Internet lui-même et tout aussi anciennes. Les administrateurs système utilisent des renifleurs de paquets pour résoudre les bogues de réseau. Toutes les machines Macintosh sont livrées avec le renifleur de paquets tcpdump préinstallé, tandis que les utilisateurs de Windows et Linux ont un assortiment de renifleurs gratuits (y compris tcpdump et ses variantes) parmi lesquels choisir. La bibliothèque Carnivore pour le traitement simplifie simplement l'acte de renifler les paquets, rendant la surveillance du trafic en temps réel facile à mettre en œuvre pour tout artiste qui le souhaite. Les paquets capturés via Carnivore peuvent être visualisés sous forme de carte, analysés à la recherche de mots-clés ou simplement utilisés pour tout type d'algorithme nécessitant un flux constant de déclencheurs d'événements non aléatoires.

Protocoles Internet

Carnivore est un bon tremplin vers le dernier domaine des réseaux informatiques discuté ici : les protocoles Internet. Un protocole est un standard technologique. Les protocoles Internet sont une série de documents qui décrivent comment implémenter des technologies Internet standard telles que le routage de données, l'établissement de liaison entre deux machines, l'adressage réseau et de nombreuses autres technologies. Deux protocoles ont déjà été discutés&ndashHTML, qui est le protocole de langage pour la mise en page et la conception hypertexte et HTTP, qui est le protocole d'accès aux fichiers accessibles sur le Web, mais il y a quelques autres protocoles qui méritent d'être discutés dans ce contexte.

Les protocoles sont des concepts abstraits, mais ils sont également assez matériels et se manifestent sous la forme d'en-têtes de données structurées qui précèdent et encapsulent tout le contenu circulant sur Internet. Par exemple, pour qu'une page HTML typique passe du serveur au client, la page est précédée d'un en-tête HTTP (quelques lignes de texte similaires à la commande GET référencée précédemment). Ce glob de données est lui-même précédé de deux en-têtes supplémentaires, d'abord un en-tête TCP (Transmission Control Protocol) et ensuite un en-tête IP (Internet Protocol). À son arrivée à destination, le message est déballé : l'en-tête IP est supprimé, suivi de l'en-tête TCP, et enfin l'en-tête HTTP est supprimé pour révéler la page HTML d'origine. Tout cela se fait en un clin d'œil. Tous les en-têtes contiennent des informations utiles sur le paquet. Mais les quatre informations les plus utiles sont peut-être l'adresse IP de l'expéditeur, l'adresse IP du destinataire, le port de l'expéditeur et le port du destinataire. Ces quatre éléments sont significatifs car ils indiquent les adresses réseau des machines concernées, plus, via une recherche inversée des numéros de ports, le type de données transférées (port 80 indiquant des données web, port 23 indiquant une connexion Telnet, etc. au). Voir le /etc/services sur n'importe quelle machine Macintosh, Linux ou UNIX, ou parcourez le registre de l'IANA pour une liste complète des numéros de port. Les adresses sont contenues dans l'en-tête IP de l'octet 12 à l'octet 29 (à partir de 0), tandis que les ports sont contenus dans les octets zéro à trois de l'en-tête TCP.

Les deux éléments de la connexion socket (adresse IP et port) sont séparés en deux protocoles différents en raison de la nature différente d'IP et de TCP. Le protocole IP concerne le routage des données d'un endroit à un autre et nécessite donc d'avoir une adresse IP pour acheminer correctement, mais se soucie peu du type de données dans sa charge utile. TCP vise à établir un circuit virtuel entre le serveur et le client et nécessite donc un peu plus d'informations sur le type de communication Internet tentée. IP et TCP fonctionnent si étroitement ensemble qu'ils sont souvent décrits d'un seul coup comme la « suite TCP/IP ».

Alors que la plupart des données sur Internet reposent sur la suite TCP/IP pour se déplacer, certaines formes de communication en réseau sont mieux adaptées à la combinaison UDP/IP. Le protocole UDP (User Datagram Protocol) a une implémentation beaucoup plus légère que TCP, et bien qu'il sacrifie donc de nombreuses fonctionnalités de TCP, il est néanmoins utile pour les connexions de données sans état et les connexions qui nécessitent un débit élevé de paquets par seconde, comme les jeux en ligne. .

Outils réseau

Il existe un certain nombre d'outils réseau existants qu'un programmeur peut utiliser au-delà de l'environnement de traitement. Carnivore et tcpdump, deux types différents de renifleurs de paquets qui permettent de recevoir des paquets LAN en temps réel, ont déjà été mentionnés. Le processus d'analyse des réseaux à la recherche d'hôtes disponibles, appelé découverte de réseau, est également possible à l'aide d'outils d'analyse de ports tels que Nmap. Ces outils utilisent diverses méthodes pour parcourir un ensemble numérique d'adresses IP (exemple : 192.168.1.x où x est incrémenté de 0 à 255), en testant pour voir si une machine répond à cette adresse. Ensuite, si une machine est connue pour être en ligne, le scanner de ports est utilisé pour parcourir une plage de ports sur la machine (exemple : 192.168.1.1:x où x est un numéro de port incrémenté de 1 à 1024) afin de déterminer quels ports sont ouverts, déterminant ainsi quels services applicatifs sont disponibles. Les analyses de ports peuvent également être utilisées pour obtenir des « empreintes digitales » pour les machines distantes, ce qui facilite l'identification du système d'exploitation actuel de la machine, du type et des informations de version pour les services d'application connus.

L'avancée la plus importante dans les réseaux populaires depuis l'émergence du Web au milieu des années 1990 a peut-être été le développement de systèmes peer-to-peer comme Gnutella ou BitTorrent. Dans la foulée de Napster, Gnutella a entièrement distribué le processus de partage et de transfert de fichiers, mais a également entièrement distribué l'algorithme de recherche du réseau, un détail qui avait créé des goulots d'étranglement (sans parler des responsabilités légales) pour le Napster plus centralisé. Avec un algorithme de recherche distribué, les requêtes de recherche vont à la marelle d'un nœud à l'autre, tout comme la méthode « patate chaude » utilisée dans le routage IP, elles ne passent par aucun serveur centralisé. Le protocole Gnutella a été implémenté dans des dizaines d'applications peer-to-peer.

Pourtant, plus récemment, Gnutella a été remplacé par des systèmes comme BitTorrent, une application peer&ndashto&ndashpeer qui permet aux transferts de fichiers de se produire simultanément entre un grand nombre d'utilisateurs. BitTorrent a acquis une grande popularité pour son efficacité accrue, en particulier pour les transferts de fichiers volumineux tels que les vidéos et les logiciels.

De nombreux projets logiciels nécessitant de l'audio en réseau ont fini par s'appuyer sur le protocole Open Sound Control (OSC). OSC est un protocole de communication entre des appareils multimédias tels que des ordinateurs et des synthétiseurs. OSC a été intégré dans SuperCollider et Max/MSP et a été porté sur la plupart des langages modernes, notamment Perl et Java. “oscP5” d'Andreas Schlegel est une bibliothèque d'extension OSC pour le traitement.

Internet est également devenu davantage axé sur les pairs à d'autres égards, non seulement par le partage de fichiers, mais aussi par le biais de communautés d'amis et d'autres types d'interaction sociale. Les plateformes Web 2.0 telles que Facebook, Twitter ou YouTube permettent à des groupes de personnes de se mettre en réseau, qu'il s'agisse d'un petit groupe de cinq ou dix, ou d'un groupe plus important de plusieurs milliers. Alors que le modèle client-serveur plus traditionnel reposait sur une distinction claire entre les fournisseurs d'informations et les consommateurs d'informations, les nouveaux systèmes ont perturbé certaines des anciennes hiérarchies, permettant aux utilisateurs en réseau d'agir à la fois en tant que producteurs et consommateurs de contenu. De tels systèmes reposent donc fortement sur contenu généré par l'utilisateur et attendent une plus grande participation et interaction de leur base d'utilisateurs.

Conclusion

Les programmeurs doivent souvent prendre en compte les interconnexions entre les réseaux d'objets et d'événements. De ce fait, la programmation pour les réseaux est une extension naturelle de la programmation pour une seule machine. Les classes envoient des messages à d'autres classes tout comme les hôtes envoient des messages à d'autres hôtes. Un objet a une interface, tout comme une carte Ethernet. La construction algorithmique d'entités dans le dialogue&ndashpixels, bits, cadres, nœuds&ndashis est au cœur de ce qu'est le traitement. La mise en réseau de ces entités en déplaçant certaines d'entre elles vers une machine et d'autres vers une autre n'est qu'une petite étape supplémentaire. Ce qu'il faut, cependant, c'est une connaissance des diverses normes et techniques en jeu lors de la mise en place d'un réseautage de bonne foi.

Historiquement, il y a eu deux volets de base de l'art en réseau : l'art où le réseau est utilisé comme moyen réel de création artistique, ou l'art où le réseau est utilisé comme moyen de transport pour la diffusion de l'œuvre. Le premier pourrait être compris comme l'art de l'Internet, tandis que le second comme l'art pour l'Internet. Le but de ce texte a été d'introduire certaines des conditions de base, à la fois technologiques et esthétiques, pour faire de l'art en réseau, dans l'espoir que des techniques et des approches entièrement nouvelles émergeront à l'avenir alors que les deux volets se mélangent dans de nouvelles formes passionnantes.


Arçelik Asista

Le développement des technologies et des tendances entraîne un changement constant des besoins des utilisateurs. Les interfaces encombrées et les télécommandes avec de nombreux boutons ont été remplacées par des écrans tactiles, des interfaces simplifiées et des applications mobiles. Les technologies émergentes perfectionnent cette expérience, permettant aux humains d'interagir avec les machines en utilisant le moyen de communication le plus naturel : la voix.

Asista utilise des solutions de compréhension du langage naturel (NLU) et des technologies de traitement que nous avons développées. Il vous écoute et vous comprend, et répond à vos questions en turc.

Asista, en utilisant des méthodes nouvelles et interactives, vous permet de contrôler et de faire fonctionner tous les appareils ménagers tels que les réfrigérateurs, les cuisinières et les lave-vaisselle, d'automatiser la gestion de l'énergie, de vérifier les canaux multimédias et de superviser votre système de sécurité, devenant ainsi le centre de commande de votre maison. Nous avons également l'intention d'Asista de fournir un accès aux services d'achat, aux dernières nouvelles sportives, au trafic et à la météo actuels, à la bourse et à d'autres services à valeur ajoutée développés par des tiers pour vous faciliter la vie.

Nous fournissons une solution complète qui intègre une interface de communication homme-machine, NLU turc, messagerie vocale et reconnaissance vocale. Asista dispose d'un réseau de microphones à 360 degrés avec activation vocale en champ lointain, neutralisation d'écho, réduction du bruit et balayage de source à 360 degrés.

Smart Assistant permettra également d'intégrer les solutions NLU dans de nombreux domaines :

Industrie 4.0 – Contrôle des postes de production et des machines avec des commandes vocales

Automobile - Contrôler les automobiles et les fonctionnalités avec des commandes vocales

Santé – Connecter des appareils de surveillance à Smart Assistant pour la vérification à distance des patients et le partage en temps réel des données médicales avec les médecins et les hôpitaux

Télématique – La capacité du fabricant à contrôler à distance tous les appareils ménagers, petits ou grands, évite les dommages permanents aux appareils et permet une assistance technique préventive

Éducation – Utilisation de modules éducatifs interactifs

Hôtels – Automatisation des chambres à commande vocale, commandes ou contact concierge

Hôtels et centres commerciaux - Bureaux d'information interactifs qui agissent comme des répertoires de magasins à commande vocale


Partie 4 : Considérations éthiques

Malheureusement, il n'y a pas de directives claires sur l'utilisation de Facebook ou d'autres plateformes de médias sociaux pour la recherche. Facebook offre aux participants un degré de contrôle relativement élevé sur leurs données, mais il incombe au chercheur de peser les coûts et les avantages de la collecte et de l'utilisation des informations personnelles des utilisateurs - et de s'en remettre à un IRB en cas de doute. La simple disponibilité des données et la volonté des participants de les partager ne confèrent pas aux chercheurs le droit de les enregistrer et de les utiliser librement.

L'absence de directives formelles est exacerbée par l'accélération constante des progrès technologiques, tant les chercheurs que les membres de l'IRB peuvent surestimer ou sous-estimer les menaces pesant sur les participants, entravant ainsi des projets bénins ou approuvant des projets malins. Ces deux facteurs découragent les spécialistes des sciences sociales de mener des recherches en ligne ou de soumettre des études pour examen. En conséquence, les informaticiens - qui sont souvent indifférents ou peu familiers avec les implications éthiques et sociales de la recherche sur des sujets humains - réalisent une proportion croissante de ces études.

Cette tendance est déconcertante, et pas seulement parce que Facebook constitue un outil de recherche puissant et un domaine d'intérêt important pour les sciences sociales. Nous espérons encourager les agences fédérales de l'IRB telles que le département américain de la Santé et des Services sociaux et le Comité d'éthique de l'APA à se concentrer davantage sur les nouveaux outils et environnements de recherche, y compris Facebook. De plus, nous pensons que les articles utilisant des données Facebook devraient inclure une discussion sur les considérations éthiques liées à la conception d'une étude et à ses conclusions. Une telle approche garantit que les auteurs ont pris en compte les aspects éthiques de leur propre travail et soutient l'évolution des standards et des normes dans cet environnement technologique en évolution rapide.

Il existe deux défis éthiques majeurs liés à la collecte de données dans l'environnement Facebook. Premièrement, la frontière entre les données appartenant uniquement aux participants et les informations appartenant à d'autres est très floue. Le consentement des participants permet aux chercheurs d'enregistrer du contenu qui fait référence ou a été fourni par d'autres personnes, tels que des images, des vidéos, des messages ou des commentaires marqués sur le profil du participant. À notre avis, il est acceptable d'utiliser des données générées par ou contenant des références à des non-participants, mais seulement si les analyses visent exclusivement ceux qui participent directement à l'étude. Par exemple, les profils démographiques et les connexions réseau des non-participants pourraient être utilisés pour établir les paramètres des réseaux sociaux égocentriques d'un participant, ou le rapport de genre parmi leurs amis, mais pas pour étudier les amis non participants.

Le deuxième grand défi fait référence à la vague frontière entre l'information publique et privée. Certaines informations de profil de base sont accessibles au public et même indexées par les moteurs de recherche. Cependant, certains chercheurs soulignent que la frontière entre public et privé n'est pas déterminée par l'accessibilité, mais par les normes et pratiques sociales. Par exemple, dans une petite ville où tout le monde connaît des détails intimes sur tout le monde, les gens ont tendance à prétendre ne pas connaître des faits considérés comme personnels. D'autres soutiennent que l'exploration de données publiques équivaut à mener des recherches d'archives, une méthode fréquemment utilisée dans des disciplines telles que l'histoire, la critique d'art et la littérature, qui impliquent rarement des règles de protection des sujets humains.

Nous penchons pour ce dernier argument et pensons que les données de profil public Facebook peuvent être utilisées sans le consentement des participants s'il est raisonnable de supposer que les données ont été sciemment rendues publiques par les individus. Les chercheurs doivent toutefois anonymiser immédiatement et de manière irréversible les données et s'abstenir de toute communication ou interaction avec les individus de l'échantillon. En outre, les chercheurs doivent veiller à ne révéler aucune information pouvant être attribuée à un seul individu (comme des photographies ou des échantillons de texte) lors de la publication des résultats de l'étude.


Amazon lance Lookout for Metrics, un service AWS pour surveiller les performances de l'entreprise

Élevez votre technologie et votre stratégie de données d'entreprise.

Élevez votre technologie et votre stratégie de données d'entreprise à Transform 2021.

Amazon a annoncé aujourd'hui la disponibilité générale de Lookout for Metrics, un service entièrement géré qui utilise l'apprentissage automatique pour surveiller les facteurs clés ayant un impact sur la santé des entreprises. Lancé à re:Invent 2020 en décembre dernier en avant-première, Lookout for Metrics est désormais accessible à la plupart des clients Amazon Web Services (AWS) via la console AWS et via des partenaires de support.

Les organisations analysent des mesures ou des indicateurs de performance clés pour aider leurs entreprises à fonctionner de manière efficace et efficiente. Traditionnellement, les outils de business intelligence sont utilisés pour gérer ces données à travers des sources disparates, mais l'identification de ces anomalies est difficile. Les méthodes traditionnelles basées sur des règles recherchent des données qui se situent en dehors des plages numériques. De manière problématique, ces plages ont tendance à être statiques et immuables en réponse à des conditions telles que l'heure de la journée, le jour de la semaine, les saisons ou les cycles économiques.

En utilisant la même technologie d'apprentissage automatique derrière Amazon, Lookout for Metrics résout apparemment ce problème en inspectant automatiquement les indicateurs de santé de l'entreprise, notamment les revenus, les pages Web consultées, les utilisateurs actifs, le volume de transactions et les installations d'applications mobiles. Le service aide également à diagnostiquer la cause première des anomalies, telles que les baisses inattendues des revenus, les taux élevés de paniers d'achat abandonnés, les pics d'échecs de transactions de paiement, l'augmentation des inscriptions de nouveaux utilisateurs, etc.

Les clients peuvent connecter Lookout for Metrics à 19 sources de données populaires telles qu'Amazon CloudWatch et Amazon Redshift, ainsi qu'à des applications logicielles en tant que service telles que Salesforce, Marketo et Zendesk. Lookout for Metrics récupère et prépare les données, sélectionne l'algorithme d'apprentissage automatique le mieux adapté, commence à détecter les anomalies, regroupe les anomalies associées et résume les causes possibles.Par exemple, si le trafic du site Web d'un client diminuait soudainement, Lookout for Metrics l'aiderait à déterminer si une désactivation involontaire d'une campagne marketing en était la cause.

Lookout for Metrics se connecte également aux services de notification et d'événement, permettant aux clients de créer des alertes ou des actions telles que le dépôt de billets ou la suppression d'un produit au prix incorrect d'un site Web de vente au détail. Lorsque le service commence à renvoyer des résultats, les développeurs ont la possibilité de fournir des commentaires sur la pertinence des anomalies détectées, que le service utilise pour améliorer sa précision.

« Du marketing et des ventes aux télécommunications et aux jeux, les clients de tous les secteurs disposent d'indicateurs de performance clés dont ils ont besoin pour surveiller les pics, creux et autres anomalies potentiels en dehors des limites normales de leurs fonctions commerciales. Mais détecter et diagnostiquer des anomalies dans les métriques peut être difficile, et au moment où une cause fondamentale a été déterminée, beaucoup plus de dégâts ont été causés que s'ils avaient été identifiés plus tôt », a déclaré Swami Sivasubramanian, vice-président d'Amazon AI, dans un communiqué de presse. . « Nous sommes ravis de proposer Amazon Lookout for Metrics pour aider les clients à surveiller les métriques importantes pour leur entreprise à l'aide d'un service d'apprentissage automatique facile à utiliser qui tire parti de la propre expérience d'Amazon dans la détection d'anomalies à grande échelle et avec une grande précision et la vitesse."

Lookout for Metrics est initialement disponible dans les États-Unis Est (Virginie du Nord), États-Unis Est (Ohio), États-Unis Ouest (Oregon), UE (Irlande), UE (Francfort), UE (Stockholm), Asie-Pacifique (Singapour), Asie Régions AWS Pacifique (Sydney) et Asie-Pacifique (Tokyo). Il arrivera dans d'autres régions au cours des prochains mois, selon Amazon.


Les avantages réels de intelligence artificielle

Où en sommes-nous aujourd'hui avec l'IA ?

Avec l'IA, vous pouvez poser des questions à une machine - à voix haute - et obtenir des réponses sur les ventes, les stocks, la fidélisation des clients, la détection des fraudes et bien plus encore. L'ordinateur peut également découvrir des informations que vous n'avez jamais pensé demander. Il offrira un résumé narratif de vos données et suggérera d'autres façons de les analyser. Il partagera également des informations relatives aux questions précédentes de vous ou de toute autre personne ayant posé des questions similaires. Vous obtiendrez les réponses sur un écran ou simplement par conversation.

Comment cela se déroulera-t-il dans le monde réel ? Dans les soins de santé, l'efficacité du traitement peut être déterminée plus rapidement. Dans le commerce de détail, les éléments complémentaires peuvent être suggérés plus rapidement. En finance, la fraude peut être évitée au lieu d'être simplement détectée. Et bien plus.

Dans chacun de ces exemples, la machine comprend quelles informations sont nécessaires, examine les relations entre toutes les variables, formule une réponse et vous la communique automatiquement avec des options pour les requêtes de suivi.

Nous avons des décennies de recherche sur l'intelligence artificielle à remercier d'où nous en sommes aujourd'hui. Et nous avons des décennies d'interactions homme-machine intelligentes à venir.


5.1 Sensation versus perception

Que signifie ressentir quelque chose ? Les récepteurs sensoriels sont des neurones spécialisés qui répondent à des types spécifiques de stimuli. Lorsque des informations sensorielles sont détectées par un récepteur sensoriel, une sensation s'est produite. Par exemple, la lumière qui pénètre dans l'œil provoque des changements chimiques dans les cellules qui tapissent l'arrière de l'œil. Ces cellules transmettent des messages, sous forme de potentiels d'action (comme vous l'avez appris en étudiant la biopsychologie), au système nerveux central. La conversion de l'énergie de stimulation sensorielle en potentiel d'action est connue sous le nom de transduction. Transduction représente la première étape vers la perception et est un processus de traduction où différents types de cellules réagissent à des stimuli créant un signal traité par le système nerveux central résultant en ce que nous ressentons comme des sensations. Les sensations permettent aux organismes de sentir un visage et de sentir la fumée en cas d'incendie.

Les perceptions, quant à elles, nécessitent d'organiser et de comprendre les informations de sensation entrantes. Pour que les sensations soient utiles, nous devons d'abord ajouter un sens à ces sensations, qui créent nos perceptions de ces sensations. Les sensations nous permettent de voir un brûleur rouge, mais les perceptions impliquent la compréhension et la représentation du chaud caractéristique. En outre, une sensation serait d'entendre une tonalité forte et aiguë, tandis qu'une perception serait la classification et la compréhension de ce son comme une alarme incendie. Tout au long de ce chapitre, les sensations et les perceptions seront discutées comme des événements séparés, alors qu'en réalité, les sensations et les perceptions peuvent être plus précisément considérées comme se produisant le long d'un continu où les frontières sont plus fluides entre l'endroit où une sensation se termine et une perception commence.

Vous savez probablement depuis l'école primaire que nous avons cinq sens : la vision, l'ouïe (audition), l'odorat (olfaction), le goût (gustation) et le toucher (somatosensation). Il s'avère que cette notion de cinq sens est extrêmement simplifiée. Nous avons également des systèmes sensoriels qui fournissent des informations sur l'équilibre (le sens vestibulaire), la position et le mouvement du corps (proprioception et kinesthésie), la douleur (nociception) et la température (thermoception), et chacun de ces systèmes sensoriels a différents récepteurs réglés pour transduire stimuli différents. Le système de vision absorbe la lumière à l'aide de récepteurs à tige et à cône situés à l'arrière des yeux, le son est traduit par de minuscules cheveux comme des récepteurs appelés cils à l'intérieur de l'oreille interne, l'odorat et le goût travaillent ensemble la plupart du temps pour absorber les produits chimiques présents dans les particules en suspension dans l'air et la nourriture via des cils chimiquement sensibles dans la cavité nasale et des groupes de récepteurs chimiques sur la langue. Le toucher est particulièrement intéressant car il est composé de réponses de nombreux types de récepteurs différents présents dans la peau qui envoient des signaux au système nerveux central en réponse à la température, à la pression, aux vibrations et aux perturbations de la peau telles que les étirements et les déchirures.

Des terminaisons nerveuses libres incrustées dans la peau qui permettent aux humains de percevoir les différentes différences dans notre environnement immédiat. Adapté de Pinel, 2009.

La sensibilité d'un système sensoriel donné aux stimuli pertinents peut être exprimée sous la forme d'un seuil absolu. Limite absolue fait référence à la quantité minimale d'énergie de stimulus qui doit être présente pour que le stimulus soit détecté 50 % du temps. Une autre façon de penser à cela est de demander à quel point une lumière peut être faible ou à quel point un son peut-il être doux et toujours détecté la moitié du temps. La sensibilité de nos récepteurs sensoriels peut être assez étonnante. Il a été estimé que par une nuit claire, les cellules sensorielles les plus sensibles à l'arrière de l'œil peuvent détecter une flamme de bougie à 30 miles (Okawa & Sampath, 2007). Dans des conditions calmes, les cellules ciliées (les cellules réceptrices de l'oreille interne) peuvent détecter le tic d'une horloge à 20 pieds de distance (Galanter, 1962). De plus, une cuillère à café de sucre peut être dégustée dans deux gallons d'eau, et le système olfactif humain peut détecter l'odeur d'une goutte de parfum dans un appartement de six pièces.

Il nous est également possible d'obtenir des messages qui sont présentés en dessous du seuil de prise de conscience – on les appelle des messages subliminaux. Un stimulus atteint un seuil physiologique lorsqu'il est suffisamment fort pour exciter les récepteurs sensoriels et envoyer des impulsions nerveuses au cerveau : il s'agit d'un seuil absolu. Un message en dessous de ce seuil est dit subliminal : le message est traité, mais nous n'en sommes pas conscients. Au fil des ans, il y a eu beaucoup de spéculations sur l'utilisation de messages subliminaux dans la publicité, la musique rock et les programmes audio d'auto-assistance pour influencer le comportement des consommateurs. La recherche a démontré qu'en laboratoire, les gens peuvent traiter et répondre à l'information en dehors de la conscience. Mais cela ne veut pas dire que nous obéissons à ces messages comme des zombies en fait, les messages cachés ont peu d'effet sur les comportements en dehors du laboratoire (Kunst-Wilson & Zajonc, 1980 Rensink, 2004 Nelson, 2008 Radel, Sarrazin, Legrain, & Gobancé, 2009 Loersch , Durso, & Petty, 2013). Les études visant à influencer les cinéphiles à acheter plus de pop-corn et à réduire les habitudes de consommation de tabac ont démontré peu ou pas de succès, suggérant en outre que les messages subliminaux sont pour la plupart inefficaces pour produire un comportement spécifique (Karremans, Stroebe & amp Claus, 2006). Cependant, des études de neuroimagerie ont démontré une activité neuronale claire liée au traitement des stimuli subliminaux (Koudier & Dehaene, 2007). De plus, Krosnick, Betz, Jussim & Lynn (1992) ont découvert que les participants à qui l'on présentait des images de cadavres ou de seaux de serpents pendant plusieurs millisecondes (amorçage subliminal) étaient plus susceptibles d'évaluer une image neutre d'une femme avec une expression faciale neutre. comme plus antipathiques par rapport aux participants qui ont vu des images plus agréables (chatons et couples mariés). Cela démontre que bien que nous ne soyons peut-être pas conscients des stimuli qui nous sont présentés, nous les traitons au niveau neuronal, et aussi que bien que l'amorçage subliminal ne soit généralement pas assez fort pour forcer des achats indésirables, il peut influencer nos perceptions des choses que nous rencontrons dans l'environnement après l'amorçage subliminal.

Les seuils absolus sont généralement mesurés dans des conditions incroyablement contrôlées dans des situations optimales pour la sensibilité. Parfois, nous sommes plus intéressés par la différence de stimuli nécessaire pour détecter une différence entre eux. Ceci est connu comme le différence juste notable (JND, brièvement mentionné dans l'étude ci-dessus comparant les perceptions des couleurs des participants chinois et néerlandais) ou seuil de différence. Contrairement au seuil absolu, le seuil de différence change en fonction de l'intensité du stimulus. Par exemple, imaginez-vous dans une salle de cinéma très sombre. Si un membre du public recevait un SMS sur son téléphone portable qui allumerait son écran, il est probable que de nombreuses personnes remarqueraient le changement d'éclairage dans le théâtre. Cependant, si la même chose se produisait dans une arène très éclairée pendant un match de basket-ball, très peu de gens le remarqueraient. La luminosité du téléphone portable ne change pas, mais sa capacité à être détectée comme un changement d'éclairage varie considérablement entre les deux contextes. Ernst Weber a proposé cette théorie du changement de seuil de différence dans les années 1830, et elle est devenue connue sous le nom de loi de Weber.

Loi Webers: Chacun des différents sens a ses propres rapports constants déterminant les seuils de différence.

Les idées de Webers sur les seuils de différence ont influencé les concepts de la théorie de la détection de signaux qui stipulent que nos capacités à détecter un stimulus dépendent de facteurs sensoriels (comme l'intensité du stimulus ou la présence d'autres stimuli en cours de traitement) ainsi que de notre état psychologique (vous êtes somnolent parce que vous êtes resté éveillé à étudier la nuit précédente). Les ingénieurs en facteurs humains qui conçoivent des consoles de commande pour les avions et les voitures utilisent la théorie de la détection de signaux tout le temps afin d'évaluer les situations que les pilotes ou les conducteurs peuvent rencontrer, telles que la difficulté à voir et à interpréter les commandes par temps extrêmement lumineux.

LA PERCEPTION

Bien que les perceptions soient construites à partir de sensations, toutes les sensations n'aboutissent pas à une perception..”

Alors que nos récepteurs sensoriels collectent constamment des informations de l'environnement, c'est finalement la façon dont nous interprétons ces informations qui affecte la façon dont nous interagissons avec le monde. La perception fait référence à la manière dont les informations sensorielles sont organisées, interprétées et expérimentées consciemment. La perception implique à la fois un traitement ascendant et descendant. Le traitement ascendant fait référence au fait que les perceptions sont construites à partir d'entrées sensorielles, de stimuli de l'environnement. D'autre part, la façon dont nous interprétons ces sensations est influencée par nos connaissances disponibles, nos expériences et nos pensées liées aux stimuli que nous vivons. C'est ce qu'on appelle le traitement descendant.

Une façon de penser à ce concept est que la sensation est un processus physique, alors que la perception est psychologique. Par exemple, en entrant dans une cuisine et en sentant l'odeur des petits pains à la cannelle, le sensation ce sont les récepteurs olfactifs qui détectent l'odeur de la cannelle, mais le la perception peut être « Mmm, ça sent le pain que grand-mère faisait quand la famille se réunissait pour les vacances ». La sensation est un signal de l'un de nos six sens. La perception est la réponse du cerveau à ces signaux. Lorsque nous voyons notre professeur parler devant la salle, nous sentons les signaux visuels et auditifs venant d'eux et nous percevons qu'ils donnent une conférence sur notre cours de psychologie.

Bien que nos perceptions soient construites à partir de sensations, toutes les sensations n'aboutissent pas à une perception. En fait, nous ne percevons souvent pas des stimuli qui restent relativement constants sur des périodes de temps prolongées. C'est ce qu'on appelle l'adaptation sensorielle. Imaginez entrer dans une salle de classe avec une vieille horloge analogique. En entrant pour la première fois dans la salle, vous pouvez entendre le tic-tac de l'horloge alors que vous commencez à engager une conversation avec des camarades de classe ou écoutez votre professeur saluer la classe, vous n'êtes plus conscient du tic-tac. L'horloge tourne toujours et cette information affecte toujours les récepteurs sensoriels du système auditif. Le fait que vous ne perceviez plus le son démontre une adaptation sensorielle et montre que bien qu'étroitement associées, sensation et perception sont différentes. De plus, lorsque vous entrez dans une salle de cinéma sombre après avoir été dehors par une journée ensoleillée, vous remarquerez qu'il est initialement extrêmement difficile à voir. Après quelques minutes, vous faites l'expérience de ce qu'on appelle l'adaptation à l'obscurité qui a tendance à prendre environ 8 minutes pour les cônes (acuité visuelle et couleur) et environ 30 minutes pour que les cônes de votre rétine s'adaptent (lumière, obscurité, profondeur et distance) ( Hecht & Mendelbaum, 1938 Klaver, Wolfs, Vingerling, Hoffman, & de Jong, 1998). Si vous vous demandez pourquoi il faut tant de temps pour s'adapter à l'obscurité, afin de modifier la sensibilité des bâtonnets et des cônes, ils doivent d'abord subir un changement chimique complexe associé aux molécules de protéines qui ne se produit pas immédiatement. Maintenant que vous vous êtes adapté à l'obscurité du théâtre, que vous avez survécu à un marathon en regardant toute la série Le Seigneur des Anneaux et que vous sortez du théâtre dix heures après votre entrée dans le théâtre, vous pouvez expérimenter le processus d'adaptation à la lumière. , sauf s'il fait encore jour dehors. Au cours de l'adaptation à la lumière, les pupilles se contractent pour réduire la quantité de lumière inondant la rétine et la sensibilité à la lumière est réduite à la fois pour les bâtonnets et les cônes, ce qui prend généralement moins de 10 minutes (Ludel, 1978). Alors pourquoi le processus d'augmentation de la sensibilité à la lumière pour s'adapter à l'obscurité est-il plus complexe que la diminution de la sensibilité pour s'adapter à la lumière ? Caruso (2007) a suggéré qu'un processus plus progressif est impliqué dans l'adaptation à l'obscurité en raison de la tendance des humains au cours de l'évolution à s'adapter lentement à l'obscurité lorsque le soleil se couche à l'horizon.

Il y a un autre facteur qui affecte la sensation et la perception : l'attention. L'attention joue un rôle important dans la détermination de ce qui est perçu par rapport à ce qui est perçu. Imaginez que vous êtes à une fête pleine de musique, de bavardages et de rires. Vous vous engagez dans une conversation intéressante avec un ami et vous éliminez tout le bruit de fond. Si quelqu'un vous interrompait pour vous demander quelle chanson venait de finir de jouer, vous seriez probablement incapable de répondre à cette question.

L'une des démonstrations les plus intéressantes de l'importance de l'attention dans la détermination de notre perception de l'environnement s'est produite dans une étude célèbre menée par Daniel Simons et Christopher Chabris (1999). Dans cette étude, les participants ont regardé une vidéo de personnes vêtues de ballons de basket en noir et blanc. Les participants devaient compter le nombre de fois où l'équipe en blanc passait le ballon. Pendant la vidéo, une personne vêtue d'un costume de gorille noir se promène parmi les deux équipes. On pourrait penser que quelqu'un remarquerait le gorille, n'est-ce pas ? Près de la moitié des personnes qui ont regardé la vidéo n'ont pas du tout remarqué le gorille, malgré le fait qu'il était clairement visible pendant neuf secondes. Parce que les participants étaient tellement concentrés sur le nombre de fois où l'équipe blanche passait le ballon, ils ont complètement ignoré les autres informations visuelles. Ne pas remarquer quelque chose qui est complètement visible à cause d'un manque d'attention est appelé cécité d'inattention. Des travaux plus récents ont évalué la cécité d'inattention liée à l'utilisation du téléphone portable. Hyman, Boss, Wise, McKenzie & Caggiano (2010) ont classé les participants selon qu'ils marchaient tout en parlant sur leur téléphone portable, en écoutant un lecteur MP3, en marchant sans appareil électronique ou en marchant à deux. Les participants ne savaient pas que pendant qu'ils marchaient sur la place, un clown monocycliste monterait juste devant eux. Après que les élèves aient atteint l'extérieur de la place, ils ont été arrêtés et leur ont demandé s'ils avaient remarqué le clown monocycle qui passait devant eux. Les utilisateurs de téléphones portables marchaient plus lentement, changeaient de direction plus souvent, accordaient moins d'attention aux autres autour d'eux et étaient également le groupe le plus fréquent à déclarer qu'ils n'avaient pas remarqué le clown monocycle. David Strayer et Frank Drews ont également examiné l'utilisation du téléphone portable dans une série de simulateurs de conduite et ont découvert que même lorsque les participants regardaient directement les objets dans l'environnement de conduite, ils étaient moins susceptibles de créer un souvenir durable de ces objets s'ils parlaient sur un téléphone portable. Ce modèle a été obtenu pour des objets à la fois hautement et faiblement pertinents pour leur sécurité de conduite, suggérant peu d'analyse cognitive significative des objets dans l'environnement de conduite en dehors du centre d'attention restreint tout en maintenant une conversation par téléphone portable. De plus, les conversations dans le véhicule n'ont pas autant interféré avec la conduite que les conversations sur téléphone portable comme le suggèrent Strayer et Drews, les conducteurs sont mieux en mesure de synchroniser les demandes de traitement de la conduite avec les conversations dans le véhicule par rapport aux conversations sur téléphone portable. Dans l'ensemble, il est évident que diriger le centre de notre attention peut entraîner des altérations parfois graves d'autres informations, et il semble que les téléphones portables puissent avoir un impact particulièrement dramatique sur le traitement de l'information lors de l'exécution d'autres tâches.

Dans une expérience similaire à l'activité ci-dessus, les chercheurs ont testé la cécité d'inattention en demandant aux participants d'observer des images se déplaçant sur un écran d'ordinateur. On leur a demandé de se concentrer sur des objets blancs ou noirs, sans tenir compte de l'autre couleur. Lorsqu'une croix rouge traversait l'écran, environ un tiers des sujets ne la remarquaient pas (figure ci-dessous) (Most, Simons, Scholl, & Chabris, 2000).

Près d'un tiers des participants à une étude n'ont pas remarqué qu'une croix rouge passait à l'écran parce que leur attention était concentrée sur les figures noires ou blanches. (crédit : Cory Zanker)

La motivation peut également affecter la perception. Vous êtes-vous déjà attendu à un appel téléphonique très important et, en prenant une douche, vous pensez entendre le téléphone sonner, pour découvrir que ce n'est pas le cas ? Si c'est le cas, alors vous avez constaté à quel point la motivation à détecter un stimulus significatif peut modifier notre capacité à faire la distinction entre un véritable stimulus sensoriel et le bruit de fond.Cet aspect motivationnel de l'attente dans la conversation peut également expliquer pourquoi une cécité inattentionnelle aussi forte a été trouvée en relation avec l'utilisation du téléphone portable. La capacité d'identifier un stimulus lorsqu'il est intégré dans un arrière-plan gênant est appelée théorie de la détection de signaux.

Théorie de détection de signal : Une théorie expliquant comment divers facteurs influencent notre capacité à détecter les signaux faibles dans notre environnement.

La théorie de la détection des signaux explique également pourquoi une mère est réveillée par un murmure silencieux de son bébé mais pas par d'autres sons qui se produisent pendant son sommeil. Cela s'applique également à la communication des contrôleurs aériens, aux panneaux de commande du pilote et du conducteur, comme indiqué précédemment, et même à la surveillance des informations vitales du patient pendant qu'un chirurgien effectue une intervention chirurgicale. Dans le cas des contrôleurs aériens, les contrôleurs doivent être capables de détecter les avions parmi les nombreux signaux (blips) qui apparaissent sur l'écran radar et de suivre ces avions lorsqu'ils se déplacent dans le ciel. En fait, les travaux originaux du chercheur qui a développé la théorie de la détection des signaux se sont concentrés sur l'amélioration de la sensibilité des contrôleurs aériens aux bips d'avion (Swets, 1964).

Nos perceptions peuvent également être affectées par nos croyances, nos valeurs, nos préjugés, nos attentes et nos expériences de vie. Comme vous le verrez plus loin dans ce chapitre, les individus qui sont privés de l'expérience de la vision binoculaire pendant les périodes critiques de développement ont du mal à percevoir la profondeur (Fawcett, Wang, & Birch, 2005). Les expériences partagées des personnes dans un contexte culturel donné peuvent avoir des effets prononcés sur la perception. Par exemple, Marshall Segall, Donald Campbell et Melville Herskovits (1963) ont publié les résultats d'une étude multinationale dans laquelle ils ont démontré que les individus de cultures occidentales étaient plus enclins à ressentir certains types d'illusions visuelles que les individus de cultures non occidentales, et vice versa. L'illusion de Müller-Lyer (figure ci-dessous) était l'une de ces illusions que les Occidentaux étaient plus susceptibles de ressentir : les lignes semblent être de longueurs différentes, mais elles sont en fait de la même longueur.

Dans l'illusion de Müller-Lyer, les lignes semblent être de longueurs différentes bien qu'elles soient identiques. (a) Les flèches aux extrémités des lignes peuvent faire paraître la ligne de droite plus longue, bien que les lignes soient de la même longueur. (b) Lorsqu'elle est appliquée à une image tridimensionnelle, la ligne de droite peut à nouveau apparaître plus longue bien que les deux lignes noires aient la même longueur.

Ces différences de perception étaient cohérentes avec les différences dans les types de caractéristiques environnementales vécues régulièrement par les personnes dans un contexte culturel donné. Les gens dans les cultures occidentales, par exemple, ont un contexte perceptif de bâtiments avec des lignes droites, ce que l'étude de Segall a appelé un monde charpenté (Segall et al., 1966). En revanche, les personnes issues de certaines cultures non occidentales avec une vue sans charpente, comme les Zulu d'Afrique du Sud, dont les villages sont constitués de huttes rondes disposées en cercle, sont moins sensibles à cette illusion (Segall et al., 1999). Ce n'est pas seulement la vision qui est affectée par des facteurs culturels. En effet, la recherche a démontré que la capacité d'identifier une odeur et d'évaluer son caractère agréable et son intensité varie selon les cultures (Ayabe-Kanamura, Saito, Distel, Martínez-Gómez, & Hudson, 1998). En termes de vision des couleurs à travers les cultures, la recherche a montré que les termes de couleur dérivés pour les teintes brunes, oranges et roses semblent être influencés par les différences culturelles (Zollinger, 1988).

Les enfants décrits comme des amateurs de sensations fortes sont plus susceptibles de montrer des préférences gustatives pour les saveurs aigres intenses (Liem, Westerbeek, Wolterink, Kok, & de Graaf, 2004), ce qui suggère que les aspects fondamentaux de la personnalité pourraient affecter la perception. De plus, les personnes qui ont des attitudes positives envers les aliments faibles en gras sont plus susceptibles d'évaluer les aliments étiquetés comme faibles en gras comme ayant un meilleur goût que les personnes qui ont des attitudes moins positives envers ces produits (Aaron, Mela, & Evans, 1994).

SOMMAIRE

La sensation se produit lorsque les récepteurs sensoriels détectent des stimuli sensoriels. La perception implique l'organisation, l'interprétation et l'expérience consciente de ces sensations. Tous les systèmes sensoriels ont à la fois des seuils absolus et différentiels, qui font référence à la quantité minimale d'énergie de stimulation ou à la quantité minimale de différence d'énergie de stimulation requise pour être détectée environ 50% du temps, respectivement. L'adaptation sensorielle, l'attention sélective et la théorie de la détection de signaux peuvent aider à expliquer ce qui est perçu et ce qui ne l'est pas. De plus, nos perceptions sont affectées par un certain nombre de facteurs, notamment les croyances, les valeurs, les préjugés, la culture et les expériences de vie.

Texte Openstax Psychology de Kathryn Dumper, William Jenkins, Arlene Lacombe, Marilyn Lovett et Marion Perlmutter sous licence CC BY v4.0. https://openstax.org/details/books/psychology

Des exercices

Questions de révision :

1. ________ fait référence à la quantité minimale d'énergie de stimulation requise pour être détectée 50 % du temps.

c. différence juste notable

2. Une sensibilité réduite à un stimulus immuable est connue sous le nom de ________.

ré. Cécité inattentionnelle

3. ________ implique la conversion de l'énergie du stimulus sensoriel en impulsions neurales.

b. Cécité inattentionnelle

4. ________ se produit lorsque l'information sensorielle est organisée, interprétée et expérimentée consciemment.

Question de pensée critique :

1. Tout ce qui est ressenti n'est pas perçu. Pensez-vous qu'il puisse y avoir un cas où quelque chose pourrait être perçu sans être ressenti ?

2. Veuillez générer un nouvel exemple de la façon dont une différence juste perceptible peut changer en fonction de l'intensité du stimulus.

Question d'application personnelle :

1. Pensez à un moment où vous n'avez pas remarqué quelque chose autour de vous parce que votre attention était focalisée ailleurs. Si quelqu'un l'a signalé, avez-vous été surpris de ne pas l'avoir remarqué tout de suite ?

différence juste notable

Réponses aux exercices

Questions de révision :

Question de pensée critique :

1. Ce serait un bon moment pour que les élèves réfléchissent aux allégations de perception extrasensorielle. Un autre sujet intéressant serait le phénomène du membre fantôme vécu par les amputés.

2. Il existe de nombreux exemples potentiels. Un exemple concerne la détection de différences de poids. Si deux personnes tiennent des enveloppes standard et que l'une en contient un quart tandis que l'autre est vide, la différence de poids entre les deux est facile à détecter. Cependant, si ces enveloppes sont placées à l'intérieur de deux manuels de poids égal, la capacité de distinguer ce qui est le plus lourd est beaucoup plus difficile.

limite absolue: quantité minimale d'énergie de stimulus qui doit être présente pour que le stimulus soit détecté 50% du temps

traitement ascendant : système dans lequel les perceptions sont construites à partir d'entrées sensorielles

Cécité inattentionnelle: incapacité à remarquer quelque chose qui est complètement visible en raison d'un manque d'attention

différence juste notable: différence de stimuli nécessaire pour détecter une différence entre les stimuli

la perception: façon dont les informations sensorielles sont interprétées et expérimentées consciemment

sensation: que se passe-t-il lorsqu'une information sensorielle est détectée par un récepteur sensoriel

Adaptation sensorielle : ne pas percevoir les stimuli qui restent relativement constants sur des périodes de temps prolongées

théorie de détection de signal : changement dans la détection du stimulus en fonction de l'état mental actuel

message subliminal: message présenté en dessous du seuil de conscience

traitement descendant : l'interprétation des sensations est influencée par les connaissances, les expériences et les pensées disponibles

transduction : conversion de l'énergie de stimulation sensorielle en potentiel d'action


Analyse syntaxique

L'API Natural Language fournit un ensemble puissant d'outils pour l'analyse et l'analyse syntaxique du texte grâce à l'analyse syntaxique. Pour effectuer une analyse syntaxique, utilisez la méthode analyzeSyntax.

L'analyse syntaxique comprend les opérations suivantes :

    divise le flux de texte en une série de phrases. divise le flux de texte en une série de jetons, chaque jeton correspondant généralement à un seul mot.
  • L'API Natural Language traite ensuite les jetons et, en utilisant leurs emplacements dans les phrases, ajoute des informations syntaxiques aux jetons.

Une documentation complète sur l'ensemble des jetons syntaxiques se trouve dans le guide Morphology & Dependency Trees.

Demandes d'analyse syntaxique

Les requêtes d'analyse syntaxique sont envoyées à l'API Natural Language via l'utilisation de la méthode analyzeSyntax sous la forme suivante :

Réponses d'analyse syntaxique

L'API Natural Language traite le texte donné pour extraire des phrases et des jetons. Une requête d'analyse syntaxique renvoie une réponse contenant ces phrases et jetons sous la forme suivante :

Extraction de phrases

Lors de l'analyse syntaxique, l'API Natural Language renvoie un tableau de phrases extraites du texte fourni, chaque phrase contenant les champs suivants dans un texte parent :

  • beginOffset indiquant le décalage de caractère (base zéro) dans le texte donné où la phrase commence. Notez que ce décalage est calculé à l'aide du encodingType transmis.
  • contenu contenant le texte intégral de la phrase extraite.

Par exemple, l'élément de phrases suivant est reçu pour une requête d'analyse syntaxique de l'adresse de Gettysburg :

Une demande d'analyse syntaxique à l'API Natural Language inclura également un ensemble de jetons. Vous pouvez utiliser les informations associées à chaque jeton pour effectuer une analyse plus approfondie des phrases renvoyées. Vous trouverez plus d'informations sur ces jetons dans le guide Morphology & Dependency Trees.

Tokenisation

La méthode analyzeSyntax transforme également le texte en une série de jetons, qui correspondent aux différents éléments textuels (limites de mots) du contenu transmis. Le processus par lequel l'API Natural Language développe cet ensemble de jetons est appelé tokenisation.

Une fois ces jetons extraits, l'API Natural Language les traite pour déterminer la partie du discours associée (y compris les informations morphologiques) et le lemme. De plus, les jetons sont évalués et placés dans un arbre de dépendance, qui vous permet de déterminer la signification syntaxique des tokens et d'illustrer la relation des tokens les uns par rapport aux autres, ainsi que les phrases qui les contiennent. Les informations syntaxiques et morphologiques associées à ces jetons sont utiles pour comprendre la structure syntaxique des phrases au sein de l'API Natural Language.

L'ensemble de champs de jeton renvoyé dans une réponse JSON d'analyse syntaxique apparaît ci-dessous :

text contient les données textuelles associées à ce jeton, avec les champs enfants suivants :

  • beginOffset contient le décalage de caractère (basé sur zéro) dans le texte fourni. Notez que bien que les dépendances (décrites ci-dessous) n'existent qu'à l'intérieur des phrases, les décalages de jetons sont positionnés dans le texte dans son ensemble. Notez que ce décalage est calculé à l'aide du encodingType transmis.
  • content contient le contenu textuel réel du texte original.

partOfSpeech fournit des informations grammaticales, y compris des informations morphologiques, sur le jeton, telles que le temps du jeton, la personne, le nombre, le sexe, etc. (Pour des informations plus complètes sur ces champs, consultez le guide Morphology & Dependency Trees.)

le lemme contient le mot "root" sur lequel ce mot est basé, ce qui vous permet de canoniser l'utilisation des mots dans votre texte. Par exemple, les mots "ecrire", "ecrire", "ecrire" et "ecrire" sont tous basés sur le même lemme ("ecrire"). De plus, les formes plurielles et singulières sont basées sur des lemmes : "house" et "houses" se réfèrent tous deux à la même forme. (Voir lemme (morphologie).)

Les champs dependanceEdge identifient la relation entre les mots d'un jeton contenant une phrase via des arêtes dans un arbre dirigé. Ces informations peuvent être utiles pour la traduction, l'extraction d'informations et la synthèse. (Le guide Morphology & Dependency Trees contient des informations plus détaillées sur l'analyse des dépendances.) Chaque champdependentEdge contient les champs enfants suivants :

  • headTokenIndex fournit la valeur d'index (base zéro) de ce jeton "parent "jeton" dans la phrase d'encapsulation du jeton. Un jeton sans parent s'indexe lui-même.
  • label fournit le type de dépendance de ce jeton sur son jeton principal.

La citation suivante du discours inaugural de Franklin D. Roosevelt produira les jetons suivants :

REMARQUE : toutes les balises partOfSpeech contenant des valeurs *_UNKNOWN ont été supprimées pour plus de clarté.


Voir la vidéo: IV Reconstitution Video March 2010 (Mai 2022).