NeuroCoG Seminar Series: MOHAMED CHETOUANI

Le  20 juin 2018

11h à 13h
Séminaire de Mohamed Chetouani (Institut des Systèmes Intelligents et de Robotique / Professeur Sorbonne Université): "Capturing interpersonal interaction dynamics"

Le mercredi 20 juin 2018, de 11h à 13h, à la MSH-Alpes, NeuroCog poursuit son cycle de séminaires en invitant le Professeur Mohamed Chetouani (Institut des Systèmes Intelligents et de Robotique / Professeur Sorbonne Université), pour une conférence intitulée "Capturing interpersonal interaction dynamics". 

Pour participer, merci de vous inscrire en remplissant le formulaire ci-dessous.

Résumé
Interpersonal human-human interaction builds upon a dynamical exchange and coordination of social signals, feelings and emotions usually performed through and across multiple modalities such as speech, facial expressions, and gestures. These dynamics are the focus of interest of several disciplines such as psychology, sociology or psychiatry. Computational sciences such as human-machine interaction, social signal processing and affective computing are now investigating similar questions and sharing similar challenges. For example, developing social agents (virtual and robots) able to engage humans in rich and natural interpersonal interactions requires capturing such dynamics using cameras and microphones.
In this talk, we will discuss recent works in computational sciences aiming to capture such dynamics. We will also show how these models and techniques can be employed to investigate complex social interaction phenomena in developmental psychology, psychiatry as well as in social robotics.

L'exposé de Mohamed Chetouani sera suivi à 12h de deux courtes présentations :
 

  • Anna Tcherkassof (LIP / MC UGA) : "Les systèmes de reconnaissance peuvent-ils lire sur nos visages comme dans un livre ouvert ?"
Les progrès technologiques sont considérables en matière d’identification des personnes (ex. pour déverrouiller son téléphone mobile…). Permettent-ils également d’identifier les émotions affichées sur les visages ? Les algorithmes de reconnaissance émotionnelle faciale sont essentiellement basés sur les travaux de Paul Ekman et son modèle des émotions de base selon lequel, d’une part, les émotions s’affichent automatiquement sur le visage et, d’autre part, chaque émotion possède une configuration faciale prototypique. Or, aussi bien ce modèle que les protocoles de recherche classiquement utilisés pour l’étayer sont aujourd’hui critiqués. La prise en compte du rôle des contextes interactionnel et culturel, celui de la dimension cinétique du comportement facial, l’hypothèse du codage prédictif, la nature socialement construite des émotions, constituent autant de défis que la psychologie et l’apprentissage profond doivent désormais relever pour appréhender la reconnaissance visuelle des expressions faciales émotionnelles.

  • Véronique Aubergé (LIG / CR CNRS) : "Le robot social : utile, futile ou toxique ?"
Ce qui sépare le robot social d'un objet intelligent connecté n'est pas tant la complexité des compétences artificielles qu'on lui donne que des caractéristiques qui le font percevoir comme un "autre" augmentant notre espace social humain. Nous sommes en cela face à une illusion empathique, nous montrerons que les personnes, en particulier fragiles dans leur densité sociale, projettent rapidement, sur un robot dont les caractéristiques prosodiques sont contrôlées, des attachements qui soulagent leur douleur d'isolement, nous interrogeant éthiquement sur les conséquences de ces manipulations.
Quelle est la raison de ce désir actuel d'un "autre" factice ? Cet artefact est-il seulement futile ou pourrait-il utilement favoriser la reconstruction d'un espace social humain endommagé, jusqu'à son inutilité ? Ou au contraire la méconnaissance des processus profonds de l'interaction est un risque de toxicité dans sa simulation artificielle déclenchant l'illusion d'un autre ?
Nous montrerons des exemples d'expériences de construction par des primitives vocales, gestuelles et proxémiques de "glu" altruiste entre l'humain et la machine robot, s'inscrivant dans le modèle DANSE (Dynamics of the Affective Network for Social Entities), et inscrites dans une méthode écologique (Fractal) de Living Lab mettant l'humain au centre du paradigme technologique de l'interaction homme-robot.

 
Un buffet sera proposé à la fin de ces deux présentations.

Un temps d'échanges entre Mohamed Chetouani et les doctorants et post-doctorants recrutés par NeuroCog, sera organisé de 13h30 à 15h dans la salle de réunion MSH au 2ème étage.

 

Inscription (obligatoire)


écoutez le mot à saisir



 
Publié le 18 juin 2018

Informations pratiques

Lieu(x)


MSH - Alpes
1221 Avenue Centrale, 38400 Gières