Axe Caen

L’axe CAEN (Cognition, Action, Environnement Numérique) réunit les compétences pluridisciplinaires de spécialistes de la cognition humaine,  des sciences de l’informatique et de la communication et des sciences du mouvement pour développer et promouvoir la recherche sur le développement  de nouveaux usages numériques. Ces nouveaux usages sont dérivés denvironnements existants (ordinateur, tablette, tablette graphique, téléphone portable, tableau électronique, gant tactile, etc….). Ils concernent tout individu capable d’agir et d’interagir avec un environnement artificiel ou virtuel, quel que soit son âge (bébé, enfant, adulte) et son état (avec ou sans trouble cognitif, sensoriel, moteur).

Ces recherches interrogent en premier lieu le cadre général des interactions entre systèmes humains, systèmes artificiels et monde physique. Un intérêt particulier concerne le problème du couplage perception-action dans le cas de dispositifs numériques. Dans quelle mesure les environnements numériques nous incitent-ils à un recalibrage des invariants perceptifs pour guider notre action ? Une seconde question touche le problème des apprentissages que ceux-ci concernent un système humain ou un système artificiel. Ainsi, nous étudions en détail les apprentissages cognitifs, moteurs et langagiers réalisés dans des environnements numériques. Dans les recherches en cours, l’interface numérique est utilisée pour aider les apprentissages cognitifs (lecture, écriture), mais aussi les apprentissages moteurs (le support numérique est alors utilisé comme une aide  à l’apprentissage de geste chez la personne en situation de restriction motrice), ou encore les apprentissages langagiers (utilisation d’interface numérique comme support à l’apprentissage de la parole chez le sujet porteur d’un trouble spécifique du langage tel que la dysphasie).

L’apprentissage doit également être réalisé par les dispositifs numériques :  Il s’agit alors d’implémenter les heuristiques humaines dans les systèmes numériques pour développer des systèmes automatisés d'identification de l'activité humaine. Les recherches développées dans l’axe CAEN ont aussi une dimension appliquée. Plusieurs opérations de recherche en cours ont pour point commun d’élaborer des environnements numériques de réalité augmentée afin de faciliter l’apprentissage, la prise d’information ou encore la réhabilitation du geste ou de la parole chez la personne valide (adulte ou enfant) ou en situation de handicap.

Projets en cours

  • Projet ART-ADN (Accès par retour tactile aux documents numériques, Greyc, UMR CNRS 6072 & PALM EA 4649, Financement ANR 2013-2016) - https://art-adn.greyc.fr/

Permettre aux personnes en situation de restriction visuelle de naviguer sur le web en transformer l'information vibrante lumineuse d'un écran numérique en une information vibro-tactile. 

 

  • S.U.N. (Seon Universel Numérique) : Perception non visuelle du mouvement, danse et arts martiaux traditionnels coréens (CesamS EA 4260, Réseau Arts Numériques (RAN) & compagnie Corée'Graphie

Création d'une pièce chorégraphique autour de la confrontation du répertoire contemporain et des traditions martiales coréennes, en ayant recours à des processus scéniques faisant appel à la réalité augmentée :

1 - par la visualisation d'«avatars» du (ou des) danseur(s) projetés sur la scène et ou sur le corps des danseurs,

2 - par le traitement et la conversion des signaux de commande des muscles en signaux sonores « mélodie musculaire »,

3 - par la mise en espace sonore des signaux audio correspondant au souffle des danseurs.

 
  • Jeux de main: : comprendre l’interaction, en temps réel, d’un sujet immergé dans un environnement virtuel 3D et manipulant des objets virtuels (Cesams, EA 4260)

Objectif : illustrer l’interaction, en temps réel, d’un sujet immergé dans un environnement virtuel 3D et manipulant des objets virtuels

 
  • Reconnaissance automatique des gestes de manipulation (Greyc, UMR CNRS 6072 & PALM EA 4649, Financement CPER 2007-2013)

Utilisation de l’approche des graphes pour modéliser l’exploration manuelle d’un objet par un humain, en décomposer la complexité et permettre reconnaissance automatisée des mouvements exploratoires.


  • SEMICOMP: (SEMantique COMPonentielle, GREYC, UMR CNRS 6072 - PALM  EA 4649 & et l'entreprise Noopsys, Financement FEDER et région Basse-Normandie): 

Mise en place d’un ensemble d’outils logiciels, dont notamment un module d’analyse sémantique automatique, et des « interfaces interactives » visant à rendre possible la visualisation des ressources (et leur modification), la visualisation des résultats d’analyses sémantiques, tant à l’échelle du texte que de la collection de textes.