Réinventer l’apprentissage grâce au numérique, c’est ce que contribue à faire le projet e-éducation tout au long du CPER Numeric.  Le but du projet a été de développer et d’évaluer de nouveaux outils pour favoriser l’apprentissage et d’optimiser l’usage du numérique dans le milieu de l’éducation. Ce programme implique des chercheurs et enseignants-chercheurs des universités de Poitiers et de La Rochelle ainsi que des partenaires institutionnels des académies de Poitiers, Limoges et Bordeaux. Durant ce CPER le projet porte sur cinq thématiques :

  • Le projet Trema: un projet traitant des problèmes d’attention chez les élèves.
  • Le projet e-Provoc : qui a développé une application pour enrichir le vocabulaire chez l’enfant.
  • Le projet AppObs: qui a imaginé une application permettant l’apprentissage de mouvements grâce à des technique de Point light display (présentation de séquences animées).
  • Le projet IArtemo: qui vise à améliorer la compréhension des émotions humaines par les Intelligences Artificielles et les personnes autistes.
  • Le projet Polaris: qui a développé une plate-forme qui propose un suivi personnalisé de l’apprentissage pour chaque étudiant.

Trema : Un projet qui mérite toute votre attention !

Le projet Trema (Traitement du regard pour la mesure de l’attention), met en oeuvre des techniques d’eye tracking (logiciel capable de détecter le regard et de le suivre) pour mesurer le taux d’attention des enfants, adolescents et étudiants de Nouvelle-Aquitaine afin de développer leur concentration et d’améliorer l’apprentissage en milieu scolaire. Le but est également de mesurer l’impact de l’utilisation du numérique dans les processus d’apprentissage. Le projet Trema se propose de créer une base de données d’enregistrements provenant d’utilisateurs variés afin de déterminer des indices visuels fiables et précis qui témoignent du taux de concentration du sujet. Cette association amènera par la suite à la création d’un logiciel qui, allié au dispositif d’eye tracking, sera capable de déterminer de manière automatique le taux d’attention d’un élève.

Les trois laboratoires à l’initiative de ce projet (Xlim, CeRCA et Techné) ont fait l’acquisition, grâce aux financements du CPER Numéric, de plusieurs dispositifs permettant d’analyser la position du regard de l’utilisateur au sein de son champ visuel. Deux types d’eye-trackers ont ainsi été testés par les étudiants de l’Université de Poitiers. Un eye-tracker fixe pour les écrans informatiques et un second système sous forme de lunettes, capable d’évaluer l’attention dans le cadre d’un cours, sans l’utilisation de moyens informatiques. Le suivi du regard a permis de différencier les phases d’attention soutenues, des phases d’attention relâchées en fonction d’indices visuels précis. L’attention des étudiants a été mesurée en classe standard (cours magistral ou travaux dirigés), en classe de travaux pratiques classique, en classe de travaux pratiques sur ordinateur et lors de visites de lieux d’exposition.

Des données seront acquises courant 2021 sur des élèves d’écoles primaires, de collèges et de lycées du territoire afin de comparer les résultats de différentes catégories (âge, milieu socio-économique, territoire urbain ou rural…).  Alors attention en 2021 : prévenez vos enfants : « Their teachers are watching them ! »

Pour en savoir plus :

Vidéo du Youtubeur Siphano, un passionné de minecraft testant les différents appareils

E-provoc : une application qui enrichit le vocabulaire chez l’enfant

Enfant utilisant l’application E-Provoc

En France 5 pour cent des enfants souffrent de troubles dyslexiques. D’après différentes études, il semblerait que les enfants en difficulté de lecture auraient en fait un vocabulaire amoindri. Un meilleur niveau de vocabulaire faciliterait à la fois la capacité à identifier les mots écrits et à les comprendre. En 2014, des études plus poussées ont montré plus spécifiquement que c’est la profondeur du vocabulaire (le nombre de concepts associés aux mots connus) qui était liée à la réussite en lecture. Le projet e-provoc propose donc une application mobile « ProVoc » qui stimule la profondeur du vocabulaire chez l’enfant, pour améliorer ses performances en compréhension du langage. Le CPER Numéric a permis de développer cette application. Une version bêta de « Provoc » a déjà été testée sur une classe de 40 enfants via des tablettes numériques. L’application entraîne de manière ludique les enfants à associer des mots entre eux pour élargir et approfondir leur vocabulaire. Les résultats étant encourageants, une version améliorée avec des fonctionnalités supplémentaires, plus ergonomique et plus fluide est à venir courant 2021.

Pour en savoir plus : des chiffres sur les troubles dys : https://www.inserm.fr/information-en-sante/dossiers-information/troubles-specifiques-apprentissages

Articles plus détaillés sur l’application « Provoc » : https://cerca.labo.univ-poitiers.fr/provoc-une-application-pour-entrainer-la-profondeur-du-vocabulaire-chez-lenfant/

Cette action s’inscrit en lien avec d’autres projets portés par l’université de Poitiers sur le numérique éducatif (e.g., projet e-FRAN DysApp http://dysapp.prd.fr; projet ANR SELEN http://anr-selen.univ-paris8.fr). Il s’insère également dans les objectifs de l’académie de Poitiers sur ces questions du numérique, en lien avec des partenaires locaux comme Canopé.

AppObs et son application Plamivop : Apprendre en observant des points lumineux.

Vidéo de présentation de Plavimop

Non, il n’est pas question ici d’apprendre à voler en regardant les étoiles (vous n’êtes pas superman), mais d’améliorer vos performances sportives en utilisant Plamivop, une application qui utilise des techniques de point light display (points lumineux qui suivent les déplacements du corps humain).

Le point light display est une technique qui existe depuis les années 80 et qui consiste à obtenir la silhouette d’une personne sous forme de points lumineux. Des marqueurs lumineux sont positionnés sur des points caractéristiques du corps humain, généralement au niveau des articulations ou sur le visage. On filme ensuite la personne en train de faire différents gestes ou mimiques, avec une caméra qui détecte ces marqueurs et on obtient un squelette de points lumineux qui suivent le mouvement du corps humain dans l’espace en trois dimensions. L’application Plamivop reprend le principe mais va plus loin. Ici plus besoin de marqueurs. Il suffit de mettre la vidéo de n’importe quel utilisateur en train de se filmer dans l’application et Plamivop recrée les séquences animées de points correspondant aux gestes de la personne. Si des logiciels de détection automatique de cibles dans une vidéo existaient déjà auparavant, Plavimop a amélioré la finesse des algorithmes de détection et d’analyse du mouvement tout au long du CPER Numéric. En effet, Plavimop ne s’arrête pas au simple repérage des articulations sur une vidéo 2D mais les replace dans leur environnement 3D d’origine, en accédant à leurs coordonnées au cours du temps. Ceci permet à Plavimop d’évaluer les capacités d’anticipation de déplacements futurs qui vont être réalisés à un moment donné. L’application propose également à ses utilisateurs une fonction qui permet de modifier les caractéristiques spatiales et temporelles des gestes. L’utilisateur a ainsi accès à la silhouette de points de son mouvement d’origine qui se transforme progressivement en une silhouette modifiée de ses propres gestes.

Pour arriver à cet objectif, l’équipe d’Appobs a fait l’acquisition grâce au financement du CPER Numéric de deux types de caméras capables de détecter les mouvements humains (à l’aide de capteurs ou de détecteurs infrarouge). Les chercheurs sont actuellement en train de mettre en place une base de données avec de multiples enregistrements de mouvements reproduits sous formes de silhouettes. La base de données recense actuellement plus de 200 mouvements différents qui vont de simples mouvements basiques comme la marche à des gestes sportifs plus techniques comme des prises de judo.

C’est cette base de données qui a permis aux ingénieurs en collaboration avec des professeurs de sport, des psychologues et des biomécaniciens de mieux comprendre la motricité humaine, les processus cognitifs impliqués dans la perception des actions, leur interprétation, la prise de décisions et, plus généralement, leur apprentissage. Des applications au monde animal sont également envisagées.

C’est bien connu, une bonne partie de l’apprentissage se fait par l’observation de nos pairs. Dernièrement l’équipe a contribué à démontrer que l’être humain arrive à mieux comprendre et reproduit plus facilement et rapidement des mouvements en regardant les séquences animées de points lumineux proposés dans la base de données, plutôt qu’en observant « d’autres êtres humains ». Les chercheurs en psychologie expérimentale se sont ainsi rendu compte de l’énorme potentiel de cette application pour optimiser la performance ou la rééducation de troubles moteurs. Plavimop permettra par exemple d’accélérer la récupération de la marche chez les personnes ayant des pathologies motrices liées à un accident. Ces personnes pourront gagner de nombreuses semaines de rééducation en utilisant ce système qui permet de corriger les mouvements défectueux. Les sportifs de haut niveau peuvent d’ores et déjà utiliser Plavimop en observant des mouvements clés liés à leur sport favori pour améliorer et corriger leurs gestes (en observant les corrections faites sur leurs propres mouvements et ceux d’athlètes plus performants). Tous les sports et mouvements liés à une discipline ne sont pas encore présents dans la base de données mais cela ne saurait tarder. Qui sait, à force de regarder des points lumineux, vous deviendrez peut-être un jour Superman !

https://plavimop.prd.fr/fr/

Vidéo du Youtubeur MX18 passionné de football testant l’application plavimop : futur lien de la vidéo qui va être réalisée.

IArtemo : L’Intelligence Artificielle au plus près des émotions humaines

Les mimiques du visage jouent un rôle majeur dans la communication. Dans le visage il y a 43 muscles faciaux capables de produire environ 10000 micro-expressions dont 3000 sont porteuses de sens. Avec autant l’expressions possibles pas étonnant que les émotions humaines soient si complexes à reproduire et à comprendre par les programmes d’Intelligence Artificielle. Le projet IAtemo cherche à mieux connaitre le fonctionnent des émotions humaines grâce à des dispositifs de point light display pour améliorer la reconnaissance des expressions et des émotions humaines par les programmes d’IA et aider les patients autistes à progresser dans leur compréhension des émotions.

Tout comme le projet AppObs, le projet IArtémo repose sur des techniques de point light display appliquées aux muscles du visage. Le point light display est une technique qui consiste à obtenir la silhouette des expressions d’une personne sous forme de points lumineux. Ici les marqueurs lumineux sont positionnés sur des points stratégiques du visage. On filme ensuite la personne en train de faire différentes mimiques, avec une caméra qui détecte ces marqueurs et on obtient un corpus de points lumineux qui bougent dans un espace en trois dimensions. Les silhouettes de points sont ensuite associées de manière manuelle à différentes émotions et expression dans un programme d’Intelligence Artificielle. Pour que le programme puisse reconnaitre les variations qu’il peut y avoir entre l’expression de différents individus, les chercheurs ont indexé les expressions de plusieurs personnes différentes. Ils ont ensuite fait appel à un système de deep learning (apprentissage profond par réseaux de neurones), qui a permis à l’IA d’apprendre en s’entrainant par elle-même à reconnaitre les expressions de n’importe quel individu. Aujourd’hui l’IA est capable de reconnaitre les expressions faciales humaines sur des documents vidéo. Les chercheurs ayant développé l’algorithme ont été retenus pour présenter leur IA à un concours. Si l’article qu’ils ont rédigé est validé, l’IA développée par le laboratoire participera courant 2021 à une compétition d’algorithmes du même type. L’algorithme le plus performant remportera la compétition. Un protocole va également être proposé pour tester l’application sur des enfants autistes : pour leurs apprendre les émotions d’autrui et mieux comprendre leurs propres émotions.

Polaris : une plate-forme qui s’adapte aux étudiants !

Polarisons-nous à présent sur la plate-forme Polaris : depuis 2012 le laboratoire L3I de La Rochelle développe un outil numérique qui permet de proposer aux étudiants des cours adaptés à leur niveau. Grâce au CPER Numéric qui a financé le projet sur 3 ans, c’est ainsi un véritable programme d’apprentissage à la carte qui est proposé aux étudiants. Au menu : des vidéos de cours scénarisées par le professeur et des exercices en ligne. L’étudiant suit le cours proposé par le professeur puis résout un exercice associé à la leçon qu’il vient de voir. L’exercice est ensuite corrigé automatiquement grâce à un programme informatique, ce qui permet à la plate-forme de déterminer quelles sont les lacunes de l’étudiant et de lui proposer une progression adaptée. L’étudiant est guidé, réorienté s’il est bloqué. Un feed-back est également proposé au professeur. Il peut ainsi identifier les étudiant en difficulté et adapter les cours en fonction du niveau global des élèves. Actuellement plusieurs briques de cours ont déjà été conçues.

Liste des actions faites dans le cadre d'E-éducation

Vers les différents thèmes