rfla2016:compterendus

Ceci est une ancienne révision du document !


RFLA'16: Compte-rendu des discussions

Cette page est en cours de rédaction! Ne vous attendez pas à y trouver des informations fiables et définitives!

Cette page propose un compte-rendu très succinct des discussions du second jour des RFLA'2016. Cela permet de se faire une idée des sujets qui ont été abordés, mais ne constitue pas un PV complet. Si vous avez des questions sur ces discussions, merci de contacter rfla2016@lescheminsdetraverse.net.

Dans ces comptes rendus, les abréviations suivantes seront utilisées:

  • BM: Barbara Minder
  • CR: Charles Rouaud
  • MA: Matthieu Amiguet
  • SS: Sébastien Schiesser
  • OB: Olivier Bélanger

Interaction homme-machine

En ouverture, CR fait une brève présentation des techniques de captation de mouvements de la langue qu'il a développées. 3 Brevets. Applications possibles: grand public (commande vocale… mais sans la voix!), médical, musique, … À suivre sur http://www.lipeo.fr

Parmi les types d'interaction possible, nous avons déjà parlé hier de

  • pédaliers divers
  • capteurs divers (pression, accélération, simples switches, …)
  • k-bow

Discussions autour de l'interaction par reconnaissance sonore

  • SS: nécessite un apprentissage. Voir par exemple les travaux de Christophe Haval à Bordeau: http://www.proximacentauri.fr/christophe-havel/
  • OB: fiabilité difficile à obtenir (autant fiabilité du musicien que de l'analyse!). Expérience avec un flûtiste, où un son très aigu et fort servait à déclencher un événement. Mais difficile d'obtenir des choses utilisables de manière plus large.
  • SS: Avec SABRe, on peut faire du suivi de doigtés plutôt que de son!
  • MA: problème de la latence. Par exemple la communauté antescofo (ircam) semble travailler avec des latences considérables. Du coup, ça ne se prête qu'à un certain type de musique…
    • OB: ne jamais essayer d'utiliser une analyse de Fourier en temps réel sur un percussioniste!
  • De manière générale, se poser la question de ce qu'on amène sur scène: faut-il une centrale nucléaire pour faire du 12V?
  • OB: Un déclenchement humain (pédalier, switch, …) peut “ouvrir une porte” qui permet ensuite à la machine de réagir sur la base d'une analyse locale. On peut du coup se contenter d'une analyse plus légère (intensité sonore, spectre, …)
  • MA: C'est ce qui est fait au début de “Traces d'orient” par exemple… http://www.lescheminsdetraverse.net/static/rfla2016/#23

Divers sujets en vrac:

  • Évocation des difficultés à utiliser un pédalier pour un instrument à vent appuyé au sol (clarinette basse, flûte basse upright, …), car il n'est pas possible de baisser les yeux pour voir ce que l'on fait.
    • OB: on pourrait fixer un switch sous le soulier/pied de l'interprète qui peut alors se déplacer librement tout en gardant son “pédalier” à disposition.
    • BM: Oui mais ça nécessite de modifier sa position de jeu, ce qui n'est pas forcément anodin…
  • SS: Importance capitale du retour d'information dans l'interaction homme-machine! (voir projet https://www.zhdk.ch/index.php?id=icst_ahmi)
    • Donc doubler le switch sous le pied d'un vibreur!
  • Plus la puissance à disposition augmente, plus nos besoins augmentent aussi. Il faut parfois savoir se contenter de moyens simples et d'algorithmes peu gourmands. travailler sur une plateforme comme le bela permet parfois de se re-poser les bonnes questions!