<html><div style='background-color:'><DIV class=RTE>
<P><BR><BR></P></DIV>
<DIV></DIV>
<BLOCKQUOTE style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: #a0c6e5 2px solid; MARGIN-RIGHT: 0px"><FONT style="FONT-SIZE: 11px; FONT-FAMILY: tahoma,sans-serif">
<HR color=#a0c6e5 SIZE=1>

<DIV></DIV>From:  <I>"Trottier Danick" <danick.trottier@umontreal.ca></I><BR>Reply-To:  <I>cercledemusicologie@groupesyahoo.ca</I><BR>To:  <I><cercledemusicologie@groupesyahoo.ca></I><BR>Subject:  <I>[cercledemusicologie] Congrès international DAFX</I><BR>Date:  <I>Tue, 26 Sep 2006 08:43:31 -0400</I><BR>><BR>>Les illusionnistes de la musique<BR>><BR>><BR>>Des chercheurs mettent au point un appareil permettant une écoute active des CD et des fichiers MP3<BR>><BR>><BR>><BR>>Pauline Gravel<BR>>Édition du vendredi 22 septembre 2006 (Le Devoir)<BR>><BR>>Mots clés : Québec (province), Canada (Pays), Musique, Culture, congrès internationald afx, mp3, appareil<BR>><BR>>Ils reproduisent des sons, en créent, en transforment, nous introduisent dans une salle de concert virtuelle. De véritables 
prestidigitateurs et illusionnistes de la musique sont venus révéler et partager leurs découvertes scientifiques à l'université McGill cette semaine dans le cadre du congrès international DAFX (Digital Audio Effects). Issus des quatre coins de la planète, ils sont mathématiciens, physiciens, ingénieurs, psychoacousticiens, tous musiciens dans l'âme, sinon en pratique.<BR>><BR>>Sylvain Marchand, professeur au Laboratoire bordelais de recherche en informatique (LABRI), à Bordeaux, en France, veut permettre une écoute active des CD et des fichiers MP3 qui nous sont offerts sur le marché. «La façon habituelle d'écouter ces fichiers compressés, ou du moins ce que veulent les gens qui les produisent, les diffusent et les vendent, est une écoute passive. On doit s'asseoir dans son canapé et écouter passivement. Les seules choses qui nous sont permises, c'est changer le volume et passer à 
la piste suivante. C'est à peu près tout ! Modifier l'oeuvre nous est interdit», a affirmé le chercheur.<BR>><BR>>Pendant l'écoute, on pourrait par exemple ne pas vouloir entendre le chanteur pour chanter à sa place, comme dans le karaoké. On pourrait vouloir supprimer un instrument ou en faire ressortir un autre pour mieux l'entendre, voire le déplacer dans l'espace. On pourrait souhaiter ralentir ou accélérer le rythme d'une chanson. On pourrait même avoir envie de modifier la voix du chanteur, voire transformer un instrument.<BR>><BR>>Mais pour parvenir à réaliser ces tours de passe-passe, il faut d'abord arriver à séparer et isoler du mélange, soit du fichier mixé, les diverses entités musicales, c'est-à-dire tous les éléments sonores entendus comme étant distincts des autres, afin de pouvoir ultérieurement les manipuler et les transformer. «Du coup, nous ne sommes plus 
de simples auditeurs passifs. Nous devenons chef d'orchestre ou un disque-jockey qui refait des versions en direct», a expliqué Sylvain Marchand.<BR>><BR>><BR>><BR>>Pour rendre possibles de telles manipulations, les chercheurs font toutefois face à une grande difficulté technique car les fichiers musicaux de départ ont avant tout été conçus pour être simplement écoutés et non modifiés, et ce, «probablement pour des raisons commerciales». «Si on permettait toutes les manipulations, on pourrait éliminer toutes les entités musicales d'une pièce orchestrale, à l'exception du piano par exemple, qu'on pourrait ensuite copier pour ses propres compositions. On violerait ainsi les droits d'auteur», a souligné le scientifique.<BR>><BR>><BR>><BR>><BR>><BR>>Le matériau de base sur lequel travaillent les chercheurs est un enregistrement stéréo qui se présente sous la 
forme d'une multitude d'ondes sonores qui se propagent dans l'air et qu'ils décrivent mathématiquement sous la forme d'un spectre sonore, celui-ci représentant la longueur d'onde, la fréquence et l'énergie de toutes les ondes composant le son musical.<BR>><BR>><BR>><BR>>Les scientifiques cherchent ensuite à déterminer les fréquences sonores perçues par l'oreille droite et l'oreille gauche et mesurent l'intensité avec laquelle elles parviennent à chaque oreille. Une fréquence sonore particulière peut atteindre l'oreille droite avec plus d'énergie - et, de ce fait, sonner plus fort - que celle qui parvient à l'oreille gauche. Cette même onde peut rejoindre l'oreille droite un peu avant l'oreille gauche. Or, avec les différences de temps d'arrivée et de niveaux d'intensité, les chercheurs parviennent ainsi à retrouver d'où provient chaque fréquence du spectre, chaque source 
sonore. Ils isolent ensuite celles qui possèdent le plus d'énergie. Une fois isolées, ces entités sonores peuvent être écoutées séparément et transformées individuellement. On pourra ainsi les déplacer dans l'espace et changer leur intensité (fortissimo ou pianissimo), la hauteur du son (les notes de la gamme), la durée des sons (accélération, ralentissement) et le timbre, qui est la couleur caractéristique du son d'un instrument.<BR>>Une fois qu'on aura effectué nos modifications, on retransformera le spectre sonore en onde sonore qu'on enverra dans deux haut-parleurs ou oreillettes d'un casque d'écoute. «À terme, l'auditeur aura simplement l'impression que le pianiste a joué ailleurs et d'une autre façon alors qu'il n'a joué qu'une seule et même fois. Et cette variation dans l'interprétation du pianiste aura été décidée et produite par l'auditeur», a souligné Sylvain 
Marchand.<BR>><BR>>«Mais les applications que nous voulons développer et qui nous permettront de modifier la musique risquent d'aller contre la loi parce que nos techniques permettront de contourner les protections mises au point par l'industrie», a finalement fait remarquer en rigolant le chercheur.<BR>><BR>>Le grand gourou de la conférence, le chercheur Julius O. Smith III, du Center for Computer Research in Music and Acoustics, à l'université Stanford, en Californie, lui-même guitariste, est à l'origine de nombreuses techniques de représentation, d'analyse et de modélisation des sons musicaux avec lesquelles les chercheurs du domaine travaillent.<BR>><BR>>Il a notamment développé différents modèles de synthèse des sons musicaux. Il s'agit d'une part de modèles mathématiques qui simulent les différentes caractéristiques du son émis par un instrument, qu'on appelle 
modèles spectraux parce qu'ils décrivent et permettent d'intervenir sur les divers éléments du spectre sonore. D'autre part, il tente de modéliser les caractéristiques physiques de l'instrument de musique qu'il désire simuler ainsi que les phénomènes mécaniques et acoustiques qui interviennent dans la production du son. On parle alors de modèles physiques.<BR>><BR>>Julius Smith précise que les modèles physiques sont mieux adaptés aux interprètes que les modèles spectraux qui s'intéressent davantage à la perception qu'a l'auditeur d'une musique. «Si vous jouez d'un instrument, vous ne vous préoccupez pas tant des détails associés à comment le son est perçu mais plutôt des détails relatifs au jeu de l'instrument que les modèles physiques permettent de contrôler», a-t-il indiqué.<BR>>«Nous disposons de la plupart des connaissances scientifiques nécessaires pour modéliser les 
instruments à cordes, comme la guitare (cordes pincées) ou le piano (cordes frappées). Les instruments à vent, comme la flûte et la voix humaine, sont quant à eux nettement plus difficiles à modéliser puisqu'ils font intervenir l'aérodynamique, qui est extrêmement complexe. Dans une flûte ou des cuivres, les détails de l'écoulement de l'air sont très difficiles à décrire mathématiquement. Aucune équation simple ne permettra de simuler la situation de façon exacte», a-t-il expliqué.<BR>>Udo Zölzer, de l'université Helmut-Schmidt, à Hambourg, en Allemagne, a quant à lui modélisé les circuits électroniques de différents amplificateurs de guitare électrique utilisés par diverses générations de guitaristes. Par la modélisation mathématique, il est parvenu à reproduire différents effets de distorsion produits par les amplificateurs utilisés autant par Jimi Hendrix que par Brian May, du 
groupe Queen notamment. Mais contrairement à ces musiciens qui devaient trimballer leur grosse boîte d'amplification, le chercheur allemand peut utiliser la distorsion qu'il désire en branchant à sa guitare un simple ordinateur portable, voire un téléphone cellulaire dans lequel il a introduit un logiciel décrivant le modèle mathématique qu'il a élaboré.<BR>><BR>>Pour sa part, Gianpaolo Evangelista du Linköping Institute of Technology à Norrköping en Suède a élaboré un algorithme mathématique permettant de reproduire en temps réel le phénomène d'inharmonicité que l'on entend lors de l'émission des sons de certains instruments de musique. «Les notes les plus graves du piano sont inharmoniques [c'est-à-dire qu'elles sonnent peu harmonieuses, voire dissonantes à l'oreille] en raison de la plus grande épaisseur des cordes de métal sur lesquelles frappent les marteaux, a expliqué le 
chercheur. Pour reproduire avec fidélité le son de toutes les notes d'un piano, il faut donc inclure toujours un peu plus d'inharmonicité à mesure que l'on descend vers les graves. En l'absence de cet ajout, le son d'un piano synthétique ne nous apparaîtra pas naturel.»<BR>><BR>>Le même phénomène d'inharmonicité s'observe aussi avec la guitare, les percussions et les cloches, poursuit Gianpaolo Evangelista. Il faut joindre un soupçon d'inharmonicité aux sons plus graves de ces instruments pour que le son nous semble fidèle à la réalité.<BR>><BR>>Or avec l'algorithme construit par Gianpaolo Evangelista, il devient possible de rendre les sons de tous instruments de musique inharmoniques, «ce qui pourrait plaire à certains musiciens contemporains qui voudront peut-être les utiliser dans leurs compositions», a fait remarqué le physicien.<BR>>Étienne Corteel et Olivier 
Warusfel, de l'Institut de recherche et de coordination acoustique musique (IRCAM), à Paris, s'appliquent à reproduire des environnements sonores tridimensionnels encore plus sophistiqués que ceux produits par les systèmes stéréophoniques, 5.1 ou cinéma maison, tous basés sur des illusions sonores.<BR>><BR>>Véritables prestidigitateurs, ils arrivent à donner l'impression à un auditeur installé dans une simple pièce de sa maison qu'il se trouve à l'intérieur d'un grande salle de concert où il pourra changer de sièges sans que son écoute ne soit modifiée.<BR>>Quand l'auditeur est situé exactement entre les deux ou les cinq haut-parleurs de son système haute-fidélité, on réussit à lui donner l'impression que la voix ou la guitare, par exemple, n'est pas située sur l'un ou l'autre des haut-parleurs mais placée entre les deux en envoyant des signaux sonores plus ou moins forts dans 
les différents haut-parleurs, a expliqué Étienne Corteel. «Le problème est que cette illusion est extrêmement instable. Dès qu'on ne sera pas exactement entre les deux haut-parleurs, la source sonore nous apparaîtra collée à une des deux enceintes, qui sera en général celle qui est la plus proche de nous. Et comme on n'est jamais au centre des haut-parleurs, on entendra distinctement les deux haut-parleurs, ce qui est loin d'être la salle de concert idéale puisqu'il s'agit en général de notre salon, qui a une acoustique de petite pièce. L'illusion est donc boiteuse», a-t-il précisé.<BR>><BR>>Étienne Corteel cherche à mettre au point une technique qui permettra de s'affranchir de toutes ces limitations et de donner l'impression à l'auditeur qu'il est au centre d'une scène sonore artificielle, et ce, quel que soit l'endroit où il est situé à l'intérieur de la pièce où il se trouve. 
Grâce à la technique de Wave Field Synthesis, ou technique des fronts d'ondes, l'auditeur entendra non pas les haut-parleurs mais les sources sonores qui auront leur identité propre. Il aura aussi l'impression de se trouver dans une véritable salle de concert. La technique de Wave Field Synthesis permet en effet de modifier l'acoustique de la pièce. «Avec cette technique, on arrive à restituer la position des sources sonores pour n'importe quelle position de l'auditeur dans la pièce. Celui-ci pourra se déplacer et aura toujours une vision cohérente de l'ensemble des sources sonores», a souligné le chercheur.<BR>><BR>>Pour ce faire, on multiplie le nombre de haut-parleurs que l'on sépare de 15 à 20 centimètres. Ceux-ci sont installés à la hauteur de la tête de l'auditeur car l'être humain localise et distingue beaucoup mieux les sources sonores qui se situent dans le plan horizontal 
que celles qui se trouvent au-dessus de lui ou à ses pieds, et ce, en raison de la position de nos oreilles qui se situent dans un même plan horizontal, a expliqué Étienne Corteel tout en précisant que le système est parfaitement adaptable à toutes les tailles de pièces d'écoute. «Bien sûr, ça peut assez rapidement donner un nombre important de haut-parleurs, mais nous n'avons pas trouvé mieux jusqu'à maintenant pour donner à entendre ces types d'environnements acoustiques naturels, qu'on n'arrive pas à reproduire avec un nombre réduit de haut-parleurs», a reconnu le chercheur.<BR>><BR>>À entendre tous ces chercheurs invités par le département des technologies de la musique à l'université McGill, on comprend que la musique est un art très scientifique !<BR>><BR>><BR>><BR>><BR>><BR>><BR>>www.cercledemusicologie.com<BR>>---Pour vous retirer de ce groupe, 
envoyez un courrier électronique à :<BR>>cercledemusicologie-unsubscribe@groupesyahoo.ca<BR>><BR>><BR>>Liens Yahoo! Groupes<BR>><*> Pour consulter votre groupe en ligne, accédez à :<BR>>     http://cf.groups.yahoo.com/group/cercledemusicologie/<BR>><BR>><*> Pour vous désincrire de ce groupe, envoyez un mail à :<BR>>     cercledemusicologie-unsubscribe@groupesyahoo.ca<BR>><BR>><*> L'utilisation de Yahoo! Groupes est soumise à l'acceptation des :<BR>>     http://cf.docs.yahoo.com/info/utos.html<BR>><BR>><BR>><BR></FONT></BLOCKQUOTE></div></html>