Contenu
Le design sonore
Tenter la définition précise de ce qu’est le design sonore n’est pas chose aisée, tant celui-ci touche à des domaines différents de l’audiovisuel, sans pour autant transparaître de manière évidente, à moins d’être un peu au fait des processus techniques utilisés pour sa mise en œuvre. Cet article, loin de prétendre à un historique exhaustif, s’appuie sur quelques exemples significatifs trouvés dans un champ assez large de l’audiovisuel, allant de la musique savante aux bandes sonores des films. Je mettrai ici sciemment de côté le champ de ce que l’on appelle aujourd’hui l’habillage sonore, attaché à l’image de marque d’un produit, ainsi que les sonals, ces sons signalétiques utilisés dans les espaces public (transports, attentes téléphoniques…).
En remontant aux racines des musiques savantes d’avant-garde basées sur la prise de son, ou de sonorités de synthèse générées électroniquement, on trouvera les techniques pionnières qui permettent aujourd’hui d’infinies manipulations du son. Le design sonore est l’un des avatars de ces premières expérimentations.
Devons nous parler de musique ? De son ? Des deux bien entendu. Ni tout à fait musique, ni tout à fait son, le design sonore est une hybridation de ces deux domaines, longtemps considérés comme distincts, voire étrangers l’un à l’autre. En effet, la grande majorité des auditeurs et des musiciens considèrent le son musical et le bruit comme deux éléments opposés, ne se joignant pas. D’ailleurs, la musique dite concrète (ou électroacoustique), qui utilise la prise de son d’objets sonores manipulés électroniquement, reste encore aujourd’hui très marginale au sein des conservatoires. Ajoutons que traditionnellement, la musique de film est liée aux techniques anciennes de composition de la musique (solfège, harmonie, contrepoint…) ; autant de traditions n’ayant aucune parenté avec celles permettant la fabrication de l’image d’un film (éclairage, cadrage, montage…).
Le design sonore semble être un élément permettant l’agrégation des images, sons, et musiques d’un film. Une définition sera donc tentée ici : le design sonore confère un aspect conceptuel à la bande son d’un film, en symbiose avec l’esthétique de l’œuvre qu’il accompagne.
Racines
Avant les années 1930, lors des projections de cinéma muet, on utilisait dans certaines salles des orgues électriques sophistiqués capables d’imiter certains sons naturels (sifflets, bruits métalliques, le vent…). Il ne s’agissait pas de design sonore, mais plutôt de bruitages imitant le réel. Des instruments bruiteurs, qui inspirèrent le compositeur futuriste italien Luigi Russolo, père de la musique bruitiste, qui perdure jusqu’à aujourd’hui avec la musique noise.
Il est amusant de constater que la première expérimentation sonore radiophonique mêlant les sons musicaux et les bruits a été réalisée 18 ans avant l’arrivée de la musique concrète, sur de la pellicule cinéma, une pellicule sans images. Il s’agit de Week-end, réalisé par l’Allemand Walter Ruttmann en 1930. Le son est enregistré optiquement et en parallèle de l’image photographique. Le support pellicule permet en effet d’effectuer un montage sonore, comme on le ferait avec une bande magnétique. Avant d’accompagner l’image, c’est donc paradoxalement sans images que les premiers essais à base de sons, sans récit ni musique d’illustration sont apparus. Bien qu’il ne s’agisse pas ici à proprement parler de design sonore, l’idée de manipuler le son en un concept artistique unifié esthétiquement semble germer ici.
EXTRAIT Week-end de Walter Ruttmann, 1930★
Des premiers films sonores de 1930 jusqu’à la fin de la Seconde Guerre mondiale, le son au cinéma ne fait pas l’objet d’un design particulier. Techniquement, les enregistrements de voix et d’ambiances nécessaires à la fiction paraissent encore lointains et très bruités, et l’on cherche à les reproduire le plus clairement possible, sans possibilité de leur donner un caractère particulier ; à l’époque, quasiment aucune transformation du son n’est possible. Les sons extra-diégétiques sont peu présents, et la musique d’orchestre qui accompagne l’histoire à l’écran, à la manière de la musique de fosse de l’opéra, sert alors d’illustration musicale, surlignant les actions et les sentiments.
Années 1950, 1960 : inventions
En 1948, c’est l’invention de la musique concrète par l’ingénieur et compositeur Pierre Schaeffer en France avec l’aide d’un musicien tout juste sorti du conservatoire : Pierre Henry, dans les studios de la Radiodiffusion française. La musique concrète est une musique de sons, sans images autres que sonores. Elle prend pour matériau de base ce que Schaeffer a appelé les objets sonores : des sons captés par le microphone, manipulables électroniquement et non plus des notes, jouées par les instruments de l’orchestre. Les premiers essais de mixages de Schaeffer, à l’aide de disques souples, sont faits en direct (comme un DJ). Par la suite, la bande magnétique va permettre une meilleure qualité d’enregistrement, ainsi que de nouvelles transformations du son possible : montage, variations de vitesse, boucles, filtrage, mixage, écho, son à l’envers, multiplication d’un même son…
EXTRAIT Symphonie pour un homme seul 1949-50★
La musique électronique, apparaît presque au même moment en Allemagne, sous l’impulsion des compositeurs Herbert Eimert et Karlheinz Stockhausen en 1951-52. A contrario de la musique concrète, les premiers oscillateurs électroniques constituent la matière première de cette musique. Structurellement, la musique électronique est encore très marquée par le dodécaphonisme d’Arnold Schönberg, qui prône l’égalité complète des douze notes de la gamme chromatique. La musique électronique est alors principalement une musique de laboratoire, mais les rudimentaires oscillateurs des années 1950 sont les ancêtres des synthétiseurs d’aujourd’hui, et constituent la seule véritable grande innovation en lutherie instrumentale depuis des centaines d’années.
Aux États-Unis, dès 1957, les premières expériences de programmation digitale du son par ordinateur sont menées dans le New Jersey, aux Bell Laboratories sous l’impulsion du chercheur et ingénieur Max Matthews. Le son n’est plus cette fois généré de manière électrique par des composants dédiés, comme au sein des synthétiseurs analogiques, mais grâce à une programmation du son par un code binaire informatique, relié à un convertisseur numérique vers l’analogique. Le travail de recherche est à l’époque très long et coûteux, et s’effectue au sein d’établissements publics, très peu accessibles. Ces recherches représentent cependant la base de toutes les technologies numériques de génération du son utilisées aujourd’hui dans les ordinateurs et les smartphones.
Au cinéma
Les années 1950 voient les premières utilisations de sons concrets et électroniques dans la bande son. Les manipulations de sons concrets servent à donner un sentiment d’étrangeté à une voix, à un son : la voix réverbérée des rêves, les sons à l’envers dans les film d’épouvante. Des sons de synthèse électroniques font aussi leur apparition au sein de l’orchestre classique, lui donnant un côté futuriste : le thérémin accompagne les images de soucoupes volantes et d’extraterrestres. Le public associe désormais les sons électroniques à la technologie, au futur, et à l’inconnu plus généralement.
C’est principalement aux États-Unis que va s’établir les bases d’un design sonore du fantastique et de l’imaginaire lié à la technologie pour les décennies à venir. Le film Planète interdite en 1956 est à lui seul un symbole même du genre, puisqu’il s’agit du tout premier film de l’histoire du cinéma à n’incorporer aucun instrument dans sa bande son. Totalement réalisées à base de d’oscillateurs électroniques à lampe, filtres et magnétophones, les « electronic tonalities » du film sont composées par le couple d’ingénieurs et musiciens Bebe et Louis Barron en 1955. Ils travaillent à l’époque comme ingénieurs et expérimentateurs pour des compositeurs de musique contemporaines tel que John Cage, qui leur commandera des prises de son qu’il utilisera dans certaines de ses pièces comme William Mix en 1953.
Les Barron sont à mon sens les premiers designers sonores assumés en tant que tels par une production cinématographique, même si le terme n’existe pas encore. À ce titre, il est instructif de savoir qu’afin d’éviter une levée de bouclier du syndicat des musiciens de Hollywood, la MGM décida au générique du film, de créditer le travail du couple comme « tonalités électroniques » plutôt que comme musique. Bebe et Louis Barron, qui se voyaient déjà gagner le prestigieux statut de compositeurs de musiques de film, feront savoir leur mécontentement, et par la suite s’éloigneront de Hollywood sans jamais réitérer l’expérience.
Tenant à la fois de la musique expérimentale et du bruitage électronique, ils inventèrent, sans probablement tout à fait s’en rendre compte, les bases d’un design sonore, où les frontières entre musique et sons deviennent floues. L’idée que des sons électroniques inouïes puissent remplacer l’orchestre classique était déjà en soi une rupture brutale avec la tradition de l’accompagnement musical jusque là assuré par des musiciens traditionnels. Mais au-delà, une autre innovation de taille se profilait, ce fut l’idée d’une immersion totale du spectateur dans une globalité sonore étrange et nouvelle, qui influencerai de manière presque inconsciente la vision de cette planète étrangère hantée par un monstre invisible. Si le projet Planète interdite ne fut pour les studios hollywoodiens qu’une production de plus, le film prit par la suite le statut de grand film de science fiction, tant sa bande son insuffla un nouvel imaginaire à un genre cinématographique considéré jusqu’alors avec condescendance par beaucoup. Nous avons donc déjà la réponse à la question : parlerait-on encore de Planète interdite si sa bande son n’avait pas été celle des Barron ?
Années 1970, 1980 : mixages
Les techniques analogiques d’enregistrement sont grandement améliorées, et le nombre de piste disponible au mixage se multiplie (de 4 à 24). Les sons concrets se mêlent aux sons électroniques grâce à des studios de mixage mieux équipés en terme d’effets. Une hybridation plus grande des sources sonores devient possible, et l’on ne sait plus très bien s’il s’agit d’électronique ou de sons naturels. Les cinéastes prennent conscience du potentiel presque infini des transformations à leur disposition. La musique de film et le son ne représentent plus nécessairement deux sources séparées mais peuvent se mêler plus intimement, comme enrobés par un design sonore imposant une esthétique musicale aux sons, mais aussi la possibilité de « bruiter » la musique.
En ce sens, le film de science-fiction américain THX 1138 de George Lucas en 1971 représente l’un des premiers longs métrages où le design sonore fit l’objet d’une grande attention, et où le son tient un rôle prépondérant (sans doute bien autant que les images elles-mêmes). Lucas travaille alors avec l’ingénieur du son Walter Murch, mais au générique, il n’est pas encore fait mention d’un designer sonore. La musique du film, bien qu’enregistrée avec un orchestre classique, a fait l’objet d’un traitement particulier, il s’agit du Stabat mater de Pergolèse, mais orchestré à l’envers par Murch comme si l’on avait joué le morceau à l’envers sur un magnétophone. Cet exemple de manipulation est typiquement le genre de processus où technique de studio et musique s’hybrident afin de créer un nouvel objet sonore inouïe.
THX 1138 (George Lucas) est l’archétype même d’un film au contenu sonore dont le design tient lieu de véritable décors, et celui-ci compense par son foisonnement le vide blanc et aseptisé emplissant l’image : filtrage des voix de communication robotique au travers de radios ondes courtes, sophistication des sons mécaniques, chaque bip bip, chaque porte d’ascenseur, chaque infime vibration électrique a fait l’objet d’un traitement particulier. George Lucas et Walter Murch ont ici travaillé ensemble sur toute la bande son, écrivant à quatre mains une nouvelle esthétique sonore du film de science-fiction.
En 1972, le réalisateur Andreï Tarkovski réalise son seul film de science-fiction, Solaris, une œuvre très ambitieuse. Tarkovski demande à l’un des seuls compositeurs de musique électronique disponible à l’époque, Edouard Artemiev, de lui composer une musique « organique ». Loin des conventions de la musique de film, elle devra représenter la psyché des personnages plutôt que d’illustrer des sentiments ou des actions. La musique intérieure des personnages en quelque sorte. Les apparences sont trompeuses sur la planète Solaris, et certains personnages familiers semblent aussi totalement étrangers à eux-mêmes. Les sons inharmoniques de l’extraordinaire synthétiseur optique ANS, comme entendus au travers du liquide amniotique se déguisent alors parfois en musique, comme pour mieux nous tromper. Il est intéressant de constater que les autres compositions d’Artemiev ne ressemble en rien à celle faite avec Tarkovski, celui-ci lui donnant, minute après minute des indications très précises sur le type de sonorités à employer. Pour Solaris, Artemiev et Tarkovski fabriquent main dans la main, une bande son hybride, où musique et sons deviennent des éléments indiscernables l’un de l’autre.
David Lynch est sans nul doute l’un des réalisateurs les plus attentifs au son de ses films. Il est la plupart du temps le designer sonore de ses œuvres travaillant en collaboration avec un technicien. Dans Eraserhead, en 1977, il crée une ambiance lourde et angoissante grâce à un design sonore particulièrement chargé : trames prolongées de souffleries dans les basses, éclats de sons très courts et indéfinis, bruits blancs, paroles et musiques à l’envers, autant de techniques très copiées aujourd’hui, dès qu’il s’agit de mettre en scène la peur, l’horreur, la perversité. Lynch, au travers de sa filmographie, continuera sur ce modèle d’un design sonore chargé et expérimental.
Années 1990 et 2000 : standardisation
A l’arrivée de l’informatique dans les studios de mixage, le design sonore des films et séries peut désormais être produit de manière plus efficace. On peut rappeler à volonté un effet et ses réglages précis, et tous les mixeurs du monde se mettent à travailler avec les mêmes outils informatiques (Pro-Tools remplaçant les coûteux multipistes analogiques à bande magnétique, et les plug-ins d’effets remplaçant les machines obsolètes). On passe alors d’un design sonore artisanal à un design sonore industrielle, avec des outils dont c’est la destination première : les plug-ins GRM Tools entre autres permettent de nombreuses transformations expérimentales du son (modification de voix, filtres résonnants, échos complexes…).
L’uniformisation des outils entraine aussi une standardisation des objets, et certains deviennent emblématiques de tel ou tel action à l’image. On assiste alors à l’émergence d’une sorte de solfège du design sonore à la fois secret et implicite. Voici trois types de sons que l’on peut dès lors catégoriser dans nombre de productions audiovisuelles :
La percussion réverbérée : souligne un retournement de situation, une action dramatique.
Les whoosh : soulignent les mouvements rapides, les coups de poing.
Les trames : soulignent un dialogue important et dramatique, un dénouement.
Le film d’horreur Kaïro en 2000, du Japonais Kiyoshi Kurosawa, comporte un design dont l’impact sur l’image est particulièrement marquant, et si le compositeur/designer sonore de Kaïro (Takefumi Haketa) n’innove pas, il est par contre l’interprète virtuose du solfège du design sonore décrit plus haut. Notons cependant dans ce film quelques ajouts à ce nouveau corpus, avec l’utilisation de silences, qui soulignent la force d’une image horrifique qui surgit brusquement à l’écran ; et la spatialisation des voix (les fantômes) qui semblent – grâce à la technique du déphasage – parler de l’intérieur de nos têtes.
Années 2010-aujourd’hui : hybridations
Le modèle standard de design sonore est aujourd’hui connu de tous les spectateurs, et comme pour en son temps la musique de film, celui-ci fonctionne avec une suite de clichés comme ceux de la musique de film (violons ou piano pour les scènes d’amour, percussions pour les scènes de poursuite). Le design sonore joue aujourd’hui le plus souvent le rôle d’indicateur d’émotions à ressentir, et ne représente que rarement un travail véritablement artistique et original. Bien entendu, il y a toujours des créateurs conscients de l’impact du design et soucieux de faire avancer celui-ci vers des terrains moins connus, plus expérimentaux, mais c’est paradoxalement dans le cinéma populaire que l’on peut l’entendre, et encore et toujours avec la science fiction…
A ce titre, le film Gravity d’Alfonso Cuarón en 2013 est un exemple probant. Ici, musiques et sons ne cheminent pas séparément. Respectant le silence de l’espace, l’on entendra quelque chose qu’au travers du casque des personnages, et le compositeur/designer sonore (Steven Price) va systématiquement opérer un filtrage extrême des chocs sonores ressentis par les cosmonautes, dus aux collisions des débris en orbite. Ce parti pris silencieux (déjà présent dans 2001 l’Odyssée de l’espace, 1969) s’oppose à l’esthétique très bruyante de Star Wars. Il souligne à la fois l’oppression et l’agoraphobie ressentie dans l’espace.
L’orchestre virtuel représente ici le seul reliquat d’une bande son classique, mais son traitement d’égal à égal avec la synthèse et le design sonore dont il fait l’objet (phasing, filtrage) fait tout de même ressortir la bande son de Gravity comme quelque chose d’inhabituel : une hybridation intéressante entre instruments orchestraux, synthétiseurs et effets, pour une immersion encore plus grande du spectateur dans un maelström sonore hypnotisant.
Les outils
Plusieurs logiciels qui permettent la composition de musiques de film intègrent maintenant des outils de design sonore préprogrammés (suite de plug-ins Native Instruments – Kinetic Metal, Rise & Hit, Evolve Mutations, Damage…). Ces nouveaux logiciels tendent aujourd’hui à adjoindre aux instruments de l’orchestre virtuel classique, des possibilités de transformations qui donnent au compositeur l’opportunité d’un design sonore préétabli en fonction du film : Kinetic Metal regroupe par exemple des sons métalliques pouvant servir pour des grincements entendus dans les films d’horreur, ou à l’inverse, de petits sons métalliques sortis d’une boite à musique d’enfant. Ces presets permettent de répondre à la demande des réalisateurs de produits audiovisuels conformes à des impératifs de production industrielle de l’image, où rapidité et efficacité sont de mise.
Native instruments : Kinetic Metal
Native instruments : Rise & Hit
Il n’y a aujourd’hui plus nécessairement un compositeur et un designer sonore pour un film ; le compositeur prenant souvent en charge le design pour des questions budgétaires (sauf aux États-Unis, et de manière générale dans les grosses productions). Cette tendance contribue à une hybridation assez profonde des bandes sons de films. Cependant, au contraire du travail sonore des couples d’artistes créateurs comme Tarkovski et Artemiev, ou Lucas et Murch, c’est le modèle assagi et standardisé d’un design sonore sans personnalité qui semble prédominer, autant dans la production cinématographique que dans la production de séries télévisées.
Peut- être après tout sera-t-il nécessaire de repenser le solfège du design sonore, voire de le dynamiter pour mieux le réinventer, comme le fit pour la musique Arnold Schönberg en son temps avec l’invention de la musique dodécaphonique, ou Pierre Schaeffer avec la musique concrète…
Lire les autres articles de Jean-Baptiste Favory
FAVORY Jean-Baptiste, « Le design sonore : sous-musique ou son supérieur ? – Jean-Baptiste FAVORY », Articles [En ligne], Web-revue des industries culturelles et numériques, 2017, mis en ligne le 1er juillet 2017. URL : https://industrie-culturelle.fr/industrie-culturelle/design-sonore-musique-son-superieur-jean-baptiste-favory/
Jean-Baptiste Favory est musicien et compositeur de musique électroacoutique. Il a également composé pour des documentaires et des pièces de théâtre. Derniers disques parus : Unisono (Entr’acte, 2010) ; Big Endings (Entr’acte 2009) ; Des sphères (Monotype, 2008). site perso : http://eljibi.free.fr/