Aujourd’hui, notre contributeur Swan nous présente un sujet qu’il connaît bien : comment crée-t-on une chanson, un morceau ? Dans cet article, il nous guide à travers toutes les étapes de production, pour que cette industrie n’ait plus de secret pour nous !
L’industrie de la musique a toujours été assez obscure et a su garder ses secrets, c’est donc sans grande surprise qu’on s’interroge sur ce qu’il se passe entre l’idée d’un titre dans la tête de l’artiste et sa sortie sur Spotify ou Youtube. Notons que, dans cet article, je ne parlerai pas des mécanismes de distribution et de promotion, mais strictement du processus de production, à savoir le moment où la musique est créée du début à la fin.
On entend souvent que l’artiste ne fait plus rien dans la musique grand public, alors il convient de se demander qui s’occupe de produire la musique. Pour ce faire, on va décomposer ce processus en trois parties : la composition, le mixage et le mastering.
La composition
C’est la partie où l’artiste est plus impliqué·e (et souvent dans la musique grand public, la seule). Mais iel n’est pas seul·e. La plupart des morceaux qu’on entend à la radio sont composés par un·e (ou plusieurs) producteur·rice (rien à voir avec les producteurs financiers ici) et/ou l’artiste lui-même.
C’est également la partie la plus libre, car la composition d’un morceau dépend fortement de qui le compose : certain·e·s préfèrent composer avec des instruments physiques (pianos, synthés, guitares, batteries…), là où d’autres préfèrent l’opulence créative d’un ordinateur. Notons au passage que dans le rap, le terme “prod” vient du fait que le compositeur de l’instrumentale est appelé un producteur.
Mais que ce soit avec des instruments ou un ordinateur (qui est de nos jours nécessaire aux étapes suivantes), comment compose-t-on un titre, exactement ?
Lorsqu’un groupe se produit sur scène, chaque membre a son instrument, et l’ensemble de ce que ces instruments jouent est le morceau. Mais lorsqu’on enregistre un titre en studio, on ne met pas un micro devant le groupe pour capter tous les instruments d’un coup (ce serait bien trop simple). Il faut enregistrer chaque instrument (et voix) séparément. L’ingé son se retrouve avec autant d’enregistrements individuels que d’instruments et de voix, et il va tous les jouer en même temps. Chacun des enregistrements s’appelle alors une piste. De nos jours, tout enregistrement se fait sur ordinateur, et les DAW (digital audio workstation), logiciels sur lesquels les ingés son travaillent, offrent tous une infinité virtuelle de pistes sur lesquelles enregistrer tous les instruments qu’un compositeur peut imaginer pour composer son titre. L’idée principale ici est qu’à chaque instrument (ou voix) correspond une piste.
Mais qu’en est-t-il de celleux qui n’ont pas d’instruments ou de matériel pour enregistrer sur leur ordinateur? Pas de panique, il existe une multitude d’instruments virtuels, que tout DAW permet d’utiliser, dont le compositeur peut jouer comme d’un instrument (voyons l’ordinateur comme un synthétiseur ici), et enregistrer sur une piste.
Donc si on doit résumer, composer un titre, c’est créer une mélodie, un rythme, une progression d’accords (je ne plongerai pas dans la théorie musicale qui définit ces termes ici) pour chaque instrument (réel ou virtuel), et enregistrer tout ça sur une piste pour chaque instrument.
Le mixage
Là ça se complique. En effet, tel instrument ne sonne pas nécessairement bien avec un autre dans le morceau, la voix peut être submergée par le reste des pistes, le morceau peut ne pas avoir assez de basses, et tout un tas d’autres problèmes qui font que le morceau n’est pas beau à écouter. C’est là que les ingés son prennent le relai sur l’artiste. Ils vont mixer le morceau.
Après avoir réglé les volumes de chaque piste pour qu’aucune ne soit trop forte ou trop faible (étape qu’on appelle le leveling), chaque piste va être traitée individuellement pour la “nettoyer”, et la rendre la plus efficace possible pour qu’elle se marie au mieux avec le reste, et ait sa place dans le mix final. De nombreux outils rendent cette entreprise ambitieuse possible. Je vais en citer trois qui me paraissent indispensables :
L’EQ
EQ pour equalization (égalisation en français). C’est un outil qui permet de voir le spectre de chaque son et d’agir dessus. Le spectre du son, c’est l’ensemble des fréquences que notre oreille peut capter, et qui définissent la hauteur d’un son (de 20Hz à 20000Hz, 20 étant la fréquence la plus grave que l’on peut entendre et 20000Hz la plus aiguë).
L’EQ va donc permettre de modifier le volume du son d’un instrument à des fréquences précises, et donc de nettoyer des fréquences inutiles et amplifier des fréquences qui sont intéressantes. En d’autres termes, rendre le son de l’instrument le plus propre possible.
Pour entendre l’effet d’un EQ, je vous conseille d’aller dans les paramètres audio de votre téléphone et de trouver l’égalisation. Enlevez les fréquences basses et écoutez la différence lorsque vous écoutez un morceau que vous connaissez bien. Réitérez l’expérience avec les fréquences aiguës.
La compression
C’est la partie la plus technique de cet article je pense, mais cet outil est tellement important dans la production musicale qu’on ne peut pas passer à coté. Un son peut être plus ou moins fort à différents moments du morceau (le/la chanteur·se peut se mettre à chanter plus fort entre deux phrases par exemple). C’est là qu’intervient un compresseur. Son but est de fixer un seuil de volume, et de réduire le volume de tout son qui le dépasserait. Il permet également d’augmenter le volume de tout ce qui est en dessous du seuil. Pour faire très simple, le compresseur va baisser les moments les plus forts du son, et augmenter les moments les plus faibles. Ça ne paye pas de mine, et pourtant c’est primordial pour tout morceau, car ça permet qu’une piste ait un volume uniforme, et donc de la mixer avec le reste plus efficacement.
Pour entendre l’effet d’un compresseur, je vous conseille de vous enregistrer sur votre téléphone, puis d’aller écouter un animateur radio sur Skyrock. Le son sur votre téléphone n’est pas du tout compressé, tandis que la voix de l’animateur est très (trop) compressée.
La réverbération (reverb pour les intimes)
Lorsque le son est émis, il se propage dans le milieu extérieur. Quand vous criez dans votre armoire à vêtements, et quand vous criez dans une église, il y a une différence notable. Dans l’armoire, le son est absorbé immédiatement par les vêtements, tandis que dans l’église, il rebondit pendant longtemps sur les murs, donnant l’impression que le son est plus long. La réverbération c’est le nom général de ce phénomène, et les ingés son travaillent avec des outils logiciels de reverb qui simulent le passage du son de la piste par un espace (une chambre, un grand hall, une église…). L’idée générale est de donner de la distance à un son (plus il est réverbéré, plus il semble être loin), et donner une vraie présence à des voix ou des instruments. Une utilisation particulière de la reverb est l’écho, le phénomène qui donne l’impression qu’un son est répété en s’éloignant. Cet effet a son nom en production, on l’appelle le delay.
Le mastering
Maintenant que le mix est fini, le morceau va sortir du DAW en une seule piste, qu’on appelle la piste Master. C’est sur cette piste que va se dérouler la dernière étape de la production du titre.
Pour l’expliquer rapidement (car sinon ça prendrait 15 articles), il faut d’abord parler de l’échelle de volume utilisée par la musique. Le son maximal qu’un son peut avoir est 0dB (pour décibels). Au delà il sature, donc les ingés son travaillent avec des volumes négatifs (c’est juste une question d’échelle, ça ne veut pas dire qu’on n’entend rien). L’important est de comprendre que l’échelle utilisée pour évaluer l’intensité d’un son en production diffère de la physique (où votre oreille perçoit la musique qui provient de votre casque à 60dB par exemple). En effet, dans les DAW, le 0 est fixé là où le son commence à saturer, le travail de production est donc fait en dessous.
Le standard pour un mix est de ne pas dépasser -6dB, car le travail de l’ingé son qui va masteriser le morceau est d’appliquer une série d’effets qui vont viser à amplifier le son jusqu’à 0dB maximum. Ça a l’air simple, ça ne l’est pas. En effet, il ne suffit pas d’augmenter le volume. Les effets utilisés vont “briser” la perfection numérique (des 0 et des 1) du son souvent perçue comme froide, et leur donner une chaleur analogique (de l’électricité qui passe dans un cable) qui donne vie au son (on les appelle les enhancer). D’autres effets vont améliorer la largeur stéréo du morceau (des stereo imager). D’autres vont faire en sorte de faire bien ressortir chaque instrument, et clarifier le morceau (les compresseurs à bande). Enfin, l’effet le plus important est le limiteur, qui augmente le volume tout en fixant un seuil a 0dB que le son de peut pas dépasser (c’est un cas particulier de compresseur).
Après tout ceci, les ingés son peuvent enfin exporter le master du morceau, qui est au standards radio, TV et internet.
Voilà, au bout de ce processus riche en émotions, notre morceau est passé de l’idée dans la tête d’un artiste à un hit planétaire disponible sur les plateformes de streaming. J’espère qu’après cette lecture, le monde de la musique vous paraît moins mystérieux !