Alors que la scène musicale connait chaque année ses nouveautés, ses tubes et ses nouvelles stars, l'avenir de la musique pourrait connaitre un changement majeur grâce à l'intervention de l'Intelligence Artificielle. Dernier exemple en date? La reprise de Toxic de Britney Spears, par Frank Sinatra pourtant décédé en 1998.

Une musique créée en appuyant sur un bouton

Si la musique assistée par ordinateur a révolutionner le monde du Rap et de la Hip-Hop depuis pas mal de temps, l'Intelligence artificielle, elle, semble révolutionner le secteur, et elle ne compte s'arrêter en si bon chemin.

Le premier fait majeur de l'I.A dans la musique est mettre à l'actif d'Endel, un artiste pas comme les autres, puisqu'il s'agit d'une application qui compose des musiques selon votre humeur.

Plus fort encore, cette intelligence artificielle a composé 21 albums disponibles sur les plateformes de streaming comme Spotify, et achetés par le Label Warner Music.

Derrière Endel, se cache la startup du même nom fondée par Dmitry Efgrafov qui a affirmé en mars 2019 au magazine Rolling Stone qu'il lui a seulement fallu "appuyer sur un bouton" pour créer ces albums. Mais au delà des albums, réalisés uniquement car Warner Music l'a demandé, c'est surtout l'application Endel qui est novatrice. En effet, utilisant l'I.A, elle permet, selon l'accès que vous lui accordez à vos données, de vous proposer des sons d'ambiances en fonction de votre humeur, de votre rythme cardiaque, de votre localisation ou de l'ambiance autour de vous.

Une véritable prouesse mais loin d'être un cas isolé.

De faux morceaux de vrais artistes

Le rôle de l'I.A dans la musique ne s'arrête pas seulement à un bien de consommation destiné aux citoyens. Il permet également de proposer de nouveaux titres de nos artistes préférés décédés. Le hic, c'est que ces titres n'ont jamais été chantés par ces artistes. En effet, ils ont été créés par une Intelligence Artificielle, qui, en étudiant leurs styles musicaux, réussit à créer des sons, des mélodies et mêmes des paroles potentielles que ces artistes auraient pu chanter.

L'exemple le plus frappant est celui des Beatles. François Pachet, ancien directeur du Computer science laboratory (CSL) de Sony, travaillant depuis chez Spotify. Le chercheur et informaticien, avait lancé en 2016, "Daddy's Car", un tube estampillé Beatles, créé par une I.A.

"Pour arriver à ce résultat, les chercheurs ont mis en place une base de données de 13.000 "lead sheet", des sortes de partitions qui résument les principales caractéristiques d'une musique (harmonie, mélodie, etc)" explique le HuffPost France. Le reste, a été réalisé par Flow Machines, une I.A, grâce au machine et au deep learning. Cette I.A "est capable de produire des musiques de niveau professionnel". "Nous travaillons depuis 2012 sur ce projet, subventionné notamment par le Conseil européen de la recherche", avait précisé François Pachet au HuffPost.

Mais le jeune homme, ne s'arrête pas en si bon chemin. En 2017, plusieurs artistes collaborent avec lui et Spotify pour lancer un album entier créé par une I.A, une première mondiale pour un album intitulé "Hello World" sur lequel a notamment collaboré l'artiste belge Stromae.

L'I.A a permis aux artistes sollicités de créer des mélodies, des harmonies voire même des voix, à partir de morceaux ou d'extraits musicaux qu'ils soumettaient à des logiciels. Ensuite, le choix leur était laissé de les utiliser ou pas.

"Il ne s'agissait pas du tout de cantonner les artistes dans un rôle de spectateur", mais "de voir comment on peut faire des outils qui les aident, en les poussant à faire des choses nouvelles et différentes", avait expliqué François Pachet.

Mieux encore, un algorithme nommé JukeBox a été capable de générer des paroles et des mélodies d'artistes, selon leurs styles. Créé par Open AI, un laboratoire de recherche en Intelligence Artificielle, JukeBox a analysé 1,2 million de chansons et des paroles avant de pouvoir créer de "fausses chansons" chantées par de vrais artistes. Et le résultat est plutôt surprenant voire même très réaliste.

Source: OpenAI

S'il faut près de 9 heures de travail intensif à l'I.A pour créer une minute d'audio, le projet, présenté à de nombreux artistes voudrait leur présenter des outils pour faire évoluer leur music. "Comme l'autotune ou l'Automated Music generation qui ont révolutionné la musique pour des générations, aujourd'hui, c'est autour de l'I.A" assurent les créateurs de JukeBox sur leur blog.

Quand Sinatra chante du Britney Spears

Face au succès rencontré par JukeBox et au buzz réalisé sur les réseaux sociaux, la magazine Futurism a souhaité aller encore plus loin en mettant au défi CJ Carr et Zack Zukowski, musiciens et informaticiens à l'origine de DataBots, une I.A capable de jouer non stop du Death Metal, de créer une I.A capable de faire chanter une chanson existante par un autre artiste, dans son propre style, et les deux passionnés ont relevé le défi avec brio en mai dernier, réussissant à faire chanter Toxic de Britney Spears à Frank Sinatra.

Les deux amis ont utilisé SampleRNN, une I.A très proche de JukeBox mais capable seulement de s'arrêter à un artiste ou un album. "Avec les paroles, elle essaie de tout mettre en ordre, mais parfois elle se répète ou se perd. Mais elle essaie d'aller du début à la fin et de maintenir le flux. Si vous avez trop de paroles, l'I.A ne comprend pas. Elle ne comprend pas que si vous avez un refrain qui se répète, la musique devrait aussi se répéter. Nous constatons donc que ces compositions plus courtes fonctionnent mieux pour nous" avec SampleRNN affirme Zack Zukowski à Futurism.

Une nouvelle "théorisation de la musique"

Si SampleRNN utilise l'architecture "Long Short Term Memory" (LSTM), JukeBox utilise lui un modèle d'architecture "Transformer".

"C'est une chose relativement nouvelle qui est devenue populaire dans le deep learning. Il a surtout pris le relais pour les modèles linguistiques. Je ne sais pas si vous vous souvenez de faux générateurs de nouvelles comme GPT-2 et Grover. Ils utilisent un 'Transformer Model'. De nombreux chercheurs en langages ont abandonné le LSTM. Personne ne l'avait encore vraiment appliqué à la musique audio - c'est la grande amélioration pour Jukebox. Ils prennent une architecture de langage et l'appliquent à la musique" explique CJ Carr.

A travers ce procédé, la musique est en train petit à petit de se transformer en langage: "Ils forment un modèle qui crée un livre de codes, comme un alphabet. Cet alphabet est un ensemble de 2048 symboles, chaque symbole représente quelque chose à propos de la musique, puis ils entrainent leur Transformer model, là dessus". Par la suite, en fonction des paramètres, l'I.A "récite" son alphabet pour donner lieu à la musique souhaitée.

La création musicale abandonnée à l'I.A?

Si une telle technologie peut-être intéressante pour comprendre plus profondément la musique, ses impacts, les notes, les rythmes, les vocalises et permettre aux artistes de mieux adapter leurs créations, il n'en demeure pas moins que cette création "artificielle" de la musique, au delà du DeepFake, pose justement la question de l'avenir de la création musicale, puisqu'il suffirait aujourd'hui d'appuyer sur un bouton pour qu'une I.A créée une chanson de A à Z pour un artiste.

Cependant, les deux amis ne l'envisagent pas de cette façon: "Je pense que c'est un outil intéressant pour les artistes. Il y a des artistes qui ne savent même pas qu'ils peuvent être générés sur Jukebox (...) Cela peut être un outil de variation, il peut recréer le travail d'un artiste à travers une perspective qu'il n'a jamais imaginé. Il peut imaginé des collaborations entre des artistes similaires ou même des artistes très éloignés. Cela peut être un excellent outil de formation pour les artistes" concluent-ils.

Retrouvez également sur Gomytech: