L’I.A dans l’industrie musicale est partout et se développe à grand pas. A tel point, qu’une IA peut composer automatiquement un morceau complet si on lui a injecté au préalable des données permettant de fournir une orientation musicale.
Mais peut-on dire que l’artiste qui utilise à 100% l’IA est accompli ? peut-il encore s’appeler « Artiste » ? y trouve-t-il une satisfaction ?
Dans la création musicale, l’usage de l’IA se retrouve à plusieurs niveaux : la composition, l’arrangement, la phase de mixing, la phase de mastering.
La composition musicale même si elle repose avant tout sur des règles mathématiques (choix des accords, choix des gammes, …) peut être orientée de deux manières. Les gouts et la sensibilité de l’artiste mais aussi et surtout ceux du public (tendances et affinités). Seul l’artiste peut décider de l’orientation qu’il souhaite donner à son morceau et du style. Les outils d’assistance à la composition sont basés aujourd’hui sur du machine learning permettant de construire automatiquement une mélodie, ou un accompagnement. Ces outils sont alimentés par un volume important de données injectées dans un bigdata et qui permet de donner une orientation : tempo, style, root note, partitions. D’un point de vue artistique, l’IA ne doit donc pas s’y substituer complètement. Elle doit assister le compositeur en lui permettant de respecter les règles de théorie musicale et éviter par exemple toutes fausses notes. Elle doit l’aider dans sa production, être source d’inspiration et de créativité en proposant des pistes que l’artiste n’avait pas imaginées. Mais seul l’artiste est maitre de l’émotion qu’il veut générer ; L’Artiste doit rester libre.
En termes d’arrangement, c’est à peu près le même scenario. Tout dépend si l’artiste souhaite utiliser les tendances du marché et travailler les sonorités d’aujourd’hui, ou s’il préfère rester libre des instruments à utiliser ou créer synthétiquement. Dans le premier cas, si l’IA est alimentée avec les données tendances de l’industrie musicale d’aujourd’hui, inévitablement on se retrouve avec des compositions et arrangements formatés quasiment de la même manière et avec une prédominance pour le style RAP; Dans l’autre cas, l’IA est juste là pour donner le LA pour aider à concevoir synthétiquement ses instruments et assister techniquement dans la création de nouveaux sons. Encore une fois L’IA ne doit pas se substituer à la créativité et au choix de l’artiste. Les nouveaux sons créés qui n’existaient pas jusqu’à présent, et donc inconnus par l’IA, seront peut-être les sons tendance de demain. Les gouts du public évoluent, mais l’IA ne sait détecter ses évolutions que si on l’alimente en nouvelles données. L’artiste lui peut les anticiper.
Pour ce qui est de la phase de Mixing, les outils d’IA d’aujourd’hui fournissent à l’artiste une assistance à la détection d’anomalies sonores. Par exemple, l’IA peut suggérer d’ajuster les fréquences sonores d’un instrument pour éviter les collisions avec un autre instrument qui serait dans la même bande de fréquence. L’IA permet dans la phase de mixing d’ajouter de la couleur et du relief à un instrument. L’IA peut aussi fournir une assistance sur le positionnement des instruments dans l’espace stéréo afin d’assurer une cohérence. Mais tout cela doit rester sous la décision finale de l’artiste en fonction, encore une fois, de l’émotion qu’il souhaite générer.
La phase de mastering est l’une des phases les plus importantes, car elle consiste tout simplement à préparer le morceau afin qu’il soit diffusable, et surtout écoutable sur la plupart des systèmes audios. Il faut savoir que certaines fréquences sonores ne sont pas ou mal audibles sur certains systèmes alors qu’elles le sont sur d’autres. Les fréquences sonores restituées par exemple par un system hifi ne sont pas les mêmes que sur un téléphone ou même un autoradio. Là encore, l’IA permet d’assister l’artiste à calibrer son morceau en lui proposant des scenarios afin de l’adapter ou pour lui faire prendre conscience que des corrections s’imposent. Les outils sont capables en fonction de la couleur sonore choisie, ou à partir d’un morceau de musique référence, d’effectuer des comparaisons et de proposer des schémas correctifs afin de l’adapter en conséquences.
En résumé, même si l’IA est capable pour un artiste de donner le « LA » durant ces phases de création, elle ne ressent, ni ne transmet de véritable émotion. Créer une émotion est pourtant au cœur de la composition musicale. C’est pour ça que pour mes créations musicales j’ai décidé de concilier les deux ; le La de l’IA et ma sensibilité personnelle.
Par Sébastien Bousseton, Applications, Data & AI Practice Leader chez Kyndryl France