Quand l’intelligence artificielle prend soin de vos oreilles

Bientôt de la musique composée par des robots? © REUTERS

Les intelligences artificielles s’immiscent de plus en plus dans nos vies quotidiennes, que ce soit dans les films, les jeux vidéo, les voitures autonomes et maintenant dans la création musicale.

Il y a moins de 6 mois, une équipe de la Sony Computer Science Laboratory (CSL) présentait Daddy’s Car, le premier morceau pop produit avec l’aide d’une intelligence artificielle. Si cette nouveauté a fait grand bruit, ce n’est pas la première fois que les ordinateurs remplacent les humains en vue de composer de la musique: de nombreux essais, certes moins aboutis, voient le jour depuis des années. Mais sommes-nous prêts à écouter quelque chose si aucune personne réelle n’est derrière la composition?

Voilà déjà longtemps que l’homme a commencé à remplacer certains instruments par des machines électroniques, mais les divers échantillonneurs, boites à rythmes et autres séquenceurs sont là pour aider les artistes et non pour les remplacer. Les dernières avancées technologiques laissent entrevoir la possibilité qu’un ordinateur puisse créer une oeuvre de A à Z sans avoir besoin de quelconque intervention extérieure.

Voilà plus de 60 ans que les mathématiciens et pionniers de l’intelligence artificielle Alan Turing et Christopher Strachey, ont réalisé le premier enregistrement d’une musique créée sur un ordinateur. La bande originale où l’on peut entendre trois mélodies différentes date de 1951 et vient d’être restaurée par le chercheur néo-zélandais Jack Copeland et le compositeur Jason Long.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

Six ans plus tard, les deux compositeurs Lejaren Hiller et Leonard Issacson programment l’ordinateur ILLIAC 1 pour qu’il génère une partition qui allait ensuite être jouée par un orchestre à cordes. La machine est alors en route.

Depuis, les grands noms de l’informatique se sont mêlés à la bataille de celui qui mettrait au point le programme le plus intelligent possible et le plus à même d’imiter, voire de dépasser le comportement humain. C’est-à-dire d’assimiler des quantités astronomiques de partitions, de morceaux, de paroles… pour ensuite produire d’eux-mêmes des chansons plaisantes pour nos oreilles.

Google s’est par exemple lancé dans deux projets différents: DeepMind et Magenta. Le premier utilise la technique de l’apprentissage automatique, c’est-à-dire qu’il se base sur des choses existantes pour s’améliorer et en créer des nouvelles. Ce projet a servi à créer des paroles de chansons, mais aussi à imiter la voix humaine ou à battre le champion du monde du jeu de go. Le deuxième est lui capable de composer des mélodies originales sans avoir à se baser sur des choses déjà existantes.

Si ce premier résultat n’a pas convaincu grand monde, il laissait envisager un beau futur pour l’intelligence artificielle dans la musique. Pour preuve, les équipes de Google ont récemment dévoilé AI Duet, un programme qui réagit presque instantanément aux notes de piano jouées par un humain. À la vue de cette première démonstration, on peut se dire qu’il sera bientôt possible d’organiser des jams avec son ordinateur.

Si la plupart des logiciels ne sont encore accessibles qu’aux programmateurs et aux compositeurs avertis, certains comme Jukedeck permettent à tout un chacun de créer un morceau sur le site Internet en choisissant un style musical parmi les dix proposés, l’ambiance générale, la durée, le type d’instruments utilisés et le tempo. Quelques instants plus tard, le titre instrumental est écoutable et téléchargeable.

Le musicien américain Bill Baird a produit l’album Summer is Gone qui a la particularité d’être différent pour chaque auditeur. Avec l’aide d’un algorithme, les chansons se modifient selon le lieu et l’heure d’écoute. Pour lui, l’utilisation de l’intelligence artificielle doit servir à produire des choses qui dépassent la normalité et les capacités de l’humain.

Un autre exemple de ce qu’il est possible de réaliser avec l’aide des ordinateurs est à trouver dans le jeu vidéo No Man’s Sky sorti en aout 2016 et qui propose un univers quasi infini se modifiant selon les expériences de ceux qui s’y aventurent. Pour accompagner les gamers dans leur découverte, les créateurs ont demandé au groupe 65daysofstatic de produire un album qui leur servirait de base. Quand on sait qu’il y a plus de 18 quintillions de planètes à visiter dans ce jeu, il fallait utiliser une technique capable de créer de la musique pour remplir tous les instants du jeu. Les morceaux produits par le groupe britannique seront alors modifiés à l’aide d’un algorithme pour s’adapter aux différents mondes.

Enfin, le projet le plus abouti semble être Flow Machine mis au point par des équipes de la Sony Computer Science Laboratory qui crée des morceaux de divers styles après avoir analysé d’énormes bases de données de morceaux allant du jazz à la pop en passant par la samba brésilienne. À partir de cela, il est possible de définir différents paramètres comme les notes à utiliser ou de déterminer un artiste sur lequel s’inspirer. Pour leur titre Daddy’s Car, l’intelligence artificielle s’est basée sur le style des Beatles alors que pour Mr Shadow, les influences sont à trouver du côté des compositeurs américains comme Duke Ellington, Irving Berlin ou Cole Porter. Si les résultats obtenus sont impressionnants, Flow Machine n’est pas encore capable de composer un morceau entier, car il nécessite l’intervention d’un humain pour structurer les mélodies et pour chanter les paroles. Si pour le moment, il est uniquement possible de reproduire ce qui s’est déjà fait, leur but avoué est de créer la musique du futur non pas en remplaçant les musiciens, mais en les faisant travailler ensemble. Les chercheurs ont en tout cas prévu de sortir un album des morceaux composés par leur intelligence artificielle dans le courant de cette année.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

Si l’on a du mal à imaginer ce que peuvent donner les concerts où seraient joués ces titres, il ne semble pas impensable de créer des hologrammes qui interprèteraient les créations. Au Japon, ils sont des milliers à se rendre aux performances de Hatsune Miku, une chanteuse humanoïde qui s’exprime par le biais d’une application de synthèse vocale.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content