Dream Track, arriva la canzone fai da te: voce e stile clonati e gli artisti sono d’accordo

Pubblicità
Pubblicità

Quando un anno fa è stata lanciata ChatGpt, la più popolare tra le intelligenze artificiali generative in grado di imitare la creatività umana, in molti hanno sottolineato la sua capacità di scrivere canzoni inedite. A quei testi, tuttavia, mancava la cosa più importante: una voce che li interpretasse e una musica che li accompagnasse. Era solo questione di tempo.

Edith Piaf rivive in un biopic realizzato con l’intelligenza artificiale

Google ora vuole chiudere il cerchio. E per questo sta testando su YouTube una nuova IA generativa che permetterà a chiunque di creare una breve traccia musicale a partire da un prompt, vale a dire una semplice descrizione testuale. Questo servizio sperimentale, chiamato Dream Track, consentirà agli utenti di completare i loro brani con la voce e lo stile di artisti famosi che hanno stretto un accordo con Google. E dunque chiunque, chiedendo a Dream Track “una ballata su come gli opposti si attraggono, acustica allegra” otterrà una traccia – di massimo 30 secondi – che sembrerà composta e interpretata da Charlie Puth.

Se invece un utente proverà a scrivere “una mattinata di sole in Florida, R&B”, avrà in risposta un mini brano che rispecchierà lo stile di T-Pain. Gli artisti a disposizione sono per ora nove: Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Papoose, Sia, T-Pain e Troye Sivan.

“A murder at the end of the world”, una serie stile Agatha Christie nell’era dell’intelligenza artificiale

Dream Track penserà a tutto: dalla generazione dei versi alle note della canzone. Gli utenti potranno influenzare l’arrangiamento dei brani canticchiando all’IA una melodia. L’esperimento di Google è uno dei primi passi verso la clonazione – legale – degli artisti. Proprio YouTube, pochi giorni fa, ha modificato i suoi termini di servizio per proteggere cantanti e aziende discografiche che usano la piattaforma per diffondere la loro musica.

Scarlett Johansson fa causa a un’app: aveva clonato la sua immagine con l’intelligenza artificiale

Le nuove regole impongono ai content creator di dichiarare in modo esplicito se un video con immagini realistiche è stato generato grazie all’IA. L’incubo del music business si chiama infatti deepfake: sono audio creati con l’intelligenza artificiale i cui algoritmi sono allenati sulla voce di una persona. In questo modo l’IA è capace di far dire a un individuo qualcosa che non ha mai detto. Nel caso di un cantante, tutto ciò si traduce in un brano inedito. Su YouTube esistono già molti canali dedicati a cover di brani famose interpretate da artisti del presente o del passato, tutte realizzate con l’IA.

Le case discografiche e i cantanti che rappresentano, in assenza di regole, potrebbero perdere molto denaro. Soprattutto se le tracce fake hanno successo: è il caso di Heart On My Sleeve, un brano ascoltato milioni di volte su Spotify che Drake e The Weeknd, le due voci protagoniste, non hanno mai cantato. È stato prodotto, grazie all’IA, da un utente che si è firmato Ghostwriter977 e che ha diffuso la traccia come se fosse un demo inedito. Universal, l’etichetta che detiene i diritti della musica di Drake e The Weeknd, ha fatto rimuovere il brano incriminato quasi ovunque.

Ma in futuro le case discografiche dovranno avere un ruolo attivo nella produzione musicale che usa l’IA. Anche gli artisti si stanno muovendo in questa direzione. La cantante canadese Grimes, a lungo legata sentimentalmente a Elon Musk, ad aprile scorso ha detto di voler “uccidere il diritto d’autore” e ha messo a disposizione la sua voce e la sua musica per creare nuove tracce attraverso l’IA. “Sono pronta a dividere il 50% delle royalties con chi lo farà”, ha detto Grimes. Ma c’è chi pensa che questo approccio non sia corretto. Per Nick Cave “gli algoritmi non hanno sentimenti, i dati non soffrono”. E per questo strumenti come ChatGpt possono solo fornire, secondo Cave, “un’imitazione grottesca di cosa vuol dire essere umani”.

Pubblicità

Pubblicità

Go to Source