In mezzo al caos causato dalle immagini deepfake, ora dobbiamo affrontare anche la minaccia della musica deepfake.
Nuove canzoni di artisti famosi stanno diventando virali sui social media, il che normalmente non è un problema, tranne quando a cantare è un clone vocale. Sebbene sia stato uno degli ultimi mezzi a resistere, la musica deepfake è ora una realtà.
Funziona addestrando un modello di intelligenza artificiale sulla voce di un cantante e i risultati non sono sempre negativi. C'è molta vera creatività nella creazione di canzoni deepfake, ma il problema non è solo con l'output. In molti casi, il permesso non viene concesso e le domande su chi viene pagato e se è etico, sono solo alcuni dei problemi della musica deepfake.
1. Set di dati non autorizzati
Se vuoi creare una traccia deepfake di un artista famoso, devi raccogliere i file audio della loro voce cantata in un set di dati. Proprio come qualsiasi dato che appartiene a qualcuno, probabilmente dovresti ottenere il permesso di usarlo, ma è un deepfake la canzone può arrivare a una grande piattaforma musicale come YouTube, Spotify o TikTok, dopo aver utilizzato un file non autorizzato insieme di dati.
Questo è successo agli artisti Drake e The Weeknd quando un utente chiamato Ghostwriter ha creato "Heart on My Sleeve". La canzone di successo presentava le voci sintetizzate dall'IA degli artisti, complete di testi sull'ex ragazza di The Weeknd.
La canzone è stata davvero apprezzata dai fan, con ulteriori elogi a Ghostwriter per l'uso creativo della voce deepfake, ma come Lo riporta il Seattle Times, non tutti la vedevano così. Un portavoce di Universal Music Group, la major dietro entrambi gli artisti, chiede:
"Da che parte della storia vogliono stare le parti interessate dell'ecosistema musicale: dalla parte degli artisti, dei fan e espressione creativa umana, o dalla parte di profondi falsi, frodi e negare agli artisti il dovuto compenso?"
2. Legge obsoleta sul diritto d'autore
Se sei un artista che non vuole che la tua voce venga clonata, la legge sul copyright potrebbe non essere ancora in grado di aiutarti. Poiché le nostre leggi sul copyright sono state scritte in un momento in cui questo tipo di tecnologia AI non esisteva, non sorprende che le leggi stiano ancora cercando di recuperare il ritardo.
Il caso legale più vicino di "furto di voce" negli Stati Uniti risale agli anni '90. COME riportato dal Los Angeles Times, il cantante Tom Waits ha vinto $ 2,475 milioni di danni da Frito-Lay Inc., il potente gigante di chip dietro Doritos, Cheetos, Cracker Jack's e altri.
La pubblicità utilizzava la voce di qualcuno che suonava abbastanza vicino a Tom Waits da far credere alla gente che dietro la campagna pubblicitaria ci fosse il vero artista. Lo stesso si potrebbe dire delle canzoni deepfake attualmente in circolazione, ma la musica AI deve ancora essere testata in una battaglia legale.
Mentre aspettiamo che il sistema legale si aggiorni, vale la pena notare che non tutti hanno problemi con le persone che clonano la propria voce, prendi Holly Herndon, Per esempio. Di fronte all'ondata in arrivo di applicazioni musicali AI, ha deciso di autorizzare il suo gemello vocale chiamato Holly+ insieme a un sistema che le ha dato una giusta remunerazione.
Qualunque sia la tua parte, il problema rimane lo stesso. Non esiste una legge specifica sul copyright che dica che devi ottenere il permesso dall'artista prima di usare la sua voce. Fino ad allora, gli artisti potrebbero trovarsi nel selvaggio west della tecnologia IA, senza leggi che li guidino.
3. Chi viene pagato?
Va bene fare soldi con la musica usando la voce di qualcuno? È una domanda spinosa che potrebbe diventare un problema più grande man mano che più musica deepfake viene pubblicata su piattaforme di streaming e monetizzata su piattaforme di social media.
Come tutti sappiamo, va bene cantare una cover di una canzone famosa e postarla su YouTube o Spotify, e in tal caso cose come il testo, la struttura della canzone, la melodia, il ritmo, ecc. vengono copiati. Ma i cloni vocali sono piuttosto diversi e la musica deepfake non è esattamente un riff su una canzone esistente, ma crea una canzone completamente nuova usando la voce di qualcun altro.
In altre parole, i cloni vocali non esisterebbero se non fosse per strumenti di intelligenza artificiale e set di dati non autorizzati. Gli artisti trascorrono una vita ad affinare la voce con cui sono nati e creare un suono unico. Rubare la voce di qualcuno e farci soldi potrebbe essere un passo troppo avanti.
4. Un genere da area grigia
A complicare le cose, alcune persone potrebbero non considerare la musica deepfake del tutto negativa. A differenza delle immagini o dei video deepfake di cui potresti ridere brevemente prima di scorrere sul telefono, la musica deepfake si sta trasformando in un genere a sé stante.
Alcune persone lo paragonano all'idea di scrivere fanfiction, un modo divertente e creativo per rendere omaggio a un artista. È una visione più positiva che rende difficile escludere la musica deepfake come un semplice tabù. Dai un'occhiata all'approccio di Holly Herndon alla clonazione vocale AI nel video qui sotto.
Anche se non tutti sono d'accordo sul fatto che questo tipo di musica dovrebbe essere consentito. COME Lo scrive il Financial Times, la principale etichetta discografica, Universal Music Group, mirava a rimuovere le canzoni di qualità inferiore dalle piattaforme di streaming, comprese quelle create da AI. Alla fine, piattaforme di streaming come Spotify, Apple Music o Tidal dovranno decidere se questo genere di musica è consentito sulla sua piattaforma.
La musica deepfake sta accendendo dibattiti simili che stanno già accadendo nel mondo dell'arte: l'arte generata dall'intelligenza artificiale dovrebbe essere considerata arte? Solo ora stiamo mettendo in discussione la musica AI.
5. Preoccupazioni etiche intorno alla razza e all'identità
L'era della musica deepfake è iniziata con molta musica che imita la musica rap. Con le radici storiche del genere che risalgono ai giovani afroamericani cresciuti nel Bronx, New York City, nei primi anni '70, alcune persone sono preoccupate per la razza e l'identità nella musica AI.
scrittore Lauren Chanel, è una persona che trova la musica deepfake un problema serio. Come citato in an articolo del New York Times, spiegano:
"È un altro modo per le persone che non sono nere di indossare il costume di una persona di colore - alzare le mani su Kanye o Drake e trasformarlo in un burattino - e questo è allarmante per me.” “Questo è solo un altro esempio di una lunga serie di persone che sottovalutano ciò che serve per creare il tipo di arte che, storicamente, i neri Fare."
Questa non è la prima volta che la musica creata con strumenti di intelligenza artificiale non è etica. COME riportato sulla rivista Rolling Stone, un avatar rapper virtuale di nome FN Meka è stato firmato per un'etichetta, poi è stato rapidamente abbandonato quando è diventato civile online il gruppo per i diritti Industry Blackout ha scritto che il progetto ha perpetuato "grossolani stereotipi" su Back cultura.
Semmai, la musica deepfake ci ricorda che gli strumenti di intelligenza artificiale non possono essere separati dalla storia della produzione musicale e ignorare ciò si aggiunge a i pericoli dei deepfake AI.
6. Causare danni agli artisti
Una cosa da non trascurare è l'impatto emotivo che una canzone deepfake potrebbe avere sull'artista, specialmente quando un clone vocale può cantare di situazioni che non sono mai accadute, esprimere emozioni che non sono le sue e fingere di preoccuparsi di cose che potrebbero non interessargli.
Nel caso della finta canzone di Drake ft. The Weeknd, i testi includevano battute su Selena Gomez che usciva con The Weeknd. Usando un mix di fatti della vita reale e testi inventati, è stata una strana distorsione della realtà che potrebbe essere dannosa per l'artista che ha vissuto l'esperienza reale.
Allo stesso modo, producendo testi generati dall'intelligenza artificiale "nello stile di" qualcuno famoso che utilizza generatori di testo AI ha portato alcuni artisti a disperare per l'uso della tecnologia AI. Come dice Nick Cave, "Quello che è ChatGPT, in questo caso, è la replica come parodia."
La musica deepfake è in grado di mettere in bocca all'artista parole che non ha mai pronunciato o, in questo caso, cantato. A livello personale, questo può essere dannoso per l'artista che ha scarso controllo sulla rimozione del contenuto, senza portare la battaglia in tribunale.
Prepararsi ai cambiamenti nell'industria musicale
Grazie al crescente accesso agli strumenti di intelligenza artificiale, la musica è entrata nel mondo dei deepfake, in particolare attraverso i cloni vocali. Dire la differenza tra una voce AI e una voce umana semplicemente ascoltando è estremamente difficile, rendendo facile per una canzone deepfake raggiungere le piattaforme di streaming prima di essere rimossa.
Da un lato, i fan potrebbero apprezzare la musica deepfake e potrebbe emergere un genere valido che utilizza voci famose per creare musica nuova e interessante. Ma non tutti gli artisti sono d'accordo con la clonazione della propria voce e non esistono leggi che impediscano alle persone di creare set di dati non autorizzati.
Ottenere il consenso, compensare gli artisti ed esaminare le preoccupazioni etiche sono solo alcuni dei problemi che devono affrontare gli artisti e l'industria musicale. Con il rapido sviluppo della tecnologia AI, vale la pena fare una pausa per riflettere sui problemi che hanno creato.