Meta rilascia AudioCraft, l’IA che genera musica e suoni dai testi

Meta prosegue i suoi investimenti nell’intelligenza artificiale. La società di Mark Zuckerberg ha presentato AudioCraft, nuovo strumento di IA generativa in grado di creare musica e suoni da un semplice testo scritto. Basandosi su tre modelli, il cui funzionamento ricorda quello di ChatGPT, è in grado di dare vita a musica o a semplici effetti sonori come il fischio del vento, il cigolio di una porta o l’abbaiare di un cane. «Pensiamo che possa diventare un nuovo tipo di strumento, in grado di fare la storia come i sintetizzatori», ha scritto in una nota ufficiale la società. «Favorirà l’innovazione e l’ispirazione, non vediamo l’ora di ascoltare ciò che le persone creeranno con AudioCraft». Meta è solo l’ultima azienda hi-tech a cercare di unire l’intelligenza artificiale e la musica. Google ha infatti già lanciato da tempo il suo personale strumento, MusicLM.

Meta ha presentato tre modelli di intelligenza artificiale per creare effetti sonori dalle parole. Il funzionamento ricorda quello di ChatGPT.
Uno schema di AudioCraft per creare musica con l’IA (Meta, Twitter).

AudioCraft, come funzionano i modelli di IA generativa di Meta

Il nuovo strumento di intelligenza artificiale generativa di Meta si compone dunque di tre modelli differenti che possono lavorare assieme oppure indipendentemente. MusicGen si occupa, come si deduce dal nome stesso, di creare musica da un testo scritto. Come ha spiegato la società, è stato addestrato su un database di circa 20 mila ore di canzoni già esistenti oppure realizzate ad hoc. Molto simile il funzionamento invece di AudioGen, dedicato alla creazione di effetti sonori. Sarà possibile, semplicemente scrivendo un comando testuale, generare ogni genere di suono ambientale, dal vento alla pioggia, passando per le onde del mare o il verso di un animale domestico. Infine, Meta ha presentato anche EnCodec, che analizza un file prodotto dagli altri due strumenti per renderlo quanto più credibile e realistico possibile.

«Stiamo rendendo questi modelli open source (disponibili a tutti gli utenti in ogni funzione, ndr.)», ha poi spiegato Meta sul sito ufficiale. «Vogliamo offrire a ricercatori e professionisti l’accesso per creare suoni addestrando l’IA con modelli personali». Così facendo, anche gli utenti potranno contribuire a un continuo perfezionamento dell’intelligenza artificiale, in grado di apprendere costantemente da quanto analizza in Rete. Meta ha anche fornito delle tracce campione da poter ascoltare sul sito ufficiale, che hanno raccolto pareri contrastanti soprattutto sulla stampa americana. The Verge, sebbene abbia lodato la naturalezza di ronzii degli insetti, fischi e sirene, ha criticato la riproduzione di una chitarra, ancora troppo «artificiale» da poter essere scambiata per reale. Non è ancora chiaro se AudioCraft sarà in grado di dare vita a una vera e propria canzone musicale, ma potrebbe avere numerosi altri impieghi, tra cui sound di sottofondo per negozi, ascensori e call center.

Non solo AudioCraft, online c’è anche MusicLM di Google

Lo strumento di Meta giunge a qualche mese di distanza dalla versione di Google, nota come MusicLM. Come AudioCraft, è in grado di generare musica e suoni ambientali da un semplice testo scritto in cui si inseriscono i comandi di base per ciò che si vuole ascoltare. Addestrato su un database molto più ampio rispetto a quello di AudioCraft – i media statunitensi parlano di 280 mila ore di canzoni – può dare vita a ogni tipo di melodia, spaziando dal rock alla classica, simulando corde di violino e tasti del pianoforte. Pur disponibile online, sia per dispositivi Android sia iOS, non è accessibile a tutti. Per poterlo utilizzare infatti bisogna iscriversi in una lista d’attesa.

LEGGI ANCHE: Elon Musk lancia xAI, la nuova startup di intelligenza artificiale

Powered by WordPress and MasterTemplate