Il prodotto di punta dell’intelligenza artificiale generativa di Adobe è Firefly, uno strumento di conversione da testo a immagine che alimenta il riempimento generativo per Photoshop e la conversione da testo a vettoriale in Illustrator. Tuttavia, il modello Firefly 2024 alimenterà tre strumenti video AI nel software di editing video Premiere Pro: espansione generativa, aggiunta e rimozione di oggetti e testo nel video.
Premiere consente già agli editor video di integrare software Adobe Creative Cloud come After Effects (grafica in movimento) e Audition (mixaggio del suono). L’annuncio di oggi chiarisce che Adobe adotterà lo stesso approccio con l’intelligenza artificiale. La società ha inoltre annunciato che è nelle “prime esplorazioni” per integrare la generazione di video da OpenAI (Sora), Runway e Pika Labs in Premiere.
La settimana scorsa, Adobe ha presentato questi strumenti di intelligenza artificiale di prossima generazione e ha condiviso esempi (guarda il video nella parte superiore della pagina) di ciò che sarà disponibile in Premiere Pro prima della fine dell’anno.
Estensione generativa
Ogni editore voleva solo qualche altro immagini per consentire modifiche o transizioni più fluide. Lo strumento Gen Extend consentirebbe agli editor di utilizzare l’intelligenza artificiale per creare nuovi fotogrammi lunghi fino a “pochi secondi”, che secondo Adobe “aggiungeranno perfettamente fotogrammi per allungare le clip”.
Nel video di anteprima, lo strumento estende di alcuni secondi la performance stoica dell’attrice per colmare una lacuna nella sequenza temporale dell’editor. Sebbene le performance di stretching sollevino questioni etiche e sindacali, i cineasti utilizzano da tempo trucchi VFX per fondere filmati e acquistare filmati extra. Questo strumento potrebbe consentire agli editori di creare soluzioni in tempo reale in Premiere.
Aggiunta e rimozione di oggetti
Aggiungere e rimuovere oggetti dall’inquadratura spesso richiede un attento lavoro sugli effetti visivi, ma lo strumento Firefly consentirebbe a un editor di farlo in tempo reale. La chiave sarà se la generazione AI riuscirà a mantenere il fotorealismo. Gli esempi offerti nell’anteprima di Adobe (aggiunta di una pila di diamanti alla cassa e rimozione di una scatola elettrica dalla cornice) appaiono fotorealistici, mantenendo coerenza nell’immagine e nell’illuminazione. Sia nel suo comunicato stampa che in un briefing con Adobe ha insistito sul fatto che questi pixel sono stati generati dal prossimo modello video Firefly senza ulteriori manipolazioni.
I primi risultati sembrano promettenti, ma finché gli editori non li testeranno su un’ampia gamma di filmati, non sapremo quanto saranno applicabili questi strumenti nel prossimo futuro.
Testo in video
Firefly non è nuovo in termini di possibilità di utilizzare strumenti di conversione da testo a video per creare riprese. La cosa affascinante è che Adobe darà ai registi la possibilità di accedere al testo video da Premiere e includerà i concorrenti di Firefly Sora, Runway e Pika Labs. È chiaro che Adobe si aspetta che gli editori utilizzino questi strumenti nei loro flussi di lavoro quotidiani.
Informazioni sull’autore e sul contenuto
Molti modelli di immagini e video di generazione AI sono basati su materiale protetto da copyright. In un’intervista imbarazzante, il CTO di OpenAI Sora non è riuscito nemmeno a rispondere a semplici domande su cosa ha guidato il suo modello di video generativo.
Tuttavia, i realizzatori hanno elogiato Adobe per aver utilizzato solo filmati concessi in licenza per addestrare Firefly. I dirigenti di Adobe hanno confermato che il modello video Firefly di prossima uscita continuerà a seguire queste stesse regole.
È quindi curioso che Adobe stia integrando società di intelligenza artificiale di terze parti che sono molto meno etiche quando si tratta di copyright. Tuttavia, Adobe ha affermato che continuerà a utilizzare le credenziali del contenuto.
“ In qualità di uno dei fondatori della Content Authenticity Initiative, Adobe si impegna ad associare le credenziali dei contenuti (una tecnologia gratuita e open source che funge da etichetta nutrizionale per i contenuti online) alle risorse prodotte nelle sue applicazioni in modo che gli utenti possano vedere come è stato creato il contenuto e cosa contiene. I modelli di intelligenza artificiale sono stati utilizzati per generare i contenuti creati sulle piattaforme Adobe”, si legge nel comunicato stampa di oggi.
Resta da vedere la permanenza di queste etichette nutrizionali – e la facilità con cui potranno essere staccate dal barattolo.
A maggio, il flusso di lavoro audio di Premiere riceverà una serie di strumenti migliorati, alcuni dei quali sono basati sull’intelligenza artificiale e sono disponibili in versione beta da qualche tempo. Questi includono:
Maniglie di dissolvenza interattive: Gli editor possono creare transizioni audio personalizzate trascinando le maniglie della clip per creare dissolvenze audio.
Badge Essential Sound con contrassegno della categoria audio: L’intelligenza artificiale contrassegna automaticamente le clip audio come dialoghi, musica, effetti sonori o ambientazione.
Distintivi di effetto: Gli indicatori visivi mostrano quali clip hanno effetti, ne aggiungono rapidamente di nuovi e aprono automaticamente le impostazioni degli effetti della sequenza.
Forme d’onda ridisegnate nella timeline: Le forme d’onda si ridimensionano in modo intelligente man mano che l’altezza della traccia cambia sulle clip, mentre i nuovi colori semplificano la riproduzione delle riprese.
Strumento di miglioramento vocale basato sull’intelligenza artificiale: Rimuove i rumori indesiderati e migliora i dialoghi scarsamente registrati; questo è generalmente disponibile da febbraio.