Home Intelligenza Artificiale Stability AI: Stable Video Diffusion è ora disponibile nell’API per sviluppatori

Stability AI: Stable Video Diffusion è ora disponibile nell’API per sviluppatori

Stability AI, lo specialista dell’AI generativa open source, ha annunciato di aver aggiunto Stable Video Diffusion, il modello foundation image-to-video, alla sua Developer Platform API. Questa nuova aggiunta fornisce l’accesso programmatico al modello video all’avanguardia progettato per vari settori, tra cui pubblicità, marketing, TV, film e giochi.

L’obiettivo con questa release, afferma Stability AI, è quello di fornire agli sviluppatori un modo efficiente per integrare senza problemi la generazione video avanzata nei loro prodotti.

Con un’attenzione particolare sia alle prestazioni che alla sicurezza, Stable Video Diffusion offre un’interpolazione dei fotogrammi per un output video a 24 fps e include funzioni quali misure di sicurezza e watermarking. Con prestazioni competitive, il modello può generare 2 secondi di video, composti da 25 fotogrammi generati e 24 fotogrammi di interpolazione FILM, in un tempo medio di 41 secondi, spiega Stability AI.

Gli sviluppatori possono sfruttare tutte le sue capacità grazie a funzioni come il controllo della forza di movimento e il supporto di diversi layout e risoluzioni, tra cui 1024×576, 768×768 e 576×1024. Il modello è anche compatibile con formati di immagine come jpg e png. Grazie al controllo seed-based, gli sviluppatori possono scegliere tra la generazione ripetibile o random. L’output video finale viene fornito in formato MP4, per facilitare l’integrazione in varie applicazioni e piattaforme.

Inoltre, per chi ha esigenze multimodali, la Developer platform di Stability AI offre una serie di modelli di generazione di immagini, tra cui il modello text-to-image di punta dell’azienda, Stable Diffusion XL.

Per conoscere i prezzi e iniziare a lavorare con il nuovo modello, è possibile accedere alla Developer Platform di Stability AI.

Inoltre, è possibile iscriversi alla lista d’attesa per essere tra i primi ad accedere all’interfaccia web di Stable Video, quando sarà disponibile.

Stability AI sottolinea che l’intenzione dell’azienda è che i clienti possano accedere ai suoi modelli dove e come preferiscono, in base alle loro esigenze di costo, prestazioni, flessibilità e privacy. Se si desidera ospitare i modelli in locale, è possibile farlo attraverso la Stability AI membership.

Stability AILa Stability AI Membership

La società ha infatti recentemente presentato ufficialmente la Stability AI Membership, che standardizza i diritti commerciali dei principali modelli avanzati open di Stability AI in diverse modalità, in modo da rendere la tecnologia di AI generativa aperta e accessibile a tutti.

La nuova struttura associativa – ha spiegato l’azienda – ridefinisce il modo in cui Stability AI rilascia e concede i diritti commerciali per le soluzioni AI, trovando un equilibrio tra la promozione della competitività e il mantenimento dell’apertura delle tecnologie AI. Allo stesso tempo, offre vantaggi esclusivi e opportunità di commercializzazione ai partner, consentendo loro di stimolare la creatività e alimentare l’innovazione con modalità multiple, tra cui immagini, video e linguaggio, alimentate da Stability AI.

L’azienda ha introdotto tre livelli di adesione pensati per servire un’ampia gamma di utenti, dai singoli appassionati di AI generativa alle aziende Fortune 500. Questa membership garantisce soluzioni self-hosted a prezzi accessibili per tutti attraverso i modelli core di Stability AI esistenti, con continue aggiunte nel tempo.

Non-Commercial – Senza costi per l’uso personale e la ricerca, questo primo livello di membership è radicato nella convinzione fondamentale di Stability AI che questa tecnologia debba essere trasparente e ampiamente disponibile per tutti. Senza alcun costo, questo livello offre l’accesso alla suite completa di core models per uso personale e di ricerca.

Professional – Per i creatori di contenuti, gli sviluppatori e le startup, attualmente al prezzo di 20 dollari al mese, i membri Professional ricevono l’accesso all’uso commerciale in self-hosted della suite completa di modelli core, con tutti i benefit del livello Non-Commercial e l’accesso al livello Professional della community Discord. Se si desidera utilizzare i modelli core di Stability AI a livello commerciale, ma il costo rappresenta un ostacolo, l’azienda mette a disposizione alcuni sconti per supportare queste circostanze, contattandola.

Enterprise – Per le aziende più grandi, con prezzi personalizzati, questo livello include tutti i vantaggi del livello Professional con la possibilità di aggiungere ulteriori funzionalità aziendali, come il supporto enterprise e l’ingegneria delle soluzioni, per aiutare a distribuire e gestire i modelli di Stability AI.

È possibile visitare la pagina membership di Stability AI per saperne di più e iscriversi al livello che meglio soddisfa il proprio profilo.

Stability AIStable Zero123: generazione di oggetti 3D da singole immagini

Di recente Stability AI ha presentato anche un’altra interessante novità di prodotto: ha infatti rilasciato Stable Zero123, un modello addestrato internamente per la generazione di immagini view-conditioned.

Stable Zero123 genera nuove viste di un oggetto, dimostrando una comprensione 3D dell’aspetto dell’oggetto da varie angolazioni, con una qualità notevolmente migliorata rispetto a Zero1-to-3 o Zero123-XL grazie al miglioramento dei set di dati di addestramento e al condizionamento dell’elevazione.

Stable Zero123 – spiega l’azienda – produce risultati notevolmente migliori rispetto allo stato dell’arte precedente, Zero123-XL e questo risultato è stato ottenuto grazie a 3 innovazioni chiave:

  • Un set di dati di addestramento migliorato e pesantemente filtrato da Objaverse, per conservare solo oggetti 3D di alta qualità, che il team ha renderizzato in modo molto più realistico rispetto ai metodi precedenti.
  • Durante l’addestramento e l’inferenza, il team fornisce al modello un angolo di ripresa stimato. Questo condizionamento dell’elevazione gli consente di fare previsioni più informate e di qualità superiore.
  • Un set di dati precomputati (pre-computed latents) e un dataloader migliorato che supporta batch di dimensioni più elevate che, insieme alla prima innovazione, ha permesso di ottenere una velocità di addestramento 40 volte superiore rispetto a Zero123-XL.

Questo modello è stato rilasciato su Hugging Face per consentire ai ricercatori e agli utenti non commerciali di scaricarlo e sperimentarlo.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php