Molto prima del SIGGRAPH 2023 di quest’anno, che si terrà ad agosto, Nvidia sta dando un’anteprima delle nuove tecnologie che saranno presentate in modo più dettagliato durante la conferenza. in streaming post sul blog L’azienda è dedicata alle innovazioni provenienti dalla sua ricerca sull’intelligenza artificiale.
Saranno presentati circa 20 nuovi documenti di ricerca. Particolarmente interessante è l’esibizione della poesia parodia realistica, che è resa in dettaglio e recitata in modo realistico. Per raggiungere questo obiettivo, viene utilizzata la “neurofisica”. Deve essere in grado di muovere “decine di migliaia di capelli con alta precisione e in tempo reale”. Questa tecnologia sfrutta l’elevato parallelismo delle moderne GPU e si basa sul concetto di “discrete flexible rails” (DER). L’intelligenza artificiale viene utilizzata per prevedere il comportamento dell’oggetto di interesse in relazione a tale comportamento nel mondo reale. Questa tecnologia alla fine riduce il tempo di calcolo richiesto per le simulazioni da diversi giorni a poche ore, aumentando al contempo la qualità delle simulazioni in tempo reale.
Il neuro rendering mira anche a miglioramenti del rendering in tempo reale, che in alcuni casi dovrebbero aumentare significativamente la qualità delle texture. L’attenzione si concentra sulla compressione delle texture basata su AI, che consente di aumentare i dettagli delle texture di un fattore fino a 16 senza appesantire la memoria della GPU. L’anno scorso, Nvidia ha già dimostrato una tecnologia simile nel contesto di contenuti volumetrici come fumo, fuoco, nuvole e acqua, che ora può essere utilizzata anche come mezzo di accesso anticipato sotto forma di NauralVDB e si basa su OpenVDB.
Nel frattempo, l’approccio text-to-image di Nvidia, così come il reverse rendering e la creazione del personaggio, è interamente basato sull’IA generativa. Il primo è già noto dal concetto. Il prompt di testo viene trasformato in materiale visivo, che a sua volta può essere utilizzato come “ispirazione” per prodotti e contenuti. Ciò che è innovativo qui è che il tempo necessario per la personalizzazione è notevolmente ridotto. Secondo il post sul blog, un documento descrive come ciò richieda solo 11 secondi invece di diversi minuti con una GPU Nvidia A100 utilizzando un’immagine di input. Nel frattempo, il modello Perfusion consente un rapido mix di immagini concettuali per creare nuovi contenuti.
La presentazione inversa e la creazione della personalità sono state affrontate in altri due documenti di ricerca. Secondo Nvidia, investe risorse nella conversione di contenuti 2D in modelli 3D che possono essere importati per ulteriori elaborazioni. Esistono applicazioni pratiche concrete, ad esempio, da parte dei ricercatori dell’Università della California, che hanno sviluppato un modo per convertire una singola immagine 2D in un modello 3D realistico di testa e spalle in tempo reale. I ricercatori della Stanford University stanno lavorando su animazioni generate dall’intelligenza artificiale che vengono prese da materiali video 2D e trasferite in modelli 3D.
Nvidia vuole presentare più innovazioni e lavori di ricerca oltre ai punti salienti già presentati al SIGGRAPH 2023. Allo stesso modo, si annuncia con sei sessioni, quattro round di discussione e due demo di “tecnologia emergente”, che trattano il tracciamento del percorso, la telepresenza e l’intelligenza. protesi generative, tra gli altri.
“Studente amichevole. Giocatore certificato. Evangelista dei social media. Fanatico di Internet. Cade molto. Futuro idolo degli adolescenti.”
More Stories
Ecco come gli uccelli prevedono il tempo
Questi sono i cinque maggiori fattori di rischio
Con l’intelligenza artificiale: i ricercatori vogliono costruire cellule artificiali Vita e conoscenza