PDA

Visualizza Versione Completa : NevronMotion - Kinect Facial Control



mikadit
08-03-14, 14:45
Tutorial di Lino Grandi su come settare NevronMotion per il controllo facciale con Kinect in LightWave. Sul settaggio appropriato dei controlli nodali per avere il controllo della testa di un character, comprese le espressioni faciali.


In this tutorial, Lino Grandi will demonstrate how to properly setup the nodal controls for controlling a character's head, as well as the facial expressions.

NevronMotion - Kinect Facial Control - YouTube (http://www.youtube.com/watch?v=CBvWWcW5E1M)

Bingo7
08-03-14, 20:39
Impressionante, io pensavo si dovesse ricreare il rig e poi usare il kinect, ma cosi è davvero facilissimo a quanto sembra. Grazie per il tutorial Lino Grandi :yt::g1:

Lino
09-03-14, 11:08
Di nulla!

In realta' si puo' scegliere se usare semplici morphs o creare un rig. Ovviamente quest'ultima operazione puo' risultare piu' complessa e meno intuitiva, perche' bisogna connettere i valori del kinect ai canali di una o piu' bones, usando tutto quello che LW mette a disposizione (espressioni matematiche, cyclist, Same as Item...).

SlowMan
09-03-14, 17:24
Interessante ed istruttivo.

Ho notato che la risposta del controller non è molto rapida,
ma forse per ottenere un controllo più preciso potrebbe essere utile una certa preparazione scenografica,
cioè penso (sì a volte succede anche a me :rolleyes:)
che uno sfondo uniforme ed una corretta illuminazione del viso aiutino ad identificare meglio i movimenti espressivi.

Solo non capisco perché una simile risorsa debba far uso di un plugin aggiuntivo,
non era meglio inglobarlo nel pacchetto di LW? :confused:

Un'altra cosa che non ho capito:
funziona solo con Kinect oppure è possibile utilizzare un qualunque controller dello stesso tipo anche se di un altro produttore?

Wotan3d
09-03-14, 22:19
E' spettacolare!!!
E come al solito sentire l'inglese di Lino è come sentire l'italiano, tanto è chiaro.
Peccato che il kinect rilevi pochissime espressioni, ma forse in futuro ci saranno versioni che riconosceranno anche il labiale. Comunque credo sia possibile sopperire collegando altri endomorph facciali ai movimenti rilevati ad esempio del braccio (che so, braccio alzato = sorriso, braccio abbassato = triste, ecc.) e quindi, con un po' di pratica, riuscire a creare personaggi animati in modo mooooolto più facile e veloce, e, soprattutto, che sembrino più reali.
Grazie Lino!