PDA

Visualizza Versione Completa : Realtà > Fotografia > CGI3D ...differenze e riflessioni sul tema.



Fire
16-11-11, 15:24
Realtà > Fotografia > CGI3D ...differenze e riflessioni sul tema.


Introduzione.

Salve a tutti, ispirato dall'interessante topic e relativi articoli recentemente apparsi sul nostro portale ad opera del mitico e instancabile Lillo Sorce, (aka Elle Esse), ho deciso d'aprire un topic ad'hoc per evitare di "inquinare" la discussione originale con :D ..."divagazioni" sul tema. Le considerazioni a cui mi riferisco, riguardano alcuni aspetti citati da Lillo nei suoi articoli che a mio avviso necessitano, per esser compresi appieno, di alcuni approfondimenti che consentano d'aver ben chiaro quali siano i limiti dei vari aspetti. Lo scopo di Lillo è quello di fornire delle conoscenze di base delle tecniche utilizzate nei set cine/fotografici reali, a prescindere dal sistema utilizzato per riprodurle poi in virtuale, ...in questo topic invece, mi occuperò proprio di quest'ultimo aspetto e degli eventuali limiti che è possibile incontrare. Ovviamente, questo non è altro che il mio personale punto di vista sulla cosa e spero quindi che ci saranno altri pareri in merito, (il confronto è secondo me sempre e comunque produttivo). Per farmi capir meglio comunque, procederò per gradi, esplicitando concetti apparentemente banali o assodati, ma sempre a mio parere, indispensabili perché tutto abbia un senso logico compiuto. Consiglio quindi di mettervi comodi perché, (...a mio solito), non sarò breve!! :evil:


Differenze oggettive nei mezzi di percezione e di acquisizione della realtà.

Quello che tutti ad una prima analisi diamo in genere per scontato, è che per catturare un momento qualsiasi della nostra vita, basti fare una foto o una ripresa e che esista ad oggi una tecnologia, che consente anche di "rendere virtuale" questo genere d'operazione, (le immagini di sintesi prodotte dai software3D come Lightwave), riproducendo in 3D questi momenti. In realtà, come vedremo, tutto ciò è abbastanza teorico, perché in pratica (com'è facile immaginare), esistono alcune differenze oggettive fra i vari mezzi che permettono di osservare e acquisire (e/o riprodurre) la realtà che ci circonda e a mio avviso sono differenze di cui occorre tener conto. Per cui bisogna distinguere fra:

* La realtà, (vista attraverso i nostri mezzi cognitivi, ossia i nostri sensi )

* I vari strumenti di acquisizione della realtà (fotocamere e videocamere)

* Gli strumenti virtuali in 3D (ossia i software 3D come Lightwave) che simulano quelli reali

Nessun mezzo di cattura (fotocamera o videocamera che sia), dispone ad oggi della possibilità di riprodurre le stesse condizioni presenti all'atto della ripresa, questo perché, a differenza di ciò che normalmente si pensa, il prodotto di ciò che osserviamo non arriva solo dai nostri occhi, bensì da un sistema cognitivo complesso che coinvolge tutti i nostri sensi e viene elaborato in un'unica entità da ciò che per comodità chiamerò "coscienza percettiva". Nella realtà osservata di persona infatti, concorrono a rendere l'idea del posto dove ci si trova, altri recettori di cui gli esseri viventi sono dotati. Ma porto un' esempio pratico perché sia tutto più chiaro. Supponiamo d'osservare un panorama da un belvedere, decidiamo di scattarne una foto per portare con noi il ricordo di quel momento. Una volta a casa, rivedendo la stessa foto, ci accorgiamo che gran parte della "magia" di quel momento è andata persa, ...eppure il panorama è sempre quello, ...allora cos'è successo? La risposta è piuttosto semplice: ...l'immagine a ben vedere è solo una parte di quel ricordo e parlando di "immagine" è bene ricordare che c'è "immagine e immagine". La nostra vista (stereoscopica e panoramica) in quel momento forniva un' immagine molto ampia di quel paesaggio, di cui solo una parte rientrava nel campo visivo, il resto era ai limiti della nostra visione (in quello che in genere viene riconosciuta come vista perimetrale) e quindi fuori fuoco. Per riempire il nostro campo visivo allo stesso modo, avremmo bisogno d'un sistema come l'IMAX, ossia un mega schermo grande come un palazzo, dove vengono proiettate le pellicole dette "per attrazione". Ma non solo, il nostro udito rendeva conferma del fatto che ci trovavamo in un ambiente aperto e molto ampio. Il nostro olfatto riportava magari le fragranze delle essenze presenti, (o ad es. dell'aroma salmastro se eravamo nei pressi di una località marina). Inoltre, la temperatura dell'aria percepita e il sole sulla nostra pelle, concorrevano a dare un'idea del clima meteo in quel preciso momento. Insomma, tutto, ma proprio tutto, permetteva al nostro cervello di formare molto più di una semplice "immagine", grazie alle indicazioni precise su quel bel posto fornite da tutti i nostri sensi e a creare così, un'idea di quel posto composta da un' insieme di informazioni che inevitabilmente, scattando semplicemente quella foto, sono andate perse o che perlomeno, possono esser rievocate nella memoria di chi ha vissuto quell'esperienza, ma non potranno esser trasmesse con quello scatto a chi quell'esperienza non l'ha realmente vissuta.


La Gamma dinamica.

Ma allora, cosa si può migliorare per avvicinarsi di più alla realtà? Bhè, di tutti i sensi citati, solo sulla parte riguardante il sistema visivo, è attualmente possibile apportare dei miglioramenti, per fa si di poter acquisire l'immagine nel modo più fedele possibile alla realtà. Il problema però, è che, stereoscopia e dimensioni del prodotto finale a parte, ad oggi non disponiamo di un sistema all'altezza degli occhi umani e del relativo sistema cognitivo. La facoltà di riuscire a distinguere chiaramente dei dettagli sia nelle alte che nelle basse luci di un'immagine, è detta "Gamma Dinamica". Per avere un'idea della differenza di Gamma Dinamica fra i nostri occhi e i sensori delle migliori fotocamere professionali, basti pensare che ad oggi, questi possono raggiungere a malapena i 12 EV (in realtà non vi riesce nessuno, siamo per tutti sotto quel valore), mentre i nostri occhi consentono addirittura di doppiare agevolmente questo valore, pur senza grandi sforzi. E' per questo motivo che negli esempi riportati nell'articolo di Lillo, una ripresa in controluce prodotta con una camera, potrà ottenere una corretta esposizione solo con l'aiuto di "luce extra", mentre la stessa scena è visibile in modo corretto ad "occhio nudo", senza bisogno di "aiuti luminosi esterni".


Espansione artificiale della Gamma Dinamica in fotografia.

In fotografia, con i limiti di Gamma Dinamica di cui sopra, ci si trova spesso nelle stesse condizioni dell'esempio precedente, quando cioè si scatta una foto in controluce, come ad esempio ad un panorama. Questo perché la differenza d'esposizione fra cielo (estremamente luminoso) e terreno (molto meno luminoso), consente di poter esporre correttamente solo uno dei due. In fotografia per poter "espandere" artificialmente la Gamma Dinamica, si ricorre in genere a dei "barbatrucchi" che consentono di poter fondere con un software per il fotoritocco, (come ad es. Adobe Photo Shop), le due esposizioni corrette (quella per il cielo e quella per il terreno), con una tecnica detta appunto della "doppia esposizione". Quando le condizioni di scatto, o il tipo di soggetto, rendono difficoltoso poter fondere le due immagini, se è possibile poter contare su un numero maggiore di due esposizioni diverse (quindi almeno 3), è possibile avvalersi della tecnica del Tone Mapping su immagini dette ad Alta Radianza o HDR (High Dinamic Range), ottenute dalla fusione dei tre scatti con esposizioni diverse. Questo se i nostri soggetti sono statici come dei panorami, con soggetti dinamici il discorso dell'espansione artificiale della gamma dinamica cade. Anche nella ripresa in video, pur essendo soggetti allo stesso tipo di problematica, non possiamo avvalerci naturalmente delle stesse tecniche d'espansione artificiale della gamma dinamica a cui si faceva riferimento per la fotografia. In questo caso, occorre supplire all'esposizione con sistemi di illuminazione aggiuntiva, perlomeno per soggetti a breve raggio.


I modelli di riferimento nel 3D.

Nei recenti software 3D (come Lightwave), si è scelto di poter disporre per i rendering, di una gamma dinamica espansa in partenza, lavorando con uno spazio colore più ampio, in modo da poter contare nello sviluppo delle immagini di sintesi, di un maggior dettaglio sia nel calcolo della alte che delle basse luci. Lightwave è stato pioniere in questo, in quanto è stato il primo software 3D commerciale ad adottare il sistema HDR nativamente ed oggi lo è ancor di più con il sistema "Linear Color Space Workflow", che permette sistemi di illuminazione più realistici e una maggiore flessibilità di resa nel compositing. Ma il problema di fondo di tutti i software 3D è un'altro: ...ossia il modello di riferimento scelto per riprodurre la realtà. Come giustamente faceva notare Lillo nel suo articolo, il modello che è possibile accostare ai vari software3D non è il sistema cognitivo umano, (per altro non ancora del tutto ancora conosciuto), ma bensì quello cine/fotografico e quindi anche della relativa attrezzatura. In questo modo, risulta più semplice utilizzare degli strumenti assimilabili a quelli che si utilizzano nei veri set cine/fotografici reali, ma al contempo, i limiti di cui questi strumenti virtuali soffrono rispetto alla realtà percepita, saranno gli stessi di quelli simulati, (quindi dei corpi fotografici e delle videocamere).


Differenze nella resa della luce fra un set reale e un set virtuale e importanza degli algoritmi di calcolo.

Sebbene sia molto utile, (direi pure "fondamentale"), apprendere le tecniche di illuminazione di scena applicate ai set reali, (ancora grazie Lillo!), è bene a mio avviso valutare anche quali limiti ci siano nella simulazione in 3D di questi set. Il termine "3D" è molto vago e a ben vedere infatti, se utilizzassimo le trasposizioni virtuali degli strumenti reali, con algoritmi di rendering 3D non adatti, esisterebbero poi notevoli differenze di resa nei risultati fra reale e virtuale, per cui verrebbe meno l'importanza di conoscere le tecniche di illuminazione reale. Ma cos'è in particolare che cambia dalla realtà? Semplice, cambiano le regole e i principi sulla quale si basa la luce nella vita reale. Più gli algoritmi su cui si basa il motore di calcolo del Software 3D sono accurati e corrispondenti alla realtà, più i risultati saranno pertinenti e quindi, più utile sarà capire come si comportano i professionisti nel loro lavoro. Per farmi capire meglio, porto un' esempio pratico. Sappiamo ad esempio che nei set foto/cinematografici reali, per ottenere della luce di "riempimento" o di "schiarita" di parti meno illuminate dei soggetti, si utilizzano dei pannelli bianchi dove far "rimbalzare" la luce detti "bank" e sono posizionati generalmente nel lato opposto a quello di provenienza della luce, oltre il soggetto. Ora supponendo di provare a riprodurre la stesa scena in 3D, se per il calcolo utilizzassimo ad esempio un semplice algoritmo di Ray Tracing, (dove i rimbalzi dei raggi emessi dalla sorgente di luce non vengono calcolati), sarebbe normale che il "trucco" del pannello dove far "rimbalzare" luce , non funzionasse. L'importanza di poter contare quindi su un sistema che abbia un minimo fedeltà a quelli che sono i principi di diffusione della luce diventa cruciale, se si vogliono sfruttare le conoscenze applicate nei sistemi di illuminazione reale.
E' vero che si possono escogitare degli espedienti per produrre situazioni di luce simili, ...ad esempio, (restando nell'esempio precedente), si potrebbe utilizzare al posto del piano passivo, un emitter diffuso tipo l' "area light" di Lightwave, con una bassa intensità di luce emessa, a simulare quella del primo emitter che doveva rimbalzare (e non può utilizzando il RT) sul piano passivo, ...ma dipende tutto dalla fedeltà dei risultati a cui si punta. Per far chiarezza su quest'aspetto porto un'altro esempio pratico. Supponiamo che ci venga chiesto di integrare della grafica 3D in un set reale, (cosa questa che è parte dell'ordinario nelle produzioni moderne). Bene, in questo caso diventerebbe di cruciale importanza poter disporre d'un sistema 3D che funzioni il più possibile come una vera cinepresa o fotocamera, di modo ché, l'integrazione fra i due mondi (CGI e realtà) sia il più invisibile possibile. E questo vale non soltanto a livello di motore di calcolo, ma anche a livello di impostazioni dei parametri sia della camera, sia delle unità di misura delle luci, (ma di questo ne parleremo meglio più avanti). Il ripiego su algoritmi e software non adatti a questo scopo, con trucchetti e artifici vari, molto spesso produce risultati scadenti come quelli di alcune produzioni economiche, dove la mancanza d'integrazione fra mondo reale e oggetti in CGI è palese e gli "effetti 3D" a questo punto, forse sarebbe stato meglio evitare di introdurli (almeno a mio parere). Diverso il caso ad esempio della produzione d'un cartone animato in 3D, dove occorre applicare sempre le stessi principi usati nei sistemi di illuminazione dei set reali, ma dove non è richiesta una fedeltà di resa all'ambiente che viene simulato, anzi, tutt'altro.

Siete stanchi? :D Spero di no, perchè ...continua...>

Fire
16-11-11, 15:29
I Software e gli algoritmi di calcolo 3D più adatti a simulare una situazione reale.

Occorre quindi fare molta attenzione a cosa si usa per produrre immagini in 3D e avere una buona conoscenza quindi anche delle possibilità di calcolo che il software che usiamo ci offre. In una scena come quella proposta ad esempio da Lillo, con un protagonista seduto ad una scrivania con una lampada al buio, può andar bene anche il semplice Ray Tracing, in quanto c'è poca luce, per lo più diretta e i rimbalzi di luce sulle superfici sono quasi assenti. Ma la situazione cambia (e anche di molto), se ci si trovasse in condizioni di luce diverse, situazioni in cui è invece la luce diffusa a farla da padrone. In quel caso, il "minimo sindacale" in termini di algoritmo necessario per avere una corrispondenza anche solo basilare dei risultati, si chiama "radiosity", algoritmo nel quale viene calcolata la luce riflessa e irradiata indirettamente, sia come intensità che come frequenza (e quindi colore). Ma il radiosity è un algoritmo molto vecchio e sebbene sia stato ottimizzato molto, risente ancora di molte limitazioni di resa. Per ulteriori approfondimenti sulle prerogative dei vari engine, vi rimando alla lettura dell'articolo specifico su motori di calcolo presente sullo stesso portale di LWITA (il rendering e dintorni (http://www.lwita.com/articles/rendering_dintorni/index.php)). Oggi sono disponibili moderni software che offrono algoritmi più fedeli del Radiosity, ma sopratutto, offrono un sistema di camere e luci paritetiche ai set reali. Vediamo in dettaglio su quali parametri è importante poter contare per poter effettuare un'agevole e fedele trasposizione dal mondo reale al 3D.


Impostazioni di camera.

Velocità dell'otturatore: In Lightwave è impostabile ai fini del motion blur, o meglio, viene ricavata in automatico a seconda delle impostazioni scelte per questo parametro nel pannello relativo (Pannello "Motion Effects", il valore "exposure time" espresso in secondi). In realtà nel sistema reale, il "motion blur" è una conseguenza della velocità dell'otturatore scelta ed è fondamentale per ricavare l'esposizione corretta. Esistono comunque engine esterni per Lightwave che offrono una gestione fedele e completa della camera e dei relativi parametri.

Apertura del diaframma: In Lightwave è impostabile dal pannello "Stereo and DOF", "Depth of field", il parametro permette di definire i l punto del piano di fuoco e la profondità di campo. In realtà, in fotografia, questo parametro è essenziale anche per definire quanta luce poter gestire, per cui anch'esso è fondamentale per ricavare l'esposizione corretta. Esistono comunque engine esterni per Lightwave che offrono una gestione fedele e completa della camera e dei relativi parametri.

Velocità ISO: Non essendoci nativamente in Lightwave una vera gestione dei parametri di camera, non esiste un parametro che emula la sensibilità del sensore virtuale della camera di Lightwave. Esistono comunque altri parametri (per lo più nella sezione dei parametri delle luci), come quello che regola la "luce ambiente", che sortisce un 'effetto di "schiarimento" della ripresa, ma non è esattamente la stessa cosa. Esistono comunque engine esterni per Lightwave che offrono una gestione fedele e completa della camera e dei relativi parametri.

In Lightwave è possibile definire anche la dimensione del sensore e la lunghezza focale dell'obbiettivo simulato e scegliere la camera da un database dei modelli più utilizzati (non molto aggiornato in verità). Inoltre, scegliendo una "Real Lens Camera", c'è la possibilità di fornire al software ulteriori dettagli dell'attrezzatura simulata, come l'angolo di campo (FOV in gradi) dell'obbiettivo utilizzato, indicando esattamente la sigla dell'ottica compresa in un database. Queste impostazioni non sono complete come nei motori di rendering esterni per Lightwave (che simulano in tutto e per tutto un vero corpo digitale), ma riescono a fornire un sistema per aggirare l'ostacolo. Manca però a mio avviso la naturalezza per chi opera, di poter agire esattamente come agirebbe con un vero corpo camera e di conseguenza, con quest'approccio esistono più problemi quando occorre un parallelismo reale / vituale.


Impostazioni di scala e parametri di illuminazione.

A mio avviso, attualmente la più grave mancanza in Lightwave relativamente a questi temi, (come in verità anche nella maggior parte del Software 3D concorrente), per ragionare in termini reali (e quindi facilmente riconducibili ai settaggi di scena), è la mancanza di una corrispondenza di scala nel sistema di illuminazione e la mancanza di un sistema basato su parametri fotometrici reali. Per chiarire meglio quest'aspetto, porto anche qui degli esempi pratici. Supponiamo di voler illuminare un' ambiente, come può esser una semplice stanza, con una fonte di luce e di voler riprodurre questa scena al PC. La maggior parte di chi legge penserà che è un compito estremamente semplice per la cui realizzazione al PC occorrono pochi minuti: ...una primitiva "box" (cubo) senza un lato (da dove inquadrare) e un emitter sulla faccia/soffitto e il gioco è fatto. Bene, supponiamo ora di voler capire se l'illuminazione data da quell' emitter è sufficiente ad illuminare alcuni oggetti all'interno della stanza. E' qui che cominciano i "problemi". Una volta stabilito nel Layout il "giusto" parametro di luminosità "Light Intensity" nel pannello "Light Properties", (che ricordo esser in Lightwave solo un valore percentuale, ...ma "percentuale" di cosa poi?) e magari anche la tonalità in valori RGB, ...come lo trasformiamo in un valore reale? Semplicemente, non è possibile. Se qualcuno pensa che per ovviare a questa mancanza sarebbe bastato un "semplice" utilizzo nel Software di NT, di valori comunemente usati, come le unità di misura espresse in Watt, anticipo che neanche questo, di per se, sarebbe bastato, almeno non senza una descrizione fisica dell'emettitore che comprendesse anche la tipologia specifica del tipo di emissione. La tipologia dell'emettitore infatti , influisce sull'efficienza dell'emissione luminosa, ...cosa importantissima di cui credo la maggior parte si siano resi conto nel quotidiano, con il passaggio dalle vecchie lampadine a filamento di tungsteno, alle moderne lampadine a "basso consumo", dove la potenza in Watt di "consumo" è diversa da quella della luce in Watt "emessa", con un rapporto di efficienza spesso pari a 1:4 e anche più (tipo 25W di consumo e 100W di luce). Questa è l'importanza dell'efficienza che occorre sempre specificare. Ma non solo, ...l'altro importante aspetto a cui accennavo è quello della correlazione fra le dimensioni di scala del progetto e quelle luminose. Se si disegnasse infatti quella famosa "stanza" di cui sopra, senza fare caso (come spesso accade quando non si è abituati), al fattore di scala del sistema metrico/decimale, ...piazzando una "lampadina" (ossia una luce di Lightwave) nel soffitto virtuale, il tutto funzionerebbe comunque , a prescindere dalla scala e otterremo così la nostra stanza illuminata. C'è da chiedersi se questa scelta nella semplicità d'un approccio poco realistico (ma efficace) è un bene o un male. A mio modo di vedere direi "dipende", ossia, ...dipende dai casi, vediamo perché. Supponiamo ora di esportare questa scena in un motore di rendering esterno ad alto profilo fisico com'è Maxwell Render (ma anche FryRender o altri) e proviamo a renderizzare. Il tempo passa ma lo schermo resta nero, ...eppure abbiamo impostato per la luce un valore del 100%, ...quindi com'è possibile? C'è qualcosa che non va, anche se in effetti, renderizzando con l'engine nativo di Lightwave il tutto funzionava. Torniamo quindi ad analizzare meglio la scena in Lightwave e osservando la griglia ci accorgiamo che la stanza ha la dimensione di base di 100mt! (Valore casuale questo in quanto non abbiamo fatto inizialmente caso a quest'aspetto, perché ininfluente ai fini dell'illuminazione nell'engine interno del software NT. In un Software come Maxwell Rendr invece, che "ragiona" in modo reale, era un pò come cercare di illuminare un campo di calcio con una lampadina da 100W! In sostanza, l'energia luminosa emessa quindi, deve necessariamente essere proporzionale al fattore di scala, per poter avere una trasposizione corretta fra reale e virtuale.

Come esempio di fedeltà di trasposizione reale/virtuale, porto una vecchia prova fatta a posta per saggiare le capacità di realismo possibili. E' stata utilizzata una tipica "Cornell Box", ossia un classico test volto a determinare l'accuratezza del software di rendering confrontando la scena renderizzata con una fotografia reale della stessa scena con oggetti, luci e camera reali. In pratica si tratta di una sorta di scatola con un lato aperto da cui inquadrare al scena, con due pareti opposte di colore diverso (verde e rosso, le altre bianche), delle primitive geometriche al suo interno e una fonte di luce dal piano che fa da soffitto. L'autore, (nick Jomanga), utilizzò la sua reflex digitale, una Nikon D70 per questa prova e come motore di rendering Maxwell Render (nella vecchissima v.1.0). In questa versione del software, se pur vecchissimo, fu possibile specificare gli stessi parametri dimensionali e luminosi usati per la scena reale. I risultati in termine di veridicità del sistema di esposizione e illuminazione parlano da soli.

http://www.maxwellrender.it/images/News/jomanga/cornell_announcement%2001.png

PHOTO:

Dimensioni Cornell Box: (LxAxP) 50x50x50cm.
DSLR Camera: Nikon D70 (sensore 23.7x15.6mm)
Obbiettivo: (Lunghezza focale) 24mm.
EXIF: (Parametri di scatto) TV 1/90" | AV f/8 | ISO-200
Lampada: a fluorescenza Philips Master PL electronic 865 (6500k) | 27W | 1700 Lumen | Efficienza: 62,96 Lumen/W

MAXWELL RENDER v. 1.0:

Dimensioni Cornell Box: (LxAxP) 50x50x50cm.
Maxwell Camera (sensore 23.7x15.6mm)
Obbiettivo: (Lunghezza focale) 24mm.
EXIF: (Parametri di scatto) TV 1/90" | AV f/8 | ISO-200
Lampada: Maxwell Emitter (6500k) | 27W | 1700 Lumen | Efficienza: 62,96 Lumen/W


Conclusioni.

Parlando di Lightwave 3D, il mio augurio a questo punto, è quindi che, una volta risolte le priorità, si pensi anche a cambiare radicalmente approccio in determinati aspetti, facendo "nostra" la stessa filosofia "like real" che hanno già adottato altri, perlomeno per quanto riguarda la simulazione della camera, i parametri illuminotecnici e la relativa connotazione con le misure di scala. Sono certo che sarà molto più semplice riprodurre scene reali e ottenere maggiori soddisfazioni dalla conoscenza dei sistemi utilizzati nei set reali, da professionisti del settore, sia in termini di tempo per riprodurre in 3D le scene, che di qualità dei risultati ottenuti.

Prima di chiudere: ...sò per mia esperienza che conoscere i temi degli argomenti che si vogliono comunicare e riuscire nell'intento di comunicarli, sono cose ben diverse, per cui spero d' essermi riuscito spiegare. Se così non fosse, naturalmente, non avete che da chiedere! :)

Fabio.

Theiamania
16-11-11, 15:55
Wow, bella roba. Stampo e prendo appunti. Poi ti raffico di domande... :D

BRAVO!

happymilk
16-11-11, 16:18
Davvero un bel post... :clap: succinto come al tuo solito :evil:
Hai aperto molti "paragrafi" di discussione: dalla teoria del funzionamento Uomo/macchina/software in campo fotografico alla disamina dei limiti dei software 3d in campo fotografico.
Condivido tutta la tua esposizione. Ma mi soffermerò solo sull'ultima parte (perchè io a differenza tua non son così bravo a scrivere pagine e pagine).
Parlando dei limiti di LW:
immagino che il perchè LW sia nato con quei compromessi nella gestione della luce sia abbastanza comprensibile. Negli albori della grafica 3D era già tanto poter usare un algoritmo basico come il raytracing.
Figuriamoci a pensare d'andare oltre. Il motivo per cui LW, poi, non ha adottato (quando i tempi erano maturi) un sistema di gestione luce/camera/materiali (te ne sei dimenticato ma anche i materiali giocano un ruolo fondamentale per la visualizzazione) immagino risieda nell'impossibilità di stravolgere un sistema oramai conosciuto agli utenti con qualcosa di diverso e incompatibile. non credo che NT stravolgerà a breve il suo modo di gestire camera e luci (per i materiali ha fatto molto con i nodi ma l'usarli o meno è una scelta che fa l'utente e non ti viene imposta) semplicemente perchè perderebbe la possibilità di gestire i vecchi progetti.
Aver adottato tante semplificazioni ha poi comportato l'impossibilità di "capire" quale metodo usa ogni utente per raggiungere il suo scopo.

Certo... per me che faccio archiviz farebbe comodo un modo "fisico" per descrivere la mia scena. E a volte mi perdo in prove e controprove per trovare un mix decente.
Per fortuna ad LW si può da tempo affiancare un motore di rendering che possa supplire alle sue mancanze. MWR o Fray sono i noti dei software che permettono un controllo della luce e della camera utilizzando parametri reali.
Lo scotto in questo caso è che algoritmi complessi richiedono una quantità maggiore rispetto alle soluzioni più "compromesse" fornite dall'engine nativo. E se è vero che per uno still life a volte la fase di setup con LW è talmente lunga da vanificare il minor tempo richiesto per il rendering... è altresì vero che nelle animazioni questa differenza ancora pesa a favore degli engine biased.

In ultimo... c'è l'aspetto artistico. E' vero che si è artisti anche utilizzando sistemi reali e che la magia non risiede nel barare sulle regole della fotografia ma, semmai, nel creare l'illusione rispettando le regole. Ma questo richiede una profonda conoscenza di fotografia, fotometria e compagnia bella... e seppur condivido la tua convinzione che conoscere vuol dire crescere... d'altro canto non vorrei che rimanessero solo software 3D che prima di generare un immagine ti chiedano un corso di fisica della luce...
In fondo abbiam tutti imparato a disegnare con pennarelli e matite... e le nostre casette eran belle anche senza essere realistiche o realizzabili. Qualcuno poi è diventato architetto... altri son rimasti alle casette colorate coi pennarelli... ma tutti han potuto cominciare giocando...
;)

un saluto
Mirko

Fire
16-11-11, 16:40
Wow, bella roba. Stampo e prendo appunti. Poi ti raffico di domande... :D
BRAVO!
Grazie ...son qui apposta! ;)
Fabio

desegno
16-11-11, 16:49
oh mamma!!! è lunghissimo....lo leggerò con calma!!! grazie fire!!! pozzo di conoscenza!!! !P

Fire
16-11-11, 17:41
@ Nico: ...grazie Nico, troppo buono (...approfitto per ringraziare adesso, perchè d'opo che l'avrà letto sarà molto meno generoso :evil:)

@ Mirko (...non ti quoto altrimenti questo topic c'arriva alle ginocchia :D ...come lunghezza di pagina intendo eh! :D). Grazie anche te e come sai il tuo giudizio mi fa sempre molto piacere. Dunque, le mie intenzioni erano sopratutto quelle di evidenziare i limiti di una trasposizione set-reale / set-3D approssimativa. Forse nella mia analisi l'ho presa un pò alla larga in effetti :D, ma cercavo d'esser esaustivo. Circa Lightwave e relativi limiti delle impostazioni di camera e di luci, non critico il software proprio per le ragioni che tu stesso citi e che sono comprensibilissime, (del resto sarebbero da criticare anche tutti gli altri "concorrenti" che sono nella stessa situazione), la mia è una costatazione di fatto e un'augurio di miglioramento mirato in questo senso per il futuro. E dei materiali non è che mi son dimenticato, ma quell'aspetto per me viene dopo: ...in questo topic mi sono riferito solo agli "ingredienti" minimi necessari ad una trasposozione realistica di parametri fra attrezzatura cine/fotogrfica reale e virtuale. Gli esempi che porto tuttavia indicano proprio l'auspicio da parte mia che si intraprenda per il futuro quella strada e questo, a prescindere dal livello di attinenza al realismo dell'engine. L'importante è che perlomeno si inizi ad avere una camera che "ragiona" con parametri fotogrfici reali e un sistema di luci che si basi su parametri reali correlati al fattore di scala. Personalmente non credo sia una cosa impossibile e dall'introduzione delle "real lens & real camera" credo che abbiano iniziato a pensarci anche in NT, anche se ora come ora magari hanno altre priorità. Almeno, da vecchissimo utente LW lo spero vivamente! :)

Fabio

amb
17-11-11, 09:35
Dovro' prendere un giorno di ferie per leggere tutto. :mmgh:

Ma tu come fai? Confessa: hai assoldato un ghost writer. ;)

Grazie per il lavorone. :yt:

Fire
17-11-11, 10:16
Dovro' prendere un giorno di ferie per leggere tutto. :mmgh:

Ma tu come fai? Confessa: hai assoldato un ghost writer. ;)

Grazie per il lavorone. :yt:
Come ho fatto? Semplice, ...l'ho scritto a "puntate" :D (così non ho dovuto prender ferie anch'io).

Prego, è un piacere scrivere per ragazzi come voi... :g1: (...spero solo a questo punto di non aver scritto troppe baggianate :D)

Fabio

Nemoid
17-11-11, 13:29
complimenti Fire, anche il tuo articolo è molto illuminante. :D

Sarebbe bello che anche Lw evolvesse verso una direzione più simile alla situazione reale.
L'unica cosa che ho pensato è però che siccome esistono già altri motori di rendering, appunto non biased e con tutti i parametri al loro posto, per simulare una situazione reale, forse in certi casi è semplicemente meglio usare quelli.

Lw mi pare nato per vfx e come tale, forse un approccio realistico così spinto non è nemmeno fondamentale...

Fire
17-11-11, 16:15
complimenti Fire, anche il tuo articolo è molto illuminante. :D ...
Grassie ragazzo :D



Sarebbe bello che anche Lw evolvesse verso una direzione più simile alla situazione reale.
L'unica cosa che ho pensato è però che siccome esistono già altri motori di rendering, appunto non biased e con tutti i parametri al loro posto, per simulare una situazione reale, forse in certi casi è semplicemente meglio usare quelli.

Lw mi pare nato per vfx e come tale, forse un approccio realistico così spinto non è nemmeno fondamentale...
Si ...l'avevo pensato anch'io, esistono già dei motori esterni a cui rivolgersi all'occorrenza, ...ma riflettendoci meglio però, si tratta pur sempre d'un costo aggiuntivo e in quel costo, si paga anche il realismo estremo della resa dell'engine che a volte, non sempre serve.

Qualità del rendering a parte, basterebbe avere la possibilità d'un più semplice parallelismo fra i dati di camera reale e quella virtuale e anche di poter inserire, (senza impazzire a fare 1 megalione di prove), i valori delle luci che si usano nel set reale o ...viceversa. Penso che la produttività ne gioverebbe davvero molto... specialmente quando si tratta di fare del compositing (se poi ci degnassero d'un sistema di matching nativo degno di questo nome ...sarebbe anche meglio e ...sarebbe anche ora ;)). Credo infine, che anche proprio nei VFX, (dove l'intergrazione scene reali e CGI è fondamentale), queste cose potrebbero dare un'ulteriore spinta nella giusta direzione... IMHO. :)

Fabio

elle esse
21-11-11, 13:03
ciao fabio, complimenti per il gran lavoro. ci sono diverse cose che ho apprezzato, altre che pur apprezzandole non condivido. chissà, magari, in un futuro incontro tra lightwaiani ne potremmo parlare meglio mangiando una pizza. grazie comunque per il gran contributo, lo dico di cuore.

Fire
21-11-11, 13:32
ciao fabio, complimenti per il gran lavoro. ci sono diverse cose che ho apprezzato, altre che pur apprezzandole non condivido. chissà, magari, in un futuro incontro tra lightwaiani ne potremmo parlare meglio mangiando una pizza. grazie comunque per il gran contributo, lo dico di cuore.
Ciao Lillo, la cosa bella di internet in generale e dei forum in particolare, è proprio la possibilità di confronto e quindi anche di crescita, (se la pensassimo tutti allo stesso modo ci sarebbe molto meno da imparare :)). Grazie per il tuo apprezzamento, (a cui tengo molto) e grazie ancora per tutto quello che stai facendo per noi! Spero proprio ci sia possibilità di incontrarsi prima o poi :g1:

Fabio.

happymilk
21-11-11, 15:08
Si ...l'avevo pensato anch'io, esistono già dei motori esterni a cui rivolgersi all'occorrenza, ...ma riflettendoci meglio però, si tratta pur sempre d'un costo aggiuntivo e in quel costo, si paga anche il realismo estremo della resa dell'engine che a volte, non sempre serve.

Fabio

Beh... a breve non la vedo una cosa su cui NT punterà... perchè si tratterebbe di integrare il suo engine con un altro che gestisca tutte le nuove caratteristiche che le nuove camere, le nuove luci e (magari) il nuovo physical sky gli fornirebbe. In pratica dovrebbe esser lei stessa a far concorrenza ai vari Kray, maxwell etc etc a seconda della complessità a cui vuol spingersi.
Certo sarebbe bello averlo integrato... ma se NT deve tralasciare altri aspetti del programma (che ormai son vecchiotti) per dedicarsi a fare una copia (magari mal riuscita) di un programma che già c'è forse non è conveniente...
Io credo che la strada sia la massima apertura dell'sdk. Così che ogni programmatore possa andare a lavorare su qualsiasi aspetto del programma per aggiungere le feature che mancano adesso.

PS: la real camera è stata una bella cosa (ogni tanto la uso ancora)... solo che a chiudere (nel senso che l'utente non può aggiornarlo) il database delle camere e delle lenti e a non aggiornarlo per più di 3 anni... si rischia di esser percepiti come azienda che ha le capacità ma non la testa per gestirle... questo sembra... o almeno. questo sembrava. Adesso speriamo che ci sia un cambio di rotta... :)

PS: non ho la 11 perchè non sono HC. Ma ho letto di qualcuno che ha provato le istanze con le dinamiche e sembra che non siano "collegabili"... nel senso che non posso animare dinamicamente le istanze. Se così fosse non sarebbe un buon segnale per quello che dicevo giusto poche righe sopra... ma forse è meglio aspettare la release finale
;)

Nemoid
21-11-11, 17:12
Per quanto riguarda la camera, sicuramente un più stretto collegamento camera reale/camera virtuale potrebbe giovare, in quanto a parametri da inserire. Stessa cosa potrebbe valere per le luci, utili specie per archiviz. Non è mai un male avere delle opzioni. :)

Nei Vfx bisogna tenere conto che molto raramente l'immagine finale è il prodotto del puro rendering dal pacchetto 3D, ma che essa viene sempre rielaborata in postproduzione, sia la ripresa reale che gli oggetti elaborati in 3D. Di conseguenza anche se ci fosse una perfetta (o quasi) corrispondenza di resa tra reale e virtuale servirebbe comunque come base per un immagine finale, che come dice anche Lillo nei suoi articoli, appare reale, ma non lo è davvero. :coolpic:
Essendo l'immagine composta da diversi elementi eterogenei che vengono poi integrati in post, non è detto che questa corrispondenza così precisa sia per forza necessaria.

Evidentemente quando molti pacchetti 3D sono stati pensati, per molte ragioni non si è optato per queste soluzioni (teniamo conto che il render unbiased anche solo come concetto è arrivato solo di recente) mentre forse ora potrebbero essere alla portata di molti pacchetti: così come si è arrivati alla GI e radiosity si potrebbe pensare di andare oltre anche nei render built in, tempi di render permettendo...:D

In definitiva però sono d'accordo il discorso di Mirko: allo stato delle cose e specialmente per LW per il rendering è più realistico pensare ad un SDk apertissimo che permetta di utilizzare al meglio con LW dei render esterni unbiased con tutte le possibilità che essi permettono, piuttosto che riscrivere il rendering in LW.

Theiamania
22-11-11, 08:06
Ciao a tutti,
la mia modesta opinione è che avere un iperrealismo nel rendering aiuta davvero moltissimo nei casi di fiction e VFX, in cui i materiali più sono omogenei e più è facile fare post produzione (Color MAtch, Color Correction, Color Gradind eccetera...).
Suglia ltri usi, invece, dipende dalle esigenze: personalmente preferisco anche io una bella foto ben scattata che un redering iperrealistico. Ma è un'opinione.

Ciao!

Fire
22-11-11, 20:06
Beh... a breve non la vedo una cosa su cui NT punterà... perchè si tratterebbe di integrare il suo engine con un altro che gestisca tutte le nuove caratteristiche che le nuove camere, le nuove luci e (magari) il nuovo physical sky gli fornirebbe. In pratica dovrebbe esser lei stessa a far concorrenza ai vari Kray, maxwell etc etc a seconda della complessità a cui vuol spingersi.
Certo sarebbe bello averlo integrato... ma se NT deve tralasciare altri aspetti del programma (che ormai son vecchiotti) per dedicarsi a fare una copia (magari mal riuscita) di un programma che già c'è forse non è conveniente...
Io credo che la strada sia la massima apertura dell'sdk. Così che ogni programmatore possa andare a lavorare su qualsiasi aspetto del programma per aggiungere le feature che mancano adesso...
Bhè ma occorre star attenti a non mischiare le cose, :) ...avere una camera più realistica e luci che si basano su parametri reali, non significa di per se "far concorrenza" agli engine esterni ;) (di cui tra le altre solo gli Unbiased migliori dispongono). Questa cosa della camera e delle luci a cui accennavo è solo una parte del discorso. A ben vedere poi, un piccolo "KRay" se vogliamo, Lightwave ce l'ha già integrato con il nuovo engine (e altre cosette). Del tutto diverso invece il discorso Maxwell Render et simila.
Comunque parlando di SDK, il software NT non è fra quelli messi peggio, ma credo che la via giusta per il futuro, parlando di queste cose, sia correggere le cose nativamente e a monte: ...sempre più in futuro si cercheranno strade per semplificare la vita a chi opera per permettergli di concentrarsi più sul messaggio che non su assurdi tecnicismi richiesti dal mezzo scelto, ...ci vorrà tempo, ...ma il trend è quello. ;)


Per quanto riguarda la camera, sicuramente un più stretto collegamento camera reale/camera virtuale potrebbe giovare, in quanto a parametri da inserire. Stessa cosa potrebbe valere per le luci, utili specie per archiviz. Non è mai un male avere delle opzioni. :)

Nei Vfx bisogna tenere conto che molto raramente l'immagine finale è il prodotto del puro rendering dal pacchetto 3D, ma che essa viene sempre rielaborata in postproduzione, sia la ripresa reale che gli oggetti elaborati in 3D. Di conseguenza anche se ci fosse una perfetta (o quasi) corrispondenza di resa tra reale e virtuale servirebbe comunque come base per un immagine finale, che come dice anche Lillo nei suoi articoli, appare reale, ma non lo è davvero.

Essendo l'immagine composta da diversi elementi eterogenei che vengono poi integrati in post, non è detto che questa corrispondenza così precisa sia per forza necessaria. ...
Per il VIZ la cosa è di vitale importanza, questo è certo, lo sa bene chi quotidianamente ci "combatte". Detto questo su molti pacchetti se n'è potuto far a meno sin'ora e se ne potrà ancora far a meno, ...ma chi si è abituato "bene" posso garantire rischia lo ..."shock anofilattico" a tornar indietro! :D
Per gli effetti, il discorso è analogo anche se è vero che la post produzione è più massiccia. Generalmente ci si affida al compositing multipass per layer su ogni singolo frame, però anche qui, poter lavorare con i parametri di ripresa significa tagliare alcuni passaggi (o quantomeno velocizzarli) e quando queste velocizzazioni le applichi su migliaia di fotogrammi, ...la cosa prende una certa importanza. Se n'è potuto far a meno in passato, certo, ma chi per primo offrirà certi benefici per il futuro avrà una marcia in più. Non a caso stanno aumentando le case che impiegano MWR in produzione, pur con i suoi tempi. Poter offrire la naturalezza di impostazioni del SW di NL con una accuratezza da engine standard credo possa rappresentare una mossa vincente.


Evidentemente quando molti pacchetti 3D sono stati pensati, per molte ragioni non si è optato per queste soluzioni (teniamo conto che il render unbiased anche solo come concetto è arrivato solo di recente) mentre forse ora potrebbero essere alla portata di molti pacchetti: così come si è arrivati alla GI e radiosity si potrebbe pensare di andare oltre anche nei render built in, tempi di render permettendo...:D
Esatto!!! Proprio così. Sono soluzioni di concezione recente e qualità del rendering a parte, rappresentano comunque il futuro.


... In definitiva però sono d'accordo il discorso di Mirko: allo stato delle cose e specialmente per LW per il rendering è più realistico pensare ad un SDk apertissimo che permetta di utilizzare al meglio con LW dei render esterni unbiased con tutte le possibilità che essi permettono, piuttosto che riscrivere il rendering in LW.
Non dovranno riscrivere il rendering, ma solo parte del modo in cui passare i parametri all'engine. ;)
In ogni caso, sperare è gratis! :D

Fabio

Nemoid
22-11-11, 20:51
Penso comunque che alcuni di questi parametri verranno adeguati nel tempo.
Ad esempio, adesso per film come Avatar 2 di Cameron e Hobbit di Peter Jackson si sta optando di girare a 48 frames al secondo o addirittura 60. Già questo andrà a cambiare diverse cosette riguardanti anche il motion blur, tanto che molti si chiedono pure se il gioco vale la candela...

Magari può essere anche l'occasione in Lw per adeguare il resto dei parametri di inserimento per la camera. :)

Tra l'altro, stavo pensando che essendo Lw usato per virtual moviemaking da Powers, magari postando un quesito riguardante la differenza tra i parametri di Lw e quelli delle camere utilizzate in queste produzioni, ne deriverebbe una discussione interessante pure su Nt forums...

Fire
23-11-11, 09:56
Vero... sarei curioso anch'io di sentire il parere di Powers al riguardo. La cosa certa è che comunque avere al timone uno come lui che campa (o che campava, essendo ora in NT :rolleyes:) di produzione e relative esigenze, di certo è stata la salvezza del "nostro", ...non so quante altre software house possano vantare la stessa esperienza sul campo a livello dirigenziale.

F.

happymilk
23-11-11, 13:03
Bhè ma occorre star attenti a non mischiare le cose, :) ...avere una camera più realistica e luci che si basano su parametri reali, non significa di per se "far concorrenza" agli engine esterni ;) (di cui tra le altre solo gli Unbiased migliori dispongono). Questa cosa della camera e delle luci a cui accennavo è solo una parte del discorso. A ben vedere poi, un piccolo "KRay" se vogliamo, Lightwave ce l'ha già integrato con il nuovo engine (e altre cosette). Del tutto diverso invece il discorso Maxwell Render et simila.
Comunque parlando di SDK, il software NT non è fra quelli messi peggio, ma credo che la via giusta per il futuro, parlando di queste cose, sia correggere le cose nativamente e a monte: ...sempre più in futuro si cercheranno strade per semplificare la vita a chi opera per permettergli di concentrarsi più sul messaggio che non su assurdi tecnicismi richiesti dal mezzo scelto, ...ci vorrà tempo, ...ma il trend è quello. ;)
Fabio

Il problema, che tu hai evidenziato benissimo nel post d'apertura di questo thread, è che Lightwave si basa su tutta una serie di compromessi che rappresentavano (probabilmente) l'unica strada percorribile per fare CG ai tempi dell'amiga.
E ci sono intere generazioni di utenti che hanno imparato ad usare quei parametri e che ancora li usano perchè sanno cosa cambiare (e dove) per ottenere quello che gli serve.
Integrare una camera definibile su parametri reali semplicemente scombinerebbe certi settaggi di default che ognuno s'è creato. E che son tutti diversi... proprio perchè non si appoggiano su regole fisiche ma su valori empirici.
"Costringere" tutta l'utenza di LW a modificare, non solo, il proprio workflow... ma anche la loro "familiarità" con il programma per approdare ad un approccio più "fisico" della gestione dei parametri lo vedo pericoloso. Molto interessante (per chi come me sente il bisogno di definire una luce secondo le candele e non secondo una percentuale) ma, almeno all'inizio, sicuramente difficile da gestire. Immagino intere produzioni ferme a ridefinire tutti i settaggi di materiali, luci e camere per adattarsi ai nuovi parametri "reali". Temo che potrebbe essere un autogol da parte di NT.

Discorso diverso è, secondo me, quello che fa chi, come te, ha scelto di integrare LW ad un prodotto che gli permetta la gestione reale di tutta una serie di parametri. Perchè lì l'utente è consapevole d'avere a che fare con un modo tutto nuovo di gestire le cose e, se lo sceglie, è perchè lo vuole.

Ed è per questo che io credo che LW non dovrebbe avere degli stravolgimenti nel breve periodo. Vedrei bene delle integrazioni che possano essere implementate a discrezione senza che ci sia uno stravolgimento di abitudini.

Il discorso dell'sdk è perchè, sempre secondo me, la strada per il futuro è quella di permettere a chi voglia fare un engine "fisico" per LW di poter accedere a tutti gli aspetti del programma. E se le luci standard non gli bastano che possa crearsi delle luci. Stesso discorso per le camere e per tutto il resto. So che questa cosa c'è già... basti vedere il lavoro di pontonnier per capire le potenzialità... ma mi suonano ancora nelle orecchie le critiche mosse da vari programmatori (negli scorsi anni) alla difficoltà di implementare Plugin per LW a causa della chiusura dell'sdk... per cui adesso ho sempre un pò il timore che ci siano ancora delle aree di miglioramento. Credo che Lino potrebbe confortarmi dicendo che adesso l'sdk di LW è apertissimo e senza limitazioni... perchè io non ne ho idea.
:)

Fire
23-11-11, 14:44
Mirko, ti rispondo da utente che utilizza LW in entrambe i modi (usando anche MWR perfettamente integrato in LW) e che ha quindi un quadro della situazione. Quello che mi sento di dirti è che a mio modo di vedere, le cose sono meno difficili di quel che forse sembra. Per la camera i settaggi in linea di massima già ci sono, ...si tratta di farli funzionare interamente per quel che nascono e non solo per una parte del loro effetto. In fondo in fotografia l'esposizione la calcoli con 3 parametri (TV, AV e ISO) e credo che imparare a ragionare correttamente oltre che utile sia pure educativo per l'utenza: ...utilizzando MWR, quando ho acquistato la mia prima Reflex sapevo già usarla senza nessun corso e potendo verificare con mano quanto imparato nel virtuale. Per le luci, ...non dirmi che credi davvero che poter usare dei normali valori in Watt (ansichè delle assurde percentuali) per l'utenza possa esser un problema? Chi non ha mai cambiato una lampadina? :D A mio avviso ci si abituerebbe al nuovo modo di ragionare in "2 secondi 2". Il cambiamento potrebbe forse portare qualche disaggio inizialmente (e secondo me potrebbe anche non essercene proprio ...o quasi), ...in compenso i vantaggi per il futuro sarebbero innegabili e in ogni caso, ogni cambiamento generalmente comporta un piccolo dazio, ma in genere se lo si fa, significa che ne val la pena.

Il problema, che tu hai evidenziato benissimo nel post d'apertura di questo thread, è che Lightwave si basa su tutta una serie di compromessi che rappresentavano (probabilmente) l'unica strada percorribile per fare CG ai tempi dell'amiga.
Il problema è proprio questo Mirko ...ossia che nel 2011, (in questo senso), siamo ancora fermi ai tempi dell'Amiga (e ...ragazzo, la "A" maiuscola è d'obbligo! :memad::D). Se allora, come giustamente dici, era "...(probabilmente) l'unica strada percorribile per fare CG...", ora non lo è più ...IMHO. ;)

Anyway... non è che la si debba per forza di cose pensare allo stesso modo e probabilmente, c'avrete anche ragione nel dire che questo non sarà un cambiamento a cui NT pensa nel breve periodo (mai pensato il contrario), ...ciò non toglie che al sottoscritto questo cambiamento piacerebbe molto e che dire verso quale direzione vorresti veder indirizzato il tuo strumento di lavoro preferito è un dovere al quale purtroppo per voi ...non posso sottrarmi. :evil: :D Dovrete sopportare ancora i miei ...vaneggiamenti :D

Fabio

Nemoid
23-11-11, 14:58
Non so bene perchè fu fatta la scelta di usare i parametri presenti in Lw adesso, soprattutto per quanto riguarda i settaggi della camera che in fondo già all'epoca potevano essere anche già simili.

Una cosa che mi viene in mente è che per vfx col piffero che in produzione ricevono sempre i dati su come son state fatte le riprese, valore e piazzamento luci, settaggio della camera... e per queste ragioni molto probabilmente non si è pensato a questa differenza tra virtuale e reale.

Però adesso che le tecnologie sono cambiate e che si fa sempre più utilizzo di virtual moviemaking è probabile che si vada verso una direzione di corrispondenza maggiore, perlomeno per quanto riguarda la camera.

happymilk
23-11-11, 15:14
Mi sta frullando in testa un idea da qualche settimana e che questo thread ha fatto diventare ancor più d'attualità.
Quello che mi manca è il tempo di preparare quanto serve... ma con un pò di pazienza tra un pò vorrei postare una discussioncina (spero) interessante... ;)

Fire
23-11-11, 18:36
Non so bene perchè fu fatta la scelta di usare i parametri presenti in Lw adesso, soprattutto per quanto riguarda i settaggi della camera che in fondo già all'epoca potevano essere anche già simili.

Una cosa che mi viene in mente è che per vfx col piffero che in produzione ricevono sempre i dati su come son state fatte le riprese, valore e piazzamento luci, settaggio della camera... e per queste ragioni molto probabilmente non si è pensato a questa differenza tra virtuale e reale.

Però adesso che le tecnologie sono cambiate e che si fa sempre più utilizzo di virtual moviemaking è probabile che si vada verso una direzione di corrispondenza maggiore, perlomeno per quanto riguarda la camera.
In effetti, andando a memoria, direi che quelle impostazioni erano già le stesse sin dalle prime relise del software funzionante solo su piattaforma Amiga, ancor prima delle versioni PC. Quindi all'epoca l'idea di integrazione CGI / girato era abbastanza aleatoria (se non inesistente) e non c'erano particolari motivi per pensare a dei veri settaggi fotografici. Tutt'al più, la preoccupazione all'epoca era quella di ottenere risoluzioni e sistemi compatibili con registratori BetaCam dove le animazioni venivano montate con schede di controllo single frame a "passo 1" (con il mio studio ordinammo dagli Stati Uniti la mitica BCD per questo scopo, dove occorreva scrivere un file batch per pilotarla! :D che tempi!). Lightwave è stato un pò un precursore, potendo esser fra i primi Sw non High End a poter pilotare anche sistemi professionali di stampa su pellicola cinematografica. Ma parliamo sempre solo di Output.

Riguardo l'Input invece, in passato ovviamente c'era meno attenzione all'aspetto dati di esposizione e illuminazione del set, perchè non te ne facevi niente sul PC: ...oggi invece, le cose sono profondamente diverse. Alcune delle cose che in generale tornano utili per l'integrazione con il girato a mio avviso sono:

Compatibilità con i dati di motion capture
Sistema di Camera Matching adeguato ai tempi
Compatibilità con i dati di illuminazione e camera
Compatibilità con sistemi di illuminazione per immagini (IBL)
Salvataggio dei dati in Multipass per fotogramma per il compositing

Di queste cose, l'unico neo assente nell'arsenale a disposizione di LW, resta proprio la compatibilità con i dati di illuminazione e camera, ma ad onor del vero, in questo senso è ancora in buona compagnia, son ancora pochi i Sw a "ragionare" nel modo giusto, la stragrande maggioranza, come LW, è ancora legata alle origini del Sw (anche se non è una gran consolazione).

Fabio

@ Mirko: ...non fare il misterioso e sputa l'osso! :D

Nemoid
23-11-11, 19:26
già la cosa strana è che anche softwares come Maya o XSI se non erro non hanno parametri simili alla camera reale...qui però siamo già più avanti ed erano usati in grosse produzioni già anni fa, dovrebbero avere parametri più moderni mi sa...:yt:

Fire
24-11-11, 12:03
Bisogna però considerare che all'epoca in cui LW muoveva i primi passi, Maya si chamava in realtà Wavefront ed era una cosa molto diversa, così come XSI si chiamava in realtà SoftImage e anche questo era cosa molto diversa. Entrambe non possedevano parametri di camera di tipo fotografico e il "dazio" del passaggio, loro, l'hanno già pagato stravolgendo il SW di partenza. NT con LW invece, questo dazio non l'ha mai fatto pagare alla propria utenza permettendole in sostanza di non dover imparare un nuovo SW, ...ma è pur vero che il rovescio della medaglia di questa scelta lo conosciamo un pò tutti

Detto questo, non ostante i vari ..."dazi" :D, che io sappia neanche questi Sw, se pur eccellenti, dispongono a tutt'oggi di una vera filosofia fotografica nei settaggi della loro camera. Dico questo perchè sono nello staff di MWR.it, che essendo lo sfaff d'un Sw multipiattaforma, annovera anche utenti sia Maya che XSI ed entrambe per ottenere questo tipo di settaggio di camera ricorrono a MWR. Al limite sarebbe da vedere se qualcosa in più in questo senso è prevista dall'engine fornito a corredo, ossia Mental Ray, (...anche se ne dubito, viste le ragioni citate).